Notice: This is a Juremy.com rendered version. Only European Union documents published in the Official Journal of the European Union are deemed authentic. Juremy accepts no responsibility or liability whatsoever with regard to the content of this document.
Base data © European Union, 1998-2024. Postprocessed and marked-up data © 2019-2024 Juremy.com, all rights reserved.
Render version: 0.1, render date: 2024-07-24
Официален вестник
на Европейския съюз
BG
Jurnalul Ofícial
al Uniunii Europene
RO
Серия L
Seria L
2024/1689
12.7.2024
2024/1689
12.7.2024
РЕГЛАМЕНТ (ЕС) 2024/1689 НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ И НА СЪВЕТА
REGULAMENTUL (UE) 2024/1689 AL PARLAMENTULUI EUROPEAN ȘI AL CONSILIULUI
от 13 юни 2024 година
din 13 iunie 2024
за установяване на хармонизирани правила относно изкуствения интелект и за изменение на регламенти (ЕО) № 300/2008, (ЕС) № 167/2013, (ЕС) № 168/2013, (ЕС) 2018/858, (ЕС) 2018/1139 и (ЕС) 2019/2144 и директиви 2014/90/ЕС, (ЕС) 2016/797 и (ЕС) 2020/1828 (Акт за изкуствения интелект)
de stabilire a unor norme armonizate privind inteligența artificială și de modificare a Regulamentelor (CE) nr. 300/2008, (UE) nr. 167/2013, (UE) nr. 168/2013, (UE) 2018/858, (UE) 2018/1139 și (UE) 2019/2144 și a Directivelor 2014/90/UE, (UE) 2016/797 și (UE) 2020/1828 (Regulamentul privind inteligența artificială)
(текст от значение за ЕИП)
(Text cu relevanță pentru SEE)
ЕВРОПЕЙСКИЯТ ПАРЛАМЕНТ И СЪВЕТЪТ НА ЕВРОПЕЙСКИЯ СЪЮЗ,
PARLAMENTUL EUROPEAN ȘI CONSILIUL UNIUNII EUROPENE,
като взеха предвид Договора за функционирането на Европейския съюз, и по-специално членове 16 и 114 от него,
având în vedere Tratatul privind funcționarea Uniunii Europene, în special articolele 16 și 114,
като взеха предвид предложението на Европейската комисия,
având în vedere propunerea Comisiei Europene,
след предаване на проекта на законодателния акт на националните парламенти,
după transmiterea proiectului de act legislativ către parlamentele naționale,
като взеха предвид становището на Европейския икономически и социален комитет (1),
având în vedere avizul Comitetului Economic și Social European (1),
като взеха предвид становището на Европейската централна банка (2),
având în vedere avizul Băncii Centrale Europene (2),
като взеха предвид становището на Комитета на регионите (3),
având în vedere avizul Comitetului Regiunilor (3),
в съответствие с обикновената законодателна процедура (4),
hotărând în conformitate cu procedura legislativă ordinară (4),
като имат предвид, че:
întrucât:
(1)
Целта на настоящия регламент е да се подобри функционирането на вътрешния пазар чрез установяване на единна правна рамка, по-специално за разработването, пускането на пазара, пускането в действие и използването на системи с изкуствен интелект (наричани по-долу „системи с ИИ“) в Съюза, в съответствие с ценностите на Съюза, да се насърчи навлизането на ориентиран към човека и надежден изкуствен интелект (ИИ), като същевременно се гарантира високо равнище на защита на здравето, безопасността и основните права, залегнали в Хартата на основните права на Европейския съюз (наричана по-долу „Хартата“), включително демокрацията, принципите на правовата държава и опазването на околната среда, да се осигури защита срещу вредните последици от системите с ИИ в Съюза и да се подкрепят иновациите. С настоящия регламент се гарантира свободното трансгранично движение на стоки и услуги, основани на ИИ, като по този начин не се допуска държавите членки да налагат ограничения върху разработването, предлагането на пазара и използването на системи с ИИ, освен ако това не е изрично разрешено с настоящия регламент.
(1)
Scopul prezentului regulament este de a îmbunătăți funcționarea pieței interne prin stabilirea unui cadru juridic uniform, în special pentru dezvoltarea, introducerea pe piață, punerea în funcțiune și utilizarea de sisteme de inteligență artificială (sisteme de IA) în Uniune, în conformitate cu valorile Uniunii, de a promova adoptarea unei inteligențe artificiale (IA) de încredere și centrate pe factorul uman, asigurând în același timp un nivel ridicat de protecție a sănătății, a siguranței, a drepturilor fundamentale consacrate în Carta drepturilor fundamentale a Uniunii Europene (denumită în continuare „carta”), inclusiv a democrației, a statului de drept și a mediului, de a proteja împotriva efectelor dăunătoare ale sistemelor de IA în Uniune, precum și de a sprijini inovarea. Prezentul regulament asigură libera circulație transfrontalieră a bunurilor și serviciilor bazate pe IA, împiedicând astfel statele membre să impună restricții privind dezvoltarea, comercializarea și utilizarea sistemelor de IA, cu excepția cazului în care acest lucru este autorizat în mod explicit de prezentul regulament.
(2)
Настоящият регламент следва да се прилага в съответствие с ценностите на Съюза, залегнали в Хартата, като се улеснява защитата на физическите лица, предприятията, демокрацията, принципите на правовата държава и опазването на околната среда и същевременно се насърчават иновациите и заетостта и се спомага за превръщането на Съюза в лидер във възприемането на надежден ИИ.
(2)
Prezentul regulament ar trebui să se aplice în conformitate cu valorile Uniunii consacrate în cartă, facilitând protecția persoanelor fizice, a întreprinderilor, a democrației, a statului de drept și a mediului, stimulând în același timp inovarea și ocuparea forței de muncă și asigurând Uniunii o poziție de lider în adoptarea unei IA de încredere.
(3)
Системите с ИИ могат лесно да бъдат внедрени в най-различни сектори на икономиката и в много сфери на обществото, включително в трансграничен план, и да се ползват от свободно движение в целия Съюз. Някои държави членки вече са проучили възможността за приемане на национални правила, за да гарантират, че ИИ е надежден и безопасен и се разработва и използва в съответствие със задълженията, свързани с основните права. Различаващите се национални правила могат да доведат до разпокъсаност на вътрешния пазар и да намалят правната сигурност за операторите, които разработват, внасят или използват системи с ИИ. Ето защо, с цел да се осигури надежден ИИ, следва да се гарантира последователно и високо равнище на защита в целия Съюз, като същевременно се предотвратят различията, възпрепятстващи свободното движение, иновациите, внедряването и възприемането в рамките на вътрешния пазар на системи с ИИ и свързани с тях продукти и услуги, като за целта се предвидят еднакви задължения за операторите и се гарантира еднаква защита на императивните съображения от обществен интерес и на правата на лицата в рамките на целия вътрешен пазар на основание член 114 от Договора за функционирането на Европейския съюз (ДФЕС). Доколкото настоящият регламент съдържа специални правила за защита на физическите лица по отношение на обработването на лични данни във връзка с ограниченията за използването на системи с ИИ за дистанционна биометрична идентификация за правоохранителни цели, за използването на системи с ИИ за оценка на риска за физическите лица за правоохранителни цели и за използването на системи с ИИ за биометрично категоризиране за правоохранителни цели, е целесъобразно правното основание на настоящия регламент, във връзка с тези специални правила, да бъде член 16 ДФЕС. С оглед на тези специални правила и защитата съгласно член 16 ДФЕС е целесъобразно да се проведе консултация с Европейския комитет по защита на данните.
(3)
Sistemele de IA pot fi implementate cu ușurință într-o mare varietate de sectoare ale economiei și în multe părți ale societății, inclusiv la nivel transfrontalier, și pot circula cu ușurință în întreaga Uniune. Anumite state membre au explorat deja adoptarea unor norme naționale pentru a se asigura că IA este sigură și de încredere și că este dezvoltată și utilizată în conformitate cu obligațiile în materie de drepturi fundamentale. Divergențele dintre normele naționale pot duce la fragmentarea pieței interne și pot reduce gradul de securitate juridică pentru operatorii care dezvoltă, importă sau utilizează sisteme de IA. Prin urmare, ar trebui să se asigure un nivel ridicat și consecvent de protecție în întreaga Uniune pentru a se obține o IA de încredere, iar divergențele care împiedică libera circulație, inovarea, implementarea și adoptarea sistemelor de IA și a produselor și serviciilor conexe în cadrul pieței interne ar trebui să fie prevenite, prin stabilirea unor obligații uniforme pentru operatori și prin garantarea protecției uniforme a motivelor imperative de interes public major și a drepturilor persoanelor în întreaga piață internă, în temeiul articolului 114 din Tratatul privind funcționarea Uniunii Europene (TFUE). În măsura în care prezentul regulament conține norme specifice de protecție a persoanelor fizice în contextul prelucrării datelor cu caracter personal, referitoare la restricțiile de utilizare a sistemelor de IA pentru identificarea biometrică la distanță în scopul aplicării legii, la utilizarea sistemelor de IA pentru evaluarea riscurilor persoanelor fizice în scopul aplicării legii și la utilizarea sistemelor de IA de clasificare biometrică în scopul aplicării legii, este oportun ca prezentul regulament să se întemeieze, în ceea ce privește normele specifice respective, pe articolul 16 din TFUE. Având în vedere normele specifice respective și recurgerea la articolul 16 din TFUE, este oportun să se consulte Comitetul european pentru protecția datelor.
(4)
ИИ е бързо развиваща се съвкупност от технологии, които допринасят за извличането на множество икономически, екологични и обществени ползи по протежение на целия спектър от стопански сектори и социални дейности. Като подобрява прогнозирането, оптимизира операциите и разпределянето на ресурсите и персонализира цифровите решения, които са на разположение на физическите лица и организациите, използването на ИИ може да осигури ключови конкурентни предимства за предприятията и да спомогне за постигането на социално и екологично благоприятни резултати, например в областта на здравеопазването, селското стопанство, безопасността на храните, образованието и обучението, медиите, спорта, културата, управлението на инфраструктурата, енергетиката, транспорта и логистиката, публичните услуги, сигурността, правосъдието, ресурсната и енергийната ефективност, мониторинга на околната среда, опазването и възстановяването на биоразнообразието и екосистемите, както и смекчаването на последиците от изменението на климата и адаптирането към него.
(4)
IA este o familie de tehnologii cu evoluție rapidă, care contribuie la o gamă largă de beneficii economice, de mediu și societale în întregul spectru de industrii și activități sociale. Prin îmbunătățirea previziunilor, optimizarea operațiunilor și a alocării resurselor, precum și prin personalizarea soluțiilor digitale disponibile pentru persoane fizice și organizații, utilizarea IA poate oferi avantaje concurențiale esențiale întreprinderilor și poate sprijini obținerea de rezultate benefice din punct de vedere social și al mediului, în domenii precum îngrijirile de sănătate, agricultura, siguranța alimentară, educația și formarea, mass-media, sportul, cultura, gestionarea infrastructurii, energia, transporturile și logistica, serviciile publice, securitatea, justiția, eficiența energetică și a utilizării resurselor, monitorizarea mediului, conservarea și refacerea biodiversității și ecosistemelor, precum și atenuarea schimbărilor climatice și adaptarea la acestea.
(5)
Същевременно, в зависимост от обстоятелствата по отношение на конкретното му приложение, използване и равнище на технологично развитие, ИИ може да доведе до рискове и да накърни обществените интереси и основните права, защитени от правото на Съюза. Тези вреди могат да бъдат имуществени или неимуществени, включително физически, психически, обществени или икономически.
(5)
În același timp, în funcție de circumstanțele legate de aplicarea și utilizarea sa specifică, precum și de nivelul său specific de dezvoltare tehnologică, IA poate genera riscuri și poate aduce prejudicii intereselor publice și drepturilor fundamentale care sunt protejate de dreptul Uniunii. Un astfel de prejudiciu ar putea fi material sau moral, inclusiv de natură fizică, psihologică, societală sau economică.
(6)
Предвид значителното въздействие, което ИИ може да окаже върху обществото, и необходимостта от изграждане на доверие, е от жизненоважно значение ИИ и неговата регулаторна рамка да бъдат разработени в съответствие с ценностите на Съюза, залегнали в член 2 от Договора за Европейския съюз (ДЕС), и основните права и свободи, залегнали в Договорите и, съгласно член 6 ДЕС, в Хартата. Като предварително условие ИИ следва да бъде технология, ориентирана към човека. Той следва да служи като инструмент за хората, като крайната цел е да се повиши тяхното благосъстояние.
(6)
Având în vedere impactul major pe care IA îl poate avea asupra societății și necesitatea de a genera încredere, este esențial ca IA și cadrul său de reglementare să fie dezvoltate în concordanță cu valorile Uniunii consacrate la articolul 2 din Tratatul privind Uniunea Europeană (TUE) și cu drepturile și libertățile fundamentale consacrate în tratate și, potrivit articolului 6 din TUE, în cartă. Ca o condiție prealabilă, IA ar trebui să fie o tehnologie centrată pe factorul uman. Aceasta ar trebui să le servească oamenilor ca un instrument, cu scopul final de a le spori bunăstarea.
(7)
За да се гарантира последователно и високо равнище на защита на обществените интереси по отношение на здравето, безопасността и основните права, следва да бъдат установени общи правила за високорисковите системи с ИИ. Тези правила следва да бъдат в съответствие с Хартата, да бъдат недискриминационни и да са в съответствие с международните търговски ангажименти на Съюза. Освен това те следва да са съобразени с Европейската декларация относно цифровите права и принципи за цифровото десетилетие и Насоките относно етичните аспекти за надежден ИИ на експертната група на високо равнище по въпросите на изкуствения интелект (ЕГВР ИИ).
(7)
Pentru a asigura un nivel consecvent și ridicat de protecție a intereselor publice în ceea ce privește sănătatea, siguranța și drepturile fundamentale, ar trebui să fie stabilite norme comune pentru sistemele de IA cu grad ridicat de risc. Normele respective ar trebui să fie în concordanță cu carta și ar trebui să fie nediscriminatorii și în conformitate cu angajamentele comerciale internaționale ale Uniunii. De asemenea, ele ar trebui să țină seama de Declarația europeană privind drepturile și principiile digitale pentru deceniul digital și de Orientările în materie de etică pentru o IA fiabilă ale Grupului independent de experți la nivel înalt privind inteligența artificială.
(8)
Поради това е необходима правна рамка на Съюза, с която да се установят хармонизирани правила относно ИИ, за да се насърчи разработването, използването и навлизането на ИИ на вътрешния пазар, и която същевременно да осигурява високо равнище на защита на обществените интереси, например здравето и безопасността, и защитата на основните права, включително демокрацията, принципите на правовата държава и опазването на околната среда, признати и защитени от правото на Съюза. За постигането на тази цел следва да бъдат установени правила, уреждащи пускането на пазара, пускането в действие и използването на някои системи с ИИ, и по този начин да се гарантира безпрепятственото функциониране на вътрешния пазар и да се даде възможност на тези системи да се ползват от принципа на свободно движение на стоки и услуги. Тези правила следва да бъдат ясни и надеждни по отношение на защитата на основните права, да благоприятстват нови иновативни решения и да дават възможност за изграждане на европейска екосистема от публични и частни участници, които да създават системи с ИИ в съответствие с ценностите на Съюза и да отключват потенциала на цифровата трансформация във всички региони на Съюза. С установяването на такива правила, както и на мерки в подкрепа на иновациите с отделяне на специално внимание на малките и средните предприятия (МСП), включително новосъздадените предприятия, настоящият регламент подкрепя целта за насърчаване на европейския подход към ИИ, ориентиран към човека, и целта на Съюза да бъде световен лидер в разработването на сигурен, надежден и етичен ИИ, както бе посочено от Европейския съвет (5), и гарантира защитата на етичните принципи, както изрично бе поискано от Европейския парламент (6).
(8)
Prin urmare, este necesar un cadru juridic al Uniunii care să stabilească norme armonizate privind IA pentru a încuraja dezvoltarea, utilizarea și adoptarea pe piața internă a IA și care să asigure, în același timp, un nivel ridicat de protecție a intereselor publice, cum ar fi sănătatea și siguranța, și protecția drepturilor fundamentale, inclusiv a democrației, a statului de drept și a mediului, astfel cum sunt recunoscute și protejate de dreptul Uniunii. Pentru atingerea acestui obiectiv, ar trebui să fie stabilite norme care să reglementeze introducerea pe piață, punerea în funcțiune și utilizarea anumitor sisteme de IA, asigurând astfel buna funcționare a pieței interne și permițând sistemelor respective să beneficieze de principiul liberei circulații a bunurilor și a serviciilor. Normele respective ar trebui să fie clare și solide în ceea ce privește protejarea drepturilor fundamentale, sprijinind noile soluții inovatoare, permițând unui ecosistem european de actori publici și privați să creeze sisteme de IA în conformitate cu valorile Uniunii și deblocând potențialul transformării digitale în toate regiunile Uniunii. Prin stabilirea normelor respective, precum și a unor măsuri de susținere a inovării cu un accent special pe întreprinderile mici și mijlocii (IMM), inclusiv pe întreprinderile nou-înființate, prezentul regulament sprijină obiectivul de promovare a abordării europene centrate pe factorul uman față de IA și de poziționare ca lider mondial în dezvoltarea unei IA sigure, de încredere și etice, astfel cum a afirmat Consiliul European (5), și asigură protecția principiilor etice, astfel cum a solicitat în mod expres Parlamentul European (6).
(9)
Следва да бъдат установени хармонизирани правила, приложими за пускането на пазара, пускането в действие и използването на високорискови системи с ИИ, в съответствие с Регламент (ЕО) № 765/2008 на Европейския парламент и на Съвета (7), Решение № 768/2008/ЕО на Европейския парламент и на Съвета (8) и Регламент (ЕС) 2019/1020 на Европейския парламент и на Съвета (9) (наричани по-долу „новата законодателна рамка“). Хармонизираните правила, установени в настоящия регламент, следва да се прилагат във всички сектори и, в съответствие с новата законодателна рамка, следва да не засягат действащото право на Съюза, по-специално в областта на защитата на данните, защитата на потребителите, основните права, заетостта, защитата на работниците и безопасността на продуктите, което настоящият регламент допълва. В резултат на това всички права и правни средства за защита, предвидени в това право на Съюза в интерес на потребителите и други лица, върху които системите с ИИ могат да окажат отрицателно въздействие, включително по отношение на обезщетението за евентуални вреди съгласно Директива 85/374/ЕИО на Съвета (10), остават незасегнати и напълно приложими. Наред с това, в контекста на заетостта и защитата на работниците, настоящият регламент не следва да засяга правото на Съюза в областта на социалната политика и националното трудово право, което е в съответствие с правото на Съюза, относно условията на заетост и труд, включително здравословните и безопасни условия на труд и отношенията между работодателите и работниците. Настоящият регламент не следва да засяга и упражняването на основни права, признати в държавите членки и на равнището на Съюза, включително правото или свободата на стачка или на други действия, обхванати от специалните системи на колективни трудови правоотношения в държавите членки, както и правото да се преговаря, да се сключват и прилагат колективни трудови договори или да се предприемат колективни действия в съответствие с националното право. Настоящият регламент не следва да засяга разпоредбите, насочени към подобряване на условията на труд при работа през платформа, предвидени в директива на Европейския парламент и на Съвета относно подобряването на условията на труд при работата през платформа. Освен това настоящият регламент има за цел да повиши ефективността на тези съществуващи права и правни средства за защита чрез установяване на конкретни изисквания и задължения, включително по отношение на прозрачността, техническата документация и поддържането на регистри по отношение на системите с ИИ. Наред с това задълженията, наложени на различните оператори, участващи във веригата за създаване на стойност в областта на ИИ съгласно настоящия регламент, следва да се прилагат, без да се засяга националното право, съвместимо с правото на Съюза и което води до ограничаване на използването на определени системи с ИИ, когато това право е извън приложното поле на настоящия регламент или преследва законни цели от обществен интерес, различни от преследваните с настоящия регламент. Например националното трудово право и правото за закрила на ненавършилите пълнолетие лица, а именно лицата на възраст под 18 години, като се вземе предвид Общ коментар № 25 (2021) на Комитета по правата на детето на Организацията на обединените нации относно правата на децата във връзка с цифровата среда, доколкото те не са конкретно насочени към системите с ИИ и преследват други законни цели от обществен интерес, не следва да бъдат засегнати от настоящия регламент.
(9)
Normele armonizate aplicabile introducerii pe piață, punerii în funcțiune și utilizării sistemelor de IA cu grad ridicat de risc ar trebui să fie stabilite în conformitate cu Regulamentul (CE) nr. 765/2008 al Parlamentului European și al Consiliului (7), cu Decizia nr. 768/2008/CE a Parlamentului European și a Consiliului (8) și cu Regulamentul (UE) 2019/1020 al Parlamentului European și al Consiliului (9) (denumite în continuare „noul cadru legislativ”). Normele armonizate prevăzute în prezentul regulament ar trebui să se aplice în toate sectoarele și, în conformitate cu noul cadru legislativ, ar trebui să nu aducă atingere dreptului în vigoare al Uniunii, în special în ceea ce privește protecția datelor, protecția consumatorilor, drepturile fundamentale, ocuparea forței de muncă, protecția lucrătorilor și siguranța produselor, cu care prezentul regulament este complementar. În consecință, toate drepturile și căile de atac prevăzute de dreptul Uniunii pentru consumatori și alte persoane asupra cărora sistemele de IA ar putea avea un impact negativ, inclusiv în ceea ce privește despăgubirea pentru eventuale prejudicii prevăzută în Directiva 85/374/CEE a Consiliului (10), rămân neafectate și pe deplin aplicabile. În plus, în contextul ocupării forței de muncă și al protecției lucrătorilor, prezentul regulament ar trebui așadar să nu aducă atingere dreptului Uniunii privind politica socială și dreptului național al muncii, în conformitate cu dreptul Uniunii, în ceea ce privește condițiile de angajare și de muncă, inclusiv securitatea și sănătatea în muncă și relația dintre angajatori și lucrători. De asemenea, prezentul regulament ar trebui să nu aducă atingere exercitării drepturilor fundamentale, astfel cum sunt recunoscute în statele membre și la nivelul Uniunii, inclusiv dreptului sau libertății de a intra în grevă sau de a întreprinde alte acțiuni care țin de sistemele specifice de relații de muncă din statele membre, precum și dreptului de a negocia, de a încheia și de a pune în aplicare contracte colective de muncă sau de a desfășura acțiuni colective în conformitate cu dreptul intern. Prezentul regulament ar trebui să nu aducă atingere dispozițiilor care vizează îmbunătățirea condițiilor de muncă în ceea ce privește munca prin intermediul platformelor, prevăzute într-o Directivă a Parlamentului European și a Consiliului privind îmbunătățirea condițiilor de muncă pentru lucrul prin intermediul platformelor. În plus, prezentul regulament urmărește să consolideze eficacitatea acestor drepturi și căi de atac existente prin stabilirea unor cerințe și obligații specifice, inclusiv în ceea ce privește transparența, documentația tehnică și păstrarea evidențelor sistemelor de IA. De asemenea, obligațiile impuse diferiților operatori implicați în lanțul valoric al IA în temeiul prezentului regulament ar trebui să se aplice fără a aduce atingere dreptului intern, în conformitate cu dreptul Uniunii, având ca efect limitarea utilizării anumitor sisteme de IA în cazul în care dreptul respectiv nu intră în domeniul de aplicare al prezentului regulament sau urmărește alte obiective legitime de interes public decât cele urmărite de prezentul regulament. De exemplu, dreptul intern al muncii și dreptul intern privind protecția minorilor, și anume a persoanelor cu vârsta sub 18 ani, ținând seama de Comentariul general nr. 25 (2021) la Convenția UNCRC cu privire la drepturile copiilor în legătură cu mediul digital, în măsura în care nu sunt specifice sistemelor de IA și urmăresc alte obiective legitime de interes public, ar trebui să nu fie afectate de prezentul regulament.
(10)
Основното право на защита на личните данни е гарантирано по-специално с регламенти (ЕС) 2016/679 (11) и (ЕС) 2018/1725 (12) на Европейския парламент и на Съвета и с Директива (ЕС) 2016/680 на Европейския парламент и на Съвета (13). Директива 2002/58/ЕО на Европейския парламент и на Съвета (14) допълнително защитава личния живот и поверителността на съобщенията, включително чрез установяване на условията за съхраняване на лични и нелични данни в крайно оборудване и достъп до такива данни от крайно оборудване. Посочените правни актове на Съюза осигуряват основата за устойчиво и отговорно обработване на данни, включително когато наборите от данни включват комбинация от лични и нелични данни. Настоящият регламент няма за цел да засегне прилагането на съществуващото право на Съюза, уреждащо обработването на лични данни, включително задачите и правомощията на независимите надзорни органи, компетентни да наблюдават спазването на тези инструменти. Освен това той не засяга задълженията на доставчиците и внедрителите на системи с ИИ в ролята им на администратори или обработващи лични данни, които произтичат от правото на Съюза или националното право относно защитата на личните данни, доколкото проектирането, разработването или използването на системи с ИИ включва обработването на лични данни. Целесъобразно е също така да се поясни, че субектите на данни продължават да се ползват с всички права и гаранции, предоставени им с посоченото право на Съюза, включително правата, свързани с изцяло автоматизираното вземане на индивидуални решения, включително профилирането. Хармонизираните правила относно пускането на пазара, пускането в действие и използването на системи с ИИ, установени съгласно настоящия регламент, следва да улеснят ефективното прилагане и да позволят упражняването на правата на субектите на данни и другите правни средства за защита, гарантирани с правото на Съюза в областта на защитата на личните данни, и на други основни права.
(10)
Dreptul fundamental la protecția datelor cu caracter personal este protejat în special de Regulamentele (UE) 2016/679 (11) și (UE) 2018/1725 (12) ale Parlamentului European și ale Consiliului și de Directiva (UE) 2016/680 a Parlamentului European și a Consiliului (13). Directiva 2002/58/CE a Parlamentului European și a Consiliului (14) protejează, în plus, viața privată și confidențialitatea comunicațiilor, inclusiv prin faptul că prevede condiții pentru stocarea și accesarea pe echipamente terminale a oricăror date cu și fără caracter personal. Respectivele acte legislative ale Uniunii asigură temeiul prelucrării durabile și responsabile a datelor, inclusiv atunci când seturile de date conțin un amestec de date cu caracter personal și date fără caracter personal. Prezentul regulament nu urmărește să aducă atingere aplicării dreptului în vigoare al Uniunii care reglementează prelucrarea datelor cu caracter personal, nici sarcinilor și competențelor autorităților de supraveghere independente care sunt competente să monitorizeze respectarea instrumentelor respective. Prezentul regulament nu aduce atingere nici obligațiilor furnizorilor și implementatorilor de sisteme de IA în rolul lor de operatori de date sau de persoane împuternicite de operatori, care decurg din dreptul Uniunii sau din dreptul național privind protecția datelor cu caracter personal, în măsura în care proiectarea, dezvoltarea sau utilizarea sistemelor de IA implică prelucrarea de date cu caracter personal. De asemenea, este oportun să se clarifice că persoanele vizate continuă să beneficieze de toate drepturile și garanțiile care le sunt acordate de dreptul Uniunii, printre care se numără drepturile legate de procesul decizional individual complet automatizat, inclusiv crearea de profiluri. Normele armonizate pentru introducerea pe piață, punerea în funcțiune și utilizarea sistemelor de IA instituite în temeiul prezentului regulament ar trebui să faciliteze punerea în aplicare efectivă și să permită exercitarea drepturilor persoanelor vizate și a altor căi de atac garantate în temeiul dreptului Uniunii privind protecția datelor cu caracter personal și a altor drepturi fundamentale.
(11)
Настоящият регламент следва да не засяга разпоредбите относно отговорността на доставчиците на посреднически услуги, установени в Регламент (ЕС) 2022/2065 на Европейския парламент и на Съвета (15).
(11)
Prezentul regulament ar trebui să nu aducă atingere dispozițiilor privind răspunderea furnizorilor de servicii intermediare prevăzute în Regulamentul (UE) 2022/2065 al Parlamentului European și al Consiliului (15).
(12)
Понятието „система с ИИ“ в настоящия регламент следва да бъде ясно определено и тясно съгласувано с резултатите от работата на международни организации в областта на ИИ, за да се гарантира правна сигурност и да се улесни сближаването и широкото приемане в международен план, като същевременно се осигури гъвкавост с цел да се реагира на бързото технологично развитие в тази област. Освен това определението следва да се основава на ключови характеристики на системите с ИИ, които ги отличават от по-прости традиционни софтуерни системи или подходи за програмиране, и не следва да обхваща системи, които се основават на правилата, определени единствено от физически лица за автоматично изпълнение на операциите. Ключова характеристика на системите с ИИ е тяхната способност да правят изводи. Тази способност да се правят изводи се отнася до процеса на получаване на резултати, например прогнози, съдържание, препоръки или решения, които могат да повлияят на физическата и виртуалната среда, както и до способността на системите с ИИ да извличат модели или алгоритми, или и двете, от входяща информация или данни. Техниките, даващи възможност да се правят изводи при изграждането на системи с ИИ, включват подходи за машинно обучение, при които те се учат от данните как да постигнат определени цели, както и основани на логика и знания подходи, при които достигат до изводи от кодирани знания или символично представяне на задачата, която трябва да бъде решена. Способността на дадена система с ИИ да прави изводи надхвърля основната обработка на данни, като дава възможност за обучение, разсъждение или моделиране. Понятието „машинно базиран“ се отнася до факта, че системите с ИИ работят с помощта на машини. С позоваването на явни или подразбиращи цели се подчертава, че системите с ИИ могат да работят в съответствие с ясно определени или с подразбиращи се цели. Целите на дадена система с ИИ може да се различават от предназначението на системата с ИИ в специфичен контекст. За целите на настоящия регламент под „среда“ следва да се разбира контекстът, в който функционират системите с ИИ, а резултатите, генерирани от системата с ИИ, отразяват различни функции, изпълнявани от системите с ИИ, и включват прогнози, съдържание, препоръки или решения. Системите с ИИ са проектирани да функционират с различна степен на автономност, което означава, че те разполагат с известна степен на независимост на действията от участието на човека и на способност за работа без човешка намеса. Адаптивността, която дадена система с ИИ би могла да прояви след внедряването ѝ, се отнася до способностите за самообучение, които позволяват на системата да се променя по време на нейното използване. Системите с ИИ могат да се използват самостоятелно или като компонент на продукт, независимо дали системата е физически интегрирана в продукта (вградена), или обслужва функционалността на продукта, без да бъде интегрирана в него (невградена).
(12)
Noțiunea de „sistem de IA” din prezentul regulament ar trebui să fie definită în mod clar și ar trebui să fie aliniată îndeaproape la lucrările organizațiilor internaționale care își desfășoară activitatea în domeniul IA, pentru a asigura securitatea juridică și a facilita convergența internațională și acceptarea pe scară largă, oferind în același timp flexibilitatea necesară pentru a ține seama de evoluțiile tehnologice rapide din acest domeniu. În plus, definiția ar trebui să se bazeze pe caracteristicile esențiale ale sistemelor de IA, care le diferențiază de sistemele software sau abordările de programare tradiționale mai simple, și nu ar trebui să acopere sistemele care se bazează pe reguli definite exclusiv de persoane fizice pentru a executa în mod automat anumite operațiuni. O caracteristică esențială a sistemelor de IA este capabilitatea lor de a realiza deducții. Această capabilitate se referă la procesul de obținere a rezultatelor, cum ar fi previziuni, conținut, recomandări sau decizii, care pot influența mediile fizice și virtuale, precum și la capabilitatea sistemelor de IA de a deriva modele sau algoritmi, sau ambele, din date sau din datele de intrare. Printre tehnicile folosite în timpul conceperii unui sistem de IA care fac posibilă realizarea de deducții se numără abordările bazate pe învățarea automată, care presupun a învăța, pe baza datelor, cum pot fi atinse anumite obiective, și abordările bazate pe logică și pe cunoaștere, care presupun realizarea de deducții pornind de la cunoștințe codificate sau de la reprezentarea simbolică a sarcinii de rezolvat. Capacitatea unui sistem de IA de a realiza deducții depășește simpla prelucrare de date, făcând posibile învățarea, raționamentul sau modelarea. Termenul „bazat pe calculator” se referă la faptul că sistemele de IA rulează pe calculatoare. Trimiterea la obiective explicite sau implicite subliniază faptul că sistemele de IA pot funcționa în conformitate cu obiective definite explicite sau cu obiective implicite. Obiectivele sistemului de IA pot fi diferite de scopul preconizat al sistemului de IA într-un context specific. În sensul prezentului regulament, mediile ar trebui să fie înțelese ca fiind contextele în care funcționează sistemele de IA, în timp ce rezultatele generate de sistemele de IA reflectă diferitele funcții îndeplinite de acestea și includ previziuni, conținut, recomandări sau decizii. Sistemele de IA sunt concepute pentru a funcționa cu diferite niveluri de autonomie, ceea ce înseamnă că au un anumit grad de independență a acțiunilor față de implicarea umană și anumite capabilități de a funcționa fără intervenție umană. Adaptabilitatea de care un sistem de IA ar putea da dovadă după implementare se referă la capabilitățile de autoînvățare, care permit sistemului să se modifice în timpul utilizării. Sistemele de IA pot fi utilizate în mod independent sau ca o componentă a unui produs, indiferent dacă sistemul este integrat fizic în produs (încorporat) sau dacă servește funcționalității produsului fără a fi integrat în acesta (neîncorporat).
(13)
Понятието „внедрител“, посочено в настоящия регламент, следва да се тълкува като всяко физическо или юридическо лице, включително публичен орган, агенция или друга структура, които използват система с ИИ, върху която упражняват контрол, с изключение на случаите, когато системата с ИИ се използва в процеса на лична непрофесионална дейност. В зависимост от вида на системата с ИИ използването на системата може да засегне лица, различни от внедрителя.
(13)
Noțiunea de „implementator” menționată în prezentul regulament ar trebui să fie interpretată ca făcând referire la orice persoană fizică sau juridică, inclusiv la o autoritate publică, o agenție sau un alt organism, care utilizează un sistem de IA aflat sub autoritatea sa, cu excepția cazului în care sistemul de IA este utilizat în cursul unei activități personale, fără caracter profesional. În funcție de tipul de sistem de IA, utilizarea sistemului poate afecta alte persoane decât implementatorul.
(14)
Понятието „биометрични данни“, посочено в настоящия регламент, следва да се тълкува с оглед на понятието за биометрични данни съгласно определението в член 4, точка 14 от Регламент (ЕС) 2016/679, член 3, точка 18 от Регламент (ЕС) 2018/1725 и член 3, точка 13 от Директива (ЕС) 2016/680. Биометричните данни могат да позволят удостоверяване на самоличността, идентифициране или категоризиране на физически лица, както и разпознаване на емоции на физически лица.
(14)
Noțiunea de „date biometrice” utilizată în prezentul regulament ar trebui să fie interpretată în concordanță cu noțiunea de „date biometrice”, astfel cum este definită la articolul 4 punctul 14 din Regulamentul (UE) 2016/679, la articolul 3 punctul 18 din Regulamentul (UE) 2018/1725 și la articolul 3 punctul 13 din Directiva (UE) 2016/680. Datele biometrice pot permite autentificarea, identificarea sau clasificarea persoanelor fizice, precum și recunoașterea emoțiilor acestora.
(15)
Понятието „биометрична идентификация“, посочено в настоящия регламент, следва да се определи като автоматизираното разпознаване на физически, физиологични и поведенчески характеристики на човека, например лице, движение на очите, форма на тялото, глас, ритъм и интонация на говора, походка, стойка, сърдечен ритъм, кръвно налягане, мирис и особености на натиска на клавиши, с цел установяване на самоличността на дадено лице чрез сравняване на биометрични данни на това лице със съхранени биометрични данни на лица в референтна база данни, независимо дали лицето е дало своето съгласие. Това изключва системите с ИИ, предназначени да бъдат използвани за биометрична проверка, която включва удостоверяване на самоличността, чиято единствена цел е да се потвърди, че конкретно физическо лице е лицето, за което се представя, и да се потвърди самоличността на физическо лице единствено за да се получи достъп до услуга, да се отключи устройство или да се придобие сигурен достъп до помещения.
(15)
Noțiunea de „identificare biometrică” menționată în prezentul regulament ar trebui să fie definită drept recunoașterea automată a unor trăsături umane fizice, fiziologice și comportamentale, precum fața, mișcările ochilor, forma corpului, vocea, intonația, mersul, postura, frecvența cardiacă, tensiunea arterială, mirosul, particularitățile de tastare, în scopul de a stabili identitatea unei persoane comparând datele biometrice ale persoanei respective cu date biometrice ale unor persoane stocate într-o bază de date de referință, indiferent dacă persoana în cauză și-a dat sau nu consimțământul. Nu se încadrează aici sistemele de IA destinate a fi utilizate pentru verificarea biometrică, care include autentificarea, al căror unic scop este de a confirma că o anumită persoană fizică este persoana care susține că este și de a confirma identitatea unei persoane fizice cu unicul scop de a-i permite accesul la un serviciu, deblocarea unui dispozitiv sau accesul securizat într-o incintă.
(16)
Понятието „биометрично категоризиране“, посочено в настоящия регламент, следва да се определи като отнасяне на физически лица към конкретни категории въз основа на техните биометрични данни. Подобни конкретни категории могат да са свързани с аспекти като пол, възраст, цвят на косата, цвят на очите, татуировки, поведенчески или личностни черти, език, религия, принадлежност към национално малцинство, сексуална или политическа ориентация. Това не включва системи за биометрично категоризиране, които представляват чисто спомагателна функция, неразривно свързана с друга търговска услуга, което означава, че тази функция не може по обективни технически причини да се използва без основната услуга и интегрирането на тази функция или функционалност не е средство за заобикаляне на приложимостта на правилата на настоящия регламент. Например филтрите за категоризиране на черти на лицето или тялото, използвани на онлайн места за търговия, биха могли да представляват такава спомагателна функция, тъй като могат да се използват само във връзка с основната услуга, която се състои в продажбата на продукт, като позволяват на потребителя да визуализира изображението на продукта върху себе си и му помагат да вземе решение при покупка. Филтрите, използвани в онлайн услугите на социалните мрежи, които категоризират черти на лицето или тялото, за да позволят на ползвателите да добавят или променят снимки или видеоклипове, също могат да се считат за спомагателна функция, тъй като такъв филтър не може да се използва без основната услуга при услугите на социалните мрежи, състояща се в споделяне на съдържание онлайн.
(16)
Noțiunea de „clasificare biometrică” menționată în prezentul regulament ar trebui să fie definită drept încadrarea persoanelor fizice în categorii specifice pe baza datelor lor biometrice. Astfel de categorii specifice se pot referi la aspecte precum sexul, vârsta, culoarea părului, culoarea ochilor, tatuajele, trăsăturile comportamentale sau de personalitate, limba, religia, apartenența la o minoritate națională, orientarea sexuală sau politică. Nu se încadrează aici sistemele de clasificare biometrică care constituie un element pur auxiliar legat intrinsec de un alt serviciu comercial, ceea ce înseamnă că, din motive tehnice obiective, elementul respectiv nu poate fi utilizat fără serviciul principal, iar integrarea acelui element sau a acelei funcționalități nu este un mijloc de a eluda aplicabilitatea normelor prezentului regulament. De exemplu, filtrele care clasifică caracteristicile faciale sau corporale utilizate pe piețele online ar putea constitui un astfel de element auxiliar, deoarece pot fi utilizate numai în legătură cu serviciul principal care constă în vânzarea unui produs, permițând consumatorului să vizualizeze cum ar arăta produsul pe el însuși și ajutându-l să ia o decizie de cumpărare. Filtrele utilizate în cadrul serviciilor de rețele de socializare care clasifică caracteristicile faciale sau corporale pentru a permite utilizatorilor să adauge sau să modifice fotografii sau materiale video ar putea, de asemenea, să fie considerate elemente auxiliare, deoarece un astfel de filtru nu poate fi utilizat fără serviciul principal de rețea de socializare care constă în partajarea de conținut online.
(17)
Понятието „система за дистанционна биометрична идентификация“, посочено в настоящия регламент, следва да се определи функционално като система с ИИ, предназначена за идентифициране на физически лица без тяхното активно участие, обикновено от разстояние, чрез сравняване на биометричните данни на дадено лице с биометричните данни, съдържащи се в референтна база данни, независимо от конкретните използвани технологии, процеси или видове биометрични данни. Такива системи за дистанционна биометрична идентификация обикновено се използват за едновременно наблюдение на множество лица или тяхното поведение с цел да се улесни значително идентифицирането на физически лица без тяхното активно участие. Това изключва системите с ИИ, предназначени да бъдат използвани за биометрична проверка, която включва удостоверяване на самоличността, чиято единствена цел е да се потвърди, че конкретно физическо лице е лицето, за което се представя, и да се потвърди самоличността на физическо лице единствено за да се получи достъп до услуга, да се отключи устройство или да се придобие сигурен достъп до помещения. Това изключване е обосновано от факта, че е вероятно такива системи да оказват незначително въздействие върху основните права на физическите лица в сравнение със системите за дистанционна биометрична идентификация, които могат да се използват за обработването на биометрични данни на голям брой лица без тяхното активно участие. При системите, работещи в реално време, снемането на биометрични данни, сравнението и идентификацията се осъществяват мигновено, почти мигновено или при всички случаи без значително забавяне. В това отношение не следва да има възможност за заобикаляне на правилата на настоящия регламент относно използването в реално време на съответните системи с ИИ и за целта в него следва да се уредят незначителните забавяния. Системите, работещи в реално време, предполагат използването на материал „на живо“ или „почти на живо“, като видеозапис от камера или друго устройство с подобна функция. За разлика от тях при функциониращите впоследствие системи биометричните данни вече са снети и сравняването и идентифицирането се извършват едва след значително забавяне. Това предполага материал, като снимки или видеозаписи от камери от вътрешна система за видеонаблюдение или от частни устройства, които са направени преди използването на системата по отношение на съответните физически лица.
(17)
Noțiunea de „sistem de identificare biometrică la distanță” menționată în prezentul regulament ar trebui să fie definită din punct de vedere funcțional ca fiind un sistem de IA destinat identificării persoanelor fizice fără implicarea activă a acestora, de regulă de la distanță, prin compararea datelor biometrice ale unei persoane cu datele biometrice conținute într-o bază de date de referință, indiferent de tehnologia specifică, procesele specifice sau tipurile specifice de date biometrice utilizate. Astfel de sisteme de identificare biometrică la distanță sunt utilizate, de regulă, pentru a percepe mai multe persoane sau comportamentul acestora simultan, cu scopul de a facilita în mod semnificativ identificarea persoanelor fizice fără implicarea lor activă. Nu se încadrează aici sistemele de IA destinate a fi utilizate pentru verificarea biometrică, care include autentificarea, al căror unic scop este de a confirma că o anumită persoană fizică este persoana care susține că este și de a confirma identitatea unei persoane fizice cu unicul scop de a-i permite accesul la un serviciu, deblocarea unui dispozitiv sau accesul securizat într-o incintă. Această excludere este justificată de faptul că, cel mai probabil, astfel de sisteme au un impact minor asupra drepturilor fundamentale ale persoanelor fizice în comparație cu sistemele de identificare biometrică la distanță care pot fi utilizate pentru prelucrarea datelor biometrice ale unui număr mare de persoane fără implicarea lor activă. În cazul sistemelor „în timp real”, captarea datelor biometrice, compararea și identificarea se efectuează instantaneu, aproape instantaneu sau, în orice caz, fără întârzieri semnificative. În acest sens, nu ar trebui să existe posibilități de eludare a normelor prezentului regulament privind utilizarea „în timp real” a sistemelor de IA în cauză prin prevederea unor întârzieri minore. Sistemele „în timp real” implică utilizarea de materiale „în direct” sau „aproape în direct”, cum ar fi înregistrări video generate de o cameră video sau de un alt dispozitiv cu funcționalitate similară. În schimb, în cazul sistemelor de identificare „ulterioară”, datele biometrice au fost deja captate, iar compararea și identificarea au loc numai după o întârziere semnificativă. În acest caz sunt utilizate materiale, cum ar fi imagini sau înregistrări video generate de camere de televiziune cu circuit închis sau de dispozitive private, care au fost generate înainte de utilizarea sistemului în legătură cu persoanele fizice în cauză.
(18)
Понятието „система за разпознаване на емоции“, посочено в настоящия регламент, следва да се определи като система с ИИ, чието предназначение е да определи или да прави изводи за емоциите или намеренията на физически лица въз основа на техните биометрични данни. Това понятие се отнася до емоции или намерения като щастие, тъга, гняв, изненада, отвращение, смущение, вълнение, срам, презрение, удовлетворение и забавление. Не се включват физически състояния като болка или умора, като например системи, използвани за установяване на състояние на умора при професионални пилоти или водачи с цел предотвратяване на произшествия. Освен това то не включва откриването на лесно забележими изражения, жестове или движения, освен ако те не се използват, за да се определят или да се правят изводи за емоциите. Тези изражения могат да бъдат основни изражения на лицето, като например намръщване или усмивка, или жестове като движение на ръцете или главата, или характеристики на човешкия глас, например висок глас или шепот.
(18)
Noțiunea de „sistem de recunoaștere a emoțiilor” menționată în prezentul regulament ar trebui să fie definită ca un sistem de IA destinat identificării sau deducerii emoțiilor sau intențiilor persoanelor fizice pe baza datelor lor biometrice. Noțiunea se referă la emoții sau intenții precum fericirea, tristețea, furia, surpriza, dezgustul, stânjeneala, entuziasmul, rușinea, disprețul, satisfacția și amuzamentul. Nu sunt incluse stări fizice, cum ar fi durerea sau oboseala, inclusiv, de exemplu, sistemele utilizate pentru detectarea stării de oboseală a piloților sau conducătorilor auto profesioniști în scopul prevenirii accidentelor. De asemenea, nu este inclusă simpla detectare a expresiilor, gesturilor sau mișcărilor evidente, decât dacă sunt utilizate pentru identificarea sau deducerea emoțiilor. Expresiile respective pot fi expresii faciale de bază, cum ar fi o încruntătură sau un zâmbet, ori gesturi, cum ar fi mișcarea mâinilor, a brațelor sau a capului, ori caracteristici ale vocii unei persoane, cum ar fi o voce ridicată sau vorbitul în șoaptă.
(19)
За целите на настоящия регламент понятието „обществено достъпно място“ следва да се разбира като означаващо всяко физическо място, което е достъпно за неопределен брой физически лица, независимо дали това място е частна или публична собственост и без значение от дейността, за която мястото може да се използва, като за търговия, например магазини, ресторанти, кафенета, за услуги, например банки, професионални дейности, хотелиерство и ресторантьорство, за спорт, например плувни басейни, спортни зали, стадиони, за транспорт, например автобусни, метро и железопътни гари, летища, транспортни средства, за развлечение, например кина, театри, музеи, концертни и конферентни зали, за отдих или други дейности, например отворени за обществено ползване пътища, площади, паркове, гори, детски площадки. Дадено място следва също така да се класифицира като обществено достъпно ако, независимо от потенциалния капацитет или ограниченията във връзка със сигурността, достъпът до него зависи от някои предварително определени условия, които могат да бъдат изпълнени от неопределен брой лица, като например закупуване на билет или друг превозен документ, предварителна регистрация или навършване на определена възраст. Дадено място не следва обаче да се счита за обществено достъпно, ако достъпът до него е ограничен до конкретни и определени физически лица чрез правото на Съюза или националното право, пряко свързано с обществената безопасност или сигурност, или чрез ясното волеизявление от страна на лицето, което е носител на съответните права по отношение на мястото. Единствено фактическата възможност за достъп, например незаключена врата или отворена порта в ограда, не означава, че мястото е обществено достъпно, при наличие на признаци или обстоятелства, които предполагат обратното, например знаци, забраняващи или ограничаващи достъпа. Помещенията на дадено дружество и фабрика, както и офисите и работните места, до които се предвижда достъп само за съответните служители и доставчици на услуги, не са обществено достъпни места. Обществено достъпните места не следва да включват затворите или зоните за граничен контрол. Други зони могат да се състоят както от зони, които са обществено достъпни, така и от зони, които не са обществено достъпни, като например коридорите в частни жилищни сгради, необходими за достъп до лекарски кабинет, или летищата. Онлайн пространствата не се включват, тъй като те не са физически места. Дали дадено място е достъпно за обществеността обаче следва да се определя отделно във всеки един случай, като се отчитат особеностите на отделния случай.
(19)
În sensul prezentului regulament, noțiunea de „spațiu accesibil publicului” ar trebui să fie înțeleasă ca referindu-se la orice spațiu fizic accesibil unui număr nedeterminat de persoane fizice, indiferent dacă spațiul în cauză este proprietate privată sau publică și indiferent de activitatea pentru care poate fi utilizat spațiul, cum ar fi comerț, de exemplu, magazine, restaurante, cafenele; servicii, de exemplu, bănci, activități profesionale, structuri de primire turistică; sport, de exemplu, piscine, săli de sport, stadioane; transporturi, de exemplu, stații de autobuz și de metrou, gări, aeroporturi, mijloace de transport; divertisment, de exemplu, cinematografe, teatre, muzee, săli de concerte și de conferințe, agrement sau altele, de exemplu, drumuri și piețe publice, parcuri, păduri, terenuri de joacă. Totodată, un spațiu ar trebui să fie clasificat ca fiind accesibil publicului și în cazul în care, indiferent de capacitatea potențială sau de restricțiile de securitate, accesul este supus anumitor condiții prestabilite, care pot fi îndeplinite de un număr nedeterminat de persoane, cum ar fi achiziționarea unui bilet sau a unui titlu de transport, înregistrarea prealabilă sau condiția de a avea o anumită vârstă. În schimb, un spațiu nu ar trebui să fie considerat accesibil publicului dacă accesul este limitat la anumite persoane fizice definite ca atare fie prin dreptul Uniunii, fie prin cel intern, în legătură directă cu siguranța sau securitatea publică sau prin manifestarea clară de voință a persoanei care deține autoritatea necesară asupra spațiului. Simpla posibilitate de acces (cum ar fi o ușă descuiată sau o poartă deschisă într-un gard) nu implică faptul că spațiul este accesibil publicului în prezența unor indicații sau circumstanțe care sugerează contrariul (de exemplu, semne care interzic sau restricționează accesul). Sediile întreprinderilor și ale fabricilor, precum și birourile și locurile de muncă care sunt destinate a fi accesate numai de către angajații și prestatorii de servicii competenți sunt spații care nu sunt accesibile publicului. Spațiile accesibile publicului nu ar trebui să includă închisorile sau punctele de control la frontieră. Alte spații pot cuprinde atât spații accesibile publicului, cât și spații care nu sunt accesibile publicului, cum ar fi holul unei clădiri rezidențiale private, care trebuie parcurs pentru a avea acces la un cabinet medical, sau un aeroport. Spațiile online nu sunt nici ele vizate, deoarece nu sunt spații fizice. Cu toate acestea, ar trebui să se stabilească de la caz la caz dacă un anumit spațiu este accesibil publicului, având în vedere particularitățile situației individuale în cauză.
(20)
За да се извлекат максимални ползи от системите с ИИ, като същевременно се защитават основните права, здравето и безопасността, и за да се даде възможност за демократичен контрол, грамотността в областта на ИИ следва да осигури на доставчиците, внедрителите и засегнатите лица необходимите понятия за вземане на информирани решения относно системите с ИИ. Тези понятия могат да се различават по отношение на съответния контекст и могат да включват разбиране на правилното прилагане на техническите елементи по време на етапа на разработване на системата с ИИ, мерките, които трябва да се прилагат по време на използването ѝ, подходящите начини за тълкуване на резултатите от системата с ИИ и, по отношение на засегнатите лица, знанията, необходими за разбиране на начина, по който решенията, взети с помощта на ИИ, ще окажат въздействие върху тях. В контекста на прилагането на настоящия регламент грамотността в областта на ИИ следва да осигури на всички съответни участници във веригата за създаване на стойност в областта на ИИ необходимата информация, за да се гарантира подходящото спазване и правилното му прилагане. Освен това широкото прилагане на мерки за повишаване на грамотността в областта на ИИ и въвеждането на подходящи последващи действия биха могли да допринесат за подобряване на условията на труд и в крайна сметка да поддържат процеса на утвърждаване и иновации на надеждния ИИ в Съюза. Европейският съвет по изкуствен интелект (наричан по-долу „Съветът по ИИ“) следва да подпомага Комисията с цел насърчаване на инструментите за грамотност в областта на ИИ, обществената осведоменост и разбирането на ползите, рисковете, гаранциите, правата и задълженията във връзка с използването на системи с ИИ. В сътрудничество със съответните заинтересовани страни Комисията и държавите членки следва да улеснят изготвянето на незадължителни кодекси за поведение с цел повишаване на грамотността в областта на ИИ сред лицата, занимаващи се с разработването, експлоатацията и използването на ИИ.
(20)
Pentru a obține beneficii cât mai mari de pe urma sistemelor de IA, protejând în același timp drepturile fundamentale, sănătatea și siguranța, și pentru a permite controlul democratic, alfabetizarea în domeniul IA ar trebui să le ofere furnizorilor, implementatorilor și persoanelor afectate noțiunile necesare pentru a lua decizii în cunoștință de cauză cu privire la sistemele de IA. Aceste noțiuni pot varia în funcție de contextul relevant și pot include înțelegerea aplicării corecte a elementelor tehnice în faza de dezvoltare a sistemului de IA, măsurile care trebuie aplicate în timpul utilizării sale, modalitățile adecvate de interpretare a rezultatelor sistemului de IA și, în cazul persoanelor afectate, cunoștințele necesare pentru a înțelege impactul pe care îl vor avea asupra lor deciziile luate cu ajutorul IA. În contextul aplicării prezentului regulament, alfabetizarea în domeniul IA ar trebui să ofere tuturor actorilor relevanți din lanțul valoric al IA informațiile necesare pentru a asigura conformitatea adecvată și aplicarea corectă a regulamentului. În plus, punerea în aplicare pe scară largă a măsurilor de alfabetizare în domeniul IA și introducerea unor acțiuni subsecvente adecvate ar putea contribui la îmbunătățirea condițiilor de muncă și, în cele din urmă, ar putea susține consolidarea unei IA de încredere și inovarea în acest domeniu în Uniune. Consiliul european pentru inteligența artificială (denumit în continuare „Consiliul IA”) ar trebui să sprijine Comisia pentru a promova instrumente de alfabetizare în domeniul IA, sensibilizarea publicului și înțelegerea beneficiilor, a riscurilor, a garanțiilor, a drepturilor și a obligațiilor care decurg din utilizarea sistemelor de IA. În cooperare cu părțile interesate relevante, Comisia și statele membre ar trebui să faciliteze elaborarea unor coduri de conduită voluntare pentru a promova alfabetizarea în domeniul IA în rândul persoanelor care se ocupă de dezvoltarea, exploatarea și utilizarea IA.
(21)
За да се гарантират равнопоставеност и ефективна защита на правата и свободите на физическите лица в целия Съюз, правилата, установени с настоящия регламент, следва да се прилагат недискриминационно за доставчиците на системи с ИИ, независимо дали са установени в Съюза, или в трета държава, както и за внедрителите на системи с ИИ, установени в Съюза.
(21)
Pentru a asigura condiții de concurență echitabile și o protecție eficace a drepturilor și libertăților persoanelor fizice în întreaga Uniune, normele stabilite prin prezentul regulament ar trebui să se aplice în mod nediscriminatoriu furnizorilor de sisteme de IA, indiferent dacă sunt stabiliți în Uniune sau într-o țară terță, precum și implementatorilor de sisteme de IA stabiliți în Uniune.
(22)
Поради своето цифрово естество някои системи с ИИ следва да попадат в обхвата на настоящия регламент дори когато не се пускат на пазара, не се пускат в действие и не се използват в Съюза. Такъв е например случаят с оператор, установен в Съюза, който сключва договор за определени услуги с оператор, установен в трета държава, във връзка с дейност, която ще се извършва от система с ИИ, която би била определена като високорискова. При тези обстоятелства системата с ИИ, използвана в трета държава от оператора, би могла да обработва данни, които са законно събрани в Съюза и прехвърлени от Съюза, и да предоставя на сключилия договор оператор в Съюза резултата от системата с ИИ, получен въз основа на тази обработка, без системата с ИИ да е била пускана на пазара, пусната в действие или използвана в Съюза. За да не се допусне заобикаляне на настоящия регламент и да се гарантира ефективна защита на физическите лица, намиращи се в Съюза, настоящият регламент следва също така да се прилага за доставчиците и внедрителите на системи с ИИ, установени в трета държава, доколкото резултатът, получен от тези системи, е предназначен да се използва в Съюза. Независимо от това, за да се вземат предвид съществуващите договорености и особените нужди от бъдещо сътрудничество с чуждестранни партньори, с които се обменят информация и доказателства, настоящият регламент не следва да се прилага за публични органи на трета държава и за международни организации, когато те действат в рамките на споразумения за сътрудничество или международни споразумения, сключени на равнището на Съюза или на национално равнище за сътрудничество в областта на правоприлагането и за съдебно сътрудничество със Съюза или с неговите държави членки, при условие че съответната трета държава или международна организация осигурява подходящи гаранции по отношение на защитата на основните права и свободи на лицата. Когато е приложимо, това може да обхваща дейности на субекти, на които третите държави са възложили изпълнението на конкретни задачи в подкрепа на това сътрудничество в областта на правоприлагането и съдебно сътрудничество. Такива рамки за сътрудничество или споразумения са установени двустранно между държави членки и трети държави или между Европейския съюз, Европол и други агенции на Съюза, трети държави и международни организации. Органите, компетентни за надзора на правоохранителните органи и органите на съдебната власт съгласно настоящия регламент, следва да преценят дали тези рамки за сътрудничество или международни споразумения включват подходящи гаранции по отношение на защитата на основните права и свободи на лицата. Националните органи и институциите, органите, службите и агенциите на Съюза, които получават и използват такива резултати в Съюза, продължават да са задължени да гарантират, че използването им е в съответствие с правото на Съюза. Когато тези международни споразумения се преразглеждат или се сключват нови в бъдеще, договарящите страни следва да положат максимални усилия да приведат тези споразумения в съответствие с изискванията на настоящия регламент.
(22)
Având în vedere natura lor digitală, anumite sisteme de IA ar trebui să intre în domeniul de aplicare al prezentului regulament chiar și atunci când nu sunt introduse pe piață, nu sunt puse în funcțiune și nu sunt utilizate în Uniune. Acesta este cazul, de exemplu, al unui operator stabilit în Uniune care contractează anumite servicii unui operator stabilit într-o țară terță în legătură cu o activitate care urmează să fie desfășurată de un sistem de IA care s-ar califica drept prezentând un grad ridicat de risc. În aceste circumstanțe, sistemul de IA utilizat de operator într-o țară terță ar putea prelucra date colectate în Uniune și transferate din Uniune în mod legal și ar putea furniza operatorului contractant din Uniune rezultatele produse de sistemul de IA respectiv ca urmare a prelucrării respective, fără ca sistemul de IA să fie introdus pe piață, pus în funcțiune sau utilizat în Uniune. Pentru a preveni eludarea prezentului regulament și pentru a asigura o protecție eficace a persoanelor fizice situate în Uniune, prezentul regulament ar trebui să se aplice, de asemenea, furnizorilor și implementatorilor de sisteme de IA care sunt stabiliți într-o țară terță, în măsura în care rezultatele produse de sistemele respective sunt destinate a fi utilizate în Uniune. Cu toate acestea, pentru a ține seama de acordurile existente și de nevoile speciale de cooperare viitoare cu partenerii străini cu care se fac schimburi de informații și probe, prezentul regulament nu ar trebui să se aplice autorităților publice ale unei țări terțe și organizațiilor internaționale atunci când acestea acționează în cadrul acordurilor internaționale sau de cooperare încheiate la nivelul Uniunii sau la nivel național pentru cooperarea în materie de aplicare a legii și cooperarea judiciară cu Uniunea sau cu statele membre, cu condiția ca țara terță sau organizația internațională relevantă să ofere garanții adecvate în ceea ce privește protecția drepturilor și libertăților fundamentale ale persoanelor. După caz, acest lucru s-ar putea aplica activităților desfășurate de entitățile cărora țările terțe le-au încredințat îndeplinirea unor sarcini specifice în sprijinul unei astfel de cooperări judiciare și în materie de aplicare a legii. Cadrele de cooperare sau acordurile sus-menționate au fost încheiate bilateral între statele membre și țări terțe sau între Uniunea Europeană, Europol sau alte agenții ale Uniunii, pe de o parte, și țări terțe sau organizații internaționale, pe de altă parte. Autoritățile competente cu supravegherea autorităților de aplicare a legii și a autorităților judiciare în temeiul prezentului regulament ar trebui să evalueze dacă respectivele cadre de cooperare sau acorduri internaționale includ garanții adecvate în ceea ce privește protecția drepturilor și libertăților fundamentale ale persoanelor. Autoritățile naționale destinatare și instituțiile, organele, oficiile și agențiile Uniunii care utilizează astfel de rezultate în Uniune rămân responsabile pentru asigurarea faptului că utilizarea lor respectă dreptul Uniunii. La revizuirea acordurilor internaționale respective sau la încheierea unor acorduri noi în viitor, părțile contractante ar trebui să depună toate eforturile pentru a alinia acordurile respective la cerințele prezentului regulament.
(23)
Настоящият регламент следва да се прилага и за институциите, органите, службите и агенциите на Съюза, когато те действат като доставчик или внедрител на система с ИИ.
(23)
Prezentul regulament ar trebui să se aplice, de asemenea, instituțiilor, organelor, oficiilor și agențiilor Uniunii atunci când acestea acționează în calitate de furnizor sau implementator al unui sistem de IA.
(24)
Ако и доколкото системите с ИИ се пускат на пазара, пускат в действие или използват, със или без изменение на тези системи, за военни цели и цели, свързани с отбраната или националната сигурност, те следва да бъдат изключени от обхвата на настоящия регламент, независимо от това какъв вид субект извършва тези дейности, например дали е публичен, или частен субект. По отношение на военните цели и целите, свързани с отбраната, това изключение е обосновано както от член 4, параграф 2 ДЕС, така и от специфичните особености на политиката за отбрана на държавите членки и общата политика за отбрана на Съюза, обхваната от дял V, глава 2 ДЕС, спрямо които се прилага международното публично право, което поради това е по-подходящата правна рамка за регулиране на системите с ИИ в контекста на употребата на смъртоносна сила и на други системи с ИИ в контекста на военните и отбранителните дейности. По отношение на целите на националната сигурност, изключението е обосновано както от факта, че националната сигурност продължава да бъде отговорност единствено на държавите членки в съответствие с член 4, параграф 2 ДЕС, така и от специфичното естество и оперативни нужди на дейностите в областта на националната сигурност и специалните национални правила, приложими за тези дейности. Въпреки това, ако система с ИИ, разработена, пусната на пазара, пусната в действие или използвана за военни цели и цели, свързани с отбраната или националната сигурност, се използва извън рамките на тези цели временно или се използва постоянно за други цели, например за граждански или хуманитарни цели и за правоохранителни цели или цели, свързани с обществената сигурност, тази система би попаднала в обхвата на настоящия регламент. В този случай субектът, използващ системата с ИИ за цели, различни от военни цели и цели, свързани с отбраната или националната сигурност, следва да гарантира съответствието на системата с ИИ с настоящия регламент, освен ако системата вече не е в съответствие с настоящия регламент. Системите с ИИ, пуснати на пазара или пуснати в действие за изключена цел, а именно военна цел и цел, свързана с отбраната или национална сигурност, и една или повече неизключени цели, например граждански цели или правоохранителни цели, попадат в обхвата на настоящия регламент и доставчиците на тези системи следва да гарантират спазването на настоящия регламент. В тези случаи фактът, че дадена система с ИИ може да попадне в обхвата на настоящия регламент, не следва да засяга възможността субектите, извършващи дейности в областта на националната сигурност и отбраната и военни дейности, независимо от вида на субекта, извършващ тези дейности, да използват за цели в областта на националната сигурност и отбраната и за военни цели системи с ИИ, чието използване е изключено от обхвата на настоящия регламент. Система с ИИ, пусната на пазара за граждански цели или за правоохранителни цели, която се използва, със или без изменение, за военни цели и за цели, свързани с отбраната или националната сигурност, не следва да попада в обхвата на настоящия регламент, независимо от вида на субекта, извършващ тези дейности.
(24)
În cazul și în măsura în care sistemele de IA sunt introduse pe piață, puse în funcțiune sau utilizate cu sau fără modificarea lor în scopuri militare, de apărare sau de securitate națională, sistemele respective ar trebui să fie excluse din domeniul de aplicare al prezentului regulament, indiferent de tipul de entitate care desfășoară activitățile respective, de exemplu dacă este o entitate publică sau privată. În ceea ce privește scopurile militare și de apărare, o astfel de excludere este justificată atât de articolul 4 alineatul (2) din TUE, cât și de particularitățile politicii de apărare a statelor membre și ale politicii de apărare comune a Uniunii, care intră sub incidența titlului V capitolul 2 din TUE; acestea fac obiectul dreptului internațional public, care este, prin urmare, cadrul juridic mai adecvat pentru reglementarea sistemelor de IA în contextul utilizării forței letale și a altor sisteme de IA în contextul activităților militare și de apărare. În ceea ce privește obiectivele de securitate națională, excluderea este justificată atât de faptul că securitatea națională rămâne responsabilitatea exclusivă a statelor membre în conformitate cu articolul 4 alineatul (2) din TUE, cât și de natura specifică și de nevoile operaționale ale activităților de securitate națională și de normele naționale specifice aplicabile activităților respective. Însă, în cazul în care un sistem de IA dezvoltat, introdus pe piață, pus în funcțiune sau utilizat în scopuri militare, de apărare sau de securitate națională este utilizat, temporar sau permanent, în afara acestui cadru în alte scopuri, de exemplu în scopuri civile sau umanitare, de aplicare a legii sau de securitate publică, un astfel de sistem ar intra în domeniul de aplicare al prezentului regulament. În acest caz, entitatea care utilizează sistemul de IA în alte scopuri decât cele militare, de apărare sau de securitate națională ar trebui să asigure conformitatea sistemului de IA cu prezentul regulament, cu excepția cazului în care sistemul respectă deja prezentul regulament. Sistemele de IA introduse pe piață sau puse în funcțiune pentru un scop care face obiectul excluderii, și anume în scop militar, de apărare sau de securitate națională, și pentru unul sau mai multe scopuri care nu fac obiectul excluderii, de exemplu în scopuri civile sau de aplicare a legii, intră în domeniul de aplicare al prezentului regulament, iar furnizorii sistemelor respective ar trebui să asigure conformitatea cu prezentul regulament. În aceste cazuri, faptul că un sistem de IA poate intra în domeniul de aplicare al prezentului regulament nu ar trebui să afecteze posibilitatea ca entitățile care desfășoară activități de securitate națională, de apărare și militare, indiferent de tipul de entitate care desfășoară activitățile respective, să utilizeze sisteme de IA în scopuri de securitate națională, militare și de apărare, utilizare care este exclusă din domeniul de aplicare al prezentului regulament. Un sistem de IA introdus pe piață în scopuri civile sau de aplicare a legii și care este utilizat cu sau fără modificări în scopuri militare, de apărare sau de securitate națională nu ar trebui să intre în domeniul de aplicare al prezentului regulament, indiferent de tipul de entitate care desfășoară activitățile respective.
(25)
Настоящият регламент следва да подкрепя иновациите, да зачита свободата на науката и не следва да е пречка за научноизследователската и развойната дейност. Поради това е необходимо от неговия обхват да бъдат изключени системите и моделите с ИИ, специално разработени и пуснати в действие единствено с цел научноизследователска и развойна дейност. Освен това е необходимо да се гарантира, че настоящият регламент не засяга по друг начин научноизследователската и развойната дейност в областта на системите или моделите с ИИ преди пускането им на пазара или пускането им в действие. По отношение на ориентираната към продуктите научноизследователска, изпитателна и развойна дейност във връзка със системи или модели с ИИ, разпоредбите на настоящия регламент също така не следва да се прилагат преди пускането в действие или пускането на пазара на тези системи и модели. Това изключение не засяга задължението за спазване на настоящия регламент, когато система с ИИ, попадаща в обхвата на настоящия регламент, е пусната на пазара или пусната в действие в резултат на такава научноизследователска и развойна дейност, както и прилагането на разпоредбите относно регулаторните лаборатории в областта на ИИ и изпитването в реални условия. Освен това, без да се засяга изключението по отношение на системите с ИИ, специално разработени и пуснати в действие единствено за целите на научноизследователската и развойната дейност, за всяка друга система с ИИ, която може да се използва за извършването на научноизследователска и развойна дейност, разпоредбите на настоящия регламент следва да продължат да се прилагат. Във всеки случай всяка научноизследователска и развойна дейност следва да се извършва в съответствие с признатите етични и професионални стандарти по отношение на научните изследвания и следва да се провежда в съответствие с приложимото право на Съюза.
(25)
Prezentul regulament ar trebui să sprijine inovarea, ar trebui să respecte libertatea științei și nu ar trebui să submineze activitatea de cercetare și dezvoltare. Prin urmare, este necesar să se excludă din domeniul său de aplicare sistemele și modelele de IA dezvoltate și puse în funcțiune în mod specific în scopul unic al cercetării și dezvoltării științifice. În plus, este necesar să se asigure că prezentul regulament nu afectează într-un alt mod activitatea de cercetare și dezvoltare științifică privind sistemele sau modelele de IA înainte de a fi introduse pe piață sau puse în funcțiune. În ceea ce privește activitatea de cercetare, testare și dezvoltare orientată spre produse aferentă sistemelor sau modelelor de IA, dispozițiile prezentului regulament nu ar trebui, de asemenea, să se aplice înainte ca aceste sisteme și modele să fie puse în funcțiune sau introduse pe piață. Această excludere nu aduce atingere obligației de a respecta prezentul regulament în cazul în care un sistem de IA aflat sub incidența prezentului regulament este introdus pe piață sau pus în funcțiune ca urmare a unei astfel de activități de cercetare și dezvoltare, și nici aplicării dispozițiilor privind spațiile de testare în materie de reglementare în domeniul IA și testarea în condiții reale. În plus, fără a aduce atingere excluderii sistemelor de IA dezvoltate și puse în funcțiune în mod specific în scopul unic al cercetării și dezvoltării științifice, orice alt sistem de IA care poate fi utilizat pentru desfășurarea oricărei activități de cercetare și dezvoltare ar trebui să facă în continuare obiectul dispozițiilor prezentului regulament. În orice caz, toate activitățile de cercetare și dezvoltare ar trebui să se desfășoare în conformitate cu standardele etice și profesionale recunoscute pentru cercetarea științifică, precum și în conformitate cu dreptul aplicabil al Uniunii.
(26)
За да се въведе пропорционален и ефективен набор от задължителни правила за системите с ИИ, следва да се прилага ясно определен подход, основан на риска. В рамките на този подход видът и съдържанието на правилата следва да се адаптират към интензитета и обхвата на рисковете, които системите с ИИ могат да породят. Поради това е необходимо да се забранят някои неприемливи практики в областта на ИИ, да се установят изисквания за високорисковите системи с ИИ и задължения за съответните оператори, както и да се установят задължения за прозрачност за някои системи с ИИ.
(26)
Pentru a introduce un set proporțional și eficace de norme obligatorii pentru sistemele de IA, ar trebui să fie urmată o abordare bazată pe riscuri clar definită. Această abordare ar trebui să adapteze tipul și conținutul unor astfel de norme la intensitatea și amploarea riscurilor pe care le pot genera sistemele de IA. Prin urmare, este necesar să se interzică anumite practici în domeniul IA care sunt inacceptabile, să se stabilească cerințe pentru sistemele de IA cu grad ridicat de risc și obligații pentru operatorii relevanți și să se stabilească obligații în materie de transparență pentru anumite sisteme de IA.
(27)
Въпреки че основаният на риска подход е основата за пропорционален и ефективен набор от задължителни правила, е важно да се припомнят Насоките относно етичните аспекти за надежден ИИ от 2019 г., разработени от независимата ЕГВР ИИ, определена от Комисията. В тези насоки ЕГВР ИИ е разработила седем необвързващи етични принципа за ИИ, които имат за цел да спомогнат да се гарантира, че ИИ е надежден и етичен. Седемте принципа включват човешки фактор и контрол; техническа стабилност и безопасност; неприкосновеност на личния живот и управление на данните; прозрачност; многообразие, недискриминация и справедливост; обществено и екологично благосъстояние; отчетност. Без да засягат правно обвързващите изисквания на настоящия регламент и на всички други приложими правни актове на Съюза, посочените насоки допринасят за разработването на съгласуван, надежден и ориентиран към човека ИИ в съответствие с Хартата и с ценностите, на които се основава Съюзът. Съгласно Насоките на ЕГВР ИИ човешки фактор и контрол означава, че системите с ИИ се разработват и използват като инструмент, който служи на хората, зачита човешкото достойнство и личната независимост и функционира така, че да може да се контролира и наблюдава от хората по подходящ начин. Техническа стабилност и безопасност означава, че системите с ИИ се разработват и използват по начин, който позволява стабилност в случай на проблеми и устойчивост срещу опити за промяна на използването или действието на системата с ИИ, така че да се даде възможност за незаконно използване от трети лица, и който свежда до минимум непреднамерените вреди. Неприкосновеност на личния живот и управление на данните означава, че системите с ИИ се разработват и използват в съответствие с правилата относно неприкосновеността на личния живот и защитата на данните, като същевременно се обработват данни, които отговарят на високи стандарти по отношение на качеството и целостта. Прозрачност означава, че системите с ИИ се разработват и използват по начин, който позволява подходяща проследимост и разбираемост, като същевременно хората се уведомяват, че комуникират или си взаимодействат със система с ИИ, и внедрителите надлежно се информират за способностите и ограниченията на тази система с ИИ, а засегнатите лица – за техните права. Многообразие, недискриминация и справедливост означава, че системите с ИИ се разработват и използват по начин, който включва различни участници и насърчава равния достъп, равенството между половете и културното многообразие, като същевременно се избягват дискриминационните въздействия и несправедливата предубеденост, които са забранени от правото на Съюза или националното право. Обществено и екологично благосъстояние означава, че системите с ИИ се разработват и използват по устойчив и екологосъобразен начин, както и така, че да са от полза за всички хора, като същевременно се наблюдават и оценяват дългосрочните въздействия върху отделните лица, обществото и демокрацията. Прилагането на тези принципи следва да бъде отразено, когато е възможно, при проектирането и използването на модели с ИИ. При всички случаи те следва да служат като основа за изготвянето на кодекси за поведение съгласно настоящия регламент. Всички заинтересовани страни, включително стопанските сектори, академичните среди, гражданското общество и организациите за стандартизация, се насърчават да вземат предвид, когато е целесъобразно, етичните принципи за разработването на незадължителни най-добри практики и стандарти.
(27)
Deși abordarea bazată pe riscuri reprezintă temelia pentru un set proporțional și eficace de norme obligatorii, este important să se reamintească Orientările în materie de etică pentru o IA fiabilă din 2019, elaborate de Grupul independent de experți la nivel înalt privind IA numit de Comisie. În orientările respective, grupul de experți a elaborat șapte principii etice fără caracter obligatoriu pentru IA, care sunt menite să contribuie la asigurarea faptului că IA este de încredere și că este solidă din punct de vedere etic. Cele șapte principii sunt: implicarea și supravegherea umană; robustețea tehnică și siguranța; respectarea vieții private și guvernanța datelor; transparența; diversitatea, nediscriminarea și echitatea; bunăstarea socială și de mediu și asumarea răspunderii. Fără a aduce atingere cerințelor obligatorii din punct de vedere juridic prevăzute în prezentul regulament și în orice alt act legislativ aplicabil al Uniunii, aceste orientări contribuie la conceperea unei IA coerente, de încredere și centrate pe factorul uman, în conformitate cu carta și cu valorile pe care se întemeiază Uniunea. Potrivit orientărilor Grupului de experți la nivel înalt privind IA, implicarea și supravegherea umană înseamnă că sistemele de IA sunt dezvoltate și utilizate ca un instrument ce servește oamenilor, respectă demnitatea umană și autonomia personală și funcționează într-un mod care poate fi controlat și supravegheat în mod corespunzător de către oameni. Robustețea tehnică și siguranța înseamnă că sistemele de IA sunt dezvoltate și utilizate într-un mod care asigură robustețea în caz de probleme și reziliența la încercările de a modifica utilizarea sau performanța sistemului de IA în vederea permiterii utilizării ilegale de către terți și care reduce la minimum prejudiciile neintenționate. Respectarea vieții private și guvernanța datelor înseamnă că sistemele de IA sunt dezvoltate și utilizate în conformitate cu normele privind protecția vieții private și a datelor și că, în același timp, se prelucrează date care respectă standarde ridicate de calitate și de integritate. Transparența înseamnă că sistemele de IA sunt dezvoltate și utilizate într-un mod care permite trasabilitatea și explicabilitatea adecvate, aducând totodată la cunoștința oamenilor faptul că interacționează sau comunică cu un sistem de IA și informând în mod corespunzător implementatorii cu privire la capabilitățile și limitele respectivului sistem de IA și persoanele afectate cu privire la drepturile lor. Diversitatea, nediscriminarea și echitatea înseamnă că sistemele de IA sunt dezvoltate și utilizate într-un mod care presupune implicarea a diverși actori și promovează accesul egal, egalitatea de gen și diversitatea culturală, evitând totodată efectele discriminatorii și prejudecățile inechitabile interzise prin dreptul Uniunii sau dreptul intern. Bunăstarea socială și de mediu înseamnă că sistemele de IA sunt dezvoltate și utilizate într-un mod durabil, care respectă mediul și care aduce beneficii tuturor ființelor umane, monitorizându-se și evaluându-se totodată efectele pe termen lung asupra persoanelor, a societății și a democrației. Aplicarea acestor principii ar trebui să fie transpusă, atunci când este posibil, în conceperea și utilizarea modelelor de IA. În orice caz, aceste principii ar trebui să servească drept bază pentru elaborarea codurilor de conduită în temeiul prezentului regulament. Toate părțile interesate, inclusiv industria, mediul academic, societatea civilă și organizațiile de standardizare, sunt încurajate să ia în considerare, după caz, principiile etice pentru dezvoltarea de bune practici și standarde voluntare.
(28)
Въпреки че ИИ има многобройни полезни приложения, с него може да се злоупотребява и той може да осигури нови и мощни инструменти за манипулативни и експлоататорски практики и практики за социален контрол. Тези практики са особено вредни и недобросъвестни и следва да бъдат забранени, тъй като противоречат на ценностите на Съюза за зачитане на човешкото достойнство, свободата, равенството, демокрацията и принципите на правовата държава, и основните права, залегнали в Хартата, включително правото на недискриминация, на защита на данните и на неприкосновеност на личния живот, както и правата на детето.
(28)
Pe lângă numeroasele utilizări benefice ale IA, aceasta poate fi utilizată și în mod abuziv și poate oferi instrumente noi și puternice pentru practici de manipulare, exploatare și control social. Astfel de practici sunt deosebit de nocive și abuzive și ar trebui să fie interzise deoarece contravin valorilor Uniunii privind respectarea demnității umane, a libertății, a egalității, a democrației și a statului de drept, precum și a drepturilor fundamentale consacrate în cartă, inclusiv dreptul la nediscriminare, la protecția datelor și la viața privată și drepturile copilului.
(29)
Манипулативните техники, използващи ИИ, могат да служат за склоняване на хората към нежелано поведение или за подвеждането им, като ги подтикват да вземат решения по начин, който подкопава и накърнява тяхната независимост, вземане на решения и свободен избор. Пускането на пазара, пускането в действие или използването на някои системи с ИИ с цел или последици, изразяващи се в съществено изменение на човешкото поведение, при което е вероятно да възникнат значителни вреди, по-специално оказващи достатъчно значимо неблагоприятно въздействие върху физическото или психологическото здраве или финансовите интереси, са особено опасни и поради това следва да бъдат забранени. Такива системи с ИИ използват компоненти, действащи на подсъзнанието, например стимули чрез изображения и аудио и видео стимули, които хората не могат да възприемат, тъй като тези стимули са отвъд човешкото възприятие, или други манипулативни или заблуждаващи техники, които подкопават или накърняват независимостта, вземането на решения или свободния избор така, че хората не осъзнават, че се използват такива техники, или дори когато го осъзнават, те все пак могат да бъдат заблудени или не са в състояние да ги контролират или да им устоят. Това може да бъде улеснено например от интерфейси мозък-машина или виртуална реалност, тъй като те позволяват по-висока степен на контрол върху това какви стимули се предоставят на хората, доколкото те могат съществено да променят поведението им по начин, който води до значителна вреда. Наред с това системите с ИИ могат да се възползват и по друг начин от уязвимостта на дадено лице или конкретна група лица поради тяхната възраст, увреждане по смисъла на Директива (ЕС) 2019/882 на Европейския парламенти и на Съвета (16) или конкретно социално или икономическо положение, което има вероятност да направи тези лица по-уязвими на експлоатация, като например лица, живеещи в крайна бедност, етнически или религиозни малцинства. Такива системи с ИИ могат да бъдат пуснати на пазара, пуснати в действие или използвани с цел или последици, изразяващи се в съществено изменение на поведението на дадено лице, и по начин, който причинява или има разумна вероятност да причини значителна вреда на това или на друго лице или групи лица, включително вреди, които могат да се натрупват с течение на времето, поради което следва да бъдат забранени. Може да не е възможно да се приеме, че е налице намерение за изменение на поведението, когато изменението се дължи на фактори, външни за системата с ИИ, които са извън контрола на доставчика или внедрителя, а именно фактори, които може да не са разумно предвидими и поради това да не е възможно доставчикът или внедрителят на системата с ИИ да ги смекчи. Във всеки случай не е необходимо доставчикът или внедрителят да има намерение да причини значителна вреда, при условие че тази вреда произтича от манипулативни или експлоататорски практики, използващи ИИ. Забраните за такива практики в областта на ИИ допълват разпоредбите, съдържащи се в Директива 2005/29/ЕО на Европейския парламент и на Съвета (17), по-специално за забрана при всички обстоятелства на нелоялните търговски практики, водещи до икономически или финансови вреди за потребителите, независимо дали са въведени чрез системи с ИИ, или по друг начин. Забраните за манипулативни и експлоататорски практики в настоящия регламент не следва да засягат законните практики при медицинско лечение, като например психологическо лечение на психично заболяване или физическа рехабилитация, когато тези практики се извършват в съответствие с приложимото право и приложимите медицински стандарти, например за изричното съгласие на лицата или техните законни представители. Освен това общоприетите и законни търговски практики, например в областта на рекламата, които са в съответствие с приложимото право, не следва сами по себе си да се считат за вредни манипулативни практики, използващи ИИ.
(29)
Tehnicile de manipulare bazate pe IA pot fi utilizate pentru a convinge anumite persoane să manifeste comportamente nedorite sau pentru a le înșela, împingându-le să ia decizii într-un mod care le subminează și le afectează autonomia, capacitatea decizională și libera alegere. Introducerea pe piață, punerea în funcțiune sau utilizarea anumitor sisteme de IA având drept obiectiv sau drept efect denaturarea semnificativă a comportamentului uman, caz în care este probabil să se producă prejudicii semnificative, mai ales cu efecte negative suficient de importante asupra sănătății fizice sau psihologice ori a intereselor financiare, sunt deosebit de periculoase și, prin urmare, ar trebui să fie interzise. Astfel de sisteme de IA implementează componente subliminale, cum ar fi stimuli audio, sub formă de imagini sau video, pe care persoanele nu le pot percepe întrucât stimulii respectivi depășesc percepția umană, sau alte tehnici manipulatoare sau înșelătoare care subminează sau afectează autonomia, capacitatea decizională sau libera alegere ale unei persoane în astfel de moduri încât oamenii nu sunt conștienți de astfel de tehnici sau, chiar dacă sunt conștienți de acestea, tot pot fi înșelați sau sunt incapabili să le controleze sau să li se opună. Acest lucru ar putea fi facilitat, de exemplu, de interfețele mașină-creier sau de realitatea virtuală, deoarece acestea permit un nivel mai ridicat de control asupra stimulilor prezentați persoanelor, în măsura în care acești stimuli pot denatura semnificativ comportamentul persoanelor într-un mod deosebit de dăunător. În plus, sistemele de IA pot exploata și în alte moduri vulnerabilitățile unei persoane sau ale unui anumit grup de persoane din cauza vârstei sau a dizabilității acestora în sensul Directivei (UE) 2019/882 a Parlamentului European și a Consiliului (16) sau din cauza unei situații sociale sau economice specifice care este susceptibilă să sporească vulnerabilitatea la exploatare a persoanelor respective, cum ar fi persoanele care trăiesc în sărăcie extremă sau care aparțin minorităților etnice sau religioase. Astfel de sisteme de IA pot fi introduse pe piață, puse în funcțiune sau utilizate având drept obiectiv sau drept efect denaturarea semnificativă a comportamentului unei persoane, într-un mod care cauzează sau este susceptibil în mod rezonabil să cauzeze prejudicii semnificative persoanei respective sau grupului respectiv ori unei alte persoane sau altor grupuri de persoane, inclusiv prejudicii care se pot acumula în timp, și, prin urmare, ar trebui să fie interzise. Este posibil să nu se poată presupune că există intenția de a denatura comportamentul în cazul în care denaturarea rezultă din factori externi sistemului de IA asupra cărora furnizorul sau implementatorul nu deține controlul, și anume factori care ar putea să nu fie prevăzuți în mod rezonabil și, prin urmare, să nu poată fi atenuați de către furnizorul sau implementatorul sistemului de IA. În orice caz, nu este necesar ca furnizorul sau implementatorul să aibă intenția de a cauza un prejudiciu semnificativ, cu condiția ca un astfel de prejudiciu să rezulte din practicile de manipulare sau de exploatare bazate pe IA. Interdicțiile privind astfel de practici în domeniul IA sunt complementare dispozițiilor cuprinse în Directiva 2005/29/CE a Parlamentului European și a Consiliului (17), în special faptul că practicile comerciale neloiale care conduc la prejudicii economice sau financiare pentru consumatori sunt interzise în toate circumstanțele, indiferent dacă sunt puse în aplicare prin intermediul sistemelor de IA sau în alt mod. Interdicțiile privind practicile de manipulare și exploatare prevăzute în prezentul regulament nu ar trebui să afecteze practicile legale în contextul tratamentului medical, cum ar fi tratamentul psihologic al unei boli mintale sau reabilitarea fizică, atunci când practicile respective se desfășoară în conformitate cu dreptul și cu standardele medicale aplicabile, de exemplu în ceea ce privește consimțământul explicit al persoanelor în cauză sau al reprezentanților lor legali. În plus, practicile comerciale comune și legitime, de exemplu în domeniul publicității, care respectă dreptul aplicabil nu ar trebui să fie considerate, în sine, ca reprezentând practici dăunătoare de manipulare bazate pe IA.
(30)
Следва да бъдат забранени системите за биометрично категоризиране, които се основават на биометрични данни на физическите лица, като например лицето или пръстовите отпечатъци на дадено лице, за да се направят заключения или изводи относно неговите политически възгледи, членство в синдикални организации, религиозни или философски убеждения, раса, сексуален живот или сексуална ориентация. Тази забрана не следва да обхваща законното обозначаване, филтриране или категоризиране на наборите от биометрични данни, получени в съответствие с правото на Съюза или националното право въз основа на биометрични данни, като например сортиране на изображения според цвета на косата или цвета на очите, които могат да се използват например в правоохранителната област.
(30)
Sistemele de clasificare biometrică care se bazează pe datele biometrice ale persoanelor fizice, cum ar fi fața sau amprentele digitale ale unei persoane, pentru a face presupuneri sau deducții cu privire la opiniile politice, apartenența la un sindicat, convingerile religioase sau filozofice, rasa, viața sexuală sau orientarea sexuală ale unei persoane ar trebui să fie interzise. Această interdicție nu ar trebui să se refere la etichetarea, filtrarea sau clasificarea legală, în funcție de datele biometrice, a seturilor de date biometrice obținute în conformitate cu dreptul Uniunii sau cu dreptul intern, cum ar fi sortarea imaginilor în funcție de culoarea părului sau de culoarea ochilor, care poate fi utilizată, de exemplu, în domeniul aplicării legii.
(31)
Системите с ИИ, осигуряващи социално оценяване на физически лица, извършено от публични или частни субекти, могат да доведат до дискриминационни резултати и изключване на определени групи. Те могат да нарушат правото на достойнство и недискриминация и ценностите на равенството и справедливостта. Подобни системи с ИИ оценяват или класифицират физически лица или групи от такива лица въз основа на множество данни, свързани с тяхното социално поведение в различен контекст, или известни, изведени или предполагаеми лични или личностни характеристики, през определен период от време. Социалната класация, получена от такива системи с ИИ, може да доведе до увреждащо или неблагоприятно третиране на физически лица или на цели групи от такива лица в социален контекст, който няма връзка с контекста, в който първоначално са били генерирани или събрани данните, или до увреждащо третиране, което е непропорционално или неоправдано с оглед на тежестта, която се отдава на тяхното социално поведение. Поради това системите с ИИ, които включват такива неприемливи практики за оценяване и водещи до вредни или неблагоприятни резултати, следва да бъдат забранени. Тази забрана не следва да засяга законните практики за оценяване на физически лица, извършвани за конкретна цел в съответствие с правото на Съюза или националното право.
(31)
Sistemele de IA care permit atribuirea unui punctaj social persoanelor fizice de către actori privați sau publici pot genera rezultate discriminatorii și excluderea anumitor grupuri. Acestea pot încălca dreptul la demnitate și nediscriminare, precum și valorile egalității și justiției. Astfel de sisteme de IA evaluează sau clasifică persoanele fizice sau grupurile de persoane pe baza mai multor puncte de date legate de comportamentul lor social în contexte multiple sau de caracteristici personale sau de personalitate cunoscute, deduse sau preconizate de-a lungul anumitor perioade de timp. Punctajul social obținut din astfel de sisteme de IA poate duce la un tratament prejudiciabil sau nefavorabil al persoanelor fizice sau al unor grupuri întregi de astfel de persoane în contexte sociale care nu au legătură cu contextul în care datele au fost inițial generate sau colectate sau la un tratament prejudiciabil care este disproporționat sau nejustificat în raport cu gravitatea comportamentului lor social. Sistemele de IA care implică astfel de practici inacceptabile de atribuire a unui punctaj și care conduc la astfel de rezultate prejudiciabile sau nefavorabile ar trebui, prin urmare, să fie interzise. Această interdicție nu ar trebui să afecteze practicile legale de evaluare a persoanelor fizice care sunt realizate într-un scop specific în conformitate cu dreptul Uniunii și cu dreptul național.
(32)
Използването на системи с ИИ за дистанционна биометрична идентификация в реално време на физически лица на обществено достъпни места за правоохранителни цели особено силно накърнява правата и свободите на засегнатите лица, доколкото то може да засегне личния живот на голяма част от населението, да породи усещане за постоянно наблюдение и косвено да действа разубеждаващо по отношение на упражняването на свободата на събранията и други основни права. Техническите неточности на системите с ИИ, предназначени за дистанционна биометрична идентификация на физически лица, могат да доведат до опорочени от предубеденост резултати и до дискриминация. Такива възможни опорочени от предубеденост резултати и дискриминационни последици са от особено значение по отношение на възраст, етническа принадлежност, раса, пол или увреждане. Освен това непосредственият ефект и ограничените възможности за допълнителни проверки или корекции във връзка с използването на такива системи, функциониращи в реално време, крият повишен риск за правата и свободите на лицата, които са засегнати при правоохранителните дейности или върху които тези дейности оказват въздействие.
(32)
Utilizarea sistemelor de IA pentru identificarea biometrică la distanță „în timp real” a persoanelor fizice în spațiile accesibile publicului în scopul aplicării legii este deosebit de intruzivă pentru drepturile și libertățile persoanelor în cauză, în măsura în care poate afecta viața privată a unei părți mari a populației, poate inspira un sentiment de supraveghere constantă și poate descuraja indirect exercitarea libertății de întrunire și a altor drepturi fundamentale. Inexactitățile tehnice ale sistemelor de IA destinate identificării biometrice la distanță a persoanelor fizice pot conduce la rezultate distorsionate de prejudecăți și pot avea efecte discriminatorii. Astfel de rezultate distorsionate și efecte discriminatorii posibile sunt deosebit de relevante în ceea ce privește vârsta, etnia, rasa, sexul sau dizabilitatea. În plus, caracterul imediat al impactului și posibilitățile limitate de a efectua verificări sau corecții suplimentare în ceea ce privește utilizarea unor astfel de sisteme care funcționează în timp real implică riscuri sporite pentru drepturile și libertățile persoanelor vizate în contextul activităților de aplicare a legii sau impactate de acestea.
(33)
Поради това използването на тези системи за правоохранителни цели следва да бъде забранено, освен в изчерпателно изброени и подробно определени ситуации, при които използването е строго необходимо за постигане на значителен обществен интерес, чиято важност надделява над рисковете. Тези ситуации включват издирването на някои жертви на престъпления, включително изчезнали лица; някои заплахи за живота или физическата безопасност на физически лица или от терористично нападение; както и установяването на местоположението или самоличността на извършители или заподозрени в извършването на престъпленията, изброени в приложение към настоящия регламент, когато тези престъпления се наказват в съответната държава членка с лишаване от свобода или мярка за задържане с максимален срок не по-малко от четири години, като се отчита определението на тези престъпления в правото на съответната държава членка. Прагът относно срока на лишаването от свобода или на мярката за задържане в съответствие с националното право спомага да се гарантира, че престъплението е достатъчно тежко, за да обоснове евентуално използването на системи за дистанционна биометрична идентификация в реално време. Освен това списъкът на престъпленията, поместен в приложение към настоящия регламент, се основава на 32-те престъпления, изброени в Рамково решение 2002/584/ПВР на Съвета (18), като се отчита, че някои от тези престъпления на практика вероятно имат по-голямо значение от други, доколкото използването на дистанционна биометрична идентификация в реално време би могло да е вероятно необходимо и пропорционално в много различна степен с оглед на практическото установяване на местоположението или самоличността на извършителя или заподозрения за различните изброени престъпления, като се имат предвид също вероятните разлики в тяхната тежест, вероятност и размер на вредата или възможните отрицателни последици. Непосредствена заплаха за живота или физическата безопасност на физически лица може да възникне и от сериозно нарушаване на критична инфраструктура съгласно определението в член 2, точка 4 от Директива (ЕС) 2022/2557 на Европейския парламент и на Съвета (19), когато нарушаването или унищожаването на такава критична инфраструктура би довело до непосредствена заплаха за живота или физическата безопасност на дадено лице, включително чрез сериозно увреждане на снабдяването с основни продукти за населението или на упражняването на основните функции на държавата. Освен това с настоящия регламент следва да се запази възможността правоохранителните органи, органите за граничен контрол, имиграционните органи или органите в областта на убежището да извършват проверки на самоличността в присъствието на засегнатото лице в съответствие с условията, определени в правото на Съюза и в националното право за такива проверки. По-специално, правоохранителните органи, органите за граничен контрол, имиграционните органи или органите в областта на убежището следва да могат да използват информационни системи, в съответствие с правото на Съюза или националното право, за установяване на самоличността на лица, които по време на проверка за установяване на самоличността отказват да бъде установена самоличността им или не са в състояние да посочат или докажат самоличността си, без настоящият регламент да изисква предварително разрешение с тази цел. Това може да бъде например лице, замесено в престъпление, което не желае или не може, поради злополука или здравословно състояние, да разкрие самоличността си пред правоохранителните органи.
(33)
Prin urmare, utilizarea sistemelor respective în scopul aplicării legii ar trebui să fie interzisă, cu excepția situațiilor enumerate în mod exhaustiv și definite în mod precis în care utilizarea este strict necesară pentru un interes public substanțial, a cărui importanță este superioară riscurilor. Situațiile respective implică căutarea anumitor victime ale unor infracțiuni, inclusiv persoane dispărute, anumite amenințări la adresa vieții sau a siguranței fizice a persoanelor fizice sau privind un atac terorist și localizarea sau identificarea autorilor infracțiunilor enumerate într-o anexă la prezentul regulament sau a persoanelor suspectate de acestea, în cazul în care infracțiunile respective se pedepsesc în statul membru în cauză cu o pedeapsă sau o măsură de siguranță privativă de libertate pentru o perioadă maximă de cel puțin patru ani și astfel cum sunt definite în dreptul intern al statului membru respectiv. Un astfel de prag pentru pedeapsa sau măsura de siguranță privativă de libertate în conformitate cu dreptul intern contribuie la asigurarea faptului că infracțiunea ar trebui să fie suficient de gravă pentru a justifica eventual utilizarea sistemelor de identificare biometrică la distanță „în timp real”. În plus, lista infracțiunilor prevăzută în anexa la prezentul regulament se bazează pe cele 32 de infracțiuni enumerate în Decizia-cadru 2002/584/JAI a Consiliului (18), ținând seama de faptul că unele infracțiuni sunt, în practică, susceptibile să fie mai relevante decât altele, în sensul că recurgerea la identificarea biometrică la distanță „în timp real” ar putea, în mod previzibil, fi necesară și proporțională în grade foarte diferite pentru urmărirea practică a localizării sau a identificării unui autor al diferitelor infracțiuni enumerate sau a unei persoane suspectate de acestea, și având în vedere diferențele probabile în ceea ce privește gravitatea, probabilitatea și amploarea prejudiciului sau posibilele consecințe negative. O amenințare iminentă la adresa vieții sau a siguranței fizice a unor persoane fizice ar putea rezulta și dintr-o perturbare gravă a infrastructurii critice, astfel cum este definită la articolul 2 punctul 4 din Directiva (UE) 2022/2557 a Parlamentului European și a Consiliului (19), în cazul în care perturbarea sau distrugerea unei astfel de infrastructuri critice ar genera o amenințare iminentă la adresa vieții sau a siguranței fizice a unei persoane, inclusiv prin afectarea gravă a aprovizionării cu produse de bază a populației sau a exercitării funcțiilor de bază ale statului. În plus, prezentul regulament ar trebui să mențină capacitatea autorităților de aplicare a legii, de control la frontiere, de imigrație sau de azil de a efectua controale de identitate în prezența persoanei vizate, în conformitate cu condițiile prevăzute în dreptul Uniunii și în cel intern pentru astfel de controale. În special, autoritățile de aplicare a legii, de control la frontiere, de imigrație sau de azil ar trebui să poată utiliza sistemele de informații, în conformitate cu dreptul Uniunii sau cu cel intern, pentru a identifica persoane care, în cursul unui control de identitate, fie refuză să fie identificate, fie sunt incapabile să își declare sau să își dovedească identitatea, fără ca autoritățile în cauză să fie obligate prin prezentul regulament să obțină o autorizație prealabilă. Ar putea fi vorba, de exemplu, de o persoană implicată într-o infracțiune care fie nu dorește, fie, din cauza unui accident sau a unei afecțiuni medicale, nu poate să își divulge identitatea autorităților de aplicare a legii.
(34)
За да се гарантира, че тези системи се използват по отговорен и пропорционален начин, е важно също така да се определи, че във всяка от тези изчерпателно изброени и подробно определени ситуации следва да се вземат предвид определени елементи, по-специално по отношение на естеството на ситуацията, във връзка с която е искането, и последиците от използването за правата и свободите на всички засегнати лица, както и гаранциите и условията, при които ще премине използването. Освен това използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели следва да бъде единствено с цел потвърждаване на самоличността на конкретно лице и следва да бъде ограничено до строго необходимото от гледна точка на срок, както и на териториален обхват и обхват по отношение на лицата, като се вземат предвид по-специално доказателствата или признаците за опасностите, жертвите или извършителя. Използването на системата за дистанционна биометрична идентификация в реално време на обществено достъпни места следва да бъде разрешено само ако съответният правоохранителен орган е извършил оценка на въздействието върху основните права и, освен ако в настоящия регламент не е предвидено друго, е регистрирал системата в базата данни, посочена в настоящия регламент. Референтната база данни на лицата следва да бъде подходяща за всеки случай на използване във всяка от посочените по-горе ситуации.
(34)
Pentru a se asigura că sistemele respective sunt utilizate în mod responsabil și proporțional, este de asemenea important să se stabilească faptul că, în fiecare dintre aceste situații enumerate în mod exhaustiv și precis definite, ar trebui să fie luate în considerare anumite elemente, în special în ceea ce privește natura situației care a stat la baza cererii și consecințele utilizării asupra drepturilor și libertăților tuturor persoanelor vizate, precum și garanțiile și condițiile prevăzute pentru utilizare. În plus, ar trebui să se recurgă la utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul aplicării legii numai pentru a confirma identitatea persoanei vizate în mod specific și această utilizare ar trebui să se limiteze la ceea ce este strict necesar din punct de vedere al perioadei de timp, precum și al sferei de aplicare geografică și personală, având în vedere în special dovezile sau indicațiile privind amenințările, victimele sau autorul infracțiunii. Utilizarea sistemului de identificare biometrică la distanță în timp real în spațiile accesibile publicului ar trebui să fie autorizată numai dacă autoritatea relevantă de aplicare a legii a finalizat o evaluare a impactului asupra drepturilor fundamentale și, cu excepția cazului în care se prevede altfel în prezentul regulament, a înregistrat sistemul în baza de date prevăzută în prezentul regulament. Baza de date de referință a persoanelor ar trebui să fie adecvată pentru fiecare caz de utilizare în fiecare dintre situațiile menționate mai sus.
(35)
За всяко използване на система за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели следва да се изисква изрично и конкретно разрешение от съдебен орган или от независим административен орган на държава членка, чието решение е задължително. Това разрешение следва по принцип да бъде получено преди използването на системата с ИИ с цел идентифициране на дадено лице или лица. Изключения от това правило следва да се допускат в надлежно обосновани спешни случаи, а именно в ситуации, при които необходимостта от използване на съответните системи е такава, че е практически и обективно невъзможно да бъде получено разрешение преди началото на използването на системата с ИИ. При такива спешни ситуации използването на системата с ИИ следва да бъде ограничено до абсолютно необходимия минимум и да е съпроводено с подходящи гаранции и условия, както са установени в националното право и специално указани в контекста на всеки отделен случай на спешно използване от самия правоохранителен орган. Освен това в такива ситуации правоохранителният орган следва да поиска такова разрешение, като посочи причините, поради които не е могъл да го поиска по-рано, без ненужно забавяне и най-късно в рамките на 24 часа. Ако искането за това разрешение бъде отхвърлено, използването на системи за биометрична идентификация в реално време, свързано с това разрешение, следва да бъде прекратено незабавно и всички данни, свързани с това използване, следва да бъдат премахнати и заличени. Тези данни включват входящите данни, получени пряко от система с ИИ в хода на използването на такава система, както и резултатите от използването, свързано с това разрешение. Това не следва да включва входящи данни, законно придобити в съответствие с друг правен акт на Съюза или национален правен акт. Във всеки случай решение, което поражда неблагоприятни правни последици за дадено лице, не следва да бъде взето единствено въз основа на резултата от системата за дистанционна биометрична идентификация.
(35)
Fiecare utilizare a unui sistem de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul aplicării legii ar trebui să facă obiectul unei autorizări exprese și specifice de către o autoritate judiciară sau o autoritate administrativă independentă a unui stat membru a cărei decizie este obligatorie. O astfel de autorizație ar trebui, în principiu, să fie obținută înainte de utilizarea sistemului de IA în vederea identificării uneia sau mai multor persoane. Ar trebui să fie permise excepții de la această regulă în situații justificate în mod corespunzător din motive de urgență, și anume în situațiile în care necesitatea de a utiliza sistemele în cauză este de natură să facă imposibilă în mod efectiv și obiectiv obținerea unei autorizații înainte de începerea utilizării sistemului de IA. În astfel de situații de urgență, utilizarea sistemului de IA ar trebui să fie limitată la ceea ce este minim și absolut necesar și ar trebui să facă obiectul unor garanții și condiții adecvate, astfel cum sunt stabilite în dreptul intern și specificate de către însăși autoritatea de aplicare a legii în contextul fiecărui caz individual de utilizare urgentă. În plus, în astfel de situații, autoritatea de aplicare a legii ar trebui să solicite o astfel de autorizație și să furnizeze în același timp motivele pentru care nu a fost în măsură să o solicite mai devreme, fără întârzieri nejustificate și cel târziu în termen de 24 de ore. În cazul în care solicitarea unei astfel de autorizații este respinsă, utilizarea sistemelor de identificare biometrică în timp real legate de autorizația respectivă ar trebui să înceteze cu efect imediat și toate datele legate de utilizarea respectivă ar trebui să fie înlăturate și șterse. Aceste date includ datele de intrare dobândite direct de un sistem de IA în cursul utilizării unui astfel de sistem, precum și rezultatele și produsele obținute în cadrul utilizării legate de autorizația respectivă, dar nu ar trebui să includă datele de intrare dobândite în mod legal în conformitate cu un alt act legislativ al Uniunii sau național. În orice caz, nicio decizie care produce un efect juridic negativ asupra unei persoane nu ar trebui să fie luată exclusiv pe baza unui produs al sistemului de identificare biometrică la distanță.
(36)
За да изпълняват задачите си в съответствие с изискванията, установени в настоящия регламент, както и в националните правила, съответният орган за надзор на пазара и националният орган за защита на данните следва да бъдат уведомявани за всяко използване на системата за биометрична идентификация в реално време. Уведомените за това използване органи за надзор на пазара и национални органи за защита на данните следва да представят на Комисията годишен доклад относно използването на системи за биометрична идентификация в реално време.
(36)
Pentru a-și îndeplini sarcinile în conformitate cu cerințele prevăzute în prezentul regulament, precum și în normele naționale, autoritatea relevantă de supraveghere a pieței și autoritatea națională pentru protecția datelor ar trebui să fie notificate cu privire la fiecare utilizare a sistemului de identificare biometrică în timp real. Autoritățile de supraveghere a pieței și autoritățile naționale pentru protecția datelor care au fost notificate ar trebui să prezinte Comisiei un raport anual privind utilizarea sistemelor de identificare biometrică în timp real.
(37)
Също така е целесъобразно да се предвиди, в рамките на изчерпателната уредба, създадена с настоящия регламент, че такова използване на територията на държава членка в съответствие с настоящия регламент следва да бъде възможно само и доколкото съответната държава членка е решила изрично да предвиди възможността за допускане на такова използване в подробните правила на националното си право. Следователно съгласно настоящия регламент държавите членки са свободни изобщо да не предвиждат такава възможност или да предвидят такава възможност само по отношение на някои от целите, посочени в настоящия регламент, които могат да оправдаят допустимото използване. Тези национални правила следва да бъдат съобщени на Комисията в срок от 30 дни след приемането им.
(37)
În plus, este oportun să se prevadă, în cadrul exhaustiv stabilit de prezentul regulament, că o astfel de utilizare pe teritoriul unui stat membru în conformitate cu prezentul regulament ar trebui să fie posibilă numai în cazul și în măsura în care statul membru respectiv a decis să prevadă în mod expres posibilitatea de a autoriza o astfel de utilizare în normele sale detaliate de drept intern. În consecință, în temeiul prezentului regulament, statele membre au în continuare libertatea de a nu prevedea o astfel de posibilitate sau de a prevedea o astfel de posibilitate numai în ceea ce privește unele dintre obiectivele care pot justifica utilizarea autorizată identificate în prezentul regulament. Astfel de norme naționale ar trebui să fie notificate Comisiei în termen de 30 de zile de la adoptare.
(38)
Използването на системи с ИИ за дистанционна биометрична идентификация в реално време на физически лица на обществено достъпни места за правоохранителни цели задължително включва обработването на биометрични данни. Правилата на настоящия регламент, които забраняват, с някои изключения, подобно използване и чието правно основание е член 16 ДФЕС, следва да се прилагат като lex specialis по отношение на правилата относно обработването на биометрични данни, съдържащи се в член 10 от Директива (ЕС) 2016/680, като по този начин се урежда изчерпателно това използване и свързаното с него обработване на биометрични данни. Поради това такова използване и такова обработване следва да бъдат възможни само доколкото са съвместими с рамката, установена с настоящия регламент, без да има възможност извън тази рамка компетентните органи, когато действат с правоохранителни цели, да използват такива системи и да обработват такива данни във връзка с тях на основанията, изброени в член 10 от Директива (ЕС) 2016/680. В този контекст настоящият регламент няма за цел да осигури правно основание на обработването на лични данни съгласно член 8 от Директива (ЕС) 2016/680. Използването обаче на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за цели, различни от правоохранителни цели, включително от компетентни органи, не следва да бъде обхванато от специалната рамка относно такова използване за правоохранителни цели, установена с настоящия регламент. Поради това спрямо използването за цели, различни от правоохранителни цели, не следва да се прилагат изискването за разрешение съгласно настоящия регламент и приложимите подробни правила на националното право, които може да уреждат това разрешение.
(38)
Utilizarea sistemelor de IA pentru identificarea biometrică la distanță în timp real a persoanelor fizice în spațiile accesibile publicului în scopul aplicării legii implică în mod necesar prelucrarea de date biometrice. Normele din prezentul regulament care interzic, sub rezerva anumitor excepții, o astfel de utilizare, care se întemeiază pe articolul 16 din TFUE, ar trebui să se aplice ca lex specialis în ceea ce privește normele privind prelucrarea datelor biometrice prevăzute la articolul 10 din Directiva (UE) 2016/680, reglementând astfel în mod exhaustiv această utilizare și prelucrarea datelor biometrice implicate. Prin urmare, o astfel de utilizare și prelucrare ar trebui să fie posibile numai în măsura în care sunt compatibile cu cadrul stabilit de prezentul regulament, fără a exista, în afara cadrului respectiv, posibilitatea ca autoritățile competente, atunci când acționează în scopul aplicării legii, să utilizeze astfel de sisteme și să prelucreze astfel de date în legătură cu utilizarea respectivă din motivele enumerate la articolul 10 din Directiva (UE) 2016/680. În acest context, prezentul regulament nu este menit să ofere temeiul juridic pentru prelucrarea datelor cu caracter personal în baza articolului 8 din Directiva (UE) 2016/680. Cu toate acestea, utilizarea sistemelor de identificare biometrică la distanță în timp real în spații accesibile publicului în alte scopuri decât cele de aplicare a legii, inclusiv de către autoritățile competente, nu ar trebui să facă obiectul cadrului specific privind o astfel de utilizare în scopul aplicării legii stabilit de prezentul regulament. Prin urmare, o astfel de utilizare în alte scopuri decât aplicarea legii nu ar trebui să facă obiectul solicitării unei autorizații în temeiul prezentului regulament și al normelor de drept intern detaliate aplicabile prin care autorizația respectivă poate produce efecte.
(39)
Всяко обработване на биометрични данни и други лични данни, необходимо за използването на системи с ИИ за биометрична идентификация, различно от обработване във връзка с използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели, уредено в настоящия регламент, следва да продължи да отговаря на всички изисквания, произтичащи от член 10 от Директива (ЕС) 2016/680. За цели, различни от правоохранителни цели, с член 9, параграф 1 от Регламент (ЕС) 2016/679 и член 10, параграф 1 от Регламент (ЕС) 2018/1725 се забранява обработването на биометрични данни, като се прилагат ограничен брой изключения, предвидени в посочените членове. В приложение на член 9, параграф 1 от Регламент (ЕС) 2016/679 използването на дистанционна биометрична идентификация за цели, различни от правоохранителни цели, вече е забранявано с решения на националните органи за защита на данните.
(39)
Orice prelucrare de date biometrice și alte date cu caracter personal implicate în utilizarea sistemelor de IA pentru identificarea biometrică, alta decât în legătură cu utilizarea sistemelor de identificare biometrică la distanță în timp real în spații accesibile publicului în scopul aplicării legii, astfel cum este reglementată de prezentul regulament, ar trebui să respecte în continuare toate cerințele care decurg din articolul 10 din Directiva (UE) 2016/680. În ceea ce privește alte scopuri decât aplicarea legii, articolul 9 alineatul (1) din Regulamentul (UE) 2016/679 și articolul 10 alineatul (1) din Regulamentul (UE) 2018/1725 interzic prelucrarea de date biometrice, sub rezerva unor excepții limitate prevăzute la articolele respective. În vederea aplicării articolului 9 alineatul (1) din Regulamentul (UE) 2016/679, utilizarea identificării biometrice la distanță în alte scopuri decât aplicarea legii a făcut deja obiectul unor decizii de interzicere luate de autoritățile naționale pentru protecția datelor.
(40)
В съответствие с член 6а от Протокол № 21 относно позицията на Обединеното кралство и Ирландия по отношение на пространството на свобода, сигурност и правосъдие, приложен към ДЕС и към ДФЕС, Ирландия не е обвързана от правилата, предвидени в член 5, параграф 1, първа алинея, буква ж), доколкото се прилагат за използването на системи за биометрично категоризиране за дейности в областта на полицейското и съдебното сътрудничество по наказателноправни въпроси, в член 5, параграф 1, първа алинея, буква г), доколкото се прилагат за използването на системи с ИИ, обхванати от посочената разпоредба, в член 5, параграф 1, първа алинея, буква з) и параграфи 2 – 6 и в член 26, параграф 10 от настоящия регламент, приети на основание член 16 ДФЕС и отнасящи се до обработването на лични данни от държавите членки при осъществяване на дейности, попадащи в обхвата на трета част, дял V, глава 4 или 5 ДФЕС, когато Ирландия не е обвързана от правилата, уреждащи формите на съдебно сътрудничество по наказателноправни въпроси или на полицейско сътрудничество, в рамките на които трябва да бъдат спазвани разпоредбите, установени на основание член 16 ДФЕС.
(40)
În conformitate cu articolul 6a din Protocolul nr. 21 privind poziția Regatului Unit și a Irlandei în ceea ce privește spațiul de libertate, securitate și justiție, anexat la TUE și la TFUE, Irlandei nu îi revin obligații în temeiul normelor prevăzute la articolul 5 alineatul (1) primul paragraf litera (g) în măsura în care se aplică utilizării sistemelor de clasificare biometrică pentru activități în domeniul cooperării polițienești și al cooperării judiciare în materie penală, la articolul 5 alineatul (1) primul paragraf litera (d) în măsura în care se aplică utilizării sistemelor de IA care intră sub incidența dispoziției respective, la articolul 5 alineatul (1) primul paragraf litera (h) și alineatele (2)-(6) și la articolul 26 alineatul (10) din prezentul regulament adoptate în temeiul articolului 16 din TFUE, referitoare la prelucrarea datelor cu caracter personal de către statele membre atunci când exercită activități care intră în domeniul de aplicare al părții a treia titlul V capitolul 4 sau 5 din TFUE, în cazurile în care Irlandei nu îi revin obligații în temeiul normelor privind formele de cooperare judiciară în materie penală sau de cooperare polițienească care necesită respectarea dispozițiilor stabilite în temeiul articolului 16 din TFUE.
(41)
В съответствие с членове 2 и 2а от Протокол № 22 относно позицията на Дания, приложен към ДЕС и към ДФЕС, Дания не е обвързана и за нея не се прилагат правилата, предвидени в член 5, параграф 1, първа алинея, буква ж), доколкото се прилагат за използването на системи за биометрично категоризиране за дейности в областта на полицейското и съдебното сътрудничество по наказателноправни въпроси, в член 5, параграф 1, първа алинея, буква г), доколкото се прилагат за използването на системи с ИИ, обхванати от посочената разпоредба, в член 5, параграф 1, първа алинея, буква з) и параграфи 2 – 6 и в член 26, параграф 10 от настоящия регламент, приети на основание член 16 от ДФЕС и отнасящи се до обработването на лични данни от държавите членки при осъществяването на дейности, попадащи в обхвата на трета част, дял V, глава 4 или 5 ДФЕС.
(41)
În conformitate cu articolele 2 și 2a din Protocolul nr. 22 privind poziția Danemarcei, anexat la TUE și la TFUE, Danemarcei nu îi revin obligații în temeiul normelor prevăzute la articolul 5 alineatul (1) primul paragraf litera (g) în măsura în care se aplică utilizării sistemelor de clasificare biometrică pentru activități în domeniul cooperării polițienești și al cooperării judiciare în materie penală, la articolul 5 alineatul (1) primul paragraf litera (d) în măsura în care se aplică utilizării sistemelor de IA care intră sub incidența dispoziției respective, la articolul 5 alineatul (1) primul paragraf litera (h) și alineatele (2)-(6) și la articolul 26 alineatul (10) din prezentul regulament adoptate în temeiul articolului 16 din TFUE, referitoare la prelucrarea datelor cu caracter personal de către statele membre atunci când exercită activități care intră în domeniul de aplicare al părții a treia titlul V capitolul 4 sau 5 din TFUE și Danemarca nu face obiectul aplicării normelor respective.
(42)
В съответствие с презумпцията за невиновност физическите лица в Съюза следва винаги да бъдат съдени въз основа на тяхното действително поведение. Физическите лица никога не следва да бъдат съдени въз основа на прогнозирано от ИИ поведение, базирано единствено на тяхното профилиране, личностни черти или характеристики, например гражданство, място на раждане, местопребиваване, брой деца, равнище на задлъжнялост или вид автомобил, без основателно подозрение за участието на лицето в престъпна дейност въз основа на обективни и проверими факти и без човешка оценка. Поради това следва да се забрани извършването на оценки на риска по отношение на физически лица, за да се оцени вероятността от извършване на престъпление или да се прогнозира извършването на действително или вероятно престъпление единствено въз основа на профилирането им или на оценката на техните личностни черти и характеристики. Във всеки случай тази забрана не се отнася до анализа на вероятността, който не се основава на профилирането на лица или на личностните черти и характеристики на тези лица, като например системи с ИИ, използващи анализ на риска за оценка на риска от финансови измами от страна на предприятия въз основа на подозрителни сделки или инструменти за анализ на риска за прогнозиране на вероятността за откриване на наркотици или незаконни стоки от страна на митническите органи, например въз основа на известни маршрути за трафик.
(42)
În conformitate cu prezumția de nevinovăție, persoanele fizice din Uniune ar trebui să fie întotdeauna judecate în funcție de comportamentul lor real. Persoanele fizice nu ar trebui să fie niciodată judecate în funcție de comportamentul preconizat de IA exclusiv pe baza creării profilurilor lor, a trăsăturilor lor de personalitate sau a unor caracteristici precum cetățenia, locul nașterii, locul de reședință, numărul de copii, nivelul datoriilor sau tipul de autoturism, dacă nu există o suspiciune rezonabilă, bazată pe fapte obiective verificabile, că persoana respectivă este implicată într-o activitate infracțională și dacă nu se face o evaluare în acest sens de către un om. Prin urmare, ar trebui să fie interzise evaluările riscurilor efectuate în legătură cu persoane fizice pentru a evalua probabilitatea ca acestea să comită infracțiuni sau pentru a anticipa producerea unei infracțiuni reale sau potențiale exclusiv pe baza creării profilurilor acestor persoane sau a evaluării trăsăturilor lor de personalitate și a caracteristicilor lor. În orice caz, această interdicție nu privește și nici nu afectează analiza de risc care nu se bazează pe crearea de profiluri ale persoanelor sau pe trăsăturile de personalitate și caracteristicile persoanelor, cum ar fi sistemele de IA care utilizează analiza de risc pentru a evalua probabilitatea de fraudă financiară din partea întreprinderilor pe baza unor tranzacții suspecte sau instrumentele analitice de risc utilizate pentru a prevedea probabilitatea localizării de către autoritățile vamale a stupefiantelor sau a mărfurilor ilicite, de exemplu pe baza rutelor de trafic cunoscute.
(43)
Пускането на пазара, пускането в действие за тази конкретна цел или използването на системи с ИИ, които създават или разширяват бази данни за разпознаване на лица чрез нецеленасочено извличане на лицеви изображения от интернет или записи от видеонаблюдение, следва да бъдат забранени, тъй като тази практика допринася за усещането за масово наблюдение и може да доведе до груби нарушения на основните права, включително правото на неприкосновеност на личния живот.
(43)
Introducerea pe piață, punerea în funcțiune în scopul specific respectiv și utilizarea sistemelor de IA care creează sau extind baze de date de recunoaștere facială prin extragerea fără scop precis de imagini faciale de pe internet sau din înregistrări TVCI ar trebui să fie interzise, deoarece această practică amplifică sentimentul de supraveghere în masă și poate duce la încălcări grave ale drepturilor fundamentale, inclusiv ale dreptului la viață privată.
(44)
Съществуват сериозни опасения относно научната основа на системите с ИИ, които имат за цел да определят или да направят изводи за емоциите, по-специално като се има предвид, че изразяването на емоции се различава значително в отделните култури и ситуации и дори при едно и също лице. Сред основните недостатъци на тези системи са ограничената надеждност, липсата на съобразен с конкретния случай подход и ограничената възможност за обобщаване. Поради това системите с ИИ, които определят или правят изводи за емоциите или намеренията на физически лица въз основа на техните биометрични данни, могат да доведат до дискриминационни резултати и да накърнят правата и свободите на съответните лица. Като се има предвид властовото неравновесие в контекста на работата или образованието, съчетано с инвазивния характер на тези системи, подобни системи биха могли да доведат до увреждащо или неблагоприятно третиране на определени физически лица или на цели групи от такива лица. Поради това пускането на пазара, пускането в действие или използването на системи с ИИ, предназначени за определяне на емоционалното състояние на лица в ситуации, свързани с работното място и образованието, следва да бъдат забранени. Тази забрана не следва да обхваща системи с ИИ, пуснати на пазара единствено от медицински съображения или съображения, свързани с безопасността, като например системи, предназначени за терапевтична употреба.
(44)
Există preocupări serioase cu privire la baza științifică a sistemelor de IA care vizează identificarea sau deducerea emoțiilor, în special deoarece exprimarea emoțiilor variază considerabil de la o cultură la alta și de la o situație la alta și chiar la nivelul unei singure persoane. Printre principalele deficiențe ale unor astfel de sisteme se numără fiabilitatea limitată, lipsa specificității și posibilitățile limitate de generalizare. Prin urmare, sistemele de IA care identifică sau deduc emoțiile sau intențiile persoanelor fizice pe baza datelor lor biometrice pot genera rezultate discriminatorii și pot fi intruzive pentru drepturile și libertățile persoanelor în cauză. Având în vedere dezechilibrul de putere în contextul muncii sau al educației, combinat cu caracterul intruziv al acestor sisteme, ele ar putea conduce la un tratament prejudiciabil sau nefavorabil al anumitor persoane fizice sau al unor grupuri întregi de astfel de persoane. Prin urmare, ar trebui să fie interzise introducerea pe piață, punerea în funcțiune și utilizarea sistemelor de IA destinate a fi utilizate pentru a detecta starea emoțională a persoanelor în situații legate de locul de muncă și de educație. Această interdicție nu ar trebui să se aplice sistemelor de IA introduse pe piață strict din motive medicale sau de siguranță, cum ar fi sistemele destinate utilizării în scop terapeutic.
(45)
Практиките, които са забранени от правото на Съюза, включително правото в областта на защитата на данните, недискриминацията и защитата на потребителите, както и правото в областта на конкуренцията, не следва да бъдат засегнати от настоящия регламент.
(45)
Practicile interzise de dreptul Uniunii, inclusiv dreptul privind protecția datelor, dreptul privind nediscriminarea, dreptul privind protecția consumatorilor și dreptul concurenței, nu ar trebui să fie afectate de prezentul regulament.
(46)
Високорисковите системи с ИИ следва да се пускат на пазара на Съюза, да се пускат в действие или да се използват само ако отговарят на определени задължителни изисквания. Тези изисквания следва да гарантират, че високорисковите системи с ИИ, които се предлагат в Съюза или резултатите от които се използват по друг начин в Съюза, не пораждат неприемливи рискове за важни обществени интереси на Съюза, признати и защитени от правото на Съюза. Въз основа на новата законодателна рамка, както е пояснено в известието на Комисията „Синьото ръководство“ за прилагане на правилата на ЕС относно продуктите – 2022 г. (20), общото правило е, че повече от един правен акт от законодателството на Съюза за хармонизация, например регламенти (ЕС) 2017/745 (21) и (ЕС) 2017/746 (22) на Европейския парламент и на Съвета или Директива 2006/42/ЕО на Европейския парламент и на Съвета (23), може да е приложим за един продукт, тъй като предоставянето или пускането в действие може да се извърши само когато продуктът е в съответствие с цялото приложимо законодателство на Съюза за хармонизация. За да се гарантира съгласуваност и да се избегне ненужна административна тежест или разходи, доставчиците на продукт, който съдържа една или повече високорискови системи с ИИ, за които се прилагат изискванията на настоящия регламент и на законодателството на Съюза за хармонизация, посочено в приложение към настоящия регламент, следва да разполагат с гъвкавост по отношение на оперативните решения за това как да се гарантира оптимално съответствие на продукт, който съдържа една или повече системи с ИИ, с всички приложими изисквания на законодателството на Съюза за хармонизация. Системите с ИИ, които се определят като високорискови, следва да се ограничат до имащите значително вредно въздействие върху здравето, безопасността и основните права на хората в Съюза, като при това следва да се свежда до минимум всяко възможно ограничаване на международната търговия.
(46)
Sistemele de IA cu grad ridicat de risc ar trebui să fie introduse pe piața Uniunii, puse în funcțiune sau utilizate numai dacă respectă anumite cerințe obligatorii. Cerințele respective ar trebui să asigure faptul că sistemele de IA cu grad ridicat de risc disponibile în Uniune sau ale căror rezultate sunt utilizate în alt mod în Uniune nu prezintă riscuri inacceptabile pentru interesele publice importante ale Uniunii, astfel cum sunt recunoscute și protejate de dreptul Uniunii. Pe baza noului cadru legislativ, astfel cum s-a clarificat în Comunicarea Comisiei intitulată „«Ghidul albastru» din 2022 referitor la punerea în aplicare a normelor UE privind produsele” (20), regula generală este că cel puțin un act juridic din legislația de armonizare a Uniunii, cum ar fi Regulamentele (UE) 2017/745 (21) și (UE) 2017/746 (22) ale Parlamentului European și ale Consiliului sau Directiva 2006/42/CE a Parlamentului European și a Consiliului (23), poate fi aplicabil unui singur produs, deoarece punerea la dispoziție sau punerea în funcțiune poate avea loc numai atunci când produsul respectă întreaga legislație de armonizare a Uniunii aplicabilă. Pentru a se asigura coerența și a se evita sarcinile administrative sau costurile inutile, furnizorii unui produs care conține unul sau mai multe sisteme de IA cu grad ridicat de risc, cărora li se aplică cerințele prezentului regulament și ale legislației de armonizare a Uniunii astfel cum este conținută într-o anexă la prezentul regulament, ar trebui să fie flexibili în ceea ce privește deciziile operaționale cu privire la modul optim de asigurare a conformității unui produs care conține unul sau mai multe sisteme de IA cu toate cerințele aplicabile din respectiva legislație de armonizare a Uniunii. Sistemele de IA identificate ca prezentând un grad ridicat de risc ar trebui să se limiteze la cele care au un impact negativ semnificativ asupra sănătății, siguranței și drepturilor fundamentale ale persoanelor din Uniune, iar o astfel de limitare ar trebui să reducă la minimum orice eventuală restricționare a comerțului internațional.
(47)
Системите с ИИ биха могли да имат неблагоприятни последици за здравето и безопасността на хората, по-специално когато тези системи функционират като защитни елементи на продуктите. В съответствие с целите на законодателството на Съюза за хармонизация – да се улесни свободното движение на продукти на вътрешния пазар и да се гарантира, че на пазара се предлагат само безопасни и съответстващи на изискванията продукти – е важно да бъдат надлежно предотвратени и ограничени рисковете за безопасността, които могат да бъдат породени от даден продукт като цяло поради неговите цифрови компоненти, включително системи с ИИ. Например все по-автономните роботи, независимо дали в контекста на производството, или на личната помощ и грижи, следва да могат да работят и да изпълняват функциите си безопасно в сложна среда. По същия начин, в сектора на здравеопазването, където рисковете за живота и здравето са особено високи, все по-усъвършенстваните системи за диагностика и системите за подпомагане на човешките решения следва да бъдат надеждни и точни.
(47)
Sistemele de IA ar putea avea un impact negativ asupra sănătății și siguranței persoanelor, în special atunci când funcționează drept componente de siguranță ale produselor. În concordanță cu obiectivele legislației de armonizare a Uniunii de a facilita libera circulație a produselor pe piața internă și de a asigura că numai produsele sigure și conforme în toate privințele ajung pe piață, este important ca riscurile în materie de siguranță care pot fi generate de un produs în ansamblu din cauza componentelor sale digitale, inclusiv a sistemelor de IA, să fie prevenite și atenuate în mod corespunzător. De exemplu, roboții din ce în ce mai autonomi, fie în contextul producției, fie în contextul asistenței și îngrijirii personale, ar trebui să fie în măsură să își desfășoare activitatea și să își îndeplinească funcțiile în condiții de siguranță în medii complexe. În mod similar, în sectorul sănătății, unde mizele privind viața și sănătatea sunt deosebit de ridicate, sistemele de diagnosticare din ce în ce mai sofisticate și sistemele care sprijină deciziile umane ar trebui să fie fiabile și exacte.
(48)
Степента на неблагоприятно въздействие на системата с ИИ върху основните права, защитени от Хартата, е от особено значение, когато дадена система с ИИ се класифицира като високорискова. Тези права включват правото на човешко достойнство, правото на зачитане на личния и семейния живот, защитата на личните данни, свободата на изразяване на мнение и свободата на информация, свободата на събранията и сдруженията, правото на недискриминация, правото на образование, защитата на потребителите, правата на работниците, правата на хората с увреждания, равенството между половете, правата върху интелектуалната собственост, правото на ефективни правни средства за защита и на справедлив съдебен процес, правото на защита и презумпцията за невиновност, както и правото на добра администрация. В допълнение към тези права е важно да се подчертае факта, че децата имат специални права, които са залегнали в член 24 от Хартата и в Конвенцията на Организацията на обединените нации за правата на детето, допълнително разработени в Общ коментар № 25 по Конвенцията на ООН за правата на детето по отношение на цифровата среда, като и в двата акта се изисква да се отчита уязвимостта на децата и да се осигуряват защитата и грижите, необходими за тяхното благосъстояние. Основното право на високо равнище на опазване на околната среда, залегнало в Хартата и отразено в политиките на Съюза, също следва да се взема предвид при оценката на тежестта на вредата, която дадена система с ИИ може да причини, включително във връзка с човешкото здраве и безопасност.
(48)
Amploarea impactului negativ al sistemului de IA asupra drepturilor fundamentale protejate de cartă este deosebit de relevantă atunci când un sistem de IA este clasificat ca prezentând un grad ridicat de risc. Printre aceste drepturi se numără dreptul la demnitate umană, respectarea vieții private și de familie, protecția datelor cu caracter personal, libertatea de exprimare și de informare, libertatea de întrunire și de asociere, precum, dreptul la nediscriminarea, dreptul la educație, protecția consumatorilor, drepturile lucrătorilor, drepturile persoanelor cu dizabilități, egalitatea de gen, drepturile de proprietate intelectuală, dreptul la o cale de atac eficientă și la un proces echitabil, dreptul la apărare și prezumția de nevinovăție și dreptul la o bună administrare. Pe lângă aceste drepturi, este important să se sublinieze faptul că copiii au drepturi specifice, astfel cum sunt consacrate la articolul 24 din cartă și în Convenția Organizației Națiunilor Unite cu privire la drepturile copilului, detaliată în Comentariul general nr. 25 la aceasta privind mediul digital, ambele impunând luarea în considerare a vulnerabilităților copiilor și asigurarea protecției și îngrijirii necesare pentru bunăstarea lor. Dreptul fundamental la un nivel ridicat de protecție a mediului consacrat în cartă și pus în aplicare în politicile Uniunii ar trebui, de asemenea, să fie luat în considerare atunci când se evaluează gravitatea prejudiciului pe care îl poate cauza un sistem de IA, inclusiv în ceea ce privește sănătatea și siguranța persoanelor.
(49)
По отношение на високорисковите системи с ИИ, които са защитни елементи на продукти или системи или които сами по себе си са продукти или системи, попадащи в обхвата на Регламент (ЕО) № 300/2008 на Европейския парламент и на Съвета (24), Регламент (ЕС) № 167/2013 на Европейския парламент и на Съвета (25), Регламент (ЕС) № 168/2013 на Европейския парламент и на Съвета (26), Директива 2014/90/ЕС на Европейския парламент и на Съвета (27), Директива (ЕС) 2016/797 на Европейския парламент и на Съвета (28), Регламент (ЕС) 2018/858 на Европейския парламент и на Съвета (29), Регламент (ЕС) 2018/1139 на Европейския парламент и на Съвета (30) и Регламент (ЕС) 2019/2144 на Европейския парламент и на Съвета (31), е целесъобразно тези актове да бъдат изменени, за да се гарантира, че Комисията отчита – въз основа на техническата и регулаторна специфика на всеки сектор и без да има намеса в съществуващите механизми и органи за управление, оценяване на съответствието и контрол на прилагането, създадени съгласно горепосочените актове – задължителните изисквания за високорисковите системи с ИИ, установени в настоящия регламент, когато приема съответни делегирани актове или актове за изпълнение на основание на горепосочените актове.
(49)
În ceea ce privește sistemele de IA cu grad ridicat de risc care sunt componente de siguranță ale produselor sau sistemelor sau care sunt ele însele produse sau sisteme care intră în domeniul de aplicare al Regulamentului (CE) nr. 300/2008 al Parlamentului European și al Consiliului (24), al Regulamentului (UE) nr. 167/2013 al Parlamentului European și al Consiliului (25), al Regulamentului (UE) nr. 168/2013 al Parlamentului European și al Consiliului (26), al Directivei 2014/90/UE a Parlamentului European și a Consiliului (27), al Directivei (UE) 2016/797 a Parlamentului European și a Consiliului (28), al Regulamentului (UE) 2018/858 al Parlamentului European și al Consiliului (29), al Regulamentului (UE) 2018/1139 al Parlamentului European și al Consiliului (30) și al Regulamentului (UE) 2019/2144 al Parlamentului European și al Consiliului (31), este oportun să se modifice respectivele acte legislative pentru a se asigura luarea în considerare de către Comisie, pe baza specificităților tehnice și de reglementare ale fiecărui sector și fără a afecta mecanismele și autoritățile existente de guvernanță, de evaluare a conformității și de aplicare a legislației instituite în acestea, a cerințelor obligatorii pentru sistemele de IA cu grad ridicat de risc prevăzute în prezentul regulament atunci când adoptă orice act delegat sau de punere în aplicare relevant pe baza respectivelor acte legislative.
(50)
По отношение на системите с ИИ, които са защитни елементи на продукти или които сами по себе си са продукти, попадащи в обхвата на определено законодателство на Съюза за хармонизация, посочено в приложение към настоящия регламент, е целесъобразно те да бъдат класифицирани като високорискови съгласно настоящия регламент, ако съответният продукт преминава през процедура за оценяване на съответствието с орган за оценяване на съответствието – трето лице, съгласно съответното законодателство на Съюза за хармонизация. Подобни продукти са по-специално машини, играчки, асансьори, оборудване и защитни системи, предназначени за използване в потенциално взривоопасна среда, радиооборудване, оборудване под налягане, оборудване за плавателни съдове за отдих, въжени линии, уреди, захранвани с газово гориво, медицински изделия, медицински изделия за инвитро диагностика, автомобили и въздухоплавателни средства.
(50)
În ceea ce privește sistemele de IA care sunt componente de siguranță ale produselor sau care sunt ele însele produse care intră în domeniul de aplicare al anumitor acte legislative de armonizare ale Uniunii enumerate într-o anexă la prezentul regulament, este oportun să fie clasificate ca prezentând un grad ridicat de risc în temeiul prezentului regulament în cazul în care produsul respectiv este supus procedurii de evaluare a conformității efectuate de un organism terț de evaluare a conformității în temeiul respectivelor acte legislative de armonizare relevante ale Uniunii. În special, astfel de produse sunt echipamentele tehnice, jucăriile, ascensoarele, echipamentele și sistemele de protecție destinate utilizării în atmosfere potențial explozive, echipamentele radio, echipamentele sub presiune, echipamentele pentru ambarcațiuni de agrement, instalațiile pe cablu, aparatele consumatoare de combustibili gazoși, dispozitivele medicale, dispozitivele medicale pentru diagnostic in vitro, cele din industria auto și aeronautică.
(51)
Класифицирането на дадена система с ИИ като високорискова съгласно настоящия регламент не следва непременно да означава, че продуктът, чийто защѝтен елемент е системата с ИИ, или самата система с ИИ като продукт, се счита за високорисков или високорискова съгласно критериите, установени в съответното законодателство на Съюза за хармонизация, приложимо за продукта. Такъв е по-специално случаят с регламенти (ЕС) 2017/745 и (ЕС) 2017/746, в които се предвижда оценяване на съответствието от трето лице за продукти със среден и висок риск.
(51)
Clasificarea unui sistem de IA ca prezentând un grad ridicat de risc în temeiul prezentului regulament nu ar trebui să însemne neapărat că produsul a cărui componentă de siguranță este sistemul de IA sau că sistemul de IA în sine ca produs este considerat ca prezentând un grad ridicat de risc în conformitate cu criteriile stabilite în actele legislative de armonizare relevante ale Uniunii care se aplică produsului. Acesta este, în special, cazul Regulamentelor (UE) 2017/745 și (UE) 2017/746, care prevăd o evaluare a conformității de către un terț pentru produsele cu grad mediu de risc și cu grad ridicat de risc.
(52)
По отношение на самостоятелните системи с ИИ, а именно високорисковите системи с ИИ, различни от тези, които са защитни елементи на продукти или които сами по себе си са продукти, е целесъобразно те да бъдат класифицирани като високорискови, ако с оглед на предназначението си представляват висок риск от увреждане на здравето и безопасността или на основните права на хората, като се вземат предвид както тежестта на възможната вреда, така и вероятността от настъпването ѝ, и тези системи с ИИ се използват в някои конкретно и предварително определени области, посочени в настоящия регламент. Идентифицирането на тези системи се основава на същата методика и критерии като предвидените и за евентуални бъдещи изменения на списъка на високорисковите системи с ИИ, които Комисията следва да бъде оправомощена да приеме чрез делегирани актове, за да се вземат предвид бързите темпове на технологично развитие, както и възможните промени в използването на системите с ИИ.
(52)
În ceea ce privește sistemele de IA autonome, și anume alte sisteme de IA cu grad ridicat de risc decât cele care sunt componente de siguranță ale unor produse sau care sunt ele însele produse, este oportun să fie clasificate ca prezentând un grad ridicat de risc dacă, având în vedere scopul lor preconizat, prezintă un risc ridicat de a aduce prejudicii sănătății și siguranței sau drepturilor fundamentale ale persoanelor, ținându-se seama atât de gravitatea posibilelor prejudicii, cât și de probabilitatea producerii acestora, și dacă sunt utilizate într-o serie de domenii predefinite în mod specific precizate în prezentul regulament. Identificarea sistemelor respective se bazează pe aceeași metodologie și pe aceleași criterii avute în vedere pentru eventuale modificări viitoare ale listei de sisteme de IA cu grad ridicat de risc, modificări pe care Comisia ar trebui să fie împuternicită să le adopte, prin intermediul unor acte delegate, pentru a ține seama de ritmul rapid al dezvoltării tehnologice și de eventualele modificări în utilizarea sistemelor de IA.
(53)
Важно е също така да се поясни, че може да има особени случаи, в които системите с ИИ, свързани с предварително определени области, посочени в настоящия регламент, не водят до значителен риск от увреждане на правните интереси, защитени в тези области, тъй като не оказват съществено влияние върху вземането на решения или не увреждат съществено тези интереси. За целите на настоящия регламент система с ИИ, която не оказва съществено влияние върху резултата от вземането на решения, следва да се разбира като система с ИИ, която не оказва въздействие върху същността, а оттам и върху резултата от вземането на решения, независимо дали е от човека, или автоматизирано. Система с ИИ, която не оказва съществено влияние върху резултата от вземането на решения, може да включва ситуации, при които са изпълнени едно или повече от посочените по-нататък условия. Първото условие следва да бъде системата с ИИ да е предназначена да изпълнява конкретно определена процедурна задача, като например система с ИИ, която преобразува неструктурирани данни в структурирани данни, система с ИИ, която класифицира входящите документи в категории, или система с ИИ, която се използва за откриване на случаи на дублиране в рамките на голям брой приложения. Тези задачи са с толкова тесен и ограничен характер, че пораждат само ограничени рискове, които не се увеличават чрез използването на система с ИИ в контекст, посочен като високорисково използване в приложение към настоящия регламент. Второто условие следва да бъде задачата, изпълнявана от системата с ИИ, да има за цел подобряване на резултата от извършена преди това човешка дейност, която може да е от значение за целите на видовете високорисково използване, изброени в приложение към настоящия регламент. Като се имат предвид тези характеристики, системата с ИИ представлява само допълнение към човешката дейност с произтичащ от това понижен риск. Това условие например ще е приложимо при системи с ИИ, които имат за цел да подобрят езика, използван във вече изготвени документи, например във връзка с професионалния тон, академичния стил на езика или чрез привеждане на текста в съответствие с определено послание на дадена марка. Третото условие следва да бъде системата с ИИ да е предназначена да открива модели за вземане на решения или отклонения от съществуващи модели за вземане на решения. Рискът ще бъде намален, тъй като използването на системата с ИИ следва предварително извършена човешка оценка, която системата няма за цел да замени или да повлияе без подходящ преглед, извършен от човек. Тези системи с ИИ включват например такива, които, предвид определен модел на оценяване от преподавател, могат да се използват за последваща проверка на вероятността преподавателят да се е отклонил от модела на оценяване, така че да се откроят възможни несъответствия или аномалии. Четвъртото условие следва да бъде системата с ИИ да е предназначена да изпълнява задача, която представлява само подготвителен етап преди извършването на оценка, която е от значение за целите на системите с ИИ, изброени в приложение в настоящия регламент, като по този начин възможното въздействие на резултата от системата намалява в значителна степен от гледна точка на това дали представлява риск за оценката, която ще последва. Това условие обхваща, наред с другото, интелигентни решения за обработка на файлове, които включват различни функции като индексиране, търсене, обработка на текст и реч или свързване на данни с други източници на данни, или системи с ИИ, използвани за превод на първоначални документи. Във всеки случай следва да се счита, че системи с ИИ, използвани в случаи на високорисково използване, посочени в приложение към настоящия регламент, пораждат значителни рискове от вреди за здравето, безопасността или основните права, ако системата с ИИ предполага профилиране по смисъла на член 4, точка 4 от Регламент (ЕС) 2016/679 или член 3, точка 4 от Директива (ЕС) 2016/680, или член 3, точка 5 от Регламент (ЕС) 2018/1725. За да се гарантират проследимост и прозрачност, доставчик, който счита, че дадена система с ИИ не е високорискова въз основа на посочените по-горе условия, следва да изготви документация за оценката, преди системата да бъде пусната на пазара или пусната в действие, и при поискване да предостави тази документация на националните компетентни органи. Този доставчик следва да бъде задължен да регистрира системата с ИИ в базата данни на ЕС, създадена съгласно настоящия регламент. С цел да се дадат допълнителни насоки за практическото изпълнение на условията, съгласно които системи с ИИ, изброени в приложение към настоящия регламент, по изключение не са високорискови, Комисията, след консултация със Съвета по ИИ, следва да предостави насоки, в които да се конкретизира това практическо изпълнение, допълнено от изчерпателен списък с практически примери за случаи на използване на системи с ИИ, които са високорискови, и такива, които не са.
(53)
De asemenea, este important să se clarifice faptul că pot exista cazuri specifice în care sistemele de IA menționate în domenii predefinite specificate în prezentul regulament nu conduc la un risc semnificativ de a aduce prejudicii intereselor juridice protejate în cadrul domeniilor respective, deoarece nu influențează în mod semnificativ procesul decizional sau nu aduc prejudicii substanțiale intereselor respective. În sensul prezentului regulament, un sistem de IA care nu influențează în mod semnificativ rezultatul procesului decizional ar trebui să fie înțeles ca fiind un sistem de IA care nu are un impact asupra substanței și, prin urmare, nici asupra rezultatului procesului decizional, indiferent dacă este uman sau automatizat. Un sistem de IA care nu influențează în mod semnificativ rezultatul procesului decizional ar putea include situații în care sunt îndeplinite una sau mai multe dintre condițiile prezentate în continuare. Prima condiție ar trebui să fie aceea ca sistemul de IA să fie destinat să îndeplinească o sarcină procedurală restrânsă, de exemplu un sistem de IA care transformă date nestructurate în date structurate, un sistem de IA care clasifică pe categorii documentele primite sau un sistem de IA care este utilizat pentru a detecta duplicatele dintr-un număr mare de candidaturi. Aceste sarcini au un caracter atât de restrâns și de limitat încât prezintă doar riscuri reduse, riscuri care nu cresc prin utilizarea unui sistem de IA într-un context enumerat ca utilizare cu grad ridicat de risc într-o anexă la prezentul regulament. A doua condiție ar trebui să fie ca sarcina îndeplinită de sistemul de IA să fie menită să îmbunătățească rezultatul unei activități umane finalizate anterior care poate fi relevantă în sensul utilizărilor cu grad ridicat de risc enumerate într-o anexă la prezentul regulament. Având în vedere aceste caracteristici, sistemul de IA adaugă doar un nivel suplimentar unei activități umane, prezentând în consecință un risc redus. Această condiție s-ar aplica, de exemplu, sistemelor de IA care sunt menite să îmbunătățească limbajul utilizat în documente redactate anterior, de exemplu în ceea ce privește tonul profesional, stilul academic de limbaj sau alinierea textului la mesajele specifice unei anumite mărci. A treia condiție ar trebui să fie aceea ca sistemul de IA să fie destinat să detecteze modelele decizionale sau devierile de la modele decizionale anterioare. Riscul ar fi redus deoarece utilizarea sistemului de IA este ulterioară unei evaluări finalizate anterior de către un om, pe care nu este destinată să o înlocuiască sau să o influențeze fără o revizuire adecvată de către un om. Printre aceste sisteme de IA se numără, de exemplu, cele care, având în vedere un anumit model de notare folosit de un cadru didactic, pot fi utilizate pentru a verifica ex post dacă respectivul cadru didactic s-a abătut de la modelul de notare în cauză și pentru a semnala astfel eventuale inconsecvențe sau anomalii. A patra condiție ar trebui să fie aceea ca sistemul de IA să fie destinat să îndeplinească o sarcină care este doar pregătitoare pentru o evaluare relevantă pentru scopurile sistemelor de IA enumerate într-o anexă la prezentul regulament, făcând astfel ca posibilul impact al rezultatelor sistemului să prezinte un risc foarte scăzut pentru evaluarea ulterioară bazată pe ele. Această condiție se referă, printre altele, la soluțiile inteligente de gestionare a fișierelor, care includ diverse funcții, cum ar fi indexarea, căutarea, prelucrarea textelor și a vorbirii sau corelarea datelor cu alte surse de date, ori la sistemele de IA utilizate pentru traducerea documentelor inițiale. În orice caz, ar trebui să se considere că sistemele de IA utilizate în situații cu grad ridicat de risc enumerate într-o anexă la prezentul regulament prezintă riscuri semnificative de prejudicii la adresa sănătății, siguranței sau drepturilor fundamentale dacă implică crearea de profiluri în sensul articolului 4 punctul 4 din Regulamentul (UE) 2016/679 sau al articolului 3 punctul 4 din Directiva (UE) 2016/680 sau al articolului 3 punctul 5 din Regulamentul (UE) 2018/1725. Pentru a asigura trasabilitatea și transparența, un furnizor care consideră pe baza condițiilor menționate mai sus că un sistem de IA nu prezintă un grad ridicat de risc ar trebui să întocmească documentația pentru evaluare înainte ca sistemul respectiv să fie introdus pe piață sau pus în funcțiune și ar trebui să furnizeze respectiva documentație autorităților naționale competente, la cerere. Furnizorul ar trebui să fie obligat să înregistreze sistemul de IA în baza de date a UE instituită în temeiul prezentului regulament. Pentru a oferi îndrumare suplimentară în vederea punerii în practică a condițiilor în care sistemele de IA enumerate într-o anexă la prezentul regulament nu prezintă, în mod excepțional, un grad ridicat de risc, Comisia ar trebui, după consultarea Consiliului IA, să furnizeze orientări care să detalieze respectiva punere în practică, completate de o listă cuprinzătoare de exemple practice de cazuri de utilizare a sistemelor de IA cu grad ridicat de risc și cazuri de utilizare fără grad ridicat de risc.
(54)
Тъй като биометричните данни представляват специална категория лични данни, е целесъобразно да се класифицират като високорискови няколко случая на критично използване на биометрични системи, доколкото тяхното използване е разрешено съгласно съответното право на Съюза и национално право. Техническите неточности на системите с ИИ, предназначени за дистанционна биометрична идентификация на физически лица, могат да доведат до опорочени от предубеденост резултати и до дискриминация. Рискът от такива опорочени от предубеденост резултати и дискриминация е от особено значение във връзка с възраст, етническа принадлежност, раса, пол или увреждане. Поради това системите за дистанционна биометрична идентификация следва да бъдат класифицирани като високорискови с оглед на рисковете, които пораждат. Тази класификация изключва системите с ИИ, предназначени да бъдат използвани за биометрична проверка, включително за удостоверяване на самоличността, чиято единствена цел е да се потвърди, че конкретно физическо лице е лицето, за което се представя, и да се потвърди самоличността на физическо лице единствено за да се получи достъп до услуга, да се отключи устройство или да се придобие сигурен достъп до помещения. Освен това следва да бъдат класифицирани като високорискови системите с ИИ, предназначени да се използват за биометрично категоризиране в съответствие с чувствителни признаци или характеристики, защитени съгласно член 9, параграф 1 от Регламент (ЕС) 2016/679, въз основа на биометрични данни, доколкото те не са забранени съгласно настоящия регламент, и системи за разпознаване на емоции, които не са забранени съгласно настоящия регламент. Биометричните системи, които са предназначени да се използват единствено с цел да се позволи предприемането на мерки за киберсигурност и за защита на личните данни, не следва да се считат за високорискови системи с ИИ.
(54)
Întrucât datele biometrice constituie o categorie specială de date cu caracter personal, este oportun ca mai multe cazuri de utilizare critică a sistemelor biometrice să fie clasificate ca prezentând un grad ridicat de risc, în măsura în care utilizarea acestora este permisă în temeiul dreptului Uniunii și al dreptului intern relevant. Inexactitățile tehnice ale sistemelor de IA destinate identificării biometrice la distanță a persoanelor fizice pot conduce la rezultate distorsionate de prejudecăți și pot avea efecte discriminatorii. Riscul unor astfel de rezultate distorsionate de prejudecăți și efecte discriminatorii este deosebit de relevant în ceea ce privește vârsta, etnia, rasa, sexul sau dizabilitățile. Prin urmare, sistemele de identificare biometrică la distanță ar trebui să fie clasificate ca prezentând un grad ridicat de risc, având în vedere riscurile pe care le implică. Nu se încadrează în această clasificare sistemele de IA destinate a fi utilizate pentru verificarea biometrică, inclusiv pentru autentificare, al cărei unic scop este de a confirma că o anumită persoană fizică este cine susține că este și de a confirma identitatea unei persoane fizice cu unicul scop de a-i permite accesul la un serviciu, deblocarea unui dispozitiv sau accesul securizat într-o incintă. În plus, ar trebui să fie clasificate ca prezentând un grad ridicat de risc sistemele de IA destinate a fi utilizate pentru clasificarea biometrică în funcție de atribute sau caracteristici sensibile protejate în temeiul articolului 9 alineatul (1) din Regulamentul (UE) 2016/679 pe baza datelor biometrice, în măsura în care nu sunt interzise în temeiul prezentului regulament, și sistemele de recunoaștere a emoțiilor care nu sunt interzise în temeiul prezentului regulament. Sistemele biometrice destinate a fi utilizate exclusiv în scopul aplicării măsurilor de securitate cibernetică și de protecție a datelor cu caracter personal nu ar trebui să fie considerate sisteme de IA cu grad ridicat de risc.
(55)
Във връзка с управлението и експлоатацията на критична инфраструктура, е целесъобразно системите с ИИ, предназначени да бъдат използвани като защитни елементи при управлението и експлоатацията на критична цифрова инфраструктура, посочена в точка 8 от приложението към Директива (ЕС) 2022/2557, движението по пътищата и водоснабдяването, газоснабдяването, отоплението и електроенергията, да бъдат класифицирани като високорискови системи с ИИ, тъй като при тях аварията или неизправността може да изложи на риск живота и здравето на множество хора и да доведе до значителни смущения в обичайното осъществяване на социални и икономически дейности. Защитните елементи на критичната инфраструктура, включително критичната цифрова инфраструктура, са системи, използвани за пряка защита на физическата цялост на критичната инфраструктура или на здравето и безопасността на хората и имуществото, но не са необходими за функционирането на системата. Аварията или неизправността на тези елементи може пряко да породи рискове за физическата цялост на критичната инфраструктура и оттук –рискове за здравето и безопасността на хората и имуществото. Елементи, предназначени да се използват единствено за целите на киберсигурността, не следва да се квалифицират като защитни елементи. Сред примерите за защитни елементи на критичната инфраструктура могат да се посочат системите за наблюдение на водното налягане или контролните системи за пожароизвестяване в центровете за изчисления в облак.
(55)
În ceea ce privește gestionarea și exploatarea infrastructurii critice, este oportun să se clasifice ca prezentând un grad ridicat de risc sistemele de IA destinate utilizării drept componente de siguranță în cadrul gestionării și exploatării infrastructurilor digitale critice enumerate la punctul 8 din anexa la Directiva (UE) 2022/2557, a traficului rutier și a aprovizionării cu apă, gaz, încălzire și energie electrică, deoarece defectarea lor sau funcționarea lor defectuoasă poate pune în pericol viața și sănătatea persoanelor la scară largă și poate conduce la perturbări semnificative ale desfășurării obișnuite a activităților sociale și economice. Componentele de siguranță ale infrastructurii critice, inclusiv ale infrastructurii digitale critice, sunt sisteme utilizate pentru a proteja în mod direct integritatea fizică a infrastructurii critice sau sănătatea și siguranța persoanelor și a bunurilor, dar care nu sunt necesare pentru funcționarea sistemului. Defectarea sau funcționarea defectuoasă a unor astfel de componente ar putea conduce în mod direct la riscuri pentru integritatea fizică a infrastructurii critice și, prin urmare, la riscuri pentru sănătatea și siguranța persoanelor și a bunurilor. Componentele destinate a fi utilizate exclusiv în scopuri de securitate cibernetică nu ar trebui să se califice drept componente de siguranță. Printre exemplele de componente de siguranță ale unei astfel de infrastructuri critice se numără sistemele de monitorizare a presiunii apei sau sistemele de control al alarmei de incendiu în centrele de cloud computing.
(56)
Внедряването на системи с ИИ в образованието е важно, за да се насърчи висококачествено цифрово образование и обучение и да се даде възможност на всички учащи се и преподаватели да придобиват и споделят необходимите цифрови умения и компетентности, включително за медийна грамотност и критично мислене, за да участват активно в икономиката, обществото и демократичните процеси. Същевременно системите с ИИ, използвани в образованието или професионалното обучение, по-специално за определяне на достъпа или приема, за разпределяне на лица в институции или програми на всички нива на образованието и професионалното обучение, за оценяване на учебните резултати, за оценяване на подходящото ниво на образование за дадено лице и за оказване на съществено влияние върху нивото на образование и обучение, което лицата ще получат или до което ще могат да имат достъп, или за наблюдение и откриване на забранено поведение на ученици и студенти по време на изпити, следва да се класифицират като високорискови системи с ИИ, тъй като могат да определят образователния и професионалния път на дадено лице и така да повлияят на способността на това лице да осигурява прехраната си. Когато не са правилно проектирани и използвани, тези системи може да са особено инвазивни и е възможно да нарушат правото на образование и обучение, както и правото на недискриминация, и да продължат да възпроизвеждат исторически наложени дискриминационни модели, например срещу жени, определени възрастови групи, хора с увреждания или с определен расов или етнически произход или сексуална ориентация.
(56)
Implementarea sistemelor de IA în educație este importantă pentru a promova educația și formarea digitală de înaltă calitate și pentru a permite tuturor cursanților și cadrelor didactice să dobândească și să partajeze aptitudinile și competențele digitale necesare, inclusiv educația în domeniul mass-mediei și gândirea critică, pentru a participa activ la economie, în societate și la procesele democratice. Cu toate acestea, sistemele de IA utilizate în educație sau în formarea profesională, în special pentru stabilirea accesului sau a admiterii, pentru repartizarea persoanelor în instituții sau programe educaționale și de formare profesională la toate nivelurile, pentru evaluarea rezultatelor învățării unei persoane, pentru evaluarea nivelului adecvat de instruire al unei persoane, pentru influențarea semnificativă a nivelului de educație și formare pe care îl vor primi sau îl vor putea accesa persoanele sau pentru monitorizarea și detectarea comportamentului interzis al elevilor și studenților în timpul testelor, ar trebui să fie clasificate drept sisteme de IA cu grad ridicat de risc, deoarece pot determina parcursul educațional și profesional din viața unei persoane și, prin urmare, pot afecta capacitatea acesteia de a-și asigura mijloace de subzistență. Atunci când sunt concepute și utilizate în mod necorespunzător, astfel de sisteme pot fi deosebit de intruzive și pot încălca dreptul la educație și formare, precum și dreptul de a nu fi discriminat și pot perpetua tipare istorice de discriminare, de exemplu împotriva femeilor, a anumitor grupe de vârstă, a persoanelor cu dizabilități sau a persoanelor de anumite origini rasiale ori etnice sau cu o anumită orientare sexuală.
(57)
Системите с ИИ, използвани в областта на заетостта, управлението на работниците и достъпа до самостоятелна заетост, по-специално за подбор и наемане на лица, за вземане на решения, засягащи условията за повишение при отношения във връзка с полагане на труд и прекратяване на договорни отношения във връзка с полагане на труд, за разпределяне на задачи въз основа на индивидуално поведение, личностни черти или характеристики и за наблюдение или оценка на лица, които имат договорни отношения във връзка с полагане на труд, също следва да бъдат класифицирани като високорискови, тъй като тези системи могат в значителна степен да повлияят на бъдещите перспективи за професионално развитие, осигуряването на прехраната на тези лица и правата на работниците. Съответните договорни отношения във връзка с полагането на труд следва по пълноценен начин да включват и служителите и лицата, предоставящи услуги чрез платформи, както е посочено в работната програма на Комисията за 2021 г. По време на целия процес на набиране на персонал и при оценката, повишаването или задържането на лица в договорни отношения във връзка с полагането на труд такива системи могат да продължат да възпроизвеждат исторически наложени дискриминационни модели, например срещу жени, определени възрастови групи, хора с увреждания или с определен расов или етнически произход или сексуална ориентация. Системите с ИИ, използвани за наблюдение на работата и поведението на тези лица, могат също така да накърнят техните основни права на защита на данните и неприкосновеност на личния живот.
(57)
De asemenea, sistemele de IA utilizate în domeniul ocupării forței de muncă, al gestionării lucrătorilor și al accesului la activități independente, în special pentru recrutarea și selectarea persoanelor, pentru luarea deciziilor care afectează condițiile relației legate de muncă, pentru promovarea și încetarea relațiilor contractuale legate de muncă, pentru alocarea sarcinilor pe baza comportamentului individual sau a trăsăturilor sau caracteristicilor personale, precum și pentru monitorizarea sau evaluarea persoanelor aflate în relații contractuale legate de muncă, ar trebui să fie clasificate ca prezentând un grad ridicat de risc, deoarece aceste sisteme pot avea un impact semnificativ asupra viitoarelor perspective de carieră, asupra mijloacelor de subzistență ale acestor persoane și asupra drepturilor lucrătorilor. Relațiile contractuale relevante legate de muncă ar trebui să implice într-un mod semnificativ angajații și persoanele care prestează servicii prin intermediul platformelor, astfel cum se menționează în Programul de lucru al Comisiei pentru 2021. Pe tot parcursul procesului de recrutare, precum și în evaluarea, promovarea sau menținerea persoanelor în relații contractuale legate de muncă, astfel de sisteme pot perpetua tipare istorice de discriminare, de exemplu împotriva femeilor, a anumitor grupe de vârstă, a persoanelor cu dizabilități sau a persoanelor de anumite origini rasiale ori etnice sau cu o anumită orientare sexuală. Sistemele de IA utilizate pentru a monitoriza performanța și comportamentul acestor persoane pot, de asemenea, să le submineze drepturile fundamentale la protecția datelor și la viața privată.
(58)
Друга област, в която използването на системи с ИИ заслужава специално внимание, е достъпът до и ползването на някои основни частни и публични услуги и подпомагане, необходими на хората за пълноценно участие в обществото или за подобряване на техния стандарт на живот. По-специално, физическите лица, които кандидатстват или получават основно обществено подпомагане и услуги от публични органи, а именно здравни услуги, социалноосигурителни обезщетения, социални услуги, осигуряващи закрила в случаи като майчинство, заболяване, трудова злополука, зависимост или старост и загуба на работа, както и на социална помощ и помощ за жилищно настаняване, обикновено зависят от това подпомагане и услуги и са в уязвимо положение по отношение на отговорните органи. Ако системите с ИИ се използват, за да се определи дали това подпомагане и услуги следва да бъдат предоставени, отказани, намалени, отменени или възстановени от органите, включително дали бенефициерите имат законно право да се ползват от това подпомагане или услуги, въпросните системи могат да окажат значително въздействие върху материалната издръжка на тези лица и да нарушат основните им права, като правото на социална закрила, недискриминация, човешко достойнство или ефективни правни средства за защита, и поради това следва да бъдат класифицирани като високорискови. Независимо от това настоящият регламент не следва да възпрепятства разработването и използването на иновативни подходи в публичната администрация, за които по-широкото използване на съвместими и безопасни системи с ИИ би било полезно, при условие че тези системи не пораждат висок риск за юридическите и физическите лица. Наред с това системите с ИИ, използвани за оценка на кредитния рейтинг или кредитоспособността на физически лица, следва да бъдат класифицирани като високорискови системи с ИИ, тъй като те определят какъв достъп ще имат тези лица до финансови ресурси или основни услуги като жилищно настаняване, електроенергия и телекомуникационни услуги. Използваните за тези цели системи с ИИ могат да доведат до дискриминация на лица или групи и да продължат да възпроизвеждат исторически наложени дискриминационни модели, например въз основа на расов или етнически произход, пол, увреждане, възраст, сексуална ориентация, или да създадат нови форми на дискриминация. Системите с ИИ, предвидени в правото на Съюза за целите на разкриването на измами при предлагането на финансови услуги и за пруденциални цели за изчисляване на капиталовите изисквания на кредитните институции и застрахователите, не следва обаче да се считат за високорискови съгласно настоящия регламент. Освен това системите с ИИ, предназначени да се използват за оценка на риска и ценообразуване във връзка със здравно застраховане и животозастраховане на физически лица, също могат да окажат значително въздействие върху осигуряването на прехраната на лицата и ако не са надлежно проектирани, разработени и използвани, могат да нарушат техните основни права и да доведат до сериозни последици за живота и здравето на хората, включително финансово изключване и дискриминация. И на последно място, системите с ИИ, използвани за оценка и класифициране на спешните повиквания от физически лица или за изпращане или определяне на приоритет по отношение на изпращането на службите за спешно реагиране, включително от полицията, пожарната и медицинската помощ, както и на системите за разпределяне на пациенти в областта на спешната здравна помощ, също следва да бъдат класифицирани като високорискови, тъй като те вземат решения в ситуации, които са изключително критични за живота и здравето на хората и за тяхното имущество.
(58)
Un alt domeniu în care utilizarea sistemelor de IA merită o atenție deosebită este accesul și posibilitatea de a beneficia de anumite prestații și servicii publice și private esențiale, necesare pentru ca oamenii să participe pe deplin în societate sau să își îmbunătățească nivelul de trai. În special, persoanele fizice care solicită sau primesc prestații și servicii esențiale de asistență publică din partea autorităților publice, și anume servicii de îngrijiri de sănătate, prestații de asigurări sociale, servicii sociale care oferă protecție în cazuri precum maternitatea, boala, accidentele de muncă, dependența, bătrânețea, pierderea locului de muncă, precum și asistență socială și legată de locuințe, sunt de regulă dependente de aceste prestații și servicii și se află într-o poziție vulnerabilă în raport cu autoritățile responsabile. În cazul în care sistemele de IA sunt utilizate pentru a stabili dacă astfel de prestații și servicii ar trebui să fie acordate, refuzate, reduse, revocate sau recuperate de autorități, inclusiv dacă beneficiarii au dreptul legitim la astfel de prestații sau servicii, sistemele respective pot avea un impact semnificativ asupra mijloacelor de subzistență ale persoanelor și le pot încălca drepturile fundamentale, cum ar fi dreptul la protecție socială, la nediscriminare, la demnitatea umană sau la o cale de atac efectivă și, prin urmare, ar trebui să fie clasificate ca prezentând un grad ridicat de risc. Cu toate acestea, prezentul regulament nu ar trebui să împiedice dezvoltarea și utilizarea unor abordări inovatoare în administrația publică, care ar putea beneficia de o utilizare mai largă a sistemelor de IA conforme și sigure, cu condiția ca aceste sisteme să nu implice un risc ridicat pentru persoanele fizice și juridice. În plus, sistemele de IA utilizate pentru a evalua punctajul de credit sau bonitatea persoanelor fizice ar trebui să fie clasificate ca sisteme de IA cu grad ridicat de risc, întrucât acestea determină accesul persoanelor respective la resurse financiare sau la servicii esențiale, cum ar fi locuințe, electricitate și telecomunicații. Sistemele de IA utilizate în aceste scopuri pot duce la discriminare între persoane sau între grupuri și pot perpetua tipare istorice de discriminare, de exemplu pe criterii de origine rasială sau etnică, sex, dizabilitate, vârstă sau orientare sexuală, sau pot crea noi forme de impact discriminatoriu. Cu toate acestea, sistemele de IA prevăzute de dreptul Uniunii în scopul detectării fraudelor în furnizarea de servicii financiare și în scopuri prudențiale pentru a calcula cerințele de capital ale instituțiilor de credit și ale întreprinderilor de asigurări nu ar trebui să fie considerate ca prezentând un grad ridicat de risc în temeiul prezentului regulament. În plus, sistemele de IA destinate a fi utilizate pentru evaluarea riscurilor și stabilirea prețurilor pentru asigurarea de sănătate și de viață în cazul persoanelor fizice pot avea, de asemenea, un impact semnificativ asupra mijloacelor de subzistență ale persoanelor și, dacă nu sunt concepute, dezvoltate și utilizate în mod corespunzător, pot încălca drepturile lor fundamentale și pot avea consecințe grave pentru viața și sănătatea oamenilor, cum ar fi excluziunea financiară și discriminarea. În cele din urmă, sistemele de IA utilizate pentru evaluarea și clasificarea apelurilor de urgență ale persoanelor fizice sau pentru distribuirea sau stabilirea priorităților în distribuirea serviciilor de primă intervenție de urgență, inclusiv de către poliție, pompieri și asistența medicală, precum și în cadrul sistemelor de triaj medical de urgență al pacienților, ar trebui de asemenea să fie clasificate ca prezentând un grad ridicat de risc, deoarece iau decizii în situații foarte critice pentru viața și sănătatea persoanelor și pentru bunurile acestora.
(59)
Предвид техните функции и отговорност, действията на правоохранителните органи, включващи определени видове използване на системи с ИИ, се характеризират със значителна степен на властово неравновесие и могат да доведат до наблюдение, задържане или лишаване от свобода на физическо лице, както и до други неблагоприятни въздействия по отношение на основните права, гарантирани от Хартата. По-специално, ако системата с ИИ не е обучена с висококачествени данни, не отговаря на съответните изисквания по отношение на своето функциониране, точност или надеждност или не е била правилно проектирана и изпитана преди да бъде пусната на пазара или по друг начин пусната в действие, тя може да избира лица по дискриминационен начин или по неправилен или необективен в друго отношение начин. Освен това упражняването на важни процесуални основни права, като правото на ефективни правни средства за защита и на справедлив съдебен процес, както и правото на защита и презумпцията за невиновност, би могло да бъде възпрепятствано, по-специално когато системите с ИИ не са достатъчно прозрачни, разбираеми и документирани. Поради това е целесъобразно редица системи с ИИ, предназначени да бъдат използвани в правоохранителен контекст, където точността, надеждността и прозрачността са особено важни за избягване на неблагоприятни въздействия, запазване на общественото доверие и гарантиране на отчетност и ефективна правна защита, да се класифицират като високорискови, доколкото тяхното използване е разрешено съгласно съответното право на Съюза и национално право. С оглед на естеството на дейностите и свързаните с тях рискове тези високорискови системи с ИИ следва да включват по-специално системи с ИИ, предназначени да бъдат използвани от или от името на правоохранителните органи или от институции, органи, служби или агенции на Съюза в подкрепа на правоохранителните органи за оценка на риска дадено физическо лице да стане жертва на престъпления, например полиграфи и подобни инструменти, за оценка на надеждността на доказателствата в хода на разследването или наказателното преследване на престъпления, и, доколкото това не е забранено съгласно настоящия регламент, за оценка на риска дадено физическо лице да извърши нарушение или повторно нарушение не само въз основа на профилирането на физически лица или на оценката на личностни черти и характеристики или на минало престъпно поведение на физически лица или групи, както и за профилиране в хода на разкриването, разследването или наказателното преследване на престъпления. Системите с ИИ, специално предназначени да се използват за административни производства от данъчните и митническите органи, както и от звената за финансово разузнаване, изпълняващи административни задачи за анализ на информация съгласно правото на Съюза за борба с изпирането на пари, не следва да се класифицират като високорискови системи с ИИ, използвани от правоохранителните органи за целите на предотвратяването, разкриването, разследването и наказателното преследване на престъпления. Използването на инструменти с ИИ от страна на правоохранителните и други съответни органи не следва да се превръща във фактор, обуславящ неравенство или изключване. Въздействието на използването на инструменти с ИИ върху правата на защита на заподозрените лица не следва да се пренебрегва, по-специално трудностите при получаване на съдържателна информация относно функционирането на тези системи и произтичащите от това трудности при оспорване на резултатите от тях в съда, по-специално от страна на физически лица, срещу които се води разследване.
(59)
Având în vedere rolul și responsabilitatea lor, acțiunile întreprinse de autoritățile de aplicare a legii care implică anumite utilizări ale sistemelor de IA sunt caracterizate de un grad semnificativ de dezechilibru de putere și pot duce la supravegherea, arestarea sau privarea de libertate a unei persoane fizice, precum și la alte efecte negative asupra drepturilor fundamentale garantate în cartă. În special, în cazul în care nu este alimentat cu date de înaltă calitate, nu îndeplinește cerințe adecvate de performanță, acuratețe sau robustețe sau nu este proiectat și testat în mod corespunzător înainte de a fi introdus pe piață sau pus în funcțiune în alt mod, sistemul de IA poate selecta persoanele într-un mod discriminatoriu sau, la un nivel mai general, în mod incorect ori injust. În plus, exercitarea unor drepturi procedurale fundamentale importante, cum ar fi dreptul la o cale de atac efectivă și la un proces echitabil, precum și dreptul la apărare și prezumția de nevinovăție, ar putea fi împiedicată, în special în cazul în care astfel de sisteme de IA nu sunt suficient de transparente, explicabile și documentate. Prin urmare, este oportun să fie clasificate ca prezentând un grad ridicat de risc, în măsura în care utilizarea lor este permisă în temeiul dreptului Uniunii și al dreptului intern relevant, o serie de sisteme de IA destinate a fi utilizate în contextul aplicării legii, în care acuratețea, fiabilitatea și transparența sunt deosebit de importante pentru a evita efectele negative, pentru a păstra încrederea publicului și pentru a asigura asumarea răspunderii și reparații efective. Având în vedere natura activităților și riscurile aferente, aceste sisteme de IA cu grad ridicat de risc ar trebui să includă, în special, sistemele de IA destinate a fi utilizate de autoritățile de aplicare a legii sau în numele acestora sau de instituțiile, organele, oficiile sau agențiile Uniunii în sprijinul autorităților de aplicare a legii pentru a evalua riscul ca o persoană fizică să devină victimă a infracțiunilor, ca poligrafe și instrumente similare pentru evaluarea fiabilității probelor în cursul investigării sau urmăririi penale a infracțiunilor și, în măsura în care nu se interzice în temeiul prezentului regulament, pentru a evalua riscul ca o persoană fizică să comită o infracțiune sau o recidivă, nu numai pe baza creării de profiluri ale persoanelor fizice, a evaluării trăsăturilor de personalitate și a caracteristicilor lor sau a comportamentului infracțional anterior al persoanelor fizice sau al grupurilor, precum și pentru a crea profiluri în cursul depistării, investigării sau urmăririi penale a infracțiunilor. Sistemele de IA destinate în mod specific utilizării în proceduri administrative de către autoritățile fiscale și vamale, precum și de către unitățile de informații financiare care efectuează sarcini administrative prin care analizează informații în temeiul dreptului Uniunii privind combaterea spălării banilor, nu ar trebui să fie clasificate ca sisteme de IA cu grad ridicat de risc utilizate de autoritățile de aplicare a legii în scopul prevenirii, depistării, investigării și urmăririi penale a infracțiunilor. Utilizarea instrumentelor de IA de către autoritățile de aplicare a legii și de alte autorități relevante nu ar trebui să devină un factor de inegalitate sau de excluziune. Impactul utilizării instrumentelor de IA asupra drepturilor la apărare ale suspecților nu ar trebui să fie ignorat, în special dificultatea de a obține informații semnificative cu privire la funcționarea acestor sisteme și, în consecință, dificultatea de a contesta rezultatele acestora în instanță, în special de către persoanele fizice care fac obiectul investigării.
(60)
Системите с ИИ, използвани в управлението на миграцията, убежището и граничния контрол, засягат лица, които често са в особено уязвимо положение и които зависят от резултата от действията на компетентните публични органи. Поради това точността, недискриминационният характер и прозрачността на системите с ИИ, използвани в тези ситуации, са особено важни, за да се гарантира зачитането на основните права на засегнатите лица, по-специално правото им на свободно движение, недискриминация, защита на личния живот и личните данни, международна закрила и добра администрация. Поради това е целесъобразно, доколкото използването им е разрешено съгласно съответното право на Съюза и национално право, да бъдат класифицирани като високорискови системите с ИИ, предназначени да бъдат използвани от или от името на компетентните публични органи или от институции, органи, служби или агенции на Съюза, натоварени със задачи в областта на управлението на миграцията, убежището и граничния контрол, например полиграфи и подобни инструменти, за оценка на определени рискове, произтичащи от физически лица, които влизат на територията на държава членка или подават молба за виза или убежище, за подпомагане на компетентните публични органи при разглеждането, включително свързаната с това оценка на надеждността на доказателствата, на молби за убежище, визи и разрешения за пребиваване и свързаните с тях жалби по отношение на целта за установяване на допустимостта на физическите лица, кандидатстващи за статут, с цел откриване, разпознаване или установяване на самоличността на физически лица в контекста на управлението на миграцията, убежището и граничния контрол, с изключение на проверка на документите за пътуване. Системите с ИИ в областта на управлението на миграцията, убежището и граничния контрол, обхванати от настоящия регламент, следва да съответстват на съответните процедурни изисквания, установени в Регламент (ЕО) № 810/2009 на Европейския парламент и на Съвета (32), Директива 2013/32/ЕС на Европейския парламент и на Съвета (33) и друго съответно право на Съюза. Системите с ИИ в контекста на управлението на миграцията, убежището и граничния контрол не следва при никакви обстоятелства да се използват от държавите членки или институциите, органите, службите или агенциите на Съюза като средство за заобикаляне на техните международни задължения съгласно Конвенцията на Организацията на обединените нации за статута на бежанците, съставена в Женева на 28 юли 1951 г. и изменена с Протокола от 31 януари 1967 г. Те не следва да се използват и за нарушаване по какъвто и да било начин на принципа на забрана за връщане или за отказ във връзка с безопасни и ефективни законни възможности за достъп до територията на Съюза, включително правото на международна закрила.
(60)
Sistemele de IA utilizate în domeniile migrației, azilului și gestionării controlului la frontiere afectează persoane care se află adesea într-o poziție deosebit de vulnerabilă și care depind de rezultatul acțiunilor autorităților publice competente. Acuratețea, caracterul nediscriminatoriu și transparența sistemelor de IA utilizate în aceste contexte sunt, prin urmare, deosebit de importante pentru a garanta respectarea drepturilor fundamentale ale persoanelor afectate, în special a drepturilor acestora la liberă circulație, nediscriminare, protecția vieții private și a datelor cu caracter personal, protecție internațională și bună administrare. Prin urmare, este oportun să fie clasificate ca prezentând un grad ridicat de risc, în măsura în care utilizarea lor este permisă în temeiul dreptului Uniunii și al dreptului intern relevant, sistemele de IA destinate a fi utilizate de către autoritățile publice competente ori în numele acestora sau de către instituțiile, organele, oficiile sau agențiile Uniunii care au atribuții în domeniile migrației, azilului și gestionării controlului la frontiere ca poligrafe și instrumente similare, pentru a evalua anumite riscuri prezentate de persoanele fizice care intră pe teritoriul unui stat membru sau care solicită viză sau azil, pentru a acorda asistență autorităților publice competente în ceea ce privește examinarea, inclusiv evaluarea conexă a fiabilității probelor, a cererilor de azil, de vize și de permise de ședere și a plângerilor aferente cu privire la obiectivul de stabilire a eligibilității persoanelor fizice care solicită un statut, în scopul detectării, al recunoașterii sau al identificării persoanelor fizice în contextul migrației, al azilului și al gestionării controlului la frontiere, cu excepția verificării documentelor de călătorie. Sistemele de IA din domeniul migrației, azilului și gestionării controlului la frontiere reglementate de prezentul regulament ar trebui să respecte cerințele procedurale relevante stabilite de Regulamentul (CE) nr. 810/2009 al Parlamentului European și al Consiliului (32), de Directiva 2013/32/UE a Parlamentului European și a Consiliului (33) și de alte dispoziții relevante din dreptul Uniunii. Statele membre sau instituțiile, organele, oficiile și agențiile Uniunii nu ar trebui în niciun caz să utilizeze sistemele de IA în domeniul migrației, azilului și gestionării controlului la frontiere ca mijloc de eludare a obligațiilor lor internaționale în temeiul Convenției ONU privind statutul refugiaților întocmită la Geneva la 28 iulie 1951, astfel cum a fost modificată prin Protocolul din 31 ianuarie 1967. De asemenea, respectivele sisteme de IA nu ar trebui să fie utilizate pentru a încălca în vreun fel principiul nereturnării sau pentru a refuza căi legale sigure și eficace de intrare pe teritoriul Uniunii, inclusiv dreptul la protecție internațională.
(61)
Някои системи с ИИ, предназначени за използване в правораздаването и при демократичните процеси, следва да бъдат класифицирани като високорискови, като се има предвид потенциално значителното им въздействие върху демокрацията, принципите на правовата държава, индивидуалните свободи, както и правото на ефективни правни средства за защита и на справедлив съдебен процес. По-специално, за да се преодолеят рисковете от възможна предубеденост, грешки и непрозрачност, е целесъобразно да се класифицират като високорискови системите с ИИ, предназначени да бъдат използвани от орган на съдебна власт или от негово име, за да подпомагат органите на съдебна власт при проучването и тълкуването на фактите и правото и при прилагането на правото към конкретен набор от факти. Системите с ИИ, предназначени да бъдат използвани от органите за алтернативно разрешаване на спорове за тези цели, също следва да се считат за високорискови, когато резултатите от производството по алтернативно разрешаване на спорове пораждат правни последици за страните. Използването на инструменти с ИИ може да подпомогне, но не следва да заменя правомощията на съда за вземане на решения или независимостта на съдебната власт; окончателното вземане на решение трябва да продължи да бъде ръководено от човека. Класификацията на системите с ИИ като високорискови не следва обаче да обхваща системите с ИИ, предназначени за чисто спомагателни административни дейности, които не засягат самото правораздаване по отделните дела, като например анонимизиране или псевдонимизиране на съдебни решения, документи или данни, комуникация между персонала и административни задачи.
(61)
Anumite sisteme de IA destinate administrării justiției și proceselor democratice ar trebui să fie clasificate ca prezentând un grad ridicat de risc, având în vedere impactul potențial semnificativ al acestora asupra democrației, statului de drept și libertăților individuale, precum și asupra dreptului la o cale de atac efectivă și la un proces echitabil. În special, pentru a aborda potențialele riscuri de prejudecăți, erori și opacitate, este oportun să fie calificate drept sisteme cu grad ridicat de risc sistemele de IA destinate să fie utilizate de o autoritate judiciară sau în numele acesteia pentru a ajuta autoritățile judiciare să cerceteze și să interpreteze faptele și legea și să aplice legea unui set concret de fapte. Sistemele de IA destinate a fi utilizate de organismele de soluționare alternativă a litigiilor în aceste scopuri ar trebui, de asemenea, să fie considerate ca având un grad ridicat de risc atunci când rezultatele procedurilor de soluționare alternativă a litigiilor produc efecte juridice pentru părți. Utilizarea instrumentelor de IA poate sprijini puterea de decizie a judecătorilor sau independența sistemului judiciar, dar nu ar trebui să le înlocuiască: procesul decizional final trebuie să rămână o activitate umană. Clasificarea sistemelor de IA ca prezentând un grad ridicat de risc nu ar trebui, totuși, să se extindă la sistemele de IA destinate unor activități administrative pur auxiliare care nu afectează administrarea efectivă a justiției în cazuri individuale, cum ar fi anonimizarea sau pseudonimizarea hotărârilor judecătorești, a documentelor sau a datelor, comunicarea între membrii personalului, sarcinile administrative.
(62)
Без да се засягат правилата, предвидени в Регламент (ЕС) 2024/900 на Европейския парламент и на Съвета (34), и с цел да се преодолеят рисковете от неправомерна външна намеса в упражняването на правото на глас, залегнало в член 39 от Хартата, и от неблагоприятните последици за демокрацията и принципите на правовата държава, системите с ИИ, предназначени да се използват за оказване на влияние върху резултата от избори или референдум или върху поведението на физическите лица при упражняване на правото им на глас в избори или референдум, следва да се класифицират като високорискови системи с ИИ, с изключение на системите с ИИ, на чиито резултати физическите лица не са пряко изложени, като например инструменти, използвани за организиране, оптимизиране и структуриране на политически кампании от административна и логистична гледна точка.
(62)
Fără a aduce atingere normelor prevăzute în Regulamentul (UE) 2024/900 al Parlamentului European și al Consiliului (34) și pentru a aborda riscurile de ingerințe externe nejustificate în dreptul de vot consacrat la articolul 39 din cartă și de efecte adverse asupra democrației și a statului de drept, sistemele de IA destinate a fi utilizate pentru a influența rezultatul unor alegeri sau al unui referendum sau comportamentul de vot al persoanelor fizice în exercitarea votului lor în cadrul alegerilor sau al referendumurilor ar trebui să fie clasificate drept sisteme de IA cu grad ridicat de risc, cu excepția sistemelor de IA la ale căror rezultate persoanele fizice nu sunt expuse în mod direct, cum ar fi instrumentele utilizate pentru organizarea, optimizarea și structurarea campaniilor politice din punct de vedere administrativ și logistic.
(63)
Фактът, че дадена система с ИИ е класифицирана като високорискова система с ИИ съгласно настоящия регламент, не следва да се тълкува като указване, че използването на системата е законосъобразно съгласно други актове на правото на Съюза или съгласно националното право, съвместимо с правото на Съюза, като например относно защитата на личните данни и използването на полиграфи и подобни инструменти или други системи за разпознаване на емоционалното състояние на физическите лица. Всяко такова използване следва да продължи да се извършва единствено в съответствие с приложимите изисквания, произтичащи от Хартата и от приложимите актове на вторичното право на Съюза и националното право. Настоящият регламент не следва да се тълкува като предоставящ правно основание за обработването на лични данни, включително, ако е приложимо, на специални категории лични данни, освен когато в него изрично е предвидено друго.
(63)
Faptul că un sistem de IA este clasificat ca sistem de IA cu grad ridicat de risc în temeiul prezentului regulament nu ar trebui să fie interpretat ca indicând că utilizarea sistemului este legală în temeiul altor acte ale dreptului Uniunii sau al dreptului intern compatibil cu dreptul Uniunii, cum ar fi în ceea ce privește protecția datelor cu caracter personal, utilizarea poligrafelor și a instrumentelor similare sau a altor sisteme pentru detectarea stării emoționale a persoanelor fizice. Orice astfel de utilizare ar trebui să continue să aibă loc numai în conformitate cu cerințele aplicabile care decurg din cartă, precum și din legislația secundară aplicabilă a Uniunii și din dreptul intern aplicabil. Prezentul regulament nu ar trebui să fie înțeles ca oferind temeiul juridic pentru prelucrarea datelor cu caracter personal, inclusiv a categoriilor speciale de date cu caracter personal, după caz, cu excepția cazului în care se specifică altfel în cuprinsul prezentului regulament.
(64)
За да се ограничат рисковете, произтичащи от високорискови системи с ИИ, пуснати на пазара или пуснати в действие, и за да се гарантира високо равнище на надеждност, за високорисковите системи с ИИ следва да се прилагат някои задължителни изисквания, при които се вземат предвид предназначението и контекстът на използване на системата с ИИ и които са съобразени със системата за управление на риска, която ще бъде създадена от доставчика. Мерките, предприети от доставчиците за спазване на задължителните изисквания на настоящия регламент, следва да са съобразени с общопризнатите съвременни технически постижения в областта на ИИ и да бъдат пропорционални и ефективни за постигане на целите на настоящия регламент. Въз основа на новата законодателна рамка, съгласно обясненията в известието на Комисията „Синьото ръководство“ за прилагане на правилата на ЕС относно продуктите – 2022 г., общото правило е, че повече от един правен акт от законодателството на Съюза за хармонизация може да е приложим за един продукт, тъй като предоставянето на пазара или пускането в действие може да се извърши само когато продуктът е в съответствие с цялото приложимо законодателство на Съюза за хармонизация. Опасностите, свързани със системите с ИИ, обхванати от изискванията на настоящия регламент, се отнасят до аспекти, различни от действащото законодателство на Съюза за хармонизация, поради което изискванията на настоящия регламент ще допълнят действащото законодателство на Съюза за хармонизация. Например машините или медицинските изделия, включващи система с ИИ, могат да представляват рискове, които не са обхванати от съществените изисквания, свързани със здравето и безопасността, установени в съответното законодателство на Съюза за хармонизация, тъй като в това секторно право не се уреждат рисковете, присъщи за системите с ИИ. Поради това е необходимо едновременно и допълващо се прилагане на различните законодателни актове. За да се гарантира съгласуваност и да се избегнат ненужна административна тежест и ненужни разходи, доставчиците на продукт, който съдържа една или повече високорискови системи с ИИ, за които се прилагат изискванията на настоящия регламент и на законодателството на Съюза за хармонизация въз основа на новата законодателна рамка, което е посочено в приложение към настоящия регламент, следва да разполагат с гъвкавост по отношение на оперативните решения за това как да се гарантира оптимално съответствие на продукт, който съдържа една или повече системи с ИИ, с всички приложими изисквания на това законодателство на Съюза за хармонизация. Тази гъвкавост би могла да означава например решение на доставчика да интегрира част от необходимите процеси на изпитване и докладване, информация и документация, изисквани съгласно настоящия регламент, във вече съществуваща документация и процедури, изисквани съгласно съществуващото законодателство на Съюза за хармонизация въз основа на новата законодателна рамка, посочено в приложение към настоящия регламент. Това по никакъв начин не следва да засяга задължението на доставчика да спазва всички приложими изисквания.
(64)
Pentru atenuarea riscurilor generate de sistemele de IA cu grad ridicat de risc introduse pe piață sau puse în funcțiune și pentru a asigura un nivel înalt de credibilitate, ar trebui să se aplice anumite cerințe obligatorii în cazul sistemelor de IA cu grad ridicat de risc, ținând seama de scopul preconizat și de contextul utilizării sistemului de IA și în conformitate cu sistemul de gestionare a riscurilor care urmează să fie instituit de furnizor. Măsurile adoptate de furnizori pentru a se conforma cerințelor obligatorii din prezentul regulament ar trebui să țină seama de stadiul general recunoscut al tehnologiei în materie de IA, să fie proporționale și eficace pentru a îndeplini obiectivele prezentului regulament. Pe baza noului cadru legislativ, astfel cum s-a clarificat în Comunicarea Comisiei intitulată „«Ghidul albastru» din 2022 referitor la punerea în aplicare a normelor UE privind produsele”, regula generală este că cel puțin un act juridic din legislația de armonizare a Uniunii poate fi aplicabil unui singur produs, deoarece punerea la dispoziție sau punerea în funcțiune poate avea loc numai atunci când produsul respectă întreaga legislație de armonizare a Uniunii aplicabilă. Pericolele sistemelor de IA care fac obiectul cerințelor prezentului regulament se referă la aspecte diferite față de legislația existentă de armonizare a Uniunii și, prin urmare, cerințele prezentului regulament ar completa corpul existent al legislației de armonizare a Uniunii. De exemplu, mașinile sau dispozitivele medicale care încorporează un sistem de IA ar putea prezenta riscuri care nu sunt abordate de cerințele esențiale de sănătate și siguranță prevăzute în legislația armonizată relevantă a Uniunii, deoarece legislația sectorială respectivă nu abordează riscurile specifice sistemelor de IA. Acest lucru necesită o aplicare simultană și complementară a diferitelor acte legislative. Pentru a se asigura coerența și a se evita sarcinile administrative și costurile inutile, furnizorii unui produs care conține unul sau mai multe sisteme de IA cu grad ridicat de risc, cărora li se aplică cerințele prezentului regulament și ale legislației de armonizare a Uniunii bazate pe noul cadru legislativ și care figurează într-o anexă la prezentul regulament, ar trebui să fie flexibili în ceea ce privește deciziile operaționale cu privire la modul optim de asigurare a conformității unui produs care conține unul sau mai multe sisteme de IA cu toate cerințele aplicabile din respectiva legislație armonizată a Uniunii. Această flexibilitate ar putea însemna, de exemplu, o decizie a furnizorului de a integra o parte a proceselor de testare și raportare necesare, informațiile și documentația impuse în temeiul prezentului regulament în documentația și în procedurile deja existente impuse în temeiul legislației de armonizare existente a Uniunii bazate pe noul cadru legislativ și care figurează într-o anexă la prezentul regulament. Acest lucru nu ar trebui să submineze în niciun fel obligația furnizorului de a respecta toate cerințele aplicabile.
(65)
Системата за управление на риска следва да се състои от непрекъснат цикличен процес, който се планира и протича през целия жизнен цикъл на високорисковата система с ИИ. Този процес следва да бъде насочен към установяване и ограничаване на съответните рискове, произтичащи от системите с ИИ, за здравето, безопасността и основните права. Системата за управление на риска следва да подлежи на редовен преглед и за бъде актуализирана, за да се гарантира непрекъснатата ѝ ефективност, както и обосновката и документирането на всички важни решения и действия, предприети съгласно настоящия регламент. Този процес следва да гарантира, че доставчикът установява рисковете или неблагоприятните въздействия и прилага мерки за ограничаване на известните и разумно предвидими рискове, произтичащи от системите с ИИ, за здравето, безопасността и основните права с оглед на тяхното предназначение и разумно предвидима неправилна експлоатация, включително възможните рискове, произтичащи от взаимодействието между системата с ИИ и средата, в която тя работи. Системата за управление на риска следва да предприема най-подходящите мерки за управление на риска с оглед на съвременните технически постижения в областта на ИИ. При определянето на най-подходящите мерки за управление на риска доставчикът следва да документира и обясни направения избор и, когато е целесъобразно, да включи експерти и външни заинтересовани страни. При установяването на разумно предвидима неправилна експлоатация на високорискови системи с ИИ доставчикът следва да обхване използването на системите с ИИ, които, макар и да не са пряко обхванати от предназначението и предвидени в инструкциите за употреба, може все пак да се очаква, че са резултат от лесно предвидимо човешко поведение в контекста на специфичните характеристики и използване на конкретна система с ИИ. Всички известни или предвидими обстоятелства, свързани с използването на високорисковата система с ИИ в съответствие с предназначението ѝ или в условия на разумно предвидима неправилна експлоатация, които могат да породят рискове за здравето и безопасността или за основните права, следва да бъдат включени в инструкциите за употреба, предоставени от доставчика. Целта е да се гарантира, че внедрителят е запознат с тях и ги взема предвид при използването на високорисковата система с ИИ. Определянето и прилагането на мерки за ограничаване на риска в случаи на предвидима неправилна експлоатация съгласно настоящия регламент не следва да изискват осигуряването на конкретно допълнително обучение за високорисковата система с ИИ от страна на доставчика с цел намиране на решение във връзка с предвидимата неправилна експлоатация. Доставчиците обаче се насърчават да обмислят такива допълнителни мерки за обучение с цел ограничаване на случаи на разумно предвидима неправилна експлоатация, когато това е необходимо и целесъобразно.
(65)
Sistemul de gestionare a riscurilor ar trebui să constea într-un proces iterativ continuu care este preconizat și derulat pe parcursul întregului ciclu de viață al unui sistem de IA cu grad ridicat de risc. Respectivul proces ar trebui să aibă drept scop identificarea și atenuarea riscurilor relevante reprezentate de sistemele de IA pentru sănătate, siguranță și drepturile fundamentale. Sistemul de gestionare a riscurilor ar trebui să fie evaluat și actualizat periodic pentru a se asigura eficacitatea sa continuă, precum și justificarea și documentarea oricăror decizii și acțiuni semnificative luate în temeiul prezentului regulament. Acest proces ar trebui să garanteze faptul că furnizorul identifică riscurile sau efectele negative și pune în aplicare măsuri de atenuare pentru riscurile cunoscute și previzibile în mod rezonabil reprezentate de sistemele de IA pentru sănătate, siguranță și drepturile fundamentale, având în vedere scopul preconizat al acestora și utilizarea necorespunzătoare previzibilă în mod rezonabil ale acestor sisteme, inclusiv posibilele riscuri care decurg din interacțiunea dintre sistemele de IA și mediul în care funcționează. Sistemul de gestionare a riscurilor ar trebui să adopte cele mai adecvate măsuri de gestionare a riscurilor, având în vedere stadiul cel mai avansat al tehnologiei în domeniul IA. Atunci când identifică cele mai adecvate măsuri de gestionare a riscurilor, furnizorul ar trebui să documenteze și să explice alegerile făcute și, după caz, să implice experți și părți interesate externe. Atunci când identifică utilizarea necorespunzătoare previzibilă în mod rezonabil a sistemelor de IA cu grad ridicat de risc, furnizorul ar trebui să acopere utilizările sistemelor de IA în legătură cu care se poate aștepta în mod rezonabil, să rezulte dintr-un comportament uman ușor previzibil în contextul caracteristicilor specifice și al utilizării unui anumit sistem de IA, deși utilizările respective nu sunt acoperite în mod direct de scopul preconizat și nu sunt prevăzute în instrucțiunile de utilizare. Orice circumstanțe cunoscute sau previzibile legate de utilizarea sistemului de IA cu grad ridicat de risc în conformitate cu scopul său preconizat sau în condiții de utilizare necorespunzătoare previzibilă în mod rezonabil, care pot conduce la riscuri pentru sănătate și siguranță sau pentru drepturile fundamentale, ar trebui să fie incluse în instrucțiunile de utilizare care sunt furnizate de furnizor. Scopul este de a se asigura că implementatorul le cunoaște și le ia în considerare atunci când utilizează sistemul de IA cu grad ridicat de risc. Identificarea și punerea în aplicare a măsurilor de atenuare a riscurilor în caz de utilizare necorespunzătoare previzibilă în temeiul prezentului regulament nu ar trebui să necesite din partea furnizorului antrenare suplimentară specifică pentru sistemul de IA cu grad ridicat de risc pentru a aborda utilizarea necorespunzătoare previzibilă. Cu toate acestea, furnizorii sunt încurajați să ia în considerare astfel de măsuri suplimentare de antrenare pentru a atenua utilizările necorespunzătoare previzibile în mod rezonabil, după cum este necesar și adecvat.
(66)
По отношение на високорисковите системи с ИИ следва да се прилагат изисквания за управлението на риска, качеството и целесъобразността на използваните набори от данни, техническата документация и поддържането на регистри, прозрачността и предоставянето на информация на внедрителите, човешкия контрол, надеждността, точността и киберсигурността. Тези изисквания са необходими за ефективно ограничаване на рисковете за здравето, безопасността и основните права. Тъй като не съществуват други разумни, по-малко ограничителни мерки за търговията, тези изисквания не представляват необосновани ограничения на търговията.
(66)
Cerințele ar trebui să se aplice sistemelor de IA cu grad ridicat de risc în ceea ce privește gestionarea riscurilor, calitatea și relevanța seturilor de date utilizate, documentația tehnică și păstrarea evidențelor, transparența și furnizarea de informații către implementatori, supravegherea umană, robustețea, acuratețea și securitatea cibernetică. Aceste cerințe sunt necesare pentru a atenua în mod eficace riscurile pentru sănătate, siguranță și drepturile fundamentale. Nefiind disponibile în mod rezonabil alte măsuri mai puțin restrictive privind comerțul, respectivele restricții în calea comerțului nu sunt astfel nejustificate.
(67)
Висококачествените данни и достъпът до тях имат жизненоважна роля за осигуряването на структура и за гарантирането на функционирането на много системи с ИИ, особено когато се използват техники, включващи обучение на модели, с цел да се гарантира, че високорисковата система с ИИ функционира по предназначение и по безопасен начин и не води до дискриминация, забранена от правото на Съюза. Висококачествените набори от обучителни, валидационни и изпитвателни данни изискват прилагането на подходящи практики за администриране и управление на данни. Наборите от обучителни, валидационни и изпитвателни данни, включително обозначенията, следва да бъдат подходящи, достатъчно представителни и във възможно най-голяма степен пълни и без грешки с оглед на предназначението на системата. За да се улесни спазването на правото на Съюза в областта на защитата на данните, като например Регламент (ЕС) 2016/679, практиките за администриране и управление на данни следва да включват, в случай на лични данни, прозрачност по отношение на първоначалната цел на събирането на данните. Наборите от данни следва също така да имат подходящи статистически свойства, включително по отношение на лицата или групите лица, във връзка с които е предназначена да се използва високорисковата система с ИИ, като се обръща специално внимание на намаляването на възможна предубеденост в наборите от данни, която има вероятност да засегне здравето и безопасността на хората, да окаже отрицателно въздействие върху основните права или да доведе до дискриминация, забранена съгласно правото на Съюза, особено когато резултатите от данните оказват влияние върху входящите данни за бъдещи операции (обратни връзки). Предубедеността може например да бъде присъща за основните набори от данни, особено при използването или генерирането на исторически данни, когато системите се внедряват в реални условия. Резултатите, предоставени от системи с ИИ, могат да се повлияват от такава присъща предубеденост, при която съществува тенденция постепенно да се увеличава и по този начин да затвърждава и засилва съществуващата дискриминация, по-специално по отношение на лица, принадлежащи към определени уязвими групи, включително расови или етнически групи. Изискването наборите от данни да бъдат във възможно най-голяма степен пълни и без грешки не следва да засяга използването на техники за опазване на неприкосновеността на личния живот в контекста на разработването и изпитването на системи с ИИ. По-специално, наборите от данни следва да са съобразени, доколкото това се изисква с оглед на предназначението им, с особеностите, характеристиките или елементите, характерни за конкретната географска, контекстуална, поведенческа или функционална среда, в която системата с ИИ е предназначена да бъде използвана. Изискванията, свързани с администрирането на данни, могат да бъдат спазени чрез използване на услугите на трети лица, които предлагат сертифицирани услуги за осигуряване на съответствие, включително проверка на администрирането на данните, целостта на наборите от данни и практиките за обучение, валидиране и изпитване на данните, доколкото се гарантира спазването на изискванията за данните по настоящия регламент.
(67)
Datele de înaltă calitate și accesul la date de înaltă calitate joacă un rol vital în ceea ce privește furnizarea structurii și asigurarea performanței multor sisteme de IA, în special atunci când se utilizează tehnici care implică antrenarea modelelor, pentru a se asigura că sistemul de IA cu grad ridicat de risc funcționează astfel cum s-a prevăzut și în condiții de siguranță și nu devine o sursă de discriminare, interzisă de dreptul Uniunii. Seturile de date de înaltă calitate de antrenare, de validare și de testare necesită punerea în aplicare a unor practici adecvate de guvernanță și gestionare a datelor. Seturile de date de antrenare, de validare și de testare, inclusiv etichetele, ar trebui să fie relevante, suficient de reprezentative și, pe cât posibil, fără erori și complete, având în vedere scopul preconizat al sistemului. Pentru a facilita respectarea dreptului Uniunii în materie de protecție a datelor, cum ar fi Regulamentul (UE) 2016/679, practicile de guvernanță și gestionare a datelor ar trebui să includă, în cazul datelor cu caracter personal, transparența cu privire la scopul inițial al colectării datelor. Seturile de date ar trebui să aibă, de asemenea, proprietățile statistice adecvate, inclusiv în ceea ce privește persoanele sau grupurile de persoane în legătură cu care se intenționează să fie utilizat sistemul de IA cu grad ridicat de risc, acordând o atenție deosebită atenuării posibilelor prejudecăți din seturile de date, care ar putea afecta sănătatea și siguranța persoanelor, ar putea avea un impact negativ asupra drepturilor fundamentale sau ar putea conduce la discriminare interzisă în temeiul dreptului Uniunii, în special în cazul în care datele de ieșire influențează datele de intrare pentru operațiunile viitoare („bucle de feedback”). Prejudecățile pot fi, de exemplu, inerente seturilor de date subiacente, mai ales când sunt utilizate date istorice, sau pot fi generate în timpul implementării în condiții reale a sistemelor. Rezultatele produse de sistemele de IA ar putea fi influențate de aceste prejudecăți inerente care tind să crească treptat și astfel să perpetueze și să amplifice discriminarea existentă, în special pentru persoanele care aparțin anumitor grupuri vulnerabile, inclusiv grupuri rasiale sau etnice. Cerința ca seturile de date să fie, pe cât posibil, complete și fără erori nu ar trebui să afecteze utilizarea tehnicilor de protejare a vieții private în contextul dezvoltării și testării sistemelor de IA. În special, seturile de date ar trebui să țină seama, în măsura în care acest lucru este necesar având în vedere scopul lor preconizat, de particularitățile, caracteristicile sau elementele care sunt specifice cadrului geografic, contextual, comportamental sau funcțional în care este destinat să fie utilizat sistemul de IA. Cerințele legate de guvernanța datelor pot fi respectate prin recurgerea la părți terțe care oferă servicii de conformitate certificate, inclusiv verificarea guvernanței datelor, a integrității seturilor de date și a practicilor de antrenare, validare și testare a datelor, în măsura în care este asigurată respectarea cerințelor în materie de date din prezentul regulament.
(68)
За разработването и оценката на високорискови системи с ИИ определени участници, като например доставчици, нотифицирани органи и други съответни субекти, например европейски цифрови иновационни центрове, структури за експериментиране и изпитване и научни работници, следва да имат достъп до и да използват висококачествени набори от данни в областите на дейност на тези участници, които са свързани с настоящия регламент. Общите европейски пространства на данни, създадени от Комисията, и улесняването на обмена на данни между предприятията и с държавните органи в името на обществения интерес ще бъдат от основно значение за осигуряването на надежден, отговорен и недискриминационен достъп до висококачествени данни за обучението, валидирането и изпитването на системите с ИИ. Например в областта на здравеопазването европейското пространство на здравни данни ще улесни недискриминационния достъп до здравни данни и обучението на алгоритми на ИИ въз основа на тези набори от данни по сигурен, навременен, прозрачен и надежден начин, при който се запазва неприкосновеността на личния живот, и при подходящо институционално управление. Съответните компетентни органи, включително секторните органи, които предоставят или подпомагат достъпа до данни, могат също така да подкрепят предоставянето на висококачествени данни за обучението, валидирането и изпитването на системите с ИИ.
(68)
Pentru dezvoltarea și evaluarea sistemelor de IA cu grad ridicat de risc, anumiți actori, cum ar fi furnizorii, organismele notificate și alte entități relevante, cum ar fi centrele europene de inovare digitală, unitățile de testare și experimentare și cercetătorii, ar trebui să poată accesa și utiliza seturi de date de înaltă calitate în domeniile de activitate ale actorilor respectivi care sunt legate de prezentul regulament. Spațiile europene comune ale datelor instituite de Comisie și facilitarea schimbului de date între întreprinderi și cu administrațiile publice în interes public vor fi esențiale pentru a oferi un acces de încredere, responsabil și nediscriminatoriu la date de înaltă calitate pentru antrenarea, validarea și testarea sistemelor de IA. De exemplu, în domeniul sănătății, spațiul european al datelor privind sănătatea va facilita accesul nediscriminatoriu la datele privind sănătatea și antrenarea algoritmilor IA cu aceste seturi de date, într-un mod care protejează viața privată, sigur, prompt, transparent și fiabil și cu o guvernanță instituțională adecvată. Autoritățile competente relevante, inclusiv cele sectoriale, care furnizează sau sprijină accesul la date pot sprijini, de asemenea, furnizarea de date de înaltă calitate pentru antrenarea, validarea și testarea sistemelor de IA.
(69)
Правото на неприкосновеност на личния живот и на защита на личните данни трябва да бъде гарантирано през целия жизнен цикъл на системата с ИИ. В това отношение принципите на свеждане на данните до минимум и на защита на данните при проектирането и по подразбиране, определени в правото на Съюза в областта на защитата на данните, са приложими при обработването на лични данни. Мерките, предприети от доставчиците за гарантиране на спазването на тези принципи, могат да включват не само анонимизиране и криптиране, но и използване на технологии, които позволяват въвеждането на алгоритми в данните и позволяват обучение на системи с ИИ без предаване между страните или копиране на самите необработени или структурирани данни, без да се засягат изискванията за администриране на данните, предвидени в настоящия регламент.
(69)
Dreptul la viața privată și la protecția datelor cu caracter personal trebuie să fie garantat pe parcursul întregului ciclu de viață al sistemului de IA. În acest sens, principiile reducerii la minimum a datelor și protecției datelor începând cu momentul conceperii și în mod implicit, astfel cum sunt prevăzute în dreptul Uniunii privind protecția datelor, sunt aplicabile atunci când sunt prelucrate date cu caracter personal. Măsurile luate de furnizori pentru a asigura respectarea principiilor respective pot include nu numai anonimizarea și criptarea, ci și folosirea unei tehnologii care permite să se aplice algoritmi datelor și antrenarea sistemelor de IA, fără ca aceste date să fie transmise între părți și fără ca înseși datele primare sau datele structurate să fie copiate, fără a aduce atingere cerințelor privind guvernanța datelor prevăzute în prezentul regulament.
(70)
За да се защитят правата на други лица от дискриминацията, която може да произтича от предубеденост в системите с ИИ, доставчиците следва по изключение, доколкото това е строго необходимо за целите на осигуряването на откриване и коригиране на предубедеността във високорисковите системи с ИИ, при спазване на подходящи гаранции за основните права и свободи на физическите лица и след прилагането на всички приложими условия, установени в настоящия регламент, в допълнение към условията, установени в регламенти (ЕС) 2016/679 и (ЕС) 2018/1725 и в Директива (ЕС) 2016/680, да могат да обработват и специални категории лични данни като въпрос от важен обществен интерес по смисъла на член 9, параграф 2, буква ж) от Регламент (ЕС) 2016/679 и член 10, параграф 2, буква ж) от Регламент (ЕС) 2018/1725.
(70)
Pentru a proteja dreptul altora împotriva discriminării care ar putea rezulta din prejudecățile inerente sistemelor de IA, furnizorii ar trebui să poată să prelucreze și categorii speciale de date cu caracter personal, ca o chestiune de interes public major în înțelesul articolului 9 alineatul (2) litera (g) din Regulamentul (UE) 2016/679 și al articolului 10 alineatul (2) litera (g) din Regulamentul (UE) 2018/1725, în mod excepțional, în măsura în care este strict necesar în scopul asigurării detectării și corectării prejudecăților în legătură cu sistemele de IA cu grad ridicat de risc, sub rezerva unor garanții adecvate pentru drepturile și libertățile fundamentale ale persoanelor fizice și în urma aplicării tuturor condițiilor prevăzute în temeiul prezentului regulament în plus față de condițiile prevăzute în Regulamentele (UE) 2016/679 și (UE) 2018/1725 și în Directiva (UE) 2016/680.
(71)
Наличието на разбираема информация за начина на разработване на високорисковите системи с ИИ и начина на функционирането им през целия срок на експлоатация е от съществено значение, за да се даде възможност за проследимост на тези системи, проверка на съответствието с изискванията съгласно настоящия регламент, както и мониторинг на тяхното функциониране и мониторинг след пускането на пазара. Това изисква поддържането на регистри и наличието на техническа документация, съдържаща информация, която е необходима за оценяване на съответствието на системата с ИИ с приложимите изисквания и за улесняване на мониторинга след пускането на пазара. Тази информация следва да включва общите характеристики, способностите и ограниченията на системата, използваните алгоритми, данни и процеси на обучение, изпитване и валидиране, както и документация за съответната система за управление на риска, и следва да се изготвя в ясна и разбираема форма. Техническата документация следва да се актуализира по подходящ начин през целия срок на експлоатация на системата с ИИ. Освен това високорисковите системи с ИИ следва технически да позволяват автоматично записване на събития посредством записи по време на срока на експлоатация на системата.
(71)
Deținerea de informații ușor de înțeles cu privire la modul în care au fost dezvoltate sistemele de IA cu grad ridicat de risc și la modul în care acestea funcționează pe toată durata lor de viață este esențială pentru a permite trasabilitatea sistemelor respective, pentru a verifica conformitatea cu cerințele prevăzute în prezentul regulament, precum și pentru monitorizarea funcționării lor și pentru monitorizarea ulterioară introducerii pe piață. Acest lucru presupune păstrarea evidențelor și disponibilitatea unei documentații tehnice care să conțină informațiile necesare pentru a evalua conformitatea sistemului de IA cu cerințele relevante și a facilita monitorizarea ulterioară introducerii pe piață. Aceste informații ar trebui să includă caracteristicile generale, capabilitățile și limitările sistemului, algoritmii, datele, procesele de antrenare, testare și validare utilizate, precum și documentația privind sistemul relevant de gestionare a riscurilor și ar trebui să fie redactate într-o formă clară și cuprinzătoare. Documentația tehnică ar trebui să fie actualizată permanent și în mod adecvat pe toată durata de viață a sistemului de IA. În plus, sistemele de IA cu grad ridicat de risc ar trebui să permită din punct de vedere tehnic înregistrarea automată a evenimentelor, prin intermediul unor fișiere de jurnalizare, de-a lungul duratei de viață a sistemului.
(72)
За да се отговори на опасенията, свързани с непрозрачността и сложността на някои системи с ИИ, и да се помогне на внедрителите да изпълняват задълженията си съгласно настоящия регламент, следва да се изисква прозрачност за високорисковите системи с ИИ преди пускането им на пазара или пускането им в действие. Високорисковите системи с ИИ следва да бъдат проектирани по начин, който позволява на внедрителите да разберат как функционира системата с ИИ, да оценят нейната функционалност и да разберат нейните силни страни и ограничения. Високорисковите системи с ИИ следва да се придружават от подходяща информация под формата на инструкции за употреба. Тази информация следва да включва характеристиките, способностите и ограниченията на действието на системата с ИИ. Те ще обхващат информация относно възможните известни и предвидими обстоятелства, свързани с използването на високорисковата система с ИИ, включително действия от страна на внедрителя, които могат да повлияят на поведението и работата на системата и в рамките на които системата с ИИ може да породи рискове за здравето, безопасността и основните права, относно промените, които са предварително определени и чието съответствие е оценено от доставчика, както и относно съответните мерки за човешки контрол, включително мерките за улесняване на тълкуването на резултатите от системата с ИИ от внедрителите. Прозрачността, включително придружаващите инструкции за употреба, следва да подпомага внедрителите при използването на системата, както и при вземането на информирани решения. Внедрителите следва, наред с другото, да разполагат с по-добра възможност да направят правилния избор за системата, която възнамеряват да използват с оглед на приложимите за тях задължения, да бъдат запознати с предвиденото и неразрешеното използване и да използват системата с ИИ правилно и целесъобразно. За да се подобри разбираемостта и достъпността на информацията, включена в инструкциите за употреба, когато е целесъобразно следва да бъдат включени илюстративни примери, например относно ограниченията и относно предвиденото и неразрешеното използване на системата с ИИ. Доставчиците следва да гарантират, че цялата документация, включително инструкциите за употреба, съдържа съдържателна, изчерпателна, достъпна и разбираема информация, като се вземат предвид нуждите и предвидимите познания на внедрителите, за които е предназначена. Инструкциите за употреба следва да се предоставят на език, лесно разбираем за внедрителите, за които са предназначени, който е определен от съответната държава членка.
(72)
Pentru a răspunde preocupărilor legate de opacitatea și complexitatea anumitor sisteme de IA și pentru a-i ajuta pe implementatori să își îndeplinească obligațiile care le revin în temeiul prezentului regulament, ar trebui să fie impusă transparența pentru sistemele de IA cu grad ridicat de risc înainte ca acestea să fie introduse pe piață sau puse în funcțiune. Sistemele de IA cu grad ridicat de risc ar trebui să fie proiectate astfel încât să le permită implementatorilor să înțeleagă modul în care funcționează sistemul de IA, să îi evalueze funcționalitatea și să îi înțeleagă punctele forte și limitările. Sistemele de IA cu grad ridicat de risc ar trebui să fie însoțite de informații adecvate sub formă de instrucțiuni de utilizare. Astfel de informații ar trebui să includă caracteristicile, capabilitățile și limitările performanței sistemului de IA. Acestea ar acoperi informații privind posibile circumstanțe cunoscute și previzibile legate de utilizarea sistemului de IA cu grad ridicat de risc, inclusiv acțiuni ale implementatorului care pot influența comportamentul și performanța sistemului, din cauza cărora sistemul de IA poate genera riscuri pentru sănătate, siguranță și drepturile fundamentale, privind modificările care au fost prestabilite și evaluate din punctul de vedere al conformității de către furnizor și privind măsurile relevante de supraveghere umană, inclusiv măsurile de facilitare a interpretării rezultatelor sistemului de IA de către implementatori. Transparența, inclusiv instrucțiunile de utilizare însoțitoare, ar trebui să ajute implementatorii să utilizeze sistemul și să îi sprijine să ia decizii în cunoștință de cauză. Printre altele, implementatorii ar trebui să fie mai în măsură să aleagă corect sistemul pe care intenționează să îl utilizeze, având în vedere obligațiile care le sunt aplicabile, să fie informați despre utilizările preconizate și interzise și să utilizeze sistemul de IA în mod corect și adecvat. Pentru a spori lizibilitatea și accesibilitatea informațiilor incluse în instrucțiunile de utilizare, ar trebui să fie incluse, după caz, exemple ilustrative, de exemplu privind limitările și utilizările preconizate și interzise ale sistemului de IA. Furnizorii ar trebui să se asigure că toată documentația, inclusiv instrucțiunile de utilizare, conține informații semnificative, cuprinzătoare, accesibile și ușor de înțeles, ținând seama de nevoile și cunoștințele previzibile ale implementatorilor vizați. Instrucțiunile de utilizare ar trebui să fie puse la dispoziție într-o limbă ușor de înțeles de către implementatorii vizați, astfel cum se stabilește de statul membru în cauză.
(73)
Високорисковите системи с ИИ следва да бъдат проектирани и разработени по такъв начин, че физическите лица да могат да следят тяхното функциониране, да гарантират, че те се използват по предназначение и че въздействието им се взема предвид през целия жизнен цикъл на системата. За тази цел доставчикът на системата следва да определи подходящи мерки за човешки контрол преди пускането ѝ на пазара или пускането ѝ в действие. По-специално, когато е целесъобразно, тези мерки следва да гарантират, че за системата се прилагат вградени оперативни ограничения, които не могат да бъдат заобиколени от самата система, и че тя отговаря на човека оператор, както и че физическите лица, на които е възложен човешкият контрол, разполагат с необходимата компетентност, обучение и авторитет за изпълнение на тази роля. Освен това е от съществено значение, когато е целесъобразно, да се гарантира, че високорисковите системи с ИИ включват механизми за даване на насоки и информация на дадено физическо лице, на което е възложен човешки контрол, за да взема информирани решения дали, кога и как да се намеси, за да се избегнат отрицателни последици или рискове, или да се спре системата, ако тя не функционира по предназначение. Предвид сериозните последици за хората в случай на неточно съвпадение, генерирано от някои системи за биометрична идентификация, е целесъобразно да се предвиди изискване за засилен човешки контрол над тези системи, така че внедрителят да не може да предприеме действие или да вземе решение въз основа на установена от системата самоличност, без това да е било проверено и потвърдено най-малко от две физически лица поотделно. Тези лица могат да се числят към един или повече образувания и да включват лицето, което управлява или използва системата. Това изискване не следва да поражда ненужна тежест или да води до забавяне; автоматичното вписване на отделните проверки, извършени от различните лица, в генерираните от системата записи би могло да е достатъчно. Като се имат предвид особеностите на правоохранителната област и областите на миграцията, граничния контрол и убежището, това изискване не следва да се прилага, когато според правото на Съюза или националното право се счита, че прилагането на това изискване е непропорционално.
(73)
Sistemele de IA cu grad ridicat de risc ar trebui să fie concepute și dezvoltate astfel încât persoanele fizice să poată supraveghea funcționarea lor și să se poată asigura că ele sunt utilizate conform destinației lor și că impactul lor este abordat pe parcursul întregului ciclu de viață al sistemului. În acest scop, furnizorul sistemului ar trebui să identifice măsuri adecvate de supraveghere umană înainte de introducerea sa pe piață sau de punerea sa în funcțiune. În special, după caz, astfel de măsuri ar trebui să garanteze că sistemul este supus unor constrângeri operaționale integrate care nu pot fi dezactivate de sistem și care sunt receptive la operatorul uman și că persoanele fizice cărora le-a fost încredințată supravegherea umană au competența, pregătirea și autoritatea necesare pentru îndeplinirea acestui rol. De asemenea, este esențial, după caz, să se asigure faptul că sistemele de IA cu grad ridicat de risc includ mecanisme de ghidare și informare a unei persoane fizice căreia i-a fost încredințată supravegherea umană pentru a lua decizii în cunoștință de cauză pentru a stabili dacă, când și cum să intervină pentru a evita consecințele negative sau riscurile sau pentru a opri sistemul dacă nu funcționează astfel cum s-a prevăzut. Având în vedere consecințele semnificative pentru persoane în cazul unei concordanțe incorecte generate de anumite sisteme de identificare biometrică, este oportun să se prevadă o cerință de supraveghere umană mai strictă pentru sistemele respective, astfel încât implementatorul să nu poată lua nicio măsură sau decizie pe baza identificării rezultate din sistem, decât dacă acest lucru a fost verificat și confirmat separat de cel puțin două persoane fizice. Aceste persoane ar putea proveni de la una sau mai multe entități și ar putea include persoana care operează sau utilizează sistemul. Această cerință nu ar trebui să reprezinte o povară inutilă sau să genereze întârzieri inutile și ar putea fi suficient ca verificările separate efectuate de diferite persoane să fie înregistrate automat în fișierele de jurnalizare generate de sistem. Având în vedere particularitățile din domeniile aplicării legii, migrației, controlului la frontiere și azilului, această cerință nu ar trebui să se aplice în cazul în care dreptul Uniunii sau dreptul intern consideră că aplicarea cerinței respective este disproporționată.
(74)
Високорисковите системи с ИИ следва да функционират стабилно през целия си жизнен цикъл и да съответстват на подходящо ниво на точност, надеждност и киберсигурност, с оглед на тяхното предназначение и в съответствие с общопризнатите съвременни технически постижения. Комисията и съответните организации и заинтересовани страни се насърчават да вземат надлежно предвид ограничаването на рисковете и отрицателното въздействие на системата с ИИ. Очакваното ниво на показателите за ефективност следва да бъде обявено в придружаващите инструкции за употреба. Доставчиците се приканват да съобщават тази информация на внедрителите по ясен и лесно разбираем начин, без възможности за недоразумения или подвеждащи твърдения. Правото на Съюза в областта на законовата метрология, включително директиви 2014/31/ЕС (35) и 2014/32/ЕС (36) на Европейския парламент и на Съвета, има за цел да гарантира точността на измерванията и да спомогне за прозрачността и почтеността на търговските сделки. В този контекст, в сътрудничество със съответните заинтересовани страни и организации, като например органите по метрология и сравнителен анализ, Комисията следва да насърчава, когато е целесъобразно, разработването на сравнителни показатели и методики за измерване за системите с ИИ. При това Комисията следва да вземе под внимание и да си сътрудничи с международните партньори, работещи в областта на метрологията и съответните показатели за измерване, свързани с ИИ.
(74)
Sistemele de IA cu grad ridicat de risc ar trebui să funcționeze în mod consecvent pe parcursul întregului lor ciclu de viață și să atingă un nivel adecvat de acuratețe, robustețe și securitate cibernetică, având în vedere scopul lor preconizat și în conformitate cu stadiul de avansare al tehnologiei general recunoscut. Comisia și organizațiile și părțile interesate relevante sunt încurajate să țină seama în mod corespunzător de atenuarea riscurilor și a impacturilor negative ale sistemului de IA. Nivelul preconizat al indicatorilor de performanță ar trebui să fie declarat în instrucțiunile de utilizare însoțitoare. Furnizorii sunt îndemnați să comunice aceste informații implementatorilor într-un mod clar și ușor de înțeles, fără induceri în eroare sau declarații înșelătoare. Dreptul Uniunii privind metrologia legală, inclusiv Directivele 2014/31/UE (35) și 2014/32/UE (36) ale Parlamentului European și ale Consiliului, urmărește să asigure acuratețea măsurătorilor și să contribuie la transparența și echitatea tranzacțiilor comerciale. În acest context, în cooperare cu părțile interesate și organizațiile relevante, cum ar fi autoritățile din domeniul metrologiei și al etalonării, Comisia ar trebui să încurajeze, după caz, elaborarea unor valori de referință și a unor metodologii de măsurare pentru sistemele de IA. În acest sens, Comisia ar trebui să țină seama de partenerii internaționali care lucrează în domeniul metrologiei și al indicatorilor de măsurare relevanți referitori la IA și să colaboreze cu partenerii respectivi.
(75)
Техническата надеждност е ключово изискване за високорисковите системи с ИИ. Те следва да бъдат устойчиви на вредно или друго нежелателно поведение, което може да се прояви в резултат на ограничения в системите или средата, в която те работят (например грешки, дефекти, несъответствия, неочаквани ситуации). Поради това следва да се предприемат технически и организационни мерки, за да се гарантира надеждността на високорисковите системи с ИИ, например чрез проектиране и разработване на подходящи технически решения за предотвратяване или свеждане до минимум на вредното или друго нежелано поведение. Тези технически решения могат да включват например механизми, позволяващи на системата безопасно да прекъсне работата си (аварийни планове) при наличието на определени аномалии или когато работата се извършва извън предварително определени граници. Липсата на защита срещу тези рискове може да повлияе на безопасността или да се отрази отрицателно на основните права, например поради неправилни решения или погрешни или опорочени от предубеденост резултати, генерирани от системата с ИИ.
(75)
Robustețea tehnică este o cerință esențială pentru sistemele de IA cu grad ridicat de risc. Acestea ar trebui să fie reziliente în raport cu comportamentul prejudiciabil sau altfel indezirabil, care poate rezulta din limitările din cadrul sistemelor sau al mediului în care funcționează sistemele (de exemplu, erori, defecțiuni, inconsecvențe, situații neprevăzute). Prin urmare, ar trebui să fie luate măsuri tehnice și organizatorice pentru a asigura robustețea sistemelor de IA cu grad ridicat de risc, de exemplu prin proiectarea și dezvoltarea de soluții tehnice adecvate pentru a preveni sau a reduce la minimum comportamentul prejudiciabil sau altfel indezirabil în alt mod. Soluțiile tehnice respective pot include, de exemplu, mecanisme care permit sistemului să își întrerupă funcționarea în condiții de siguranță (planuri de autoprotecție) în prezența anumitor anomalii sau atunci când funcționarea are loc în afara anumitor limite prestabilite. Incapacitatea de a asigura protecția împotriva acestor riscuri ar putea avea un impact asupra siguranței sau ar putea afecta în mod negativ drepturile fundamentale, de exemplu din cauza unor decizii eronate sau a unor rezultate greșite sau distorsionate de prejudecăți generate de sistemul de IA.
(76)
Киберсигурността има решаващо значение, за да се гарантира, че системите с ИИ са устойчиви на опити за промяна на тяхното използване, поведение или ефективност или за засягане на техните свойства, свързани със сигурността, от недобросъвестни трети лица, които се възползват от уязвимостта на системата. Кибератаките срещу системи с ИИ могат да засегнат специфични за ИИ ресурси, като например набори от обучителни данни (например чрез „отравяне на данните“) или обучени модели (например чрез враждебни атаки или изводи за принадлежност), или да използват уязвимите места в цифровите ресурси на системата с ИИ или в основната ИКТ инфраструктура. За да се гарантира ниво на киберсигурност, съобразено с рисковете, доставчиците на високорискови системи с ИИ следва да предприемат подходящи мерки, например проверки на сигурността, като отчитат надлежно и основната ИКТ инфраструктура.
(76)
Securitatea cibernetică joacă un rol esențial în asigurarea rezilienței sistemelor de IA împotriva încercărilor de modificare a utilizării, a comportamentului, a performanței sau de compromitere a proprietăților lor de securitate de către părți terțe răuvoitoare care exploatează vulnerabilitățile sistemului. Atacurile cibernetice împotriva sistemelor de IA se pot folosi de active specifice de IA, cum ar fi seturi de date de antrenament (de exemplu, otrăvirea datelor) sau modele antrenate (de exemplu, atacuri contradictorii sau inferențe din datele membrilor – membership inference), sau pot exploata vulnerabilitățile activelor digitale ale sistemului de IA sau ale infrastructurii TIC subiacente. Pentru a asigura un nivel de securitate cibernetică adecvat riscurilor, furnizorii de sisteme de IA cu grad ridicat de risc ar trebui, prin urmare, să ia măsuri adecvate, cum ar fi controalele de securitate, ținând seama, după caz, și de infrastructura TIC subiacentă.
(77)
Без да се засягат изискванията, свързани с надеждността и точността, установени в настоящия регламент, при високорисковите системи с ИИ, които попадат в обхвата на регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, в съответствие с посочения регламент, може да се докаже съответствие с изискванията за киберсигурност на настоящия регламент, като се изпълнят съществените изисквания за киберсигурност, установени в посочения регламент. Когато високорисковите системи с ИИ съответстват на съществените изисквания на регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, те следва да се считат за съответстващи на изискванията за киберсигурност, установени в настоящия регламент, доколкото изпълнението на тези изисквания е доказано в ЕС декларацията за съответствие или части от нея, изготвена съгласно посочения регламент. За тази цел при оценката на рисковете за киберсигурността, свързани с продукт с цифрови елементи, класифициран като високорискова система с ИИ съгласно настоящия регламент, извършена съгласно регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, следва да се вземат предвид рисковете за киберустойчивостта на дадена система с ИИ по отношение на опитите на неоправомощени трети лица да променят нейното използване, поведение или работа, включително специфичните за ИИ уязвими места, като например „отравяне на данни“ или враждебни атаки, както и, ако е целесъобразно, рисковете за основните права, както се изисква в настоящия регламент.
(77)
Fără a aduce atingere cerințelor legate de robustețe și acuratețe prevăzute în prezentul regulament, sistemele de IA cu grad ridicat de risc care intră în domeniul de aplicare al Regulamentului Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale, în conformitate cu regulamentul respectiv, pot demonstra conformitatea cu cerințele de securitate cibernetică prevăzute în prezentul regulament prin îndeplinirea cerințelor esențiale de securitate cibernetică prevăzute în regulamentul respectiv. Atunci când îndeplinesc cerințele esențiale ale Regulamentului Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale, sistemele de IA cu grad ridicat de risc ar trebui să fie considerate conforme cu cerințele de securitate cibernetică prevăzute în prezentul regulament, în măsura în care îndeplinirea cerințelor respective este demonstrată în declarația de conformitate UE sau în părți ale acesteia emise în temeiul regulamentului respectiv. În acest scop, evaluarea riscurilor în materie de securitate cibernetică asociate unui produs cu elemente digitale clasificat drept sistem de IA cu grad ridicat de risc în conformitate cu prezentul regulament, efectuată în temeiul Regulamentului Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale, ar trebui să ia în considerare riscurile la adresa rezilienței cibernetice a unui sistem de IA în ceea ce privește încercările unor părți terțe neautorizate de a-i modifica utilizarea, comportamentul sau performanța, inclusiv vulnerabilitățile specifice IA, cum ar fi otrăvirea datelor sau atacurile contradictorii, precum și, după caz, riscurile la adresa drepturilor fundamentale, astfel cum se prevede în prezentul regulament.
(78)
Процедурата за оценяване на съответствието, предвидена в настоящия регламент, следва да се прилага по отношение на съществените изисквания за киберсигурност на даден продукт с цифрови елементи, попадащ в обхвата на регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи и класифициран като високорискова система с ИИ съгласно настоящия регламент. Това правило обаче не следва да води до намаляване на необходимото ниво на увереност за критичните продукти с цифрови елементи, обхванати от регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи. Поради това, чрез дерогация от това правило, за високорисковите системи с ИИ, които попадат в обхвата на настоящия регламент и които също така са определени като важни и критични продукти с цифрови елементи съгласно регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, и за които се прилага процедурата за оценяване на съответствието въз основа на вътрешен контрол, посочена в приложение към настоящия регламент, се прилагат разпоредбите за оценяване на съответствието, съдържащи се в регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, доколкото това се отнася до съществените изисквания за киберсигурност, установени в посочения регламент. В този случай за всички останали аспекти, обхванати от настоящия регламент, следва да се прилагат съответните разпоредби относно оценяването на съответствието въз основа на вътрешен контрол, установени в приложение към настоящия регламент. Въз основа на знанията и експертния опит на Агенцията на Европейския съюз за киберсигурност (ENISA) относно политиката в областта на киберсигурността и задачите, възложени на ENISA съгласно Регламент (ЕС) 2019/881 на Европейския парламент и на Съвета (37), Комисията следва да си сътрудничи с ENISA по въпроси, свързани с киберсигурността на системите с ИИ.
(78)
Procedura de evaluare a conformității prevăzută de prezentul regulament ar trebui să se aplice în ceea ce privește cerințele esențiale în materie de securitate cibernetică ale unui produs cu elemente digitale care intră sub incidența Regulamentului Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale și clasificat drept sistem de IA cu grad ridicat de risc în temeiul prezentului regulament. Totuși, această regulă nu ar trebui să conducă la reducerea nivelului necesar de asigurare pentru produsele critice cu elemente digitale care intră sub incidența Regulamentului Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale. Prin urmare, prin derogare de la această regulă, sistemele de IA cu grad ridicat de risc care intră în domeniul de aplicare al prezentului regulament și care sunt calificate, de asemenea, drept produse importante și critice cu elemente digitale în temeiul Regulamentului Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale și cărora li se aplică procedura de evaluare a conformității bazată pe control intern prevăzută într-o anexă la prezentul regulament fac obiectul dispozițiilor privind evaluarea conformității din Regulamentul Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale în ceea ce privește cerințele esențiale în materie de securitate cibernetică din regulamentul respectiv. În acest caz, pentru toate celelalte aspecte reglementate de prezentul regulament ar trebui să se aplice dispozițiile respective privind evaluarea conformității bazate pe control intern prevăzute într-o anexă la prezentul regulament. Valorificând cunoașterea și cunoștințele de specialitate din ENISA în ceea ce privește politica în materie de securitate cibernetică și sarcinile atribuite ENISA în temeiul Regulamentului (UE) 2019/881 al Parlamentului European și al Consiliului (37), Comisia ar trebui să coopereze cu ENISA în ceea ce privește aspectele legate de securitatea cibernetică a sistemelor de IA.
(79)
Целесъобразно е конкретно физическо или юридическо лице, определено като доставчик, да поеме отговорността за пускането на пазара или пускането в действие на дадена високорискова система с ИИ, независимо дали това физическо или юридическо лице е проектирало или разработило системата.
(79)
Este oportun ca o anumită persoană fizică sau juridică, definită drept furnizor, să își asume responsabilitatea pentru introducerea pe piață sau punerea în funcțiune a unui sistem de IA cu grad ridicat de risc, indiferent dacă persoana fizică sau juridică respectivă este persoana care a proiectat sau a dezvoltat sistemul.
(80)
Като страни по Конвенцията на Организацията на обединените нации за правата на хората с увреждания Съюзът и държавите членки са правно задължени да защитават хората с увреждания от дискриминация и да насърчават тяхното равенство, да гарантират, че хората с увреждания имат достъп на равна основа с всички останали до информационни и комуникационни технологии и системи, и да гарантират зачитане на неприкосновеността на личния живот на хората с увреждания. Предвид нарастващото значение и използване на системи с ИИ прилагането на принципите за универсален дизайн за всички нови технологии и услуги следва да гарантира пълен и равен достъп на всички, които е възможно да бъдат засегнати от технологиите за ИИ или които ги използват, включително хората с увреждания, по начин, който изцяло отчита присъщото им достойнство и многообразие. Следователно е от съществено значение доставчиците да осигурят пълно съответствие с изискванията за достъпност, включително с Директива (ЕС) 2016/2102 на Европейския парламент и на Съвета (38) и Директива (ЕС) 2019/882. Доставчиците следва да осигурят съответствието с тези изисквания при проектирането. Поради това необходимите мерки следва да бъдат интегрирани във възможно най-голяма степен в проектирането на високорисковата система с ИИ.
(80)
În calitate de semnatare ale Convenției Națiunilor Unite privind drepturile persoanelor cu dizabilități, Uniunea și statele membre sunt obligate din punct de vedere juridic să protejeze persoanele cu dizabilități împotriva discriminării și să promoveze egalitatea acestora, să se asigure că persoanele cu dizabilități au acces, în condiții de egalitate cu ceilalți, la tehnologiile și sistemele informației și comunicațiilor și să garanteze respectarea vieții private a persoanelor cu dizabilități. Având în vedere importanța și utilizarea în creștere a sistemelor de IA, aplicarea principiilor proiectării universale la toate noile tehnologii și servicii ar trebui să asigure accesul deplin și egal al tuturor persoanelor potențial afectate de tehnologiile IA sau care utilizează aceste tehnologii, inclusiv al persoanelor cu dizabilități, într-un mod care să țină seama pe deplin de demnitatea și diversitatea lor inerentă. Prin urmare, este esențial ca furnizorii să asigure conformitatea deplină cu cerințele de accesibilitate, inclusiv cu Directiva (UE) 2016/2102 a Parlamentului European și a Consiliului (38) și cu Directiva (UE) 2019/882. Furnizorii ar trebui să asigure conformitatea cu aceste cerințe din faza de proiectare. Prin urmare, măsurile necesare ar trebui să fie integrate cât mai mult posibil în proiectarea sistemului de IA cu grad ridicat de risc.
(81)
Доставчикът следва да създаде стабилна система за управление на качеството, да гарантира изпълнението на изискваната процедура за оценяване на съответствието, да изготви съответната документация и да създаде надеждна система за мониторинг след пускането на пазара. Доставчиците на високорискови системи с ИИ, които имат задължения по отношение на системите за управление на качеството съгласно съответното секторно право на Съюза, следва да имат възможност да включат елементите на системата за управление на качеството, предвидена в настоящия регламент, като част от съществуващата система за управление на качеството, предвидена в посоченото друго секторно право на Съюза. Взаимното допълване между настоящия регламент и действащото секторно право на Съюза също следва да бъде взето предвид в бъдещите дейности по стандартизация или в насоките, приемани от Комисията. Публичните органи, които пускат в действие високорискови системи с ИИ за свое собствено ползване, могат да приемат и прилагат правилата за системата за управление на качеството като част от приетата на национално или регионално равнище система за управление на качеството, когато е целесъобразно, като вземат предвид особеностите на сектора и компетентността и организацията на съответния публичен орган.
(81)
Furnizorul ar trebui să instituie un sistem bine pus la punct de management al calității, să asigure realizarea procedurii necesare de evaluare a conformității, să întocmească documentația relevantă și să instituie un sistem solid de monitorizare după introducerea pe piață. Furnizorii de sisteme de IA cu grad ridicat de risc care fac obiectul unor obligații privind sistemele de management al calității în temeiul dreptului sectorial relevant al Uniunii ar trebui să aibă posibilitatea de a include elementele sistemului de management al calității prevăzut în prezentul regulament ca parte a sistemului existent de management al calității prevăzut în respectivul drept sectorial al Uniunii. Complementaritatea dintre prezentul regulament și dreptul sectorial existent al Uniunii ar trebui, de asemenea, să fie luată în considerare în viitoarele activități de standardizare sau orientări adoptate de Comisie. Autoritățile publice care pun în funcțiune sisteme de IA cu grad ridicat de risc pentru uzul propriu pot adopta și pune în aplicare norme privind sistemul de management al calității ca parte a sistemului de management al calității adoptat la nivel național sau regional, după caz, ținând seama de particularitățile sectorului și de competențele și organizarea autorității publice în cauză.
(82)
За да се даде възможност за прилагането на настоящия регламент и за да се създадат условия на равнопоставеност за операторите, както и предвид различните форми на предоставяне на цифрови продукти, е важно да се гарантира, че при всички обстоятелства установено в Съюза лице може да предостави на органите цялата необходима информация относно съответствието на дадена система с ИИ. Следователно преди да се предоставят техните системи на пазара на Съюза, доставчиците, установени в трети държави, следва да определят с писмено пълномощно упълномощен представител, който е установен в Съюза. Този упълномощен представител има ключово значение за осигуряване на съответствието на високорисковите системи с ИИ, пуснати на пазара или пуснати в действие в Съюза от тези доставчици, които не са установени в Съюза, както и за изпълнение на функциите на лице за връзка, установено в Съюза.
(82)
Pentru a permite aplicarea prezentului regulament și pentru a crea condiții de concurență echitabile pentru operatori și ținând seama de diferitele forme de punere la dispoziție a produselor digitale, este important să se asigure că, în toate circumstanțele, o persoană stabilită în Uniune poate furniza autorităților toate informațiile necesare cu privire la conformitatea unui sistem de IA. Prin urmare, înainte de a-și pune la dispoziție sistemele de IA în Uniune, furnizorii stabiliți în țări terțe ar trebui să desemneze, prin mandat scris, un reprezentant autorizat stabilit în Uniune. Respectivul reprezentant autorizat joacă un rol central în asigurarea conformității sistemelor de IA cu grad ridicat de risc introduse pe piață sau puse în funcțiune în Uniune de furnizorii respectivi care nu sunt stabiliți în Uniune și în îndeplinirea rolului de persoană de contact a acestora stabilită în Uniune.
(83)
С оглед на естеството и сложността на веригата за създаване на стойност за системите с ИИ и в съответствие с новата законодателна рамка, е от съществено значение да се гарантира правна сигурност и да се улесни спазването на настоящия регламент. Поради това е необходимо да се изяснят функциите и конкретните задължения на съответните оператори по веригата за създаване на стойност, като например вносителите и дистрибуторите, които могат да допринесат за разработването на системи с ИИ. В определени ситуации тези оператори биха могли да имат едновременно повече от една функция и поради това следва кумулативно да изпълняват всички съответни задължения, свързани с тези функции. Например даден оператор може да действа едновременно като дистрибутор и вносител.
(83)
Având în vedere natura și complexitatea lanțului valoric pentru sistemele de IA și în conformitate cu noul cadru legislativ, este esențial să se asigure securitatea juridică și să se faciliteze respectarea prezentului regulament. Prin urmare, este necesar să se clarifice rolul și obligațiile specifice ale operatorilor relevanți de-a lungul lanțului valoric respectiv, cum ar fi importatorii și distribuitorii care pot contribui la dezvoltarea sistemelor de IA. În anumite situații, operatorii respectivi ar putea acționa în mai multe roluri în același timp și, prin urmare, ar trebui să îndeplinească în mod cumulativ toate obligațiile relevante asociate rolurilor respective. De exemplu, un operator ar putea acționa în același timp ca distribuitor și ca importator.
(84)
За да се гарантира правна сигурност, е необходимо да се поясни, че при определени специфични условия всеки дистрибутор, вносител, внедрител или друго трето лице следва да се счита за доставчик на високорискова система с ИИ и следователно да поеме всички съответни задължения. Такъв би бил случаят, ако това лице постави името или търговската си марка върху високорискова система с ИИ, която вече е пусната на пазара или пусната в действие, без да се засягат споразумения, предвиждащи, че задълженията се разпределят по друг начин. Такъв би бил и случаят, ако това лице внесе съществено изменение във високорискова система с ИИ, която вече е пусната на пазара или пусната в действие, по такъв начин, че тя да продължи да бъде високорискова система с ИИ в съответствие с настоящия регламент, или ако измени предназначението на система с ИИ, включително система с ИИ с общо предназначение, която не е класифицирана като високорискова и вече е пусната на пазара или пусната в действие, по такъв начин, че системата с ИИ да стане високорискова система с ИИ в съответствие с настоящия регламент. Тези разпоредби следва да се прилагат, без да се засягат специалните разпоредби, установени в някои секторни законодателни актове на Съюза за хармонизация въз основа на новата законодателна рамка, заедно с които следва да се прилага настоящият регламент. Например член 16, параграф 2 от Регламент (ЕС) 745/2017, съгласно който определени изменения не следва да се считат за промени на изделие, които могат да се отразят на съответствието му с приложимите изисквания, следва да продължи да се прилага за високорисковите системи с ИИ, които са медицински изделия по смисъла на посочения регламент.
(84)
Pentru a se asigura securitatea juridică, este necesar să se clarifice că, în anumite condiții specifice, orice distribuitor, importator, implementator sau altă parte terță ar trebui să fie considerat drept furnizor al unui sistem de IA cu grad ridicat de risc și, prin urmare, să își asume toate obligațiile relevante. Acest lucru ar fi valabil dacă partea respectivă își pune numele sau marca comercială pe un sistem de IA cu grad ridicat de risc deja introdus pe piață sau pus în funcțiune, fără a aduce atingere dispozițiilor contractuale care prevăd că obligațiile sunt alocate în alt mod. Acest lucru ar fi valabil și dacă partea respectivă aduce o modificare substanțială unui sistem de IA cu grad ridicat de risc care a fost deja introdus pe piață sau a fost deja pus în funcțiune și într-un mod în care acesta rămâne un sistem de IA cu grad ridicat de risc în conformitate cu prezentul regulament sau dacă modifică scopul preconizat al unui sistem de IA, inclusiv al unui sistem de IA de uz general, care nu a fost clasificat ca prezentând un grad ridicat de risc și care a fost deja introdus pe piață sau pus în funcțiune, într-un mod în care sistemul de IA devine un sistem de IA cu grad ridicat de risc în conformitate cu prezentul regulament. Aceste dispoziții ar trebui să se aplice fără a aduce atingere dispozițiilor mai specifice stabilite în anumite acte legislative de armonizare ale Uniunii întemeiate pe noul cadru legislativ, împreună cu care ar trebui să se aplice prezentul regulament. De exemplu, articolul 16 alineatul (2) din Regulamentul (UE) 2017/745, care stabilește că anumite modificări nu ar trebui să fie considerate modificări ale unui dispozitiv care ar putea afecta conformitatea acestuia cu cerințele aplicabile, ar trebui să se aplice în continuare sistemelor de IA cu grad ridicat de risc care sunt dispozitive medicale în sensul regulamentului respectiv.
(85)
Системите с ИИ с общо предназначение могат да се използват като високорискови системи с ИИ сами по себе си или да бъдат компоненти на други високорискови системи с ИИ. Ето защо поради специфичното си естество и за да се гарантира справедливо разпределяне на отговорността по веригата за създаване на стойност в областта на ИИ, доставчиците на такива системи, независимо дали те могат да се използват сами по себе си като високорискови системи с ИИ от други доставчици, или като компоненти на високорискови системи с ИИ, и освен ако не е предвидено друго съгласно настоящия регламент, следва да си сътрудничат тясно с доставчиците на съответните високорискови системи с ИИ, за да им се даде възможност да спазват съответните задължения съгласно настоящия регламент, както и с компетентните органи, създадени съгласно настоящия регламент.
(85)
Sistemele de IA de uz general pot fi utilizate în sine ca sisteme de IA cu grad ridicat de risc sau pot fi componente ale altor sisteme de IA cu grad ridicat de risc. Prin urmare, având în vedere natura lor specifică și pentru a asigura o partajare echitabilă a responsabilităților de-a lungul lanțului valoric al IA, furnizorii de astfel de sisteme ar trebui, indiferent dacă pot fi utilizate ca sisteme de IA cu grad ridicat de risc ca atare de alți furnizori sau drept componente ale unor sisteme de IA cu grad ridicat de risc și cu excepția cazului în care se prevede altfel în prezentul regulament, să coopereze îndeaproape cu furnizorii sistemelor de IA cu grad ridicat de risc relevante pentru a permite respectarea de către acestea a obligațiilor relevante în temeiul prezentului regulament și cu autoritățile competente instituite în temeiul prezentului regulament.
(86)
Когато съгласно условията, предвидени в настоящия регламент, доставчикът, който първоначално е пуснал на пазара системата с ИИ или я е пуснал в действие, вече не следва да се счита за доставчик за целите на настоящия регламент и когато този доставчик не е изключил изрично промяната на системата с ИИ във високорискова система с ИИ, първоначалният доставчик следва въпреки това да си сътрудничи тясно и да предостави необходимата информация, както и да осигури разумно очакваните технически достъп и друга помощ, които са необходими за изпълнението на задълженията, установени в настоящия регламент, по-специално по отношение на спазването на оценката на съответствието на високорисковите системи с ИИ.
(86)
În cazul în care, în condițiile prevăzute în prezentul regulament, furnizorul care a introdus inițial sistemul de IA pe piață sau l-a pus în funcțiune nu ar mai trebui să fie considerat furnizor în sensul prezentului regulament și în cazul în care furnizorul respectiv nu a exclus în mod expres schimbarea sistemului de IA într-un sistem de IA cu grad ridicat de risc, primul furnizor ar trebui totuși să coopereze îndeaproape, să pună la dispoziție informațiile necesare și să furnizeze accesul tehnic și alte tipuri de asistență preconizate în mod rezonabil care sunt necesare pentru îndeplinirea obligațiilor prevăzute în prezentul regulament, în special în ceea ce privește respectarea cerințelor privind evaluarea conformității sistemelor de IA cu grad ridicat de risc.
(87)
Освен това когато високорискова система с ИИ, която е защѝтен елемент на продукт, попадащ в обхвата на законодателството на Съюза за хармонизация въз основа на новата законодателна рамка, не е пусната на пазара или пусната в действие независимо от продукта, производителят на продукта съгласно определението в съответното законодателство, следва да спазва задълженията на доставчика, установени в настоящия регламент, и следва по-специално да гарантира, че системата с ИИ, вградена в крайния продукт, съответства на изискванията на настоящия регламент.
(87)
În plus, în cazul în care un sistem de IA cu grad ridicat de risc care este o componentă de siguranță a unui produs care intră în domeniul de aplicare al legislației de armonizare a Uniunii întemeiate pe noul cadru legislativ nu este introdus pe piață sau pus în funcțiune independent de produs, fabricantul produsului definit în legislația respectivă ar trebui să respecte obligațiile furnizorului stabilite în prezentul regulament și ar trebui, în special, să se asigure că sistemul de IA încorporat în produsul final respectă cerințele prezentului regulament.
(88)
В рамките на веригата за създаване на стойност в областта на ИИ множество лица често доставят системи, инструменти и услуги с ИИ, но също така и компоненти или процеси, които са интегрирани от доставчика в системата с ИИ с различни цели, включително обучение и повторно обучение на модели и изпитване и оценка на модели, интегриране в софтуера или други аспекти на разработването на модели. Тези лица заемат важно място във веригата за създаване на стойност по отношение на доставчика на високорисковата система с ИИ, в която са интегрирани техните системи, инструменти, услуги, компоненти или процеси с ИИ, и следва да предоставят чрез писмено споразумение на този доставчик необходимата информация, капацитет, технически достъп и друга помощ въз основа на общопризнатите съвременни технически постижения, за да се даде възможност на доставчика да изпълни изцяло задълженията, установени в настоящия регламент, без да се излагат на риск собствените им права върху интелектуалната собственост или търговски тайни.
(88)
De-a lungul lanțului valoric al IA, numeroase părți furnizează adesea sisteme, instrumente și servicii de IA, dar și componente sau procese care sunt încorporate de furnizor în sistemul de IA, cu diferite obiective, inclusiv antrenarea modelelor, reconversia modelelor, testarea și evaluarea modelelor, integrarea în software sau alte aspecte ale dezvoltării de modele. Respectivele părți au un rol important în lanțul valoric față de furnizorul sistemului de IA cu grad ridicat de risc în care sunt integrate sistemele, instrumentele, serviciile, componentele sau procesele lor de IA și ar trebui să îi ofere acestui furnizor, printr-un acord scris, informațiile, capabilitățile, accesul tehnic și alte tipuri de asistență necesare bazate pe stadiul de avansare al tehnologiei general recunoscut, pentru a permite furnizorului să respecte pe deplin obligațiile prevăzute în prezentul regulament, fără a-și compromite propriile drepturi de proprietate intelectuală sau secrete comerciale.
(89)
Трети лица, които предоставят публичен достъп до инструменти, услуги, процеси или компоненти с ИИ, различни от модели на ИИ с общо предназначение, не следва да са задължени да спазват изискванията, насочени към отговорността по веригата за създаване на стойност в областта на ИИ, по-специално по отношение на доставчика, който ги е използвал или интегрирал, когато тези инструменти, услуги, процеси или компоненти с ИИ са достъпни в рамките на безплатен лиценз с отворен код. Разработчиците на безплатни инструменти, услуги, процеси или компоненти с ИИ с отворен код, различни от модели на ИИ с общо предназначение, следва да се насърчават да прилагат широко възприети практики за документиране, например карти за модели и информационни фишове, като начин за ускоряване на обмена на информация по веригата за създаване на стойност в областта на ИИ, което ще даде възможност да се популяризират надеждни системи с ИИ в Съюза.
(89)
Părțile terțe care pun la dispoziția publicului instrumente, servicii, procese sau componente de IA, altele decât modelele de IA de uz general, ar trebui să nu fie obligate să respecte cerințe care vizează responsabilitățile de-a lungul lanțului valoric al IA, în special față de furnizorul care le-a utilizat sau le-a integrat, atunci când aceste instrumente, servicii, procese sau componente de IA sunt puse la dispoziție sub licență liberă și deschisă. Dezvoltatorii de instrumente, servicii, procese sau componente de IA libere și cu sursă deschisă, altele decât modelele de IA de uz general, ar trebui să fie încurajați să pună în aplicare practici de documentare adoptate pe scară largă, cum ar fi carduri însoțitoare ale modelelor și fișe de date, ca modalitate de a accelera schimbul de informații de-a lungul lanțului valoric al IA, permițând promovarea unor sisteme de IA fiabile în Uniune.
(90)
Комисията би могла да разработи и препоръча незадължителни примерни договорни условия между доставчиците на високорискови системи с ИИ и трети лица, които доставят инструменти, услуги, компоненти или процеси, използвани или интегрирани във високорискови системи с ИИ, за да се улесни сътрудничеството по веригата за създаване на стойност. При разработването на незадължителни примерни договорни условия Комисията следва също така да взема предвид възможните договорни изисквания, приложими в конкретни сектори или стопански дейности.
(90)
Comisia ar putea elabora și recomanda un model voluntar de clauze contractuale între furnizorii de sisteme de IA cu grad ridicat de risc și părțile terțe care furnizează instrumente, servicii, componente sau procese care sunt utilizate sau integrate în sistemele de IA cu grad ridicat de risc, pentru a facilita cooperarea de-a lungul lanțului valoric. Atunci când elaborează modelul voluntar de clauze contractuale, Comisia ar trebui să ia în considerare și eventualele cerințe contractuale aplicabile în anumite sectoare sau situații economice.
(91)
Предвид естеството на системите с ИИ и евентуалните рискове за безопасността и основните права, свързани с тяхното използване, включително по отношение на необходимостта да се гарантира подходящ мониторинг на работата на дадена система с ИИ в реални условия, е целесъобразно да се определят конкретни отговорности за внедрителите. Внедрителите следва по-специално да предприемат подходящи технически и организационни мерки, за да гарантират, че използват високорискови системи с ИИ в съответствие с инструкциите за употреба, а също така следва да се предвидят някои други задължения по отношение на мониторинга на функционирането на системите с ИИ и по отношение на поддържането на регистри, когато е целесъобразно. Освен това внедрителите следва да гарантират, че лицата, на които е възложено да изпълняват инструкциите за употреба и човешкия контрол съгласно настоящия регламент, притежават необходимата компетентност, по-специално подходящо ниво на грамотност, обучение и авторитет в областта на ИИ, за да изпълняват правилно тези задачи. Тези задължения не следва да засягат други задължения на внедрителите във връзка с високорискови системи с ИИ съгласно правото на Съюза или националното право.
(91)
Având în vedere natura sistemelor de IA și riscurile la adresa siguranței și a drepturilor fundamentale care pot fi asociate cu utilizarea lor, inclusiv în ceea ce privește necesitatea de a asigura o monitorizare adecvată a performanței unui sistem de IA într-un context real, este oportun să se stabilească responsabilități specifice pentru implementatori. Implementatorii ar trebui, în special, să ia măsurile tehnice și organizatorice adecvate pentru a se asigura că utilizează sisteme de IA cu grad ridicat de risc în conformitate cu instrucțiunile de utilizare și ar trebui să fie prevăzute și alte obligații în ceea ce privește monitorizarea funcționării sistemelor de IA și păstrarea evidențelor, după caz. În plus, implementatorii ar trebui să se asigure că persoanele desemnate să pună în aplicare instrucțiunile de utilizare și supravegherea umană, astfel cum sunt prevăzute în prezentul regulament, au competența necesară, în special un nivel adecvat de alfabetizare, formare și autoritate în domeniul IA pentru a îndeplini în mod corespunzător sarcinile respective. Respectivele obligații nu ar trebui să aducă atingere altor obligații ale implementatorilor în ceea ce privește sistemele de IA cu grad ridicat de risc în temeiul dreptului Uniunii sau al dreptului intern.
(92)
Настоящият регламент не засяга задълженията на работодателите да информират или да информират и консултират работниците или техните представители съгласно правото и практиката на Съюза или националното право и практика, включително Директива 2002/14/ЕО на Европейския парламент и на Съвета (39), относно решения за пускане в действие или използване на системи с ИИ. Продължава да е необходимо да се гарантира предоставянето на информация на работниците и техните представители относно планираното внедряване на високорискови системи с ИИ на работното място, когато не са изпълнени условията за тези задължения за информиране или информиране и консултиране, предвидени в други правни актове. Освен това подобно право на информиране допълва и е необходимо за постигането на целта за защита на основните права, залегнала в основата на настоящия регламент. Поради това в настоящия регламент следва да бъде предвидено изискване за информиране в този смисъл, без да се засягат съществуващите права на работниците.
(92)
Prezentul regulament nu aduce atingere obligațiilor angajatorilor de a informa sau de a informa și consulta lucrătorii sau reprezentanții acestora în temeiul dreptului și al practicilor Uniunii sau naționale, inclusiv al Directivei 2002/14/CE a Parlamentului European și a Consiliului (39), cu privire la deciziile de punere în funcțiune sau de utilizare a sistemelor de IA. Este în continuare necesar să se asigure informarea lucrătorilor și a reprezentanților acestora cu privire la implementarea planificată a sistemelor de IA cu grad ridicat de risc la locul de muncă în cazul în care nu sunt îndeplinite condițiile pentru respectivele obligații de informare sau de informare și consultare prevăzute în alte instrumente juridice. În plus, un astfel de drept la informare este auxiliar și necesar în raport cu obiectivul de protecție a drepturilor fundamentale care stă la baza prezentului regulament. Prin urmare, prezentul regulament ar trebui să prevadă o cerință de informare în acest sens, fără a afecta drepturile existente ale lucrătorilor.
(93)
Рисковете, свързани със системите с ИИ, могат да произтичат от начина, по който са проектирани тези системи, но могат да се дължат и на начина, по който се използват тези системи с ИИ. По тази причина внедрителите на високорискова система с ИИ имат решаващо значение за гарантиране на защитата на основните права, като допълват задълженията на доставчика при разработването на системата с ИИ. Внедрителите могат най-добре да разберат как конкретно ще бъде използвана високорисковата система с ИИ и следователно могат да установят потенциални значителни рискове, които не са били предвидени на етапа на разработване, тъй като разполагат с по-точни знания за контекста на използване и лицата или групите лица, които има вероятност да бъдат засегнати, включително уязвимите групи. Внедрителите на високорискови системи с ИИ, изброени в приложение към настоящия регламент, също имат решаващо значение за информирането на физическите лица и следва, когато вземат решения или подпомагат вземането на решения, свързани с физическите лица, когато е приложимо, да ги информират, че спрямо тях се използва високорискова система с ИИ. Тази информация следва да включва предназначението и вида на решенията, които се вземат. Внедрителят следва също така да информира физическите лица за правото им да получат обяснение, предвидено в настоящия регламент. По отношение на високорисковите системи с ИИ, използвани за правоохранителни цели, това задължение следва да се прилага в съответствие с член 13 от Директива (ЕС) 2016/680.
(93)
Deși riscurile legate de sistemele de IA pot rezulta din modul în care sunt proiectate sistemele respective, pot decurge riscuri și din modul în care aceste sisteme de IA sunt utilizate. Prin urmare, implementatorii sistemelor de IA cu grad ridicat de risc joacă un rol esențial în garantarea faptului că drepturile fundamentale sunt protejate, completând obligațiile furnizorului la dezvoltarea sistemului de IA. Implementatorii sunt cei mai în măsură să înțeleagă modul în care sistemul de IA cu grad ridicat de risc va fi utilizat concret și, prin urmare, pot identifica potențialele riscuri semnificative care nu au fost prevăzute în faza de dezvoltare, datorită cunoașterii mai exacte a contextului de utilizare, a persoanelor sau a grupurilor de persoane care ar putea fi afectate, inclusiv a grupurilor vulnerabile. Implementatorii de sisteme de IA cu grad ridicat de risc enumerate într-o anexă la prezentul regulament joacă, de asemenea, un rol esențial în informarea persoanelor fizice și ar trebui, atunci când iau decizii sau contribuie la luarea deciziilor referitoare la persoane fizice, după caz, să informeze persoanele fizice că fac obiectul utilizării sistemului de IA cu grad ridicat de risc. Aceste informații ar trebui să includă scopul urmărit și tipul de decizii luate. Implementatorul ar trebui, de asemenea, să informeze persoanele fizice cu privire la dreptul lor la o explicație furnizată în temeiul prezentului regulament. În ceea ce privește sistemele de IA cu grad ridicat de risc utilizate în scopul aplicării legii, această obligație ar trebui să fie pusă în aplicare în conformitate cu articolul 13 din Directiva (UE) 2016/680.
(94)
Всяко обработване на биометрични данни, свързано с използването на системи с ИИ за биометрична идентификация за правоохранителни цели, трябва да бъде в съответствие с член 10 от Директива (ЕС) 2016/680, който позволява такова обработване само когато това е строго необходимо, при спазване на подходящи гаранции за правата и свободите на субекта на данните, и когато това е разрешено от правото на Съюза или правото на държава членка. При такова разрешено използване трябва също така да се спазват принципите, установени в член 4, параграф 1 от Директива (ЕС) 2016/680, включително законосъобразност, добросъвестност и прозрачност, ограничаване в рамките на целта, точност и ограничаване на съхранението.
(94)
Orice prelucrare a datelor biometrice implicate în utilizarea sistemelor de IA pentru identificarea biometrică în scopul aplicării legii trebuie să respecte articolul 10 din Directiva (UE) 2016/680, care permite o astfel de prelucrare numai atunci când este strict necesară, sub rezerva unor garanții adecvate pentru drepturile și libertățile persoanei vizate, și atunci când este autorizată de dreptul Uniunii sau de dreptul intern. O astfel de utilizare, atunci când este autorizată, trebuie, de asemenea, să respecte principiile prevăzute la articolul 4 alineatul (1) din Directiva (UE) 2016/680, inclusiv legalitatea, echitatea și transparența, limitarea scopului, exactitatea și limitarea stocării.
(95)
Без да се засяга приложимото право на Съюза, по-специално Регламент (ЕС) 2016/679 и Директива (ЕС) 2016/680, като се има предвид инвазивният характер на системите за последваща дистанционна биометрична идентификация, използването на тези системи следва да е придружено с гаранции. Системите за последваща дистанционна биометрична идентификация следва винаги да се използват по начин, който е пропорционален, законосъобразен и строго необходим, и следователно конкретизиран, по отношение на лицата, които трябва да бъдат идентифицирани, местоположението и времевия обхват, и въз основа на затворен набор от данни от законно придобити видеозаписи. Във всеки случай системите за последваща дистанционна биометрична идентификация не следва да се използват в правоохранителен контекст с цел неизбирателно наблюдение. Условията за последващата дистанционна биометрична идентификация не следва в никакъв случай да предоставят основание за заобикаляне на условията на забраната и строгите изключения по отношение на дистанционната биометрична идентификация в реално време.
(95)
Fără a aduce atingere dreptului aplicabil al Uniunii, în special Regulamentului (UE) 2016/679 și Directivei (UE) 2016/680, având în vedere caracterul intruziv al sistemelor de identificare biometrică la distanță ulterioară, utilizarea sistemelor de identificare biometrică la distanță ulterioară ar trebui să facă obiectul unor garanții. Sistemele de identificare biometrică la distanță ulterioară ar trebui să fie utilizate întotdeauna într-un mod proporțional, legitim și strict necesar și, prin urmare, adaptat, în ceea ce privește persoanele care urmează să fie identificate, localizarea, acoperirea temporală și pe baza unui set de date închis de înregistrări video obținute în mod legal. În orice caz, sistemele de identificare biometrică la distanță ulterioară nu ar trebui să fie utilizate în cadrul aplicării legii pentru a conduce la o supraveghere arbitrară. Condițiile pentru identificarea biometrică la distanță ulterioară nu ar trebui, în niciun caz, să ofere o bază pentru a eluda condițiile interdicției și excepțiile stricte pentru identificarea biometrică la distanță în timp real.
(96)
За да се гарантира по ефективен начин защитата на основните права, внедрителите на високорискови системи с ИИ, които са публични органи, или частните субекти, предоставящи публични услуги, както и внедрителите на някои високорискови системи с ИИ, изброени в приложение към настоящия регламент, като например банкови институции или застрахователи, следва да извършват оценка на въздействието върху основните права преди пускането в действие. Услуги от обществен характер, които са от значение за физическите лица, могат да се предоставят и от частни субекти. Частните субекти, предоставящи такива публични услуги, са свързани с изпълнението на задачи от обществен интерес, например в областите на образованието, здравеопазването, социалните услуги, жилищното настаняване и правораздаването. Целта на оценката на въздействието върху основните права е внедрителят да установи конкретните рискове за правата на лицата или групите лица, които е вероятно да бъдат засегнати, и да набележи мерките, които да бъдат предприети при настъпване на тези рискове. Оценката на въздействието следва да се извърши преди внедряването на високорисковата система с ИИ и следва да се актуализира, когато внедрителят счете, че някой от съответните фактори се е променил. В оценката на въздействието следва да се определят съответните процеси на внедрителя, в рамките на които високорисковата система с ИИ ще бъде използвана в съответствие с нейното предназначение, и следва да се посочи срокът, в който системата е предназначена да се използва, и честотата, с която тя е предназначена да се използва, както и конкретните категории физически лица и групи, които е вероятно да бъдат засегнати в конкретния контекст на използване. Оценката следва да включва и установяването на конкретните рискове от настъпване на вреди, които е вероятно да окажат въздействие върху основните права на тези лица или групи. При извършването на тази оценка внедрителят следва да вземе предвид информацията, която е от значение за правилната оценка на въздействието, включително, но не само, информацията, предоставена от доставчика на високорисковата система с ИИ в инструкциите за употреба. С оглед на установените рискове внедрителите следва да определят мерките, които да бъдат предприети при настъпване на тези рискове, включително например правила за управление в този конкретен контекст на използване, като например механизми за човешки контрол в съответствие с инструкциите за употреба или процедури за разглеждане на жалби и правна защита, тъй като те биха могли да бъдат от основно значение за ограничаване на рисковете за основните права в конкретни случаи на използване. След извършването на тази оценка на въздействието внедрителят следва да уведоми съответния орган за надзор на пазара. Когато е целесъобразно, за да се събере съответната информация, необходима за извършване на оценката на въздействието, внедрителите на високорискова система с ИИ, по-специално когато системите с ИИ се използват в публичния сектор, биха могли да включат съответните заинтересовани страни, включително представители на групи лица, които е вероятно да бъдат засегнати от системата с ИИ, независими експерти и организации на гражданското общество, в извършването на такива оценки на въздействието и разработването на мерки, които да бъдат предприети в случай на настъпване на рисковете. Европейската служба по изкуствен интелект (наричана по-долу „Службата по ИИ“) следва да разработи образец на въпросник, за да се улесни спазването на изискванията и да се намали административната тежест за внедрителите.
(96)
Pentru a se asigura în mod eficient că drepturile fundamentale sunt protejate, implementatorii de sisteme de IA cu grad ridicat de risc care sunt organisme de drept public sau entitățile private care furnizează servicii publice și implementatorii care implementează anumite sisteme de IA cu grad ridicat de risc enumerate într-o anexă la prezentul regulament, cum ar fi entitățile bancare sau de asigurări, ar trebui să efectueze o evaluare a impactului asupra drepturilor fundamentale înainte de a pune aceste sisteme în funcțiune. Serviciile importante pentru persoanele fizice care sunt de natură publică pot fi furnizate și de entități private. Entitățile private care furnizează astfel de servicii publice sunt legați de sarcini de interes public, cum ar fi în domeniul educației, al îngrijirilor de sănătate, al serviciilor sociale, al locuințelor, al administrării justiției. Scopul evaluării impactului asupra drepturilor fundamentale este ca implementatorul să identifice riscurile specifice pentru drepturile persoanelor sau ale grupurilor de persoane care ar putea fi afectate și să identifice măsurile care trebuie luate în cazul materializării riscurilor respective. Evaluarea impactului ar trebui să fie efectuată înainte de implementarea sistemului de IA cu grad ridicat de risc și ar trebui să fie actualizată atunci când implementatorul consideră că oricare dintre factorii relevanți s-au schimbat. Evaluarea impactului ar trebui să identifice procesele relevante ale implementatorului în care sistemul de IA cu grad ridicat de risc va fi utilizat în conformitate cu scopul său preconizat și ar trebui să includă o descriere a perioadei de timp și a frecvenței în care se intenționează utilizarea sistemului, precum și a categoriilor specifice de persoane fizice și grupuri care sunt susceptibile de a fi afectate în contextul specific de utilizare. Evaluarea ar trebui să includă, de asemenea, identificarea riscurilor specifice de prejudiciu care ar putea avea un impact asupra drepturilor fundamentale ale persoanelor sau grupurilor respective. Atunci când efectuează această evaluare, implementatorul ar trebui să țină seama de informațiile relevante pentru o evaluare adecvată a impactului, inclusiv de informațiile furnizate de furnizorul sistemului de IA cu grad ridicat de risc în instrucțiunile de utilizare, dar fără a se limita la aceste informații. Având în vedere riscurile identificate, implementatorii ar trebui să stabilească măsurile care trebuie luate în cazul materializării acestor riscuri, inclusiv, de exemplu, mecanisme de guvernanță în acest context specific de utilizare, cum ar fi mecanisme de supraveghere umană în conformitate cu instrucțiunile de utilizare sau proceduri de tratare a plângerilor și proceduri aferente măsurilor reparatorii, deoarece acestea ar putea fi esențiale pentru atenuarea riscurilor la adresa drepturilor fundamentale în cazuri concrete de utilizare. După efectuarea respectivei evaluări a impactului, implementatorul ar trebui să îi notifice acest lucru autorității relevante de supraveghere a pieței. După caz, pentru a colecta informațiile relevante necesare pentru efectuarea evaluării impactului, implementatorii de sisteme de IA cu grad ridicat de risc, în special atunci când sistemele de IA sunt utilizate în sectorul public, ar putea implica părțile interesate relevante, inclusiv reprezentanții grupurilor de persoane susceptibile de a fi afectate de sistemul de IA, experții independenți și organizațiile societății civile în efectuarea unor astfel de evaluări ale impactului și în conceperea măsurilor care trebuie luate în cazul materializării riscurilor. Oficiul european pentru inteligența artificială (Oficiul pentru IA) ar trebui să elaboreze un model de chestionar pentru a facilita conformitatea și a reduce sarcina administrativă pentru implementatori.
(97)
Понятието „модели на ИИ с общо предназначение“ следва да бъде ясно определено и разграничено от понятието „системи с ИИ“, за да се гарантира правна сигурност. Определението следва да се основава на ключовите функционални характеристики на модел на ИИ с общо предназначение, по-специално общ характер и способност за компетентно изпълнение на широк набор от отделни задачи. Тези модели обикновено се обучават въз основа на голямо количество данни чрез различни методи, като например обучение (самообучение) със и без надзор и обучение с утвърждение. Моделите на ИИ с общо предназначение могат да бъдат пускани на пазара по различни начини, включително чрез библиотеки, приложно-програмни интерфейси (API), за директно изтегляне или с физическо копие. Тези модели могат да бъдат допълнително изменени или усъвършенствани в нови модели. Въпреки че моделите на ИИ са основни компоненти на системите с ИИ, сами по себе си те не представляват системи с ИИ. Моделите на ИИ изискват добавянето на допълнителни компоненти, като например потребителски интерфейс, за да се превърнат в системи с ИИ. Моделите на ИИ обикновено са интегрирани в системите с ИИ и са част от тях. В настоящия регламент се предвиждат специални правила за моделите на ИИ с общо предназначение и за моделите на ИИ с общо предназначение, пораждащи системни рискове, които следва да се прилагат и когато тези модели са интегрирани в система с ИИ или са част от нея. Приема се, че задълженията на доставчиците на модели на ИИ с общо предназначение следва да се прилагат след пускането на тези модели на пазара. Когато доставчикът на модел на ИИ с общо предназначение интегрира собствен модел в своя собствена система с ИИ, която се предоставя на пазара или се пуска в действие, този модел следва да се счита за пуснат на пазара и поради това задълженията, установени в настоящия регламент по отношение на моделите, следва да продължат да се прилагат в допълнение към задълженията за системите с ИИ. Задълженията, установени за моделите, във всички случаи не следва да се прилагат, когато собствен модел се използва за чисто вътрешни процеси, които не са от съществено значение за предоставянето на продукт или услуга на трети лица, и когато правата на физическите лица не са засегнати. Като се има предвид възможното им значително отрицателно въздействие, за моделите на ИИ с общо предназначение, пораждащи системен риск, следва винаги да се прилагат съответните задължения съгласно настоящия регламент. Определението не следва да обхваща модели на ИИ, използвани преди пускането им на пазара единствено с цел научноизследователска и развойна дейност и дейности по създаване на прототипи. Това не засяга задължението за спазване на настоящия регламент, когато след такива дейности на пазара се пуска модел.
(97)
Noțiunea de modele de IA de uz general ar trebui să fie definită în mod clar și separată de noțiunea de sisteme de IA pentru a asigura securitatea juridică. Definiția ar trebui să se bazeze pe caracteristicile funcționale esențiale ale unui model de IA de uz general, în special pe generalitate și pe capabilitatea de a îndeplini în mod competent o gamă largă de sarcini distincte. Aceste modele sunt, de regulă, antrenate pe volume mari de date, prin diverse metode, cum ar fi învățarea autosupravegheată, nesupravegheată sau prin întărire. Modelele de IA de uz general pot fi introduse pe piață în diferite moduri, inclusiv prin biblioteci, interfețe de programare a aplicațiilor (API), sub formă de descărcare directă sau sub formă de copie fizică. Aceste modele pot fi modificate suplimentar sau calibrate și astfel transformate în modele noi. Deși modelele de IA sunt componente esențiale ale sistemelor de IA, ele nu constituie sisteme de IA în sine. Modelele de IA necesită adăugarea de componente suplimentare, cum ar fi, de exemplu, o interfață cu utilizatorul, pentru a deveni sisteme de IA. Modelele de IA sunt, de regulă, integrate în sistemele de IA și fac parte din acestea. Prezentul regulament prevede norme specifice pentru modelele de IA de uz general și pentru modelele de IA de uz general care prezintă riscuri sistemice, norme care ar trebui să se aplice și atunci când aceste modele sunt integrate sau fac parte dintr-un sistem de IA. Ar trebui să se înțeleagă că obligațiile furnizorilor de modele de IA de uz general ar trebui să se aplice odată ce modelele de IA de uz general sunt introduse pe piață. Atunci când furnizorul unui model de IA de uz general integrează un model propriu în propriul sistem de IA care este pus la dispoziție pe piață sau pus în funcțiune, modelul respectiv ar trebui să fie considerat ca fiind introdus pe piață și, prin urmare, obligațiile prevăzute în prezentul regulament pentru modele ar trebui să se aplice în continuare în plus față de cele pentru sistemele de IA. Obligațiile stabilite pentru modele nu ar trebui în niciun caz să se aplice atunci când un model propriu este utilizat pentru procese pur interne care nu sunt esențiale pentru furnizarea unui produs sau a unui serviciu către terți, iar drepturile persoanelor fizice nu sunt afectate. Având în vedere potențialele lor efecte negative semnificative, modelele de IA de uz general cu risc sistemic ar trebui să facă întotdeauna obiectul obligațiilor relevante în temeiul prezentului regulament. Definiția nu ar trebui să acopere modelele de IA utilizate înainte de introducerea lor pe piață în scopul unic al activităților de cercetare, dezvoltare și creare de prototipuri. Acest lucru nu aduce atingere obligației de a se conforma prezentului regulament atunci când, în urma unor astfel de activități, se introduce pe piață un model.
(98)
Въпреки че общият характер на даден модел би могъл, наред с другото, да се определя и от редица параметри, следва да се счита, че модели с поне един милиард параметри, обучени с голямо количество данни и проявяващи в голяма степен самонадзор, се отличават със значителна степен на общ характер и компетентно изпълняват широк набор от отделни задачи.
(98)
În timp ce generalitatea unui model ar putea fi determinată, printre altele, și de o serie de parametri, ar trebui să se considere că modelele cu cel puțin un miliard de parametri și antrenate cu un volum mare de date utilizând autosupravegherea la scară largă prezintă o generalitate semnificativă și îndeplinesc în mod competent o gamă largă de sarcini distincte.
(99)
Големите генеративни модели на ИИ са типичен пример за модел на ИИ с общо предназначение, като се има предвид, че те дават възможност за гъвкаво генериране на съдържание, например под формата на текст, аудиоматериали, изображения или видеоматериали, което лесно може да покрие широк спектър от отделни задачи.
(99)
Modelele de IA generative de mari dimensiuni sunt un exemplu tipic de model de IA de uz general, având în vedere că permit generarea flexibilă de conținut, cum ar fi sub formă de text, audio, imagini sau video, care pot răspunde cu ușurință unei game largi de sarcini distincte.
(100)
Когато модел на ИИ с общо предназначение е интегриран в система с ИИ или е част от нея, тази система следва да се счита за система с ИИ с общо предназначение, когато поради тази интеграция системата е в състояние да обслужва най-различни цели. Системата с ИИ с общо предназначение може да бъде използвана пряко или може да бъде интегрирана в други системи с ИИ.
(100)
Atunci când un model de IA de uz general este integrat într-un sistem de IA sau face parte dintr-un astfel de sistem, acest sistem ar trebui să fie considerat a fi un sistem de IA de uz general atunci când, în urma acestei integrări, acest sistem are capabilitatea de a servi unei varietăți de scopuri. Un sistem de IA de uz general poate fi utilizat direct sau poate fi integrat în alte sisteme de IA.
(101)
Доставчиците на модели на ИИ с общо предназначение имат особено значение и отговорност по веригата за създаване на стойност в областта на ИИ, тъй като моделите, които предоставят, могат да бъдат основа за набор от системи надолу по веригата, често предоставяни от доставчици надолу по веригата, които трябва добре да разбират моделите и техните способности, както за да могат да интегрират такива модели в своите продукти, така и за да изпълняват задълженията си съгласно настоящия или други регламенти. Поради това следва да се определят пропорционални мерки за прозрачност, включително изготвяне и актуализиране на документацията и предоставяне на информация относно модела на ИИ с общо предназначение за използването му от доставчиците надолу по веригата. Техническата документация следва да се изготвя и актуализира от доставчика на модели на ИИ с общо предназначение с цел предоставянето ѝ при поискване на Службата по ИИ и на националните компетентни органи. Минималният набор от елементи, които трябва да бъдат включени в тази документация, следва да бъде посочен в конкретни приложения към настоящия регламент. На Комисията следва да бъде предоставено правомощието да изменя тези приложения чрез делегирани актове с оглед на технологичното развитие.
(101)
Furnizorii de modele de IA de uz general au un rol și o responsabilitate deosebite de-a lungul lanțului valoric al IA, deoarece modelele pe care le furnizează pot constitui baza pentru o serie de sisteme din aval, adesea furnizate de furnizori din aval care au nevoie de o bună înțelegere a modelelor și a capabilităților acestora, atât pentru a permite integrarea unor astfel de modele în produsele lor, cât și pentru a-și îndeplini obligațiile care le revin în temeiul prezentului regulament sau al altor regulamente. Prin urmare, ar trebui să fie stabilite măsuri proporționale de transparență, inclusiv întocmirea și ținerea la zi a documentației, precum și furnizarea de informații privind modelul de IA de uz general pentru utilizarea sa de către furnizorii din aval. Documentația tehnică ar trebui să fie pregătită și ținută la zi de către furnizorul modelului de IA de uz general în scopul de a o pune, la cerere, la dispoziția Oficiului pentru IA și a autorităților naționale competente. Setul minim de elemente care trebuie incluse în această documentație ar trebui să fie stabilit în anexele specifice la prezentul regulament. Comisia ar trebui să fie împuternicită să modifice anexele respective prin intermediul unor acte delegate în funcție de evoluțiile tehnologice.
(102)
Софтуер и данни, включително модели, предоставени с безплатен лиценз с отворен код, който им позволява да бъдат споделяни свободно и чрез който ползвателите могат свободно да ги достъпват, използват, променят и разпространяват в променен или непроменен вид, могат да допринесат за научните изследвания и иновациите на пазара и да осигурят значителни възможности за растеж на икономиката на Съюза. Следва да се обмисли използването на модели на ИИ с общо предназначение, представени с безплатни лицензи с отворен код, за да се гарантират високи равнища на прозрачност и отвореност, ако техните параметри, включително теглата, информацията за архитектурата на модела и информацията за използването на модела са публично достъпни. Лицензът следва да се счита за безплатен и с отворен код и когато дава възможност на ползвателите да използват, копират, разпространяват, изучават, променят и подобряват софтуер и данни, включително модели, при условие че се посочва първоначалният доставчик на модела и се спазват еднакви или сходни условия на разпространение.
(102)
Software-ul și datele, inclusiv modelele, lansate sub licență liberă și cu sursă deschisă care le permite să fie partajate în mod deschis și pe care utilizatorii le pot accesa, utiliza, modifica și redistribui liber sau versiuni modificate ale acestora, pot contribui la cercetare și inovare pe piață și pot oferi oportunități semnificative de creștere pentru economia Uniunii. Ar trebui să se considere că modelele de IA de uz general lansate sub licențe libere și cu sursă deschisă asigură niveluri ridicate de transparență și deschidere dacă parametrii lor, inclusiv ponderile, informațiile privind arhitectura modelului și informațiile privind utilizarea modelului, sunt puși la dispoziția publicului. Licența ar trebui să fie considerată ca fiind liberă și cu sursă deschisă și atunci când le permite utilizatorilor să ruleze, să copieze, să distribuie, să studieze, să modifice și să îmbunătățească software-ul și datele, inclusiv modelele, cu condiția ca furnizorul inițial al modelului să fie menționat și ca termenii de distribuție identici sau comparabili să fie respectați.
(103)
Безплатните компоненти с ИИ с отворен код обхващат софтуера и данните, включително модели и модели, инструменти, услуги или процеси с ИИ с общо предназначение на дадена система с ИИ. Безплатните компоненти с ИИ с отворен код могат да бъдат предоставяни по различни начини, включително чрез разработването им в хранилища със свободен достъп. За целите на настоящия регламент компонентите с ИИ, които се предоставят срещу заплащане или се възмездяват по друг начин, включително чрез предоставянето на техническа поддръжка или други услуги, включително чрез софтуерна платформа, свързани с компонента с ИИ, или използването на лични данни по причини, различни от изключителната цел за подобряване на сигурността, съвместимостта или оперативната съвместимост на софтуера, с изключение на сделките между микропредприятия, не следва да се ползват от изключенията, предвидени за безплатните компоненти с ИИ с отворен код. Предоставянето на компоненти с ИИ чрез хранилища със свободен достъп не следва само по себе си да представлява възмездяване.
(103)
Componentele de IA libere și cu sursă deschisă acoperă software-ul și datele, inclusiv modelele și modelele, instrumentele, serviciile sau procesele de IA de uz general ale unui sistem de IA. Componentele de IA libere și cu sursă deschisă pot fi furnizate prin diferite canale, inclusiv prin dezvoltarea lor în depozite deschise. În sensul prezentului regulament, componentele de IA care sunt furnizate contra unui preț sau monetizate în alt mod, inclusiv prin furnizarea de sprijin tehnic sau de alte servicii, inclusiv prin intermediul unei platforme software, legate de componenta de IA, sau utilizarea datelor cu caracter personal din alte motive decât în scopul exclusiv de îmbunătățire a securității, a compatibilității sau a interoperabilității software-ului, cu excepția tranzacțiilor dintre microîntreprinderi, nu ar trebui să beneficieze de excepțiile prevăzute pentru componentele de IA libere și cu sursă deschisă. Punerea la dispoziție a componentelor de IA prin intermediul depozitelor deschise nu ar trebui, în sine, să constituie o monetizare.
(104)
За доставчиците на модели на ИИ с общо предназначение, които са предоставени с безплатен лиценз с отворен код и чиито параметри, включително теглата, информацията за архитектурата на модела и информацията за използването на модела, са публично достъпни, следва да се прилагат изключения по отношение на свързаните с прозрачността изисквания, наложени на моделите на ИИ с общо предназначение, освен когато може да се счита, че те пораждат системен риск, като в този случай обстоятелството, че моделът е прозрачен и придружен от лиценз с отворен код, не следва да се счита за достатъчна причина за изключване на спазването на задълженията съгласно настоящия регламент. Във всеки случай, като се има предвид, че предоставянето на модели на ИИ с общо предназначение с безплатен лиценз с отворен код не разкрива непременно съществена информация относно набора от данни, използван за обучението или финото регулиране на модела, и относно това как по този начин се гарантира спазването на авторското право, предвиденото за моделите на ИИ с общо предназначение изключение от съответствието с изискванията, свързани с прозрачността, не следва да се отнася до задължението за изготвяне на обобщение на съдържанието, използвано за обучение на модели, и задължението за въвеждане на политика за спазване на правото на Съюза в областта на авторското право, по-специално за установяване и съблюдаване на запазването на права съгласно член 4, параграф 3 от Директива (ЕС) 2019/790 на Европейския парламент и на Съвета (40).
(104)
Furnizorii de modele de IA de uz general care sunt lansate sub licență liberă și cu sursă deschisă și ai căror parametri, inclusiv ponderile, informațiile privind arhitectura modelului și informațiile privind utilizarea modelului, sunt puși la dispoziția publicului ar trebui să facă obiectul unor excepții în ceea ce privește cerințele legate de transparență impuse modelelor de IA de uz general, cu excepția cazului în care se poate considera că prezintă un risc sistemic, caz în care circumstanța că modelul este transparent și însoțit de o licență cu sursă deschisă nu ar trebui să fie considerată un motiv suficient pentru a exclude respectarea obligațiilor prevăzute în prezentul regulament. În orice caz, având în vedere că lansarea modelelor de IA de uz general sub licență liberă și cu sursă deschisă nu dezvăluie neapărat informații substanțiale cu privire la setul de date utilizat pentru antrenarea sau calibrarea modelului și la modul în care a fost astfel asigurată conformitatea cu dreptul privind drepturile de autor, excepția prevăzută pentru modelele de IA de uz general de la respectarea cerințelor legate de transparență nu ar trebui să se refere la obligația de a prezenta un rezumat cu privire la conținutul utilizat pentru antrenarea modelelor și la obligația de a institui o politică de respectare a dreptului Uniunii privind drepturile de autor, în special pentru a identifica și a respecta rezervarea drepturilor în temeiul articolului 4 alineatul (3) din Directiva (UE) 2019/790 a Parlamentului European și a Consiliului (40).
(105)
Моделите на ИИ с общо предназначение, по-специално големите генеративни модели на ИИ, способни да генерират текст, изображения и друго съдържание, представляват уникални възможности за иновации, но също така са свързани и с трудности за хората на изкуството, авторите и другите творци, както и за начина, по който тяхното творческо съдържание се създава, разпространява, използва и потребява. Разработването и обучението на такива модели изисква достъп до големи количества текст, изображения, видеоматериали и други данни. Техниките за извличане на информация от текст и данни могат да се използват широко в този контекст за извличане и анализ на такова съдържание, което може да бъде защитено с авторско право и сродните му права. Всяко използване на защитено с авторско право съдържание изисква разрешение от съответните носители на права, освен ако не се прилагат съответните изключения и ограничения, свързани с авторското право. С Директива (ЕС) 2019/790 бяха въведени изключения и ограничения, които позволяват възпроизвеждането и извличането на откъси от произведения или други обекти за целите на извличането на информация от текст и данни при определени условия. Съгласно тези правила носителите на права могат да изберат да запазят правата си върху своите произведения или други обекти, за да предотвратят извличането на информация от текст и данни, освен ако това не се извършва за целите на научни изследвания. Когато правото на отказ е изрично запазено по подходящ начин, доставчиците на модели на ИИ с общо предназначение трябва да получат разрешение от носителите на права, ако желаят да извършват извличане на информация от текст и данни за такива произведения.
(105)
Modelele de IA de uz general, în special modelele de IA generative de mari dimensiuni, capabile să genereze text, imagini și alte conținuturi, prezintă oportunități unice de inovare, dar și provocări pentru artiști, autori și alți creatori și pentru modul în care conținutul lor creativ este creat, distribuit, utilizat și consumat. Dezvoltarea și antrenarea unor astfel de modele necesită acces la volume mari de text, imagini, materiale video și alte date. Tehnicile de extragere a textului și a datelor pot fi utilizate pe scară largă în acest context pentru obținerea și analizarea unui astfel de conținut, care poate fi protejat prin drepturi de autor și drepturi conexe. Orice utilizare a unui conținut protejat prin drepturi de autor necesită autorizare din partea titularului de drepturi în cauză, cu excepția cazului în care se aplică excepții și limitări relevante ale drepturilor de autor. Directiva (UE) 2019/790 a introdus excepții și limitări care permit reproduceri și extrageri ale operelor sau ale altor obiecte protejate, în scopul extragerii de text și de date, în anumite condiții. În temeiul acestor norme, titularii de drepturi pot alege să își rezerve drepturile asupra operelor lor sau asupra altor obiecte protejate ale lor pentru a preveni extragerea de text și de date, cu excepția cazului în care acest lucru se face în scopul cercetării științifice. În cazul în care drepturile de neparticipare au fost rezervate în mod expres într-un mod adecvat, furnizorii de modele de IA de uz general trebuie să obțină o autorizație din partea titularilor de drepturi dacă doresc să efectueze extragere de text și de date din astfel de opere.
(106)
Доставчиците, които пускат на пазара на Съюза модели на ИИ с общо предназначение, следва да гарантират спазването на съответните задължения, установени в настоящия регламент. За тази цел доставчиците на модели на ИИ с общо предназначение следва да въведат политика за спазване на правото на Съюза в областта на авторското право и сродните му права, по-специално за установяване и съблюдаване на запазването на права, изразено от носителите на права съгласно член 4, параграф 3 от Директива (ЕС) 2019/790. Всеки доставчик, който пуска на пазара на Съюза модел на ИИ с общо предназначение, следва да спазва това задължение, независимо от юрисдикцията, в която се извършват действията, свързани с авторското право, които са в основата на обучението на тези модели на ИИ с общо предназначение. Това е необходимо, за да се гарантира равнопоставеност на доставчиците на модели на ИИ с общо предназначение, при което нито един доставчик не следва да може да получи конкурентно предимство на пазара на Съюза чрез прилагане на по-ниски стандарти в областта на авторското право от предвидените в Съюза.
(106)
Furnizorii care introduc modele de IA de uz general pe piața Uniunii ar trebui să asigure respectarea obligațiilor relevante prevăzute în prezentul regulament. În acest scop, furnizorii de modele de IA de uz general ar trebui să instituie o politică de respectare a dreptului Uniunii privind drepturile de autor și drepturile conexe, în special pentru a identifica și a respecta rezervarea drepturilor exprimată de titularii de drepturi în temeiul articolului 4 alineatul (3) din Directiva (UE) 2019/790. Orice furnizor care introduce un model de IA de uz general pe piața Uniunii ar trebui să respecte această obligație, indiferent de jurisdicția în care au loc actele relevante pentru drepturile de autor care stau la baza antrenării respectivelor modele de IA de uz general. Acest lucru este necesar pentru a asigura condiții de concurență echitabile între furnizorii de modele de IA de uz general, în care niciun furnizor nu ar trebui să poată obține un avantaj competitiv pe piața Uniunii prin aplicarea unor standarde privind drepturile de autor mai scăzute decât cele prevăzute în Uniune.
(107)
За да се повиши прозрачността по отношение на данните, които се използват при предварителното обучение и обучението на модели на ИИ с общо предназначение, включително текст и данни, защитени от правото в областта на авторското право, е целесъобразно доставчиците на такива модели да изготвят и оповестяват публично достатъчно подробно обобщение на съдържанието, използвано за обучение на модела на ИИ с общо предназначение. Като се отчита надлежно необходимостта от защита на търговските тайни и поверителната търговска информация, това обобщение следва като цяло да бъде изчерпателно по своя обхват, а не технически подробно, за да улесни лицата със законни интереси, включително носителите на авторски права, да упражняват и прилагат правата си съгласно правото на Съюза, например чрез изброяване на основните събрани данни или набори от данни, които са използвани при обучението по модела, като например големи частни или публични бази данни или архиви с данни, и чрез предоставяне на описателно разяснение за други използвани източници на данни. Целесъобразно е Службата по ИИ да осигури образец на обобщението, който следва да бъде опростен, ефективен и да позволява на доставчика да предостави изискваното обобщение в описателна форма.
(107)
Pentru a spori transparența datelor utilizate în preantrenarea și antrenarea modelelor de IA de uz general, inclusiv a textului și a datelor protejate de dreptul privind drepturile de autor, este adecvat ca furnizorii de astfel de modele să elaboreze și să pună la dispoziția publicului un rezumat suficient de detaliat al conținutului utilizat pentru antrenarea modelului de IA de uz general. Ținând seama în mod corespunzător de necesitatea de a proteja secretele comerciale și informațiile comerciale confidențiale, acest rezumat ar trebui să aibă un domeniu de aplicare în general cuprinzător, în loc să fie detaliat din punct de vedere tehnic, pentru a facilita părților cu interese legitime, inclusiv titularilor de drepturi de autor, să își exercite drepturile și să asigure respectarea drepturilor lor în temeiul dreptului Uniunii, de exemplu prin enumerarea principalelor colecții sau seturi de date folosite la antrenarea modelului, cum ar fi bazele de date sau arhivele de date de mari dimensiuni, private sau publice, și prin furnizarea unei explicații narative cu privire la alte surse de date utilizate. Este oportun ca Oficiul pentru IA să furnizeze un model pentru rezumat, care ar trebui să fie simplu, eficace și să permită furnizorului să furnizeze rezumatul solicitat sub formă narativă.
(108)
По отношение на задълженията, наложени на доставчиците на модели на ИИ с общо предназначение, да въведат политика за спазване на правото на Съюза в областта на авторското право и да оповестят публично обобщение на съдържанието, използвано за обучението, Службата по ИИ следва да следи дали доставчикът е изпълнил тези задължения, без да проверява или да извършва оценка на обучителните данни за всяко отделно произведение от гледна точка на спазването на авторското право. Настоящият регламент не засяга прилагането на правилата в областта на авторското право, предвидени в правото на Съюза.
(108)
În ceea ce privește obligațiile impuse furnizorilor de modele de IA de uz general de a institui o politică de respectare a dreptul Uniunii privind drepturile de autor și de a pune la dispoziția publicului un rezumat al conținutului utilizat pentru antrenare, Oficiul pentru IA ar trebui să monitorizeze dacă furnizorul și-a îndeplinit obligațiile respective fără a verifica sau a efectua o evaluare operă cu operă a datelor de antrenament în ceea ce privește respectarea drepturilor de autor. Prezentul regulament nu aduce atingere aplicării normelor în materie de drepturi de autor prevăzute în dreptul Uniunii.
(109)
Спазването на задълженията, приложими за доставчиците на модели на ИИ с общо предназначение, следва да бъде съизмеримо и пропорционално на вида доставчик на модели, като се изключва необходимостта от спазването им за лицата, които разработват или използват модели за непрофесионални или научноизследователски цели, които въпреки това следва да бъдат насърчавани да спазват тези изисквания на доброволна основа. Без да се засяга правото на Съюза в областта на авторското право, спазването на тези задължения следва да е надлежно съобразено с размера на доставчика и да дава възможност за опростени начини за постигане на съответствие за МСП, включително новосъздадени предприятия, които не следва да представляват прекомерни разходи и да не възпират използването на такива модели. В случай на изменение или фино регулиране на даден модел задълженията на доставчиците на модели на ИИ с общо предназначение следва да бъдат ограничени до това изменение или фино регулиране, например чрез допълване на вече съществуващата техническа документация с информация за измененията, включително нови източници на обучителни данни, като начин да се гарантира спазването на задълженията по веригата за създаване на стойност, предвидени в настоящия регламент.
(109)
Respectarea obligațiilor aplicabile furnizorilor de modele de IA de uz general ar trebui să fie corespunzătoare și proporțională cu tipul de furnizor de model, excluzând necesitatea respectării pentru persoanele care dezvoltă sau utilizează modele în alte scopuri decât cele profesionale sau de cercetare științifică, care ar trebui totuși să fie încurajate să respecte în mod voluntar aceste cerințe. Fără a aduce atingere dreptului Uniunii privind drepturile de autor, respectarea obligațiilor respective ar trebui să țină seama în mod corespunzător de dimensiunea furnizorului și să permită modalități simplificate de asigurare a respectării cerințelor pentru IMM-uri, inclusiv pentru întreprinderile nou-înființate, care nu ar trebui să reprezinte un cost excesiv și să descurajeze utilizarea unor astfel de modele. În cazul unei modificări sau calibrări a unui model, obligațiile furnizorilor de modele de IA de uz general ar trebui să se limiteze la modificarea sau calibrarea respectivă, de exemplu prin completarea documentației tehnice deja existente cu informații privind modificările, inclusiv noi surse de date de antrenament, ca mijloc de respectare a obligațiilor privind lanțul valoric prevăzute în prezentul regulament.
(110)
Моделите на ИИ с общо предназначение биха могли да породят системни рискове, които включват, но не се ограничават до действителни или разумно предвидими отрицателни последици във връзка с големи аварии, смущения в критични сектори и сериозни последици за общественото здраве и безопасност; действителни или разумно предвидими отрицателни последици за демократичните процеси, обществената и икономическата сигурност; разпространението на незаконно, невярно или дискриминационно съдържание. Следва да се приеме, че системните рискове нарастват заедно със способностите и обхвата на модела, могат да възникнат по време на целия жизнен цикъл на модела и се влияят от условията на неправилна експлоатация, надеждността, добросъвестността и сигурността на модела, степента на автономност на модела, неговия достъп до инструменти, новите или комбинираните условия, стратегиите за предоставяне и разпространение, възможността за премахване на предпазните механизми и други фактори. По-специално, досега международните подходи са установили необходимостта да се обърне внимание на рисковете, произтичащи от възможна умишлена неправилна експлоатация или непреднамерени проблеми с контрола, свързан с привеждането в съответствие с човешките намерения; химичните, биологичните, радиологичните и ядрените рискове, като например начините, по които могат да бъдат намалени пречките за достъп, включително за разработване, придобиване на дизайн или използване на оръжия; офанзивните киберспособности, като например средствата, позволяващи откриване, експлоатация или оперативно използване на уязвими места; последиците от взаимодействието и използването на инструменти, включително например капацитета за контрол на физическите системи и за намеса в критичната инфраструктура; рисковете, свързани с възможността моделите да изготвят свои собствени копия, да се самовъзпроизвеждат или да обучават други модели; начините, по които моделите могат да доведат до вредна предубеденост и дискриминация с рискове за физически лица, общности или общества; улесняването на дезинформацията или накърняването на неприкосновеността на личния живот чрез заплахи за демократичните ценности и правата на човека; риска дадено събитие да доведе до верижна реакция със значителни отрицателни последици, които биха могли да засегнат цял град, цяла област на дейност или цяла общност.
(110)
Modelele de IA de uz general ar putea prezenta riscuri sistemice care includ, printre altele, orice efecte negative reale sau previzibile în mod rezonabil în legătură cu accidente majore, perturbări ale sectoarelor critice și consecințe grave pentru sănătatea și siguranța publică, orice efecte negative reale sau previzibile în mod rezonabil asupra proceselor democratice, asupra securității publice și economice, diseminarea de conținut ilegal, fals sau discriminatoriu. Riscurile sistemice ar trebui să fie înțelese ca crescând odată cu capabilitățile modelului și cu amploarea modelului, pot apărea de-a lungul întregului ciclu de viață al modelului și sunt influențate de condițiile de utilizare necorespunzătoare, de fiabilitatea modelului, de echitatea modelului și de securitatea modelului, de nivelul de autonomie a modelului, de accesul său la instrumente, de modalitățile noi sau combinate, de strategiile de lansare și distribuție, de potențialul de eliminare a mecanismelor de protecție și de alți factori. În special, abordările internaționale au identificat până în prezent necesitatea de a acorda atenție riscurilor generate de potențialele utilizări necorespunzătoare intenționate sau de problemele neintenționate de control legate de alinierea la intenția umană; riscurilor chimice, biologice, radiologice și nucleare, cum ar fi modalitățile de reducere a barierelor la intrare, inclusiv pentru dezvoltarea, proiectarea, achiziționarea sau utilizarea de arme; capabilităților cibernetice ofensive, cum ar fi modalitățile care permit descoperirea, exploatarea sau utilizarea operațională a vulnerabilităților; efectelor interacțiunii și ale utilizării instrumentelor, inclusiv, de exemplu, capacitatea de a controla sistemele fizice și de a interfera cu infrastructura critică; riscurilor legate de posibilitatea ca modelele să facă copii după ele însele sau să se „autoreproducă” ori să antreneze alte modele; modurilor în care modelele pot da naștere unor prejudecăți dăunătoare și discriminării cu riscuri pentru indivizi, comunități sau societăți; facilitării dezinformării sau prejudicierii vieții private cu amenințări la adresa valorilor democratice și a drepturilor omului; riscului ca un anumit eveniment să conducă la o reacție în lanț cu efecte negative considerabile care ar putea afecta până la un întreg oraș, o întreagă activitate de domeniu sau o întreagă comunitate.
(111)
Целесъобразно е да се създаде методика за класифициране на моделите на ИИ с общо предназначение като модели на ИИ с общо предназначение, пораждащи системен риск. Тъй като системните рискове произтичат от особено големи способности, следва да се счита, че моделът на ИИ с общо предназначение поражда системни рискове, ако има способности с висока степен на въздействие, оценени въз основа на подходящи технически инструменти и методики, или значително въздействие върху вътрешния пазар поради своя обхват. Способностите с висока степен на въздействие при моделите на ИИ с общо предназначение означава способности, които съответстват на или надхвърлят способностите, регистрирани в най-напредналите модели на ИИ с общо предназначение. Пълният набор от способности на даден модел би могъл да бъде по-добре разбран след пускането му на пазара или при взаимодействието на внедрителите с модела. В зависимост от съвременните технически постижения към момента на влизане в сила на настоящия регламент общото количество изчисления, използвани за обучението на модела на ИИ с общо предназначение, измерено при операции с плаваща запетая, е една от значимите приблизителни стойности за способностите на модела. Общото количество изчисления, използвано за обучение, включва изчисленията, използвани за всички дейности и методи, които са предназначени да подобрят способностите на модела преди внедряването, като например предварително обучение, генериране на синтетични данни и фино регулиране. Поради това следва да се определи първоначален праг за операции с плаваща запетая, който, ако бъде достигнат от даден модел на ИИ с общо предназначение, води до презумпцията, че това е модел на ИИ с общо предназначение, пораждащ системен риск. Този праг следва да бъде коригиран с течение на времето, за да отразява технологичните и промишлените промени, като например подобрения в алгоритмите или повишена ефективност на хардуера, и следва да бъде допълван с референтни стойности и показатели за способностите на модела. За тази цел Службата по ИИ следва да работи с научната общност, стопанския сектор, гражданското общество и други експерти. Праговете, както и инструментите и референтните показатели за оценка на способностите с висока степен на въздействие следва да бъдат добри прогнозни фактори за общия характер, способностите и свързания системен риск на моделите на ИИ с общо предназначение и биха могли да вземат предвид начина, по който моделът ще бъде пуснат на пазара, или броя на ползвателите, които той може да засегне. За да се допълни тази система, Комисията следва да има възможност да взема индивидуални решения за определяне на модел на ИИ с общо предназначение като модел на ИИ с общо предназначение, пораждащ системен риск, ако се установи, че този модел има способности или въздействие, равностойни на тези, обхванати от определения праг. Това решение следва да се вземе въз основа на цялостна оценка на критериите за определяне на модели на ИИ с общо предназначение, пораждащи системен риск, посочени в приложение към настоящия регламент, като например качество или размер на набора от обучителни данни, брой на бизнес ползвателите и крайните ползватели, свързаните с него условия за входящи данни и резултати, степен на автономност и възможности за увеличаване на мащаба или инструментите, до които той има достъп. При обосновано искане от доставчик, чийто модел е определен като модел на ИИ с общо предназначение, пораждащ системен риск, Комисията следва да вземе предвид искането и може да реши да направи нова преценка дали все още може да се счита, че моделът на ИИ с общо предназначение поражда системни рискове.
(111)
Este oportun să se stabilească o metodologie pentru clasificarea modelelor de IA de uz general ca modele de IA de uz general cu riscuri sistemice. Întrucât riscurile sistemice rezultă din capabilități deosebit de ridicate, ar trebui să se considere că un model de IA de uz general prezintă riscuri sistemice dacă are capabilități cu impact ridicat, evaluate pe baza unor instrumente și metodologii tehnice adecvate sau dacă are un impact semnificativ asupra pieței interne din cauza amplorii sale. Capabilități cu impact ridicat în modelele de IA de uz general înseamnă capabilități care corespund capabilităților înregistrate în cele mai avansate modele de IA de uz general sau depășesc capabilitățile respective. Întreaga gamă de capabilități ale unui model ar putea fi mai bine înțeleasă după introducerea sa pe piață sau atunci când implementatorii interacționează cu modelul. În conformitate cu stadiul actual al tehnologiei la momentul intrării în vigoare a prezentului regulament, volumul cumulat de calcul utilizat pentru antrenarea modelului de IA de uz general măsurat în operații în virgulă mobilă este una dintre aproximările relevante pentru capabilitățile modelului. Volumul cumulat de calcul utilizat pentru antrenare include calculul utilizat pentru toate activitățile și metodele menite să consolideze capabilitățile modelului înainte de implementare, cum ar fi preantrenarea, generarea de date sintetice și calibrarea. Prin urmare, ar trebui să fie stabilit un prag inițial de operații în virgulă mobilă, care, dacă este atins de un model de IA de uz general, conduce la prezumția că modelul este un model de IA de uz general cu riscuri sistemice. Acest prag ar trebui să fie ajustat în timp pentru a reflecta schimbările tehnologice și industriale, cum ar fi îmbunătățirile algoritmice sau eficiența hardware sporită, și ar trebui să fie completat cu valori de referință și indicatori pentru capabilitatea modelului. În acest scop, Oficiul pentru IA ar trebui să colaboreze cu comunitatea științifică, cu industria, cu societatea civilă și cu alți experți. Pragurile, precum și instrumentele și valorile de referință pentru evaluarea capabilităților cu impact ridicat ar trebui să fie indicatori puternici ai generalității, ai capabilităților modelului și ai riscului sistemic asociat modelelor de IA de uz general și ar putea lua în considerare modul în care modelul va fi introdus pe piață sau numărul de utilizatori pe care îi poate afecta. Pentru a completa acest sistem, Comisia ar trebui să aibă posibilitatea de a lua decizii individuale de desemnare a unui model de IA de uz general ca model de IA de uz general cu risc sistemic dacă se constată că un astfel de model are capabilități sau un impact echivalent cu cele acoperite de pragul stabilit. Decizia respectivă ar trebui luată pe baza unei evaluări globale a criteriilor pentru desemnarea unui model de IA de uz general cu risc sistemic prevăzute într-o anexă la prezentul regulament, cum ar fi calitatea sau dimensiunea setului de date de antrenament, numărul de utilizatori comerciali și finali, modalitățile referitoare la datele de intrare și de ieșire ale modelului, nivelul său de autonomie și de scalabilitate sau instrumentele la care are acces. La cererea motivată a unui furnizor al cărui model a fost desemnat drept model de IA de uz general cu risc sistemic, Comisia ar trebui să țină seama de cerere și poate decide să reevalueze dacă modelul de IA de uz general poate fi considerat în continuare ca prezentând riscuri sistemice.
(112)
Необходимо е също така да се изясни процедурата за класифициране на модел на ИИ с общо предназначение, пораждащ системен риск. Модел на ИИ с общо предназначение, който отговаря на приложимия праг за способности с висока степен на въздействие, следва да се счита за модел на ИИ с общо предназначение, пораждащ системен риск. Доставчикът следва да уведоми Службата по ИИ най-късно две седмици след като бъдат изпълнени изискванията или стане известно, че даден модел на ИИ с общо предназначение ще отговаря на изискванията, свързани с презумпцията. Това е от особено значение във връзка с прага на операции с плаваща запетая, тъй като обучението на модели на ИИ с общо предназначение преминава през значително планиране, което включва предварително разпределяне на изчислителните ресурси, и следователно доставчиците на модели на ИИ с общо предназначение са в състояние да знаят дали техният модел би достигнал прага преди завършване на обучението. В контекста на това уведомяване доставчикът следва да може да докаже, че поради конкретните си характеристики даден модел на ИИ с общо предназначение по изключение не поражда системни рискове и че поради това не следва да бъде класифициран като модел на ИИ с общо предназначение, пораждащ системен риск. Тази информация е ценна, за да даде възможност на Службата по ИИ да предвиди пускането на пазара на модели на ИИ с общо предназначение, пораждащи системен риск, а на доставчиците да могат да започнат работа със Службата по ИИ на ранен етап. Информацията е особено важна по отношение на модели на ИИ с общо предназначение, за които се планира да бъдат пуснати с отворен код, като се има предвид, че след пускането на модел с отворен код може да е по-трудно да се приложат необходимите мерки за гарантиране на спазването на задълженията съгласно настоящия регламент.
(112)
De asemenea, este necesar să se clarifice o procedură pentru clasificarea unui model de IA de uz general cu riscuri sistemice. Un model de IA de uz general care respectă pragul aplicabil pentru capabilitățile cu impact ridicat ar trebui să fie prezumat ca fiind un model de IA de uz general cu risc sistemic. Furnizorul ar trebui să notifice Oficiul pentru IA în termen de cel mult două săptămâni de la îndeplinirea cerințelor sau de la data la care devine cunoscut faptul că un model de IA de uz general va îndeplini cerințele care conduc la prezumția respectivă. Acest lucru este deosebit de relevant în legătură cu pragul de operații în virgulă mobilă, deoarece antrenarea modelelor de IA de uz general necesită o planificare considerabilă, care include alocarea în avans a resurselor de calcul și, prin urmare, furnizorii de modele de IA de uz general sunt în măsură să știe dacă modelul lor ar atinge pragul înainte de finalizarea antrenării. În contextul notificării respective, furnizorul ar trebui să poată demonstra că, având în vedere caracteristicile sale specifice, un model de IA de uz general nu prezintă, în mod excepțional, riscuri sistemice și că, prin urmare, nu ar trebui să fie clasificat drept model de IA de uz general cu riscuri sistemice. Aceste informații sunt valoroase deoarece Oficiul pentru IA poate să anticipeze introducerea pe piață a modelelor de IA de uz general cu riscuri sistemice, iar furnizorii pot începe să colaboreze cu Oficiul pentru IA din timp. Aceste informații sunt deosebit de importante în ceea ce privește modelele de IA de uz general care sunt planificate să fie lansate ca sursă deschisă, având în vedere că, după lansarea modelului cu sursă deschisă, măsurile necesare pentru a asigura respectarea obligațiilor prevăzute în prezentul regulament pot fi mai dificil de pus în aplicare.
(113)
Ако на Комисията стане известен фактът, че даден модел на ИИ с общо предназначение отговаря на изискванията за класифициране като модел ИИ с общо предназначение, пораждащ системен риск, който преди това не е бил известен или за който съответният доставчик не е уведомил Комисията, на Комисията следва да бъде предоставено правомощието да го определи като такъв. Системата за приоритетни сигнали следва да гарантира, че Службата по ИИ е информирана от експертната група за модели на ИИ с общо предназначение, които евентуално следва да бъдат класифицирани като модели на ИИ с общо предназначение, пораждащи системен риск, в допълнение към дейностите по мониторинг на Службата по ИИ.
(113)
În cazul în care Comisia constată că un model de IA de uz general îndeplinește cerințele de clasificare ca model de IA de uz general cu risc sistemic, lucru care anterior fie nu fusese cunoscut, fie nu fusese notificat Comisiei de furnizorul relevant, Comisia ar trebui să fie împuternicită să îl desemneze ca atare. Un sistem de alerte calificate ar trebui să asigure faptul că Oficiul pentru IA este informat de către grupul științific cu privire la modele de IA de uz general care ar putea fi clasificate drept modele de IA de uz general cu risc sistemic, pe lângă activitățile de monitorizare ale Oficiului pentru IA.
(114)
За доставчиците на модели на ИИ с общо предназначение, пораждащи системни рискове, следва да се прилагат, в допълнение към задълженията, предвидени за доставчиците на модели на ИИ с общо предназначение, задължения, насочени към установяване и ограничаване на тези рискове и осигуряване на подходящо равнище на защита на киберсигурността, независимо дали тези модели се предоставят като самостоятелни модели, или са вградени в система с ИИ или продукт. За постигането на тези цели настоящият регламент следва да изисква от доставчиците да извършват необходимите оценки на модела, по-специално преди първото му пускане на пазара, включително провеждане и документиране на конкурентно изпитване на модели, когато е целесъобразно и чрез вътрешни или независими външни изпитвания. Освен това доставчиците на модели на ИИ с общо предназначение, пораждащи системен риск, следва непрекъснато да оценяват и ограничават системните рискове, включително например чрез въвеждане на политики за управление на риска, като например процеси на отчетност и администриране, проследяване след пускането на пазара, предприемане на подходящи мерки през целия жизнен цикъл на модела и сътрудничество със съответните участници по веригата за създаване на стойност в областта на ИИ.
(114)
Furnizorii de modele de IA de uz general care prezintă riscuri sistemice ar trebui să facă obiectul, pe lângă obligațiile prevăzute pentru furnizorii de modele de IA de uz general, unor obligații menite să identifice și să atenueze riscurile respective și să asigure un nivel adecvat de protecție în materie de securitate cibernetică, indiferent dacă este furnizat ca model de sine stătător sau încorporat într-un sistem sau într-un produs de IA. Pentru a atinge obiectivele respective, prezentul regulament ar trebui să impună furnizorilor să efectueze evaluările necesare ale modelelor, în special înainte de prima lor introducere pe piață, inclusiv efectuarea și documentarea testării contradictorii a modelelor, inclusiv, după caz, prin testări interne sau externe independente. În plus, furnizorii de modele de IA de uz general cu riscuri sistemice ar trebui să evalueze și să atenueze în permanență riscurile sistemice, inclusiv, de exemplu, prin instituirea unor politici de gestionare a riscurilor, cum ar fi procesele de asigurare a răspunderii și de guvernanță, prin punerea în aplicare a monitorizării ulterioare introducerii pe piață, prin luarea de măsuri adecvate de-a lungul întregului ciclu de viață al modelului și prin cooperarea cu actorii relevanți de-a lungul lanțului valoric al IA.
(115)
Доставчиците на модели на ИИ с общо предназначение, пораждащи системен риск, следва да оценяват и ограничават възможните системни рискове. Ако въпреки усилията за установяване и предотвратяване на рискове, свързани с модел на ИИ с общо предназначение, който може да поражда системни рискове, разработването или използването на модела причини сериозен инцидент, доставчикът на модел на ИИ с общо предназначение следва без ненужно забавяне да проследи инцидента и да докладва на Комисията и на националните компетентни органи за всяка съответна информация и възможни коригиращи действия. Освен това доставчиците следва да гарантират подходящо равнище на защита на киберсигурността на модела и неговата физическа инфраструктура, ако е целесъобразно, през целия жизнен цикъл на модела. Защитата на киберсигурността от системни рискове, свързани с недобросъвестно използване или атаки, следва надлежно да отчита случайни фактори като изтичане на модел, неразрешено предоставяне, заобикаляне на мерките за безопасност и защита срещу кибератаки, неразрешен достъп или кражба на модел. Тази защита може да бъде улеснена чрез осигуряване на тегла на моделите, алгоритми, сървъри и набори от данни, например чрез оперативни мерки за информационна сигурност, специфични политики за киберсигурност, подходящи технически и изпитани решения и контрол на кибердостъпа и физическия достъп, съобразени със съответните обстоятелства и рискове.
(115)
Furnizorii de modele de IA de uz general cu riscuri sistemice ar trebui să evalueze și să atenueze posibilele riscuri sistemice. Dacă, în pofida eforturilor de identificare și prevenire a riscurilor legate de un model de IA de uz general care poate prezenta riscuri sistemice, dezvoltarea sau utilizarea modelului cauzează un incident grav, furnizorul modelului de IA de uz general ar trebui să urmărească fără întârzieri nejustificate incidentul și să raporteze Comisiei și autorităților naționale competente orice informații relevante și posibile măsuri corective. În plus, furnizorii ar trebui să asigure un nivel adecvat de protecție în materie de securitate cibernetică pentru model și infrastructura fizică a acestuia, dacă este cazul, de-a lungul întregului ciclu de viață al modelului. Protecția în materie de securitate cibernetică legată de riscurile sistemice asociate utilizării răuvoitoare sau atacurilor ar trebui să ia în considerare în mod corespunzător scurgerile accidentale de modele, lansările neautorizate, eludarea măsurilor de siguranță și apărarea împotriva atacurilor cibernetice, a accesului neautorizat sau a furtului de modele. Această protecție ar putea fi facilitată prin securizarea ponderilor modelelor, a algoritmilor, a serverelor și a seturilor de date, de exemplu prin măsuri de securitate operațională pentru securitatea informațiilor, politici specifice în materie de securitate cibernetică, soluții tehnice și consacrate adecvate și controale ale accesului cibernetic și fizic, adecvate circumstanțelor relevante și riscurilor implicate.
(116)
Службата по ИИ следва да насърчава и улеснява изготвянето, прегледа и адаптирането на кодекси за добри практики, като взема предвид международните подходи. Всички доставчици на модели на ИИ с общо предназначение биха могли да бъдат поканени да участват. За да се гарантира, че кодексите за добри практики отразяват съвременните технически постижения и са надлежно съобразени с набор от различни гледни точки, Службата по ИИ следва да си сътрудничи със съответните национални компетентни органи и би могла, когато е целесъобразно, да се консултира с организации на гражданското общество и други съответни заинтересовани страни и експерти, включително експертната група, за изготвянето на такива кодекси. Кодексите за добри практики следва да включват задълженията на доставчиците на модели на ИИ с общо предназначение и на модели на ИИ с общо предназначение, пораждащи системен риск. Освен това, по отношение на системните рискове, кодексите за добри практики следва да спомогнат за установяването на таксономия на вида и естеството на системните рискове на равнището на Съюза, включително техните източници. Кодексите за добри практики следва също така да бъдат съсредоточени върху конкретни мерки за оценка и ограничаване на риска.
(116)
Oficiul pentru IA ar trebui să încurajeze și să faciliteze elaborarea, revizuirea și adaptarea unor coduri de bune practici, ținând seama de abordările internaționale. Toți furnizorii de modele de IA de uz general ar putea fi invitați să participe. Pentru a se asigura că codurile de bune practici reflectă stadiul actual al tehnologiei și țin seama în mod corespunzător de un set divers de perspective, Oficiul pentru IA ar trebui să colaboreze cu autoritățile naționale competente relevante și ar putea, după caz, să se consulte cu organizațiile societății civile și cu alte părți interesate și experți relevanți, inclusiv cu grupul științific, pentru elaborarea unor astfel de coduri. Codurile de bune practici ar trebui să se refere la obligațiile furnizorilor de modele de IA de uz general și de modele de IA de uz general care prezintă riscuri sistemice. În plus, în ceea ce privește riscurile sistemice, codurile de bune practici ar trebui să contribuie la stabilirea unei taxonomii a tipurilor și naturii riscurilor sistemice la nivelul Uniunii, inclusiv a surselor acestora. Codurile de bune practici ar trebui să se axeze, de asemenea, pe măsuri specifice de evaluare și de atenuare a riscurilor.
(117)
Кодексите за добри практики следва да представляват основен инструмент за правилното спазване на задълженията, предвидени в настоящия регламент за доставчиците на модели на ИИ с общо предназначение. Доставчиците следва да могат да се основават на кодекси за добри практики, за да докажат спазването на задълженията. Комисията може да реши да одобри чрез акт за изпълнение кодекс за добри практики и да осигури общата му приложимост в рамките на Съюза или, като друга възможност, да предвиди общи правила за изпълнението на съответните задължения, ако до началото на прилагането на настоящия регламент даден кодекс за добри практики не може да бъде подготвен или не се счита за подходящ от Службата по ИИ. След като даден хармонизиран стандарт бъде публикуван и оценен като подходящ за покриване на съответните задължения от Службата по ИИ, съответствието с европейски хармонизиран стандарт следва да дава на доставчиците презумпция за съответствие. Освен това доставчиците на модели на ИИ с общо предназначение следва да могат да докажат съответствие, като използват други подходящи средства, ако няма кодекси за добри практики или хармонизирани стандарти или ако решат да не разчитат на тях.
(117)
Codurile de bune practici ar trebui să reprezinte un instrument central pentru respectarea corespunzătoare a obligațiilor prevăzute în prezentul regulament pentru furnizorii de modele de IA de uz general. Furnizorii ar trebui să se poată baza pe coduri de bune practici pentru a demonstra respectarea obligațiilor. Prin intermediul unor acte de punere în aplicare, Comisia poate decide să aprobe un cod de bune practici și să îi acorde o valabilitate generală în Uniune sau, alternativ, să prevadă norme comune pentru punerea în aplicare a obligațiilor relevante, în cazul în care, până la momentul în care prezentul regulament devine aplicabil, un cod de bune practici nu poate fi finalizat sau nu este considerat adecvat de către Oficiul pentru IA. Odată ce un standard armonizat este publicat și evaluat ca fiind adecvat pentru a acoperi obligațiile relevante de către Oficiul pentru IA, furnizorii ar trebui să beneficieze de prezumția de conformitate în cazul în care respectă un standard european armonizat. În plus, furnizorii de modele de IA de uz general ar trebui să poată demonstra conformitatea utilizând mijloace alternative adecvate, dacă nu sunt disponibile coduri de bune practici sau standarde armonizate sau dacă aleg să nu se bazeze pe acestea.
(118)
С настоящия регламент се уреждат системите с ИИ и моделите на ИИ, като се налагат определени изисквания и задължения за съответните пазарни участници, които ги пускат на пазара, пускат в действие или използват в Съюза, като по този начин се допълват задълженията на доставчиците на посреднически услуги, които интегрират такива системи или модели в своите услуги, които се уреждат от Регламент (ЕС) 2022/2065. Доколкото тези системи или модели са вградени в определени много големи онлайн платформи или много големи онлайн търсачки, за тях се прилага рамката за управление на риска, предвидена в Регламент (ЕС) 2022/2065. Следователно съответните задължения съгласно настоящия регламент следва да се считат за изпълнени, освен ако в такива модели не възникнат и се установят значителни системни рискове, които не са обхванати от Регламент (ЕС) 2022/2065. В тази контекст от доставчиците на много големи онлайн платформи и много големи онлайн търсачки се изисква да оценяват потенциалните системни рискове, произтичащи от проектирането, функционирането и използването на техните услуги, включително начина, по който проектирането на алгоритмични системи, използвани в услугата, може да допринесе за появата на такива рискове, както и системните рискове, произтичащи от еветуална неправилна експлоатация. Тези доставчици са длъжни също така да предприемат подходящи мерки за ограничаване при спазване на основните права.
(118)
Prezentul regulament reglementează sistemele de IA și modelele de IA prin impunerea anumitor cerințe și obligații pentru actorii relevanți de pe piață care le introduc pe piață, le pun în funcțiune sau le utilizează în Uniune, completând astfel obligațiile pentru furnizorii de servicii intermediare care încorporează astfel de sisteme sau modele în serviciile lor reglementate de Regulamentul (UE) 2022/2065. În măsura în care astfel de sisteme sau modele sunt încorporate în platforme online foarte mari sau în motoare de căutare online foarte mari desemnate, acestea fac obiectul cadrului de gestionare a riscurilor prevăzut în Regulamentul (UE) 2022/2065. În consecință, ar trebui să se presupună că obligațiile corespunzătoare din prezentul regulament sunt îndeplinite, cu excepția cazului în care apar riscuri sistemice semnificative care nu intră sub incidența Regulamentului (UE) 2022/2065 și sunt identificate în astfel de modele. În acest cadru, furnizorii de platforme online foarte mari și de motoare de căutare online foarte mari sunt obligați să evalueze potențialele riscuri sistemice care decurg din proiectarea, funcționarea și utilizarea serviciilor lor, inclusiv modul în care proiectarea sistemelor algoritmice utilizate în cadrul serviciului poate contribui la astfel de riscuri, precum și riscurile sistemice care decurg din potențialele utilizări necorespunzătoare. Acești furnizori sunt, de asemenea, obligați să ia măsuri adecvate de atenuare, cu respectarea drepturilor fundamentale.
(119)
Предвид бързия темп на иновациите и технологичното развитие на цифровите услуги, попадащи в обхвата на различните инструменти на правото на Съюза, по-специално като се има предвид използването и възприемането им от страна на техните получатели, системите с ИИ, които са предмет на настоящия регламент, могат да бъдат предоставяни като посреднически услуги или части от тях по смисъла на Регламент (ЕС) 2022/2065, който следва да се тълкува по технологично неутрален начин. Например системите с ИИ могат да се използват за предоставяне на онлайн търсачки, по-специално доколкото дадена система с ИИ, като например онлайн чатбот, извършва търсене по принцип на всички уебсайтове, след това интегрира резултатите в съществуващите си знания и използва актуализираните знания, за да генерира единен резултат, който съчетава различни източници на информация.
(119)
Având în vedere ritmul rapid al inovării și al evoluției tehnologice a serviciilor digitale care intră în domeniul de aplicare al diferitelor instrumente din dreptul Uniunii, în special având în vedere utilizarea și percepția destinatarilor lor, sistemele de IA care fac obiectul prezentului regulament pot fi furnizate ca servicii intermediare sau ca părți ale acestora în sensul Regulamentului (UE) 2022/2065, care ar trebui să fie interpretat într-un mod neutru din punct de vedere tehnologic. De exemplu, sistemele de IA pot fi utilizate pentru a furniza motoare de căutare online, în special în măsura în care un sistem de IA, cum ar fi un chatbot online, efectuează căutări, în principiu, pe toate site-urile web, apoi încorporează rezultatele în cunoștințele sale existente și utilizează cunoștințele actualizate pentru a genera un singur rezultat care combină diferite surse de informații.
(120)
Освен това задълженията, наложени с настоящия регламент на доставчиците и внедрителите на някои системи с ИИ с цел откриване и оповестяване, че резултатите от тези системи са изкуствено генерирани или обработени, са от особено значение с оглед на ефективното прилагане на Регламент (ЕС) 2022/2065. Това се отнася по-специално за задълженията на доставчиците на много големи онлайн платформи или много големи онлайн търсачки да установяват и ограничават системните рискове, които могат да възникнат поради разпространението на съдържание, което е било изкуствено генерирано или обработено, и по-специално риска от действителни или предвидими отрицателни последици за демократичните процеси, гражданския дебат и изборните процеси, включително чрез дезинформация.
(120)
În plus, obligațiile impuse prin prezentul regulament furnizorilor și implementatorilor anumitor sisteme de IA pentru a permite detectarea și divulgarea faptului că rezultatele sistemelor respective sunt generate sau manipulate artificial sunt deosebit de relevante pentru a facilita punerea în aplicare efectivă a Regulamentului (UE) 2022/2065. Acest lucru este valabil în special în ceea ce privește obligațiile furnizorilor de platforme online foarte mari sau de motoare de căutare online foarte mari de a identifica și a atenua riscurile sistemice care pot apărea în urma diseminării conținutului care a fost generat sau manipulat artificial, în special riscul privind efectele negative reale sau previzibile asupra proceselor democratice, asupra discursului civic și asupra proceselor electorale, inclusiv prin dezinformare.
(121)
Стандартизацията следва да заема ключово място за осигуряването на технически решения на доставчиците, за да се гарантира спазването на настоящия регламент, съобразно съвременните технически постижения, с цел да се насърчат иновациите, както и конкурентоспособността и растежът на единния пазар. Съответствието с хармонизираните стандарти по смисъла на определението в член 2, точка 1, буква в) от Регламент (ЕС) № 1025/2012 на Европейския парламент и на Съвета (41), които обикновено се очаква да отразяват съвременните технически постижения, следва да бъде средство за доказване на спазването на изискванията на настоящия регламент от доставчиците. Поради това следва да се насърчава балансирано представителство на интереси с участието в разработването на стандарти на всички съответни заинтересовани страни, по-специално МСП, организации на потребители и представляващите екологични и социални интереси заинтересовани страни в съответствие с членове 5 и 6 от Регламент (ЕС) № 1025/2012. За да се улесни съответствието, исканията за стандартизация следва да се отправят от Комисията без ненужно забавяне. При изготвянето на искането за стандартизация Комисията следва да се консултира с консултативния форум и със Съвета по ИИ, за да събере съответния експертен опит. При липсата на съответни позовавания на хармонизирани стандарти обаче Комисията следва да може да установява, чрез актове за изпълнение и след консултация с консултативния форум, общи спецификации за някои изисквания съгласно настоящия регламент. Общата спецификация следва да бъде извънредно алтернативно решение, за да се улесни изпълнението на задължението на доставчика да спазва изискванията на настоящия регламент, когато искането за стандартизация не е било прието от някоя от европейските организации за стандартизация или когато съответните хармонизирани стандарти не отразяват в достатъчна степен опасенията, свързани с основните права, или когато хармонизираните стандарти не отговарят на искането, или когато има забавяне в приемането на подходящ хармонизиран стандарт. Когато това забавяне в приемането на хармонизиран стандарт се дължи на техническата сложност на стандарта, това следва да се вземе предвид от Комисията, преди да се разгледа възможността за установяване на общи спецификации. При разработването на общи спецификации Комисията се насърчава да си сътрудничи с международни партньори и международни органи за стандартизация.
(121)
Standardizarea ar trebui să joace un rol esențial în furnizarea de soluții tehnice furnizorilor pentru a asigura conformitatea cu prezentul regulament, în conformitate cu stadiul actual al tehnologiei, pentru a promova inovarea, precum și competitivitatea și creșterea pe piața unică. Conformitatea cu standardele armonizate, astfel cum sunt definite la articolul 2 punctul 1 litera (c) din Regulamentul (UE) nr. 1025/2012 al Parlamentului European și al Consiliului (41), care ar trebui, în mod normal, să reflecte stadiul actual al tehnologiei, ar trebui să fie un mijloc prin care furnizorii să demonstreze conformitatea cu cerințele prezentului regulament. Prin urmare, ar trebui să fie încurajată o reprezentare echilibrată a intereselor, care să implice toate părțile interesate relevante în elaborarea standardelor, în special IMM-urile, organizațiile consumatorilor și părțile interesate din domeniul mediului și din domeniul social, în conformitate cu articolele 5 și 6 din Regulamentul (UE) nr. 1025/2012. Pentru a facilita conformitatea, solicitările de standardizare ar trebui să fie emise de Comisie fără întârzieri nejustificate. Atunci când elaborează solicitarea de standardizare, Comisia ar trebui să consulte forumul consultativ și Consiliul IA pentru a colecta cunoștințele de specialitate relevante. Cu toate acestea, în absența unor trimiteri relevante la standardele armonizate, Comisia ar trebui să poată stabili, prin intermediul unor acte de punere în aplicare și după consultarea forumului consultativ, specificații comune pentru anumite cerințe în temeiul prezentului regulament. Specificația comună ar trebui să constituie o soluție excepțională de rezervă, pentru a facilita obligația furnizorului de a respecta cerințele prezentului regulament, atunci când solicitarea de standardizare nu a fost acceptată de niciuna dintre organizațiile de standardizare europene sau când standardele armonizate relevante abordează insuficient preocupările în materie de drepturi fundamentale ori când standardele armonizate nu corespund solicitării sau atunci când există întârzieri în adoptarea unui standard armonizat adecvat. În cazul în care o astfel de întârziere în adoptarea unui standard armonizat se datorează complexității tehnice a standardului respectiv, acest lucru ar trebui să fie luat în considerare de Comisie înainte de a avea în vedere stabilirea unor specificații comune. Atunci când elaborează specificații comune, Comisia este încurajată să coopereze cu partenerii internaționali și cu organismele de standardizare internaționale.
(122)
Без да се засяга използването на хармонизирани стандарти и общи спецификации, е целесъобразно да се счита, че доставчиците на високорискова система с ИИ, която е била обучена и изпитана въз основа на данни, отразяващи конкретната географска, контекстуална, поведенческа или функционална среда, в която системата с ИИ е предназначена да бъде използвана, съответстват на съответната мярка, предвидена съгласно изискването за администриране на данни, определено в настоящия регламент. Без да се засягат изискванията, свързани с надеждността и точността, установени в настоящия регламент, в съответствие с член 54, параграф 3 от Регламент (ЕС) 2019/881 високорисковите системи с ИИ, които са сертифицирани или за които е издадена декларация за съответствие по схема за киберсигурност съгласно посочения регламент и данните за които са били публикувани в Официален вестник на Европейския съюз, следва да се считат за съответстващи на изискването за киберсигурност съгласно настоящия регламент, доколкото сертификатът за киберсигурност или декларацията за съответствие, или части от тях включват изискването за киберсигурност съгласно настоящия регламент. Това не засяга доброволния характер на тази схема за киберсигурност.
(122)
Este oportun ca, fără a aduce atingere utilizării standardelor armonizate și a specificațiilor comune, să se prezume că furnizorii unui sistem de IA cu grad ridicat de risc care a fost antrenat și testat pe baza unor date care reflectă cadrul geografic, comportamental, contextual sau funcțional specific în care se intenționează utilizarea sistemului de IA respectă măsura relevantă prevăzută în temeiul cerinței privind guvernanța datelor stabilită în prezentul regulament. Fără a aduce atingere cerințelor legate de robustețe și acuratețe prevăzute în prezentul regulament, în conformitate cu articolul 54 alineatul (3) din Regulamentul (UE) 2019/881, ar trebui să se prezume că sistemele de IA cu grad ridicat de risc care au fost certificate sau pentru care a fost emisă o declarație de conformitate în cadrul unui sistem de securitate cibernetică în temeiul regulamentului respectiv, iar referințele aferente au fost publicate în Jurnalul Oficial al Uniunii Europene, respectă cerința de securitate cibernetică menționată în prezentul regulament, în măsura în care certificatul de securitate cibernetică sau declarația de conformitate sau părți ale acestora acoperă cerința de securitate cibernetică din prezentul regulament. Acest lucru nu aduce atingere caracterului voluntar al respectivului sistem de securitate cibernetică.
(123)
За да се гарантира високо ниво на надеждност на високорисковите системи с ИИ, те следва да подлежат на оценяване на съответствието преди пускането им на пазара или пускането им в действие.
(123)
Pentru a asigura un nivel ridicat de fiabilitate a sistemelor de IA cu grad ridicat de risc, aceste sisteme ar trebui să facă obiectul unei evaluări a conformității înainte de introducerea lor pe piață sau de punerea lor în funcțiune.
(124)
За да се сведе до минимум тежестта за операторите и да се избегне всякакво възможно дублиране, за високорисковите системи с ИИ, свързани с продукти, които са обхванати от съществуващото законодателство на Съюза за хармонизация въз основа на новата законодателна рамка, е целесъобразно съответствието на тези системи с ИИ с изискванията на настоящия регламент да се оценява като част от оценяването на съответствието, което вече е предвидено съгласно посоченото право. Следователно приложимостта на изискванията на настоящия регламент не следва да засяга специфичната логика, методика или обща структура за оценяване на съответствието съгласно съответното законодателство на Съюза за хармонизация.
(124)
Este oportun ca, pentru a reduce la minimum sarcina impusă operatorilor și pentru a evita eventualele suprapuneri, pentru sistemele de IA cu grad ridicat de risc legate de produse care fac obiectul legislației de armonizare existente a Uniunii bazate pe noul cadru legislativ, conformitatea acestor sisteme de IA cu cerințele prezentului regulament să fie evaluată ca parte a evaluării conformității prevăzute deja în legislația respectivă. Aplicabilitatea cerințelor prezentului regulament nu ar trebui, prin urmare, să afecteze logica specifică, metodologia sau structura generală a evaluării conformității în temeiul legislației de armonizare relevante a Uniunii.
(125)
С оглед на сложността на високорисковите системи с ИИ и свързаните с тях рискове, е важно да се разработи подходяща процедура за оценяване на съответствието за високорискови системи с ИИ, включваща нотифицирани органи, т.нар. оценяване на съответствието от трето лице. Като се има предвид обаче настоящият опит в областта на безопасността на продуктите на професионалните сертифициращи органи преди пускането на пазара, както и различното естество на свързаните с тези продукти рискове, е целесъобразно да се ограничи, поне в началната фаза на прилагане на настоящия регламент, приложното поле на оценяването на съответствието от трето лице за високорисковите системи с ИИ, различни от свързаните с продукти. Поради това оценяването на съответствието на такива системи следва като общо правило да се извършва от доставчика на негова отговорност, като единствено изключение са системите с ИИ, предназначени да се използват за биометрични цели.
(125)
Având în vedere complexitatea sistemelor de IA cu grad ridicat de risc și riscurile asociate acestora, este important să se dezvolte o procedură adecvată de evaluare a conformității pentru sistemele de IA cu grad ridicat de risc care implică organisme notificate, așa-numita evaluare a conformității de către terți. Cu toate acestea, având în vedere experiența actuală a organismelor profesionale de certificare înainte de introducerea pe piață în domeniul siguranței produselor și natura diferită a riscurilor implicate, este oportun să se limiteze, cel puțin într-o fază inițială de aplicare a prezentului regulament, domeniul de aplicare al evaluării conformității de către terți pentru sistemele de IA cu grad ridicat de risc, altele decât cele legate de produse. Prin urmare, evaluarea conformității unor astfel de sisteme ar trebui să fie efectuată, ca regulă generală, de către furnizor pe propria răspundere, cu singura excepție a sistemelor de IA destinate a fi utilizate pentru biometrie.
(126)
С цел извършване на оценяване на съответствието от трето лице, когато това се изисква, националните компетентни органи следва да нотифицират съгласно настоящия регламент нотифицираните органи, при условие че последните отговарят на набор от изисквания, по-специално относно независимостта, компетентността и отсъствието на конфликти на интереси и на подходящи изисквания за киберсигурност. Националните компетентни органи следва да изпращат нотификацията за тези органи до Комисията и другите държави членки чрез средството за електронно нотифициране, разработено и управлявано от Комисията съгласно член R23 от приложение I към Решение № 768/2008/ЕО.
(126)
În vederea efectuării de evaluări ale conformității de către terți atunci când este necesar, autoritățile naționale competente ar trebui să comunice lista organismelor notificate în temeiul prezentului regulament, cu condiția ca acestea să îndeplinească un set de cerințe, în special în ceea ce privește independența, competența, absența conflictelor de interese și cerințele minime de securitate cibernetică. Lista acestor organisme notificate ar trebui să fie trimisă de autoritățile naționale competente Comisiei și celorlalte state membre prin intermediul instrumentului de notificare electronică dezvoltat și gestionat de Comisie în temeiul articolului R23 din anexa I la Decizia nr. 768/2008/CE.
(127)
В съответствие с ангажиментите на Съюза съгласно Споразумението на Световната търговска организация за техническите пречки пред търговията е целесъобразно да се улесни взаимното признаване на резултатите от оценяването на съответствието, получени от компетентни органи за оценяване на съответствието, независимо от територията, на която са създадени, при условие че тези органи за оценяване на съответствието, създадени съгласно правото на трета държава, отговарят на приложимите изисквания на настоящия регламент и че Съюзът е сключил споразумение в това отношение. В този контекст Комисията следва активно да проучи възможните международни инструменти за тази цел и по-специално да се стреми към сключване на споразумения за взаимно признаване с трети държави.
(127)
În conformitate cu angajamentele asumate de Uniune în temeiul Acordului Organizației Mondiale a Comerțului privind barierele tehnice în calea comerțului, este adecvat să se faciliteze recunoașterea reciprocă a rezultatelor evaluării conformității obținute de organismele competente de evaluare a conformității, indiferent de teritoriul pe care sunt stabilite acestea, cu condiția ca respectivele organisme de evaluare a conformității instituite în temeiul dreptului unei țări terțe să îndeplinească cerințele aplicabile ale prezentului regulament, iar Uniunea să fi încheiat un acord în acest sens. În acest context, Comisia ar trebui să analizeze în mod activ posibile instrumente internaționale adecvate acestui scop și, în special, să urmărească încheierea de acorduri de recunoaștere reciprocă cu țări terțe.
(128)
В съответствие с общоприетото понятие за съществено изменение за продукти, регулирани от законодателството на Съюза за хармонизация, е целесъобразно дадена система с ИИ да се счита за нова система с ИИ, която следва да бъде подложена на ново оценяване на съответствието всеки път, когато настъпи промяна, която може да засегне съответствието на високорискова система с ИИ с настоящия регламент (например промяна на операционната система или на софтуерната архитектура), или когато предназначението на системата се промени. Въпреки това промените на алгоритъма или на действието на системи с ИИ, които продължават да се обучават след пускането им на пазара или пускането им в действие, а именно автоматично адаптират начина, по който се изпълняват функциите, не следва да се смятат за съществено изменение, при условие че тези промени са били предварително определени от доставчика и оценени към момента на оценяването на съответствието.
(128)
În conformitate cu noțiunea stabilită de comun acord de modificare substanțială pentru produsele reglementate de legislația de armonizare a Uniunii, este oportun ca, ori de câte ori se produce o modificare care poate afecta respectarea prezentului regulament de către un sistem de IA cu grad ridicat de risc (de exemplu, modificarea sistemului de operare sau a arhitecturii software) sau atunci când scopul preconizat al sistemului se modifică, respectivul sistem de IA să fie considerat a fi un sistem de IA nou care ar trebui să facă obiectul unei noi evaluări a conformității. Cu toate acestea, modificările care afectează algoritmul și performanța sistemelor de IA care continuă să „învețe” după ce au fost introduse pe piață sau puse în funcțiune și anume, adaptarea automată a modului în care sunt îndeplinite funcțiile nu ar trebui să constituie o modificare substanțială, cu condiția ca modificările respective să fi fost prestabilite de furnizor și evaluate în momentul evaluării conformității.
(129)
Високорисковите системи с ИИ следва да носят маркировката „СЕ“, указваща тяхното съответствие с настоящия регламент с цел свободно движение в рамките на вътрешния пазар. За високорисковите системи с ИИ, вградени в продукт, следва да се постави физическа маркировка „СЕ“, която може да бъде допълнена с цифрова маркировка „СЕ“. За високорисковите системи с ИИ, предоставяни само в цифров вид, следва да се използва цифрова маркировка „CE“. Държавите членки не следва да създават необосновани пречки пред пускането на пазара или пускането в действие на високорискови системи с ИИ, които съответстват на изискванията, предвидени в настоящия регламент, и носят маркировката „СЕ“.
(129)
Sistemele de IA cu grad ridicat de risc ar trebui să poarte marcajul CE pentru a indica conformitatea lor cu prezentul regulament, astfel încât să poată circula liber în cadrul pieței interne. Pentru sistemele de IA cu grad ridicat de risc încorporate într-un produs ar trebui să fie aplicat un marcaj CE fizic care poate fi completat de un marcaj CE digital. Pentru sistemele de IA cu grad ridicat de risc furnizate exclusiv digital, ar trebui să fie utilizat un marcaj CE digital. Statele membre ar trebui să nu genereze obstacole nejustificate în calea introducerii pe piață sau a punerii în funcțiune a sistemelor de IA cu grad ridicat de risc care sunt conforme cu cerințele prevăzute în prezentul regulament și care poartă marcajul CE.
(130)
При определени условия бързото осигуряване на иновативни технологии може да бъде от решаващо значение за здравето и безопасността на хората, опазването на околната среда и изменението на климата, както и за обществото като цяло. Поради това е целесъобразно по извънредни причини, свързани с обществената сигурност или защитата на живота и здравето на физическите лица, опазването на околната среда и защитата на ключови промишлени и инфраструктурни активи, органите за надзор на пазара да могат да разрешават пускането на пазара или пускането в действие на системи с ИИ, които не са преминали оценяване на съответствието. В надлежно обосновани случаи, предвидени в настоящия регламент, правоохранителните органи или органите за гражданска защита могат да пуснат в действие конкретна високорискова система с ИИ без разрешението на органа за надзор на пазара, при условие че такова разрешение е поискано без ненужно забавяне по време на използването или след него.
(130)
În anumite condiții, disponibilitatea rapidă a tehnologiilor inovatoare poate fi esențială pentru sănătatea și siguranța persoanelor, pentru protecția mediului și combaterea schimbărilor climatice și pentru societate în ansamblu. Prin urmare, este oportun ca, din motive excepționale de siguranță publică sau de protecție a vieții și a sănătății persoanelor fizice, de protecție a mediului și de protecție a activelor industriale și de infrastructură esențiale, autoritățile de supraveghere a pieței să poată autoriza introducerea pe piață sau punerea în funcțiune a unor sisteme de IA care nu au fost supuse unei evaluări a conformității. În situații justificate în mod corespunzător, astfel cum se prevede în prezentul regulament, autoritățile de aplicare a legii sau autoritățile de protecție civilă pot pune în funcțiune un anumit sistem de IA cu grad ridicat de risc fără autorizarea autorității de supraveghere a pieței, cu condiția ca o astfel de autorizare să fie solicitată în timpul utilizării sau după utilizare, fără întârzieri nejustificate.
(131)
С цел да се улесни работата на Комисията и на държавите членки в областта на ИИ, както и за да се повиши прозрачността пред обществеността, от доставчиците на високорискови системи с ИИ, различни от свързаните с продукти, попадащи в обхвата на съответното действащо законодателство на Съюза за хармонизация, както и от доставчиците, които считат, че дадена система с ИИ, включена в случаите на високорискова употреба, посочени в приложение към настоящия регламент, не е високорискова въз основа на дерогация, следва да се изисква да се регистрират и да впишат информацията за своята система с ИИ в база данни на ЕС, която да бъде създадена и управлявана от Комисията. Преди да използват такава система с ИИ, включена в случаите на високорискова употреба в приложение към настоящия регламент, внедрителите на високорискови системи с ИИ, които са публични органи, агенции или структури, следва да се регистрират в тази база данни и да изберат системата, която възнамеряват да използват. Останалите внедрители следва да имат право да направят това на доброволна основа. Този раздел на базата данни на ЕС следва да бъде публично достъпен, безплатен, а информацията следва да бъде лесна за навигация, разбираема и машинночетима. Базата данни на ЕС следва също така да бъде лесна за ползване, например като осигурява функции за търсене, включително чрез ключови думи, за да се даде възможност на широката общественост да намери съответната информация, която трябва да бъде предоставена при регистрацията на високорискови системи с ИИ, както и информация за случаите на употреба на високорисковите системи с ИИ, посочени в приложение към настоящия регламент, на които отговарят високорисковите системи с ИИ. Всяко съществено изменение на високорискови системи с ИИ също следва да се регистрира в базата данни на ЕС. За високорисковите системи с ИИ в правоохранителната област и в областта на управлението на миграцията, убежището и граничния контрол задълженията за регистрация следва да се изпълняват в защитен непубличен раздел на базата данни на ЕС. Достъпът до защитения непубличен раздел следва да бъде строго ограничен до Комисията, както и до органите за надзор на пазара по отношение на техния национален раздел на тази база данни. Високорисковите системи с ИИ в областта на критичната инфраструктура следва да се регистрират само на национално равнище. Комисията следва да бъде администратор на базата данни на ЕС в съответствие с Регламент (ЕС) 2018/1725. За да се гарантира цялостна готовност на базата данни при нейното въвеждане, процедурата по създаване на базата данни на ЕС следва да включва разработването на функционални спецификации от Комисията и независим одитен доклад. Комисията следва да вземе предвид рисковете, свързани с киберсигурността, когато изпълнява задачите си като администратор на данни по отношение на базата данни на ЕС. За да се увеличи максимално достъпността и използването на базата данни на ЕС от обществеността, базата данни на ЕС, включително информацията, предоставяна чрез нея, следва да отговаря на изискванията на Директива (ЕС) 2019/882.
(131)
Pentru a facilita activitatea Comisiei și a statelor membre în domeniul IA, precum și pentru a spori transparența față de public, furnizorii de sisteme de IA cu grad ridicat de risc, altele decât cele legate de produse care intră în domeniul de aplicare al actelor legislative de armonizare relevante existente ale Uniunii, precum și furnizorii care consideră că un sistem de IA care figurează între situațiile cu grad ridicat de risc dintr-o anexă la prezentul regulament nu este, pe baza unei derogări, un sistem de IA cu grad ridicat de risc, ar trebui să aibă obligația de a se înregistra, precum și de a înregistra informații despre propriul sistem de IA într-o bază de date a UE, care urmează să fie creată și gestionată de Comisie. Înainte de a utiliza un sistem de IA care figurează între situațiile cu grad ridicat de risc dintr-o anexă la prezentul regulament, implementatorii sistemelor de IA cu grad ridicat de risc care sunt autorități, agenții sau organisme publice ar trebui să se înregistreze în baza de date respectivă și să selecteze sistemul pe care intenționează să îl utilizeze. Ceilalți implementatori ar trebui să aibă dreptul de a face acest lucru în mod voluntar. Această secțiune a bazei de date a UE ar trebui să fie accesibilă publicului, în mod gratuit, informațiile ar trebui să fie ușor de parcurs, ușor de înțeles și prelucrabile automat. Baza de date a UE ar trebui, de asemenea, să fie ușor de utilizat, de exemplu prin furnizarea de funcționalități de căutare, inclusiv prin intermediul cuvintelor-cheie, care să permită publicului larg să găsească informațiile relevante care trebuie să fie transmise la înregistrarea sistemelor de IA cu grad ridicat de risc și cu privire la cazul de utilizare a sistemelor de IA cu grad ridicat de risc, prevăzute într-o anexă la prezentul regulament, cărora le corespund sistemele de IA cu grad ridicat de risc. Orice modificare substanțială a sistemelor de IA cu grad ridicat de risc ar trebui să se înregistreze, de asemenea, în baza de date a UE. Pentru sistemele de IA cu grad ridicat de risc din domeniul aplicării legii, al migrației, al azilului și al gestionării controlului la frontiere, obligațiile de înregistrare ar trebui să fie îndeplinite în cadrul unei secțiuni securizate, care nu este accesibilă publicului, a bazei de date a UE. Accesul la secțiunea securizată care nu este accesibilă publicului ar trebui să fie strict limitat la Comisie, precum și la autoritățile de supraveghere a pieței în ceea ce privește secțiunea lor națională din baza de date respectivă. Sistemele de IA cu grad ridicat de risc din domeniul infrastructurii critice ar trebui să fie înregistrate exclusiv la nivel național. Comisia ar trebui să fie operatorul bazei de date a UE, în conformitate cu Regulamentul (UE) 2018/1725. Pentru a asigura funcționalitatea deplină a bazei de date a UE, atunci când aceasta este implementată, procedura de stabilire a bazei de date ar trebui să includă dezvoltarea de specificații funcționale de către Comisie și un raport de audit independent. Comisia ar trebui să țină seama de riscurile în materie de securitate cibernetică atunci când își îndeplinește sarcinile de operator de date în baza de date a UE. Pentru a maximiza disponibilitatea și utilizarea bazei de date a UE de către public, baza de date a UE, inclusiv informațiile puse la dispoziție prin intermediul acesteia, ar trebui să îndeplinească cerințele prevăzute în Directiva (UE) 2019/882.
(132)
Някои системи с ИИ, предназначени да взаимодействат с физически лица или да генерират съдържание, могат да породят особени рискове от измама на основата на прилика или заблуда, независимо дали отговарят на критериите за високорискови системи, или не. Поради това при определени обстоятелства при използването на тези системи следва да се прилагат специални задължения за прозрачност, без да се засягат изискванията и задълженията за високорискови системи с ИИ и при прилагане на целеви изключения с цел да се вземат предвид особените правоохранителни нужди. По-специално, физическите лица следва да бъдат уведомявани, че взаимодействат със система с ИИ, освен ако това не е очевидно от гледна точка на физическо лице, което е в разумни граници осведомено, наблюдателно и съобразително предвид обстоятелствата и контекста на използване. При изпълнението на това задължение следва да се вземат предвид характеристиките на физическите лица, принадлежащи към уязвими групи поради своята възраст или увреждане, доколкото системата с ИИ е предназначена да взаимодейства и с тези групи. Наред с това, физическите лица следва да бъдат уведомявани, когато са изложени на системи с ИИ, които чрез обработване на биометричните им данни могат да определят или да направят изводи за емоциите или намеренията на тези лица или да ги отнесат към конкретни категории. Подобни конкретни категории може да са свързани с аспекти като пол, възраст, цвят на косата, цвят на очите, татуировки, личностни черти, етнически произход, лични предпочитания и интереси. Тази информация и уведомленията следва да се предоставят в достъпни формати за хората с увреждания.
(132)
Anumite sisteme de IA destinate să interacționeze cu persoane fizice sau să genereze conținut pot prezenta riscuri specifice de uzurpare a identității sau de înșelăciune, indiferent dacă acestea se califică drept sisteme cu grad ridicat de risc sau nu. Prin urmare, în anumite circumstanțe, utilizarea acestor sisteme ar trebui să facă obiectul unor obligații specifice în materie de transparență, fără a aduce atingere cerințelor și obligațiilor pentru sistemele de IA cu grad ridicat de risc și sub rezerva unor excepții specifice pentru a ține seama de nevoia specială de a aplica legea. În special, persoanele fizice ar trebui să fie informate că interacționează cu un sistem de IA, cu excepția cazului în care acest lucru este evident din punctul de vedere al unei persoane fizice rezonabil de bine informată, de atentă și de avizată, ținând seama de circumstanțele și contextul de utilizare. La punerea în aplicare a obligației respective, caracteristicile persoanelor fizice care aparțin grupurilor vulnerabile din motive de vârstă sau dizabilitate ar trebui să fie luate în considerare în măsura în care sistemul de IA este destinat să interacționeze și cu aceste grupuri. În plus, persoanele fizice ar trebui să fie informate atunci când sunt expuse la sisteme de IA care, prin prelucrarea datelor lor biometrice, pot identifica sau deduce emoțiile sau intențiile persoanelor respective sau le pot include în categorii specifice. Astfel de categorii specifice se pot referi la aspecte precum sexul, vârsta, culoarea părului, culoarea ochilor, tatuajele, trăsăturile personale, originea etnică, preferințele și interesele personale. Astfel de informații și notificări ar trebui să fie furnizate în formate accesibile pentru persoanele cu dizabilități.
(133)
Различни системи с ИИ могат да генерират големи количества синтетично съдържание, което хората все по-трудно могат да разграничават от генерирано от човека и автентично съдържание. Широката наличност и нарастващият капацитет на тези системи оказват значително влияние върху почтеността и доверието в информационната екосистема, което поражда нови рискове от масивно навлизане на невярна информация и манипулиране, измами на основата на прилика и заблуда на потребителите. С оглед на това въздействие, бързия темп на развитие на технологиите и необходимостта от нови методи и техники за проследяване на произхода на информацията е целесъобразно да се изисква от доставчиците на тези системи да вграждат технически решения, позволяващи маркиране в машинночетим формат и разпознаване, че резултатът е генериран или обработен от система с ИИ, а не от човек. Тези техники и методи следва да бъдат достатъчно надеждни, оперативно съвместими, ефективни и сигурни, доколкото това е технически осъществимо, и да се основават на наличните техники или на комбинация от такива техники, например водни знаци, идентифициране на метаданни, криптографски методи за доказване на произхода и автентичността на съдържанието, методи за регистриране, пръстови отпечатъци или други техники, в зависимост от случая. При изпълнението на това задължение доставчиците следва също така да отчитат особеностите и ограниченията на различните видове съдържание и технологичното и пазарното развитие в тази област, които намират отражение в общопризнатото най-съвременно равнище на технологиите. Тези техники и методи могат да бъдат приложени на равнището на системата с ИИ или на равнището на модела на ИИ, включително при модели на ИИ с общо предназначение, генериращи съдържание, като по този начин се улеснява изпълнението на това задължение от доставчика надолу по веригата на системата с ИИ. За да бъде пропорционално това задължение за маркиране, е целесъобразно да се предвиди то да няма приложение при системи с ИИ, изпълняващи предимно помощна функция при стандартно редактиране, или за системи с ИИ, които не променят съществено входящите данни, въведени от внедрителя, или тяхната семантика.
(133)
O varietate de sisteme de IA poate genera cantități mari de conținut sintetic, pe care oamenii ajung să îl distingă din ce în ce mai greu de conținutul autentic, generat de om. Disponibilitatea pe scară largă și capabilitățile din ce în ce mai mari ale acestor sisteme au un impact semnificativ asupra integrității ecosistemului informațional și a încrederii în acesta, generând noi riscuri de dezinformare și manipulare la scară largă, de fraudă, de uzurpare a identității și de inducere în eroare a consumatorilor. Având în vedere impactul respectiv, ritmul tehnologic rapid și necesitatea unor noi metode și tehnici de urmărire a originii informațiilor, este oportun să se solicite furnizorilor acestor sisteme să încorporeze soluții tehnice care să permită marcarea într-un format prelucrabil automat și detectarea faptului că rezultatul a fost generat sau manipulat de un sistem de IA, și nu de un om. Aceste tehnici și metode ar trebui să fie suficient de fiabile, interoperabile, eficace și robuste, în măsura în care acest lucru este fezabil din punct de vedere tehnic, ținând seama de tehnicile disponibile sau de o combinație de astfel de tehnici, cum ar fi filigrane, identificări prin intermediul metadatelor, metode criptografice pentru a dovedi proveniența și autenticitatea conținutului, metode de înregistrare, amprente digitale sau alte tehnici, după caz. Atunci când pun în aplicare această obligație, furnizorii ar trebui, de asemenea, să țină seama de particularitățile și limitările diferitelor tipuri de conținut și de evoluțiile tehnologice și ale pieței relevante în domeniu, astfel cum se reflectă în stadiul de avansare general recunoscut al tehnologiei. Astfel de tehnici și metode pot fi puse în aplicare la nivelul sistemului de IA sau la nivelul modelului de IA, inclusiv al modelelor de IA de uz general care generează conținut, facilitând astfel îndeplinirea acestei obligații de către furnizorul din aval al sistemului de IA. Este oportun să se aibă în vedere că, pentru a rămâne proporțională, această obligație de marcare nu ar trebui să vizeze sistemele de IA care îndeplinesc în principal o funcție de asistare pentru editarea standard sau sistemele de IA care nu modifică în mod substanțial datele de intrare furnizate de implementator sau semantica acestora.
(134)
Освен техническите решения, приложени от доставчиците на системата с ИИ, и внедрителите, които използват система с ИИ за генериране или обработване на изображения, аудио или видео съдържание, наподобяващи до голяма степен съществуващи лица, предмети, места, субекти или събития, които е вероятно някой да приеме за истински или достоверни (т.нар. „убедителни фалшификати“), следва също по ясен и разпознаваем начин да оповестят обстоятелството, че съдържанието е било изкуствено генерирано или обработено, като обозначат по подходящ начин продукта от работата на ИИ и разкрият неговия изкуствен произход. Спазването на това задължение за прозрачност не следва да се тълкува в смисъл, че използването на системата с ИИ или резултатите от нея възпрепятства правото на свобода на изразяване на мнение и правото на свобода на изкуствата и науките, гарантирани от Хартата, по-специално когато съдържанието е част от произведение или програма, които имат очевиден творчески, сатиричен, артистичен, художествен или подобен характер, при прилагане на подходящи гаранции за правата и свободите на трети лица. В тези случаи задължението за прозрачност по отношение на убедителните фалшификати, предвидено в настоящия регламент, се ограничава до оповестяване на наличието на такова генерирано или обработено съдържание по подходящ начин, който не възпрепятства показването или използването на произведението, включително нормалната му експлоатация и употреба, като същевременно се запазват полезността и качеството на произведението. Освен това е целесъобразно да се предвиди подобно задължение за оповестяване във връзка с текст, който е генериран или обработен от ИИ, доколкото той е публикуван с цел информиране на обществеността по въпроси от обществен интерес, освен ако генерираното от ИИ съдържание не е преминало преглед от човек или подложено на редакторски контрол и редакционната отговорност за публикуването му се носи от физическо или юридическо лице.
(134)
Pe lângă soluțiile tehnice utilizate de furnizorii sistemului de IA, implementatorii care utilizează un sistem de IA pentru a genera sau a manipula conținuturi de imagine, audio sau video care se aseamănă în mod apreciabil cu persoane, obiecte, locuri, entități sau evenimente existente și care ar crea unei persoane impresia falsă că sunt autentice sau adevărate (deepfake-uri), ar trebui, de asemenea, să dezvăluie în mod clar și distinct faptul că respectivul conținut a fost creat sau manipulat în mod artificial prin etichetarea în consecință a rezultatului generat de IA și divulgarea originii sale artificiale. Respectarea acestei obligații de transparență nu ar trebui să fie interpretată în sensul de a indica că utilizarea sistemului de IA sau a rezultatelor sale împiedică dreptul la libertatea de exprimare și dreptul la libertatea artelor și științelor garantate de cartă, în special atunci când conținutul face parte dintr-o lucrare sau dintr-un program în mod evident creativ, satiric, artistic, fictiv sau analog, sub rezerva unor garanții adecvate pentru drepturile și libertățile terților. În cazurile respective, obligația de transparență pentru deepfake-uri prevăzută în prezentul regulament se limitează la divulgarea existenței unui astfel de conținut generat sau manipulat într-un mod adecvat, care să nu împiedice expunerea lucrării sau posibilitatea de a beneficia de aceasta, inclusiv exploatarea și utilizarea normală a acesteia, menținând în același timp utilitatea și calitatea lucrării. În plus, este, de asemenea, oportun să se aibă în vedere o obligație similară de divulgare în ceea ce privește textul generat sau manipulat de IA, în măsura în care acesta este publicat cu scopul de a informa publicul cu privire la chestiuni de interes public, cu excepția cazului în care conținutul generat de IA a fost supus unui proces de verificare editorială sau revizuire umană și responsabilitatea editorială pentru publicarea conținutului este deținută de o persoană fizică sau juridică.
(135)
Без да се засягат задължителният характер и пълната приложимост на задълженията за прозрачност, Комисията може също да насърчава и улеснява изготвянето на кодекси за добри практики на равнището на Съюза с цел да се допринесе за ефективното изпълнение на задълженията за откриване и обозначаване на изкуствено генерирано или обработено съдържание, включително да се съдейства във връзка с практически правила, които да осигурят при необходимост достъпност на механизмите за откриване и да подпомагат сътрудничеството с други участници по веригата за създаване на стойност, разпространение на съдържание или проверка на неговата автентичност и произход, за да се даде възможност на обществеността действително да разпознава генерираното от ИИ съдържание.
(135)
Fără a aduce atingere caracterului obligatoriu și aplicabilității depline a obligațiilor privind transparența, Comisia poate, de asemenea, să încurajeze și să faciliteze elaborarea de coduri de bune practici la nivelul Uniunii cu scopul de a facilita punerea în aplicare efectivă a obligațiilor privind detectarea și etichetarea conținutului generat sau manipulat artificial, inclusiv de a sprijini modalitățile practice pentru a oferi accesul, după caz, la mecanisme de detectare și pentru a facilita cooperarea cu alți actori de-a lungul lanțului valoric, pentru a disemina conținutul sau a verifica autenticitatea și proveniența acestuia, astfel încât publicul să poată distinge efectiv conținutul generat de IA.
(136)
Задълженията, наложени в настоящия регламент на доставчиците и внедрителите на някои системи с ИИ с цел откриване и обозначаване, че резултатите от тези системи са изкуствено генерирани или обработени, са от особено значение с оглед на ефективното прилагане на Регламент (ЕС) 2022/2065. Това се отнася по-специално за задълженията на доставчиците на много големи онлайн платформи или много големи онлайн търсачки да установяват и ограничават системните рискове, които могат да възникнат поради разпространението на съдържание, което е било изкуствено генерирано или обработено, и по-специално риска от действителни или предвидими отрицателни последици за демократичните процеси, гражданския дебат и изборните процеси, включително чрез дезинформация. Изискването съгласно настоящия регламент за обозначаване на съдържание, генерирано от системи с ИИ, не засяга задължението по член 16, параграф 6 от Регламент (ЕС) 2022/2065 на доставчиците на хостинг услуги да обработват уведомления за незаконно съдържание, получени съгласно член 16, параграф 1 от посочения регламент, и не следва да влияе на оценката и решението относно незаконния характер на конкретното съдържание. Тази преценка следва да се извършва единствено с оглед на правилата, уреждащи законосъобразността на съдържанието.
(136)
Obligațiile impuse prin prezentul regulament furnizorilor și implementatorilor anumitor sisteme de IA pentru a permite detectarea și divulgarea faptului că rezultatele sistemelor respective sunt generate sau manipulate artificial sunt deosebit de relevante pentru a facilita punerea în aplicare efectivă a Regulamentului (UE) 2022/2065. Acest lucru este valabil în special în ceea ce privește obligațiile furnizorilor de platforme online foarte mari sau de motoare de căutare online foarte mari de a identifica și a atenua riscurile sistemice care pot apărea în urma diseminării conținutului care a fost generat sau manipulat artificial, în special riscul privind efectele negative reale sau previzibile asupra proceselor democratice, asupra discursului civic și asupra proceselor electorale, inclusiv prin dezinformare. Cerința de etichetare a conținutului generat de sistemele de IA în temeiul prezentului regulament nu aduce atingere obligației prevăzute la articolul 16 alineatul (6) din Regulamentul (UE) 2022/2065 pentru furnizorii de servicii de găzduire de a prelucra notificările privind conținutul ilegal primite în temeiul articolului 16 alineatul (1) din regulamentul respectiv și nu ar trebui să influențeze evaluarea și decizia privind ilegalitatea conținutului specific. Evaluarea respectivă ar trebui să fie efectuată exclusiv în raport cu normele care reglementează legalitatea conținutului.
(137)
Спазването на задълженията за прозрачност относно системите с ИИ, обхванати от настоящия регламент, не следва да се тълкува като знак, че използването на системата с ИИ или на резултатите от нея е законосъобразно съгласно настоящия регламент или друго законодателство на Съюза и на държава членка, и не следва да засяга други задължения за прозрачност за внедрители на системи с ИИ, предвидени в правото на Съюза или в националното право.
(137)
Respectarea obligațiilor privind transparența pentru sistemele de IA vizate de prezentul regulament nu ar trebui să fie interpretată ca indicând faptul că utilizarea sistemului de IA sau a rezultatelor sale este legală în temeiul prezentului regulament sau al altor dispoziții din dreptul Uniunii și al statelor membre și nu ar trebui să aducă atingere altor obligații de transparență pentru implementatorii sistemelor de IA prevăzute în dreptul Uniunii sau în cel intern.
(138)
ИИ е бързо развиваща се съвкупност от технологии, която изисква регулаторен надзор и безопасно и контролирано пространство за експериментиране, като същевременно се гарантира отговорното новаторство и интегрирането на подходящи предпазни мерки и мерки за ограничаване на риска. За да се гарантира благоприятна за иновациите, ориентирана към бъдещето и устойчива на смущения правна рамка, държавите членки следва да гарантират, че националните им компетентни органи създават най-малко една регулаторна лаборатория в областта на ИИ на национално равнище, за да се улесни разработването и изпитването на иновативни системи с ИИ под строг регулаторен надзор, преди тези системи да бъдат пуснати на пазара или пуснати в действие по друг начин. Държавите членки биха могли да изпълнят това задължение и чрез участие във вече съществуващи регулаторни лаборатории или съвместно създаване на лаборатория с компетентните органи на една или повече държави членки, доколкото това участие осигурява равностойно национално покритие за участващите държави членки. Регулаторните лаборатории в областта на ИИ могат да бъдат създадени във физическа, цифрова или хибридна форма и да включват както физически, така и цифрови продукти. Създаващите ги органи следва също така да гарантират, че регулаторните лаборатории в областта на ИИ разполагат с подходящи ресурси за функционирането си, включително финансови и човешки ресурси.
(138)
IA este o familie de tehnologii care se dezvoltă rapid și care necesită supraveghere reglementară și un spațiu sigur și controlat pentru experimentare, asigurând, în același timp, inovarea responsabilă și integrarea unor garanții adecvate și a unor măsuri de atenuare a riscurilor. Pentru a asigura un cadru juridic care promovează inovarea, adaptat exigențelor viitorului și rezistent la inovări disruptive, statele membre ar trebui să se asigure că autoritățile lor naționale competente instituie cel puțin un spațiu de testare la nivel național în materie de reglementare în domeniul IA pentru a facilita dezvoltarea și testarea sistemelor de IA inovatoare aflate sub supraveghere reglementară strictă înainte ca aceste sisteme să fie introduse pe piață sau puse în funcțiune în alt mod. Statele membre ar putea, de asemenea, să îndeplinească această obligație prin participarea la spațiile de testare în materie de reglementare deja existente sau prin instituirea unui spațiu de testare în comun cu una sau mai multe autorități competente ale statelor membre, în măsura în care această participare asigură un nivel echivalent de acoperire națională pentru statele membre participante. Spațiile de testare în materie de reglementare în domeniul IA ar putea fi instituite în formă fizică, digitală sau hibridă și pot găzdui atât produse fizice, cât și produse digitale. Autoritățile de instituire ar trebui, de asemenea, să se asigure că spațiile de testare în materie de reglementare în domeniul IA dispun de resursele adecvate pentru funcționarea lor, inclusiv de resurse financiare și umane.
(139)
Целите на регулаторните лаборатории в областта на ИИ следва да бъдат: насърчаване на иновациите в областта на ИИ чрез създаване на контролирана среда за експериментиране и изпитване във фазата на разработване и преди пускането на пазара с цел да се гарантира съответствието на иновативните системи с ИИ с настоящия регламент и друго съответно право на Съюза и национално право. В допълнение регулаторните лаборатории в областта на ИИ следва да имат за цел подобряване на правната сигурност за новаторите и надзора и разбирането от страна на компетентните органи на възможностите, нововъзникващите рискове и въздействието на използването на ИИ, улесняване на натрупването на регулаторен опит от страна на органите и предприятията, включително с оглед на бъдещи изменения на правната рамка, подкрепа за сътрудничеството и обмена на най-добри практики с органите, участващи в регулаторната лаборатория в областта на ИИ, както и ускоряване на достъпа до пазарите, включително чрез премахване на пречките пред МСП, включително новосъздадените предприятия. Следва да се предостави широк достъп до регулаторните лаборатории в областта на ИИ на територията на Съюза, като се обърне специално внимание на достъпността им за МСП, включително новосъздадените предприятия. Участието в регулаторните лаборатории в областта на ИИ следва да е насочено към въпроси, които пораждат правна несигурност за доставчиците и потенциалните доставчици при въвеждането на иновации и експериментирането с ИИ в Съюза и да допринася за основан на факти регулаторен опит. Поради това надзорът върху системите с ИИ в регулаторните лаборатории в областта на ИИ следва да обхваща тяхното разработване, обучение, изпитване и валидиране, преди системите да бъдат пуснати на пазара или пуснати в действие, както и концепцията за и настъпването на съществено изменение, което може да изисква провеждането на нова процедура за оценяване на съответствието. Всички значителни рискове, установени по време на разработването и изпитването на такива системи с ИИ, следва да водят до адекватни ограничителни мерки, а при липса на такива — до спиране на процеса на разработване и изпитване. Когато е целесъобразно, националните компетентни органи, които създават регулаторни лаборатории в областта на ИИ, следва да си сътрудничат с други съответни органи, включително упражняващите надзор върху защитата на основните права, и биха могли да позволят привличането на други участници в екосистемата на ИИ, като например национални или европейски организации за стандартизация, нотифицирани органи, структури за изпитване и експериментиране, лаборатории за научни изследвания и експерименти, европейски цифрови иновационни центрове и съответни заинтересовани страни и организации на гражданското общество. За да се гарантират еднакво прилагане в целия Съюз и икономии на мащаба, е целесъобразно да се установят общи правила за създаването на регулаторните лаборатории в областта на ИИ и рамка за сътрудничество между съответните органи, участващи в надзора на лабораториите. Регулаторните лаборатории в областта на ИИ, създадени съгласно настоящия регламент, не следва да засягат друго право, допускащо създаването на други лаборатории и чиято цел е да се гарантира спазването на правни норми извън настоящия регламент. Когато е целесъобразно, съответните компетентни органи, които отговарят за други регулаторни лаборатории, следва да преценят доколко би било полезно използването им и с цел осигуряване на съответствието на системите с ИИ с настоящия регламент. По споразумение между националните компетентни органи и участниците в регулаторната лаборатория в областта на ИИ в такава лаборатория също така може да се извършва изпитване в реални условия и върху него да се осъществява надзор.
(139)
Obiectivele spațiilor de testare în materie de reglementare în domeniul IA ar trebui să fie promovarea inovării în domeniul IA prin instituirea unui mediu de experimentare și testare controlat în faza de dezvoltare și în faza anterioară introducerii pe piață, cu scopul de a asigura conformitatea sistemelor de IA inovatoare cu prezentul regulament și cu alte dispoziții relevante din dreptul Uniunii și dreptul intern. În plus, spațiile de testare în materie de reglementare în domeniul IA ar trebui să urmărească sporirea securității juridice pentru inovatori și supravegherea și înțelegerea de către autoritățile competente a oportunităților, a riscurilor emergente și a impactului utilizării IA, facilitarea învățării în materie de reglementare pentru autorități și întreprinderi, inclusiv în vederea viitoarelor adaptări ale cadrului juridic, sprijinirea cooperării și a schimbului de bune practici cu autoritățile implicate în spațiul de testare în materie de reglementare în domeniul IA, precum și accelerarea accesului la piețe, inclusiv prin eliminarea barierelor din calea IMM-urilor, inclusiv a întreprinderilor nou-înființate. Spațiile de testare în materie de reglementare în domeniul IA ar trebui să fie disponibile pe scară largă în întreaga Uniune și ar trebui să se acorde o atenție deosebită accesibilității acestora pentru IMM-uri, inclusiv pentru întreprinderile nou-înființate. Participarea la spațiul de testare în materie de reglementare în domeniul IA ar trebui să se concentreze pe aspecte care fac ca furnizorii și potențialii furnizori să se confrunte cu o lipsă de securitate juridică atunci când încearcă să inoveze, să experimenteze cu IA în Uniune și să contribuie la învățarea bazată pe dovezi în materie de reglementare. Supravegherea sistemelor de IA în spațiul de testare în materie de reglementare în domeniul IA ar trebui, prin urmare, să vizeze dezvoltarea, antrenarea, testarea și validarea acestora înainte ca sistemele să fie introduse pe piață sau puse în funcțiune, precum și noțiunea de modificare substanțială care ar putea necesita o nouă procedură de evaluare a conformității și ocurența unei astfel de modificări. Orice riscuri semnificative identificate în cursul dezvoltării și testării unor astfel de sisteme de IA ar trebui să conducă la o atenuare adecvată și, în cazul în care atenuarea nu este posibilă, la suspendarea procesului de dezvoltare și testare. După caz, autoritățile naționale competente care instituie spații de testare în materie de reglementare în domeniul IA ar trebui să coopereze cu alte autorități relevante, inclusiv cu cele care supraveghează protecția drepturilor fundamentale, și ar putea permite implicarea altor actori din ecosistemul de IA, cum ar fi organizațiile de standardizare naționale sau europene, organismele notificate, unitățile de testare și experimentare, laboratoarele de cercetare și experimentare, centrele europene de inovare digitală și organizațiile relevante ale părților interesate și ale societății civile. Pentru a asigura o punere în aplicare uniformă în întreaga Uniune și economii de scară, este oportun să se stabilească norme comune pentru punerea în aplicare a spațiilor de testare în materie de reglementare în domeniul IA și un cadru de cooperare între autoritățile relevante implicate în supravegherea spațiilor de testare. Spațiile de testare în materie de reglementare în domeniul IA instituite în temeiul prezentului regulament nu ar trebui să aducă atingere altor dispoziții de drept care permit instituirea altor spații de testare cu scopul de a asigura conformitatea cu alte dispoziții de drept decât prezentul regulament. După caz, autoritățile competente relevante responsabile de aceste alte spații de testare în materie de reglementare ar trebui să ia în considerare beneficiile utilizării acestor spații de testare și în scopul asigurării conformității sistemelor de IA cu prezentul regulament. Pe baza unui acord între autoritățile naționale competente și participanții la spațiul de testare în materie de reglementare în domeniul IA, testarea în condiții reale poate fi, de asemenea, efectuată și supravegheată în cadrul spațiului de testare în materie de reglementare în domeniul IA.
(140)
В съответствие с член 6, параграф 4 и член 9, параграф 2, буква ж) от Регламент (ЕС) 2016/679 и членове 5, 6 и 10 от Регламент (ЕС) 2018/1725 и без да се засягат член 4, параграф 2 и член 10 от Директива (ЕС) 2016/680, настоящият регламент следва да предостави на доставчиците и потенциалните доставчици в регулаторните лаборатории в областта на ИИ правното основание за използването, само при определени условия, на лични данни, събирани за други цели, с оглед на разработването на определени системи с ИИ в обществен интерес в рамките на регулаторната лаборатория в областта на ИИ. Всички други задължения на администраторите на данни и правата на субектите на данни съгласно регламенти (ЕС) 2016/679 и (ЕС) 2018/1725 и Директива (ЕС) 2016/680 остават приложими. По-специално настоящият регламент не следва да предоставя правно основание по смисъла на член 22, параграф 2, буква б) от Регламент (ЕС) 2016/679 и член 24, параграф 2, буква б) от Регламент (ЕС) 2018/1725. Доставчиците и потенциалните доставчици в регулаторната лаборатория в областта на ИИ следва да осигурят подходящи гаранции и да си сътрудничат с компетентните органи, включително като следват техните насоки и действат бързо и добросъвестно, за да ограничат по подходящ начин всички установени значителни рискове за безопасността, здравето и основните права, които могат да се проявят по време на разработването, изпитването и експериментирането в лабораторията.
(140)
Prezentul regulament ar trebui să ofere furnizorilor și potențialilor furnizori din cadrul spațiului de testare în materie de reglementare în domeniul IA temeiul juridic pentru utilizarea datelor cu caracter personal colectate în alte scopuri pentru a dezvolta anumite sisteme de IA de interes public în cadrul spațiului de testare în materie de reglementare în domeniul IA numai în condiții specificate, în conformitate cu articolul 6 alineatul (4) și cu articolul 9 alineatul (2) litera (g) din Regulamentul (UE) 2016/679, precum și cu articolele 5, 6 și 10 din Regulamentul (UE) 2018/1725 și fără a aduce atingere articolului 4 alineatul (2) și articolului 10 din Directiva (UE) 2016/680. Toate celelalte obligații ale operatorilor de date și drepturi ale persoanelor vizate în temeiul Regulamentelor (UE) 2016/679 și (UE) 2018/1725 și al Directivei (UE) 2016/680 rămân aplicabile. În special, prezentul regulament nu ar trebui să ofere un temei juridic în sensul articolului 22 alineatul (2) litera (b) din Regulamentul (UE) 2016/679 și al articolului 24 alineatul (2) litera (b) din Regulamentul (UE) 2018/1725. Furnizorii și potențialii furnizori din cadrul spațiului de testare în materie de reglementare în domeniul IA ar trebui să asigure garanții adecvate și să coopereze cu autoritățile competente, inclusiv urmând orientările acestora și acționând cu promptitudine și cu bună-credință, în ceea ce privește atenuarea în mod adecvat a oricăror riscuri semnificative identificate la adresa siguranței, sănătății și a drepturilor fundamentale care ar putea apărea în timpul dezvoltării, testării și experimentării în spațiul de testare respectiv.
(141)
За да се ускори процесът на разработване и пускане на пазара на високорисковите системи с ИИ, чийто списък се съдържа в приложение към настоящия регламент, е важно доставчиците или потенциалните доставчици на такива системи да могат да ползват специален режим за изпитване на тези системи в реални условия и без да участват в регулаторна лаборатория в областта на ИИ. В такива случаи обаче, предвид евентуалните последици, които това изпитване може да има върху хората, следва да се гарантира, че настоящият регламент въвежда подходящи и достатъчни гаранции и условия по отношение на доставчиците или потенциалните доставчици. Тези гаранции следва да включват, наред с другото, искането на информирано съгласие от физическите лица за участие в изпитвания в реални условия, освен в правоохранителната област, когато искането на информирано съгласие би попречило на изпитването на системата с ИИ. Съгласието на субектите на данни да участват в такива изпитвания в съответствие с настоящия регламент е различно от съгласието на субектите на данни личните им данни да бъдат обработвани съгласно съответното законодателство за защита на данните и не засяга това съгласие. Важно е също така рисковете да бъдат сведени до минимум и компетентните органи да могат да упражняват надзор, във връзка с което да се въведат изисквания потенциалните доставчици да представят на компетентния орган за надзор на пазара план за изпитване в реални условия, да регистрират изпитването в специални раздели на базата данни на ЕС с ограничен брой изключения, да определят ограничения на срока, в който може да се извърши изпитването, както и да се изискват допълнителни гаранции за лица, принадлежащи към определени уязвими групи, и писмено споразумение, в което се установяват функциите и отговорностите на потенциалните доставчици и внедрителите и ефективен надзор от страна на компетентния персонал, участващ в изпитванията в реални условия. Освен това е целесъобразно да се предвидят допълнителни гаранции, за да се гарантира, че прогнозите, препоръките или решенията на дадена система с ИИ могат ефективно да се отменят и пренебрегнат, както и че личните данни са защитени и се заличават, след като субектите в изпитването са оттеглили съгласието си за участие в изпитването, без да се засягат правата им като субекти на данни съгласно правото на Съюза в областта на защитата на данните. По отношение на предаването на данни е целесъобразно също така да се предвиди, че данните, събирани и обработвани за целите на изпитването в реални условия, следва да се предават на трети държави само при прилагане на подходящи и приложими гаранции съгласно правото на Съюза, по-специално в съответствие с основанията за предаване на лични данни съгласно правото на Съюза относно защитата на данните, докато по отношение на неличните данни се прилагат подходящи гаранции в съответствие с правото на Съюза, като например регламенти (ЕС) 2022/868 (42) и (ЕС) 2023/2854 (43) на Европейския парламент и на Съвета.
(141)
Pentru a accelera procesul de dezvoltare și introducere pe piață a sistemelor de IA cu grad ridicat de risc enumerate într-o anexă la prezentul regulament, este important ca furnizorii sau potențialii furnizori ai acestor sisteme să poată beneficia, la rândul lor, de un regim specific pentru testarea acestor sisteme în condiții reale, fără a participa la un spațiu de testare în materie de reglementare în domeniul IA. Cu toate acestea, în astfel de cazuri, ținând seama de posibilele consecințe ale unor astfel de teste asupra persoanelor fizice, ar trebui să se garanteze faptul că prezentul regulament introduce garanții și condiții adecvate și suficiente pentru furnizori sau potențiali furnizori. Astfel de garanții ar trebui să includă, printre altele, solicitarea consimțământului în cunoștință de cauză al persoanelor fizice de a participa la teste în condiții reale, cu excepția cazurilor legate de aplicarea legii dacă solicitarea consimțământului în cunoștință de cauză ar împiedica testarea sistemului de IA. Consimțământul subiecților de a participa la astfel de teste în temeiul prezentului regulament este distinct de consimțământului persoanelor vizate pentru prelucrarea datelor lor cu caracter personal în temeiul dreptului relevant privind protecția datelor și nu îi aduce atingere acestuia. De asemenea, este important să se reducă la minimum riscurile și să se permită supravegherea de către autoritățile competente și, prin urmare, să se impună potențialilor furnizori să facă demersurile necesare pentru prezentarea unui plan de testare în condiții reale autorității competente de supraveghere a pieței, să se înregistreze testările în secțiuni specifice din baza de date a UE, sub rezerva unor excepții limitate, să se instituie limite privind perioada pentru care se poate efectua testarea și să se impună garanții suplimentare pentru persoanele care aparțin anumitor grupuri vulnerabile, precum și un acord scris care să definească rolurile și responsabilitățile potențialilor furnizori și implementatori și supravegherea eficace de către personalul competent implicat în testarea în condiții reale. În plus, este oportun să se prevadă garanții suplimentare pentru a se asigura că previziunile, recomandările sau deciziile sistemului de IA pot fi efectiv inversate și ignorate și că datele cu caracter personal sunt protejate și sunt șterse atunci când subiecții își retrag consimțământul de a participa la testare, fără a aduce atingere drepturilor lor în calitate de persoane vizate în temeiul dreptului Uniunii privind protecția datelor. În ceea ce privește transferul de date, este, de asemenea, oportun să se prevadă că datele colectate și prelucrate în scopul testării în condiții reale ar trebui să fie transferate către țări terțe numai cu condiția punerii în aplicare a unor garanții adecvate și aplicabile în temeiul dreptului Uniunii, în special în conformitate cu bazele pentru transferul de date cu caracter personal în temeiul dreptului Uniunii privind protecția datelor, în timp ce pentru datele fără caracter personal sunt instituite garanții adecvate în conformitate cu dreptul Uniunii, cum ar fi Regulamentele (UE) 2022/868 (42) și (UE) 2023/2854 (43) ale Parlamentului European și ale Consiliului.
(142)
За да се гарантира, че ИИ води до благоприятни за обществото и околната среда резултати, държавите членки се насърчават да подкрепят и поощряват научните изследвания и разработването на решения в областта на ИИ, способстващи за постигането на такива резултати — например основани на ИИ решения за увеличаване на достъпността за хората с увреждания, противодействие на социално-икономическите неравенства или постигане на екологичните цели, чрез разпределяне на достатъчно ресурси, включително публично финансиране и финансиране от Съюза, и когато е целесъобразно и при условие че са изпълнени критериите за допустимост и подбор, разглеждане на проекти, които преследват тези цели. Такива проекти следва да се основават на принципа на интердисциплинарното сътрудничество между разработчици на ИИ, експерти по въпросите на неравенството и недискриминацията, достъпността, правата на потребителите, правата, свързани с околната среда, и цифровите права, както и академичните среди.
(142)
Pentru a se asigura că IA conduce la rezultate benefice din punct de vedere social și ecologic, statele membre sunt încurajate să sprijine și să promoveze cercetarea și dezvoltarea de soluții de IA în sprijinul rezultatelor benefice din punct de vedere social și ecologic, cum ar fi soluțiile bazate pe IA pentru a spori accesibilitatea pentru persoanele cu dizabilități, pentru a combate inegalitățile socioeconomice sau pentru a îndeplini obiectivele de mediu, alocând resurse suficiente, inclusiv finanțare publică și din partea Uniunii, și, după caz și cu condiția îndeplinirii criteriilor de eligibilitate și de selecție, luând în considerare în special proiectele care urmăresc astfel de obiective. Aceste proiecte ar trebui să se bazeze pe principiul cooperării interdisciplinare dintre dezvoltatorii de IA, experții în materie de inegalitate și nediscriminare, accesibilitate, drepturile consumatorilor, de mediu și digitale, precum și cadrele universitare.
(143)
С цел насърчаване и защита на иновациите е важно да се обърне специално внимание на интересите на МСП, включително новосъздадените предприятия, които са доставчици или внедрители на системи с ИИ. За тази цел държавите членки следва да разработят инициативи, насочени към тези оператори, включително за повишаване на осведомеността и съобщаването на информация. Държавите членки следва да осигуряват на МСП, включително новосъздадените предприятия, които имат седалище или клон в Съюза, приоритетен достъп до регулаторните лаборатории в областта на ИИ, при условие че те отговарят на условията за допустимост и на критериите за подбор, без да се възпрепятства достъпът на други доставчици и потенциални доставчици до лабораториите, при условие че са изпълнени същите условия и критерии. Държавите членки следва да използват наличните, а когато е целесъобразно - да създават нови, специални канали за комуникация с МСП, новосъздадени предприятия, внедрители, други новатори и - в зависимост от случая - органи на местна власт, с цел да подпомагат МСП по пътя им на развитие чрез даване на насоки и отговаряне на запитвания във връзка с прилагането на настоящия регламент. Когато е целесъобразно, тези канали следва да работят заедно, за да се създадат полезни взаимодействия и да се гарантира еднообразност на насоките за МСП, включително новосъздадените предприятия, и внедрителите. Наред с това държавите членки следва да улесняват участието на МСП и на други заинтересовани страни в процесите на разработване на стандарти. Освен това, при определянето на таксите за оценяване на съответствието нотифицираните органи следва да вземат предвид особените интереси и нужди на доставчиците, които са МСП, включително новосъздадени предприятия. Комисията следва да оценява редовно разходите на МСП, включително новосъздадените предприятия, за сертифициране и привеждане в съответствие чрез прозрачни консултации и следва да работи с държавите членки за понижаването на тези разходи. Така например разходите за превод, свързани със задължителната документация и комуникацията с органите, могат да представляват значителни разходи за доставчиците и другите оператори, по-специално за по-малките. Държавите членки следва по възможност да гарантират, че един от езиците, определени и приети от тях за съответната документация на доставчиците и за комуникация с операторите, е език, които в значителна степен се разбира от възможно най-голям брой трансгранични внедрители. За да се отговори на специфичните нужди на МСП, включително новосъздадените предприятия, Комисията следва да осигури стандартизирани образци за областите, обхванати от настоящия регламент, по искане на Съвета по ИИ. Освен това Комисията следва да допълни усилията на държавите членки, като осигури единна информационна платформа с лесна за ползване информация относно настоящия регламент, предназначена за всички доставчици и внедрители, като организира подходящи комуникационни кампании за повишаване на осведомеността относно задълженията, произтичащи от настоящия регламент, и като оценява и насърчава сближаването на най-добрите практики, прилагани в рамките на процедурите за възлагане на обществени поръчки във връзка със системите с ИИ. Средните предприятия, които доскоро са съответствали на критериите за малки предприятия по смисъла на приложението към Препоръка 2003/361/ЕО на Комисията (44), следва да имат достъп до тези мерки за подкрепа, тъй като е възможно тези нови средни предприятия да не разполагат с правните ресурси и обучението, необходими, за да се гарантира правилното разбиране и спазване на настоящия регламент.
(143)
Pentru a promova și proteja inovarea, este important să fie luate în considerare în mod deosebit interesele IMM-urilor, inclusiv ale întreprinderilor nou-înființate care sunt furnizori și implementatori de sisteme de IA. În acest scop, statele membre ar trebui să elaboreze inițiative care să vizeze operatorii respectivi, inclusiv în ceea ce privește sensibilizarea și comunicarea informațiilor. Statele membre ar trebui să ofere IMM-urilor, inclusiv întreprinderilor nou-înființate, care au un sediu social sau o sucursală în Uniune, acces prioritar la spațiile de testare în materie de reglementare în domeniul IA, cu condiția ca acestea să îndeplinească condițiile de eligibilitate și criteriile de selecție și fără a împiedica alți furnizori și potențiali furnizori să acceseze spațiile de testare, cu condiția să fie îndeplinite aceleași condiții și criterii. Statele membre ar trebui să utilizeze canalele existente și, după caz, să stabilească noi canale specifice de comunicare cu IMM-urile, inclusiv întreprinderile nou-înființate, implementatorii și alți inovatori și, după caz, cu autoritățile publice locale, pentru a sprijini IMM-urile pe tot parcursul dezvoltării lor, oferind orientări și răspunzând la întrebări cu privire la punerea în aplicare a prezentului regulament. După caz, aceste canale ar trebui să colaboreze pentru a crea sinergii și pentru a asigura omogenitatea orientărilor pe care le furnizează IMM-urilor, inclusiv întreprinderilor nou-înființate, și implementatorilor. În plus, statele membre ar trebui să faciliteze participarea IMM-urilor și a altor părți interesate relevante la procesele de elaborare a standardelor. De asemenea, ar trebui să fie luate în considerare interesele și nevoile specifice ale furnizorilor care sunt IMM-uri, inclusiv întreprinderi nou-înființate, atunci când organismele notificate stabilesc taxe de evaluare a conformității. Comisia ar trebui să evalueze periodic costurile de certificare și de conformitate suportate de IMM-uri, inclusiv de întreprinderile nou-înființate, prin consultări transparente și ar trebui să colaboreze cu statele membre pentru a reduce aceste costuri. De exemplu, costurile de traducere legate de documentația obligatorie și de comunicarea cu autoritățile pot constitui un cost semnificativ pentru furnizori și alți operatori, în special pentru cei de dimensiuni mai mici. Statele membre ar trebui, eventual, să se asigure că una dintre limbile stabilite și acceptate pentru documentația relevantă din partea furnizorilor și pentru comunicarea cu operatorii este o limbă înțeleasă pe larg de un număr cât mai mare de implementatori transfrontalieri. Pentru a răspunde nevoilor specifice ale IMM-urilor, inclusiv ale întreprinderilor nou-înființate, Comisia ar trebui să furnizeze modele standardizate pentru domeniile vizate de prezentul regulament, la solicitarea Consiliului IA. În plus, Comisia ar trebui să completeze eforturile statelor membre prin furnizarea unei platforme unice de informare cu informații ușor de utilizat în ceea ce privește prezentul regulament destinate tuturor furnizorilor și implementatorilor, prin organizarea unor campanii de comunicare adecvate pentru sensibilizarea cu privire la obligațiile care decurg din prezentul regulament și prin evaluarea și promovarea convergenței bunelor practici în cadrul procedurilor de achiziții publice în ceea ce privește sistemele de IA. Întreprinderile mijlocii care până recent se încadrau în categoria de întreprinderi mici în sensul anexei la Recomandarea 2003/361/CE a Comisiei (44) ar trebui să aibă acces la măsurile de sprijin respective, deoarece este posibil ca aceste noi întreprinderi mijlocii să nu dispună uneori de resursele juridice și formarea necesare pentru a asigura respectarea și înțelegerea adecvată a prezentului regulament.
(144)
С цел насърчаване и защита на иновациите платформата за ИИ по заявка, всички съответни програми и проекти на Съюза за финансиране, като например програмите „Цифрова Европа“ и „Хоризонт Европа“, изпълнявани от Комисията и държавите членки на национално равнище или на равнището на Съюза, следва, когато е целесъобразно, да допринасят за постигането на целите на настоящия регламент.
(144)
Pentru a promova și a proteja inovarea, platforma de IA la cerere și toate programele și proiectele de finanțare relevante ale Uniunii, cum ar fi programele Europa digitală și Orizont Europa, puse în aplicare de Comisie și de statele membre la nivelul Uniunii sau la nivel național, ar trebui, după caz, să contribuie la îndeplinirea obiectivelor prezentului regulament.
(145)
За да се сведат до минимум рисковете за правоприлагането, произтичащи от липсата на знания и експертен опит на пазара, както и за да се улесни спазването на задълженията по настоящия регламент от страна на доставчиците, по-специално МСП, включително новосъздадените предприятия, и нотифицираните органи, платформата за ИИ по заявка, европейските цифрови иновационни центрове и структурите за изпитване и експериментиране, създадени от Комисията и държавите членки на национално равнище или на равнището на Съюза, следва да допринасят за прилагането на настоящия регламент. В рамките на своята мисия и области на компетентност платформата за ИИ по заявка, европейските цифрови иновационни центрове и структурите за изпитване и експериментиране могат да предоставят по-специално техническа и научна подкрепа на доставчиците и нотифицираните органи.
(145)
Pentru a reduce la minimum riscurile la adresa punerii în aplicare care decurg din lipsa de cunoaștere și de cunoștințe de specialitate de pe piață, precum și pentru a facilita respectarea de către furnizori, cu precădere de către IMM-uri, inclusiv întreprinderile nou-înființate, precum și de către organismele notificate a obligațiilor care le revin în temeiul prezentului regulament, platforma de IA la cerere, centrele europene de inovare digitală și instalațiile de testare și experimentare instituite de Comisie și de statele membre la nivelul Uniunii sau la nivel național ar trebui să contribuie la punerea în aplicare a prezentului regulament. În cadrul misiunii și domeniilor lor de competență respective, platforma de IA la cerere, centrele europene de inovare digitală și instalațiile de testare și experimentare sunt în măsură să ofere, în special, sprijin tehnic și științific furnizorilor și organismelor notificate.
(146)
Освен това, предвид твърде малкия размер на някои оператори и с цел да се гарантира пропорционалност по отношение на разходите за иновации, е целесъобразно да се даде възможност на микропредприятията да изпълнят едно от най-скъпо струващите задължения, а именно създаването на система за управление на качеството, по опростен начин, което би намалило административната тежест и разходите за тези предприятия, без да се засягат равнището на защита и необходимостта от съответствие с изискванията за високорисковите системи с ИИ. Комисията следва да разработи насоки с цел да се определят елементите на системата за управление на качеството, които трябва да бъдат изпълнени по този опростен начин от микропредприятията.
(146)
În plus, având în vedere dimensiunea foarte mică a unor operatori și pentru a asigura proporționalitatea în ceea ce privește costurile inovării, este oportun să se permită microîntreprinderilor să îndeplinească într-o manieră simplificată una dintre obligațiile cele mai costisitoare, și anume aceea de a institui un sistem de management al calității, fapt care ar reduce sarcina administrativă și costurile pentru întreprinderile respective, fără a afecta nivelul de protecție și necesitatea de a respecta cerințele pentru sistemele de IA cu grad ridicat de risc. Comisia ar trebui să elaboreze orientări pentru a specifica elementele sistemului de management al calității care trebuie îndeplinite în această manieră simplificată de către microîntreprinderi.
(147)
Целесъобразно е Комисията да улеснява, доколкото е възможно, достъпа до структури за изпитване и експериментиране на органи, групи или лаборатории, създадени или акредитирани съгласно съответното законодателство на Съюза за хармонизация, които изпълняват задачи в контекста на оценяването на съответствието на продукти или изделия, попадащи в обхвата на посоченото законодателство на Съюза за хармонизация. Такъв е по-специално случаят с експертните групи, специализираните лаборатории и референтните лаборатории в областта на медицинските изделия съгласно регламенти (ЕС) 2017/745 и (ЕС) 2017/746.
(147)
Este oportun ca, în măsura posibilului, Comisia să faciliteze accesul la instalațiile de testare și experimentare pentru organismele, grupurile sau laboratoarele înființate sau acreditate în temeiul oricăror acte legislative de armonizare relevante ale Uniunii și care îndeplinesc sarcini în contextul evaluării conformității produselor sau dispozitivelor reglementate de respectivele acte legislative de armonizare ale Uniunii. Acest lucru este valabil în special în ceea ce privește grupurile de experți, laboratoarele de expertiză și laboratoarele de referință în domeniul dispozitivelor medicale în temeiul Regulamentelor (UE) 2017/745 și (UE) 2017/746.
(148)
С настоящия регламент следва да се създаде рамка за управление, която да позволява координация и подкрепа при прилагането на настоящия регламент на национално равнище, както и изграждане на капацитет на равнището на Съюза и включване на заинтересованите страни в областта на изкуствения интелект. Ефективното изпълнение и прилагане на настоящия регламент изискват рамка за управление, която да дава възможност за координация и изграждане на експертен опит на централно ниво, на равнището на Съюза. Службата по ИИ беше създадена с решение на Комисията (45) с мисията да развива експертния опит и способностите на Съюза в областта на ИИ и да допринася за прилагането на правото на Съюза в областта на ИИ. Държавите членки следва да улесняват изпълнението на задачите на Службата по ИИ с цел да се подпомогне развитието на експертния опит на Съюза и на способностите на равнището на Съюза и да се укрепи функционирането на цифровия единен пазар. Наред с това следва да бъдат създадени Съвет по ИИ, съставен от представители на държавите членки, експертна група, с която да се привлече научната общност, и консултативен форум, чрез който заинтересованите страни да допринасят за прилагането на настоящия регламент както на национално равнище, така и на равнището на Съюза. Развитието на експертния опит и способностите на Съюза следва да включва също така използването на съществуващите ресурси и експертен опит, по-специално чрез полезни взаимодействия със структури, изградени в контекста на прилагането в рамките на Съюза на друго законодателство, както и полезни взаимодействия със свързани инициативи на равнището на Съюза, например Съвместното предприятие за европейски високопроизводителни изчисления (EuroHPC) и съоръженията за изпитване и експериментиране с ИИ в рамките на програмата „Цифрова Европа“.
(148)
Prezentul regulament ar trebui să instituie un cadru de guvernanță care să permită, pe de o parte, coordonarea și sprijinirea aplicării prezentului regulament la nivel național și, pe de altă parte, consolidarea capabilităților la nivelul Uniunii și integrarea părților interesate în domeniul IA. Punerea în aplicare și respectarea efectivă a prezentului regulament necesită un cadru de guvernanță care să permită coordonarea și consolidarea cunoștințelor de specialitate centrale la nivelul Uniunii. Oficiul pentru IA a fost instituit printr-o decizie a Comisiei (45) și are ca misiune să dezvolte cunoștințele de specialitate și capabilitățile Uniunii în domeniul IA și să contribuie la punerea în aplicare a dreptului Uniunii privind IA. Statele membre ar trebui să faciliteze sarcinile Oficiului pentru IA cu scopul de a sprijini dezvoltarea, la nivelul Uniunii, a cunoștințelor de specialitate și a capabilităților Uniunii și de a consolida funcționarea pieței unice digitale. În plus, ar trebui să fie instituit un Consiliu IA compus din reprezentanți ai statelor membre, un grup științific care să integreze comunitatea științifică și un forum consultativ pentru a furniza contribuții ale părților interesate pentru punerea în aplicare a prezentului regulament, la nivelul Uniunii și la nivel național. Dezvoltarea cunoștințelor de specialitate și a capabilităților Uniunii ar trebui să includă și valorificarea resurselor și cunoștințelor de specialitate existente, în special prin sinergii cu structurile create în contextul aplicării la nivelul Uniunii a altor acte legislative și al sinergiilor cu inițiativele conexe de la nivelul Uniunii, cum ar fi Întreprinderea comună EuroHPC și unitățile de testare și experimentare în domeniul IA din cadrul programului „Europa digitală”.
(149)
С цел подпомагане на безпрепятственото, ефективно и хармонизирано прилагане на настоящия регламент следва да бъде създаден Съвет по ИИ. Той следва да отразява различните интереси в рамките на екосистемата на ИИ и да се състои от представители на държавите членки. Съветът по ИИ следва да отговаря за изпълнението на редица консултативни задачи, включително да приема становища, препоръки, съвети или да допринася за приемането на насоки по въпроси, свързани с изпълнението на настоящия регламент, включително по въпроси на прилагането, техническите спецификации или съществуващите стандарти във връзка с изискванията, установени в настоящия регламент, и да консултира Комисията и държавите членки и техните национални компетентни органи по конкретни въпроси, свързани с ИИ. За да се осигури известна гъвкавост за държавите членки при определянето на техните представители в Съвета по ИИ, представители могат да бъдат всички лица, принадлежащи към публични субекти, които следва да разполагат със съответните компетентност и правомощия да улесняват координацията на национално равнище и да допринасят за изпълнението на задачите на Съвета по ИИ. Съветът по ИИ следва да създаде две постоянни подгрупи, които да осигуряват платформа за сътрудничество и обмен между органите за надзор на пазара и нотифициращите органи по въпроси, свързани съответно с надзора на пазара и нотифицираните органи. Постоянната подгрупа за надзор на пазара следва да действа като група за административно сътрудничество (ADCO група) за настоящия регламент по смисъла на член 30 от Регламент (ЕС) 2019/1020. В съответствие с член 33 от същия регламент Комисията следва да подпомага дейностите на постоянната подгрупа за надзор на пазара чрез извършване на оценки или проучвания на пазара, по-специално с цел да се установят аспекти на настоящия регламент, изискващи специфична и спешна координация между органите за надзор на пазара. Съветът по ИИ може да създаде други постоянни или временни подгрупи, когато това е целесъобразно за разглеждането на конкретни въпроси. Съветът по ИИ следва също така да си сътрудничи, когато е целесъобразно, със съответните органи, експертни групи и мрежи на Съюза, извършващи дейност в контекста на съответното право на Съюза, включително по-специално извършващите дейност съгласно правото на Съюза в областта на данните и цифровите продукти и услуги.
(149)
Pentru a facilita o punere în aplicare armonioasă, efectivă și armonizată a prezentului regulament, ar trebui să fie instituit un Consiliu IA. Consiliul IA ar trebui să reflecte diferitele interese ale ecosistemului de IA și să fie alcătuit din reprezentanți ai statelor membre. Consiliul IA ar trebui să fie responsabil pentru o serie de sarcini consultative, inclusiv emiterea de avize, recomandări, consiliere sau furnizarea unor contribuții sub formă de orientări cu privire la aspecte legate de punerea în aplicare a prezentului regulament, inclusiv cu privire la aspecte de aplicare a legii, la specificații tehnice sau la standarde existente în ceea ce privește cerințele stabilite în prezentul regulament, precum și furnizarea de consiliere Comisiei și statelor lor membre și autorităților naționale competente ale acestora cu privire la chestiuni specifice legate de IA. Pentru a oferi o anumită flexibilitate statelor membre în ceea ce privește desemnarea reprezentanților lor în cadrul Consiliului IA, astfel de reprezentanți pot fi persoane care aparțin unor entități publice care ar trebui să aibă competențele și prerogativele relevante pentru a facilita coordonarea la nivel național și pentru a contribui la îndeplinirea sarcinilor Consiliului IA. Consiliul IA ar trebui să instituie două subgrupuri permanente pentru a oferi o platformă de cooperare și de schimb între autoritățile de supraveghere a pieței și autoritățile de notificare cu privire la aspecte legate de supravegherea pieței și, respectiv, de organismele notificate. Subgrupul permanent pentru supravegherea pieței ar trebui să acționeze în calitate de grup de cooperare administrativă (ADCO) pentru prezentul regulament în sensul articolului 30 din Regulamentul (UE) 2019/1020. În conformitate cu articolul 33 din regulamentul respectiv, Comisia ar trebui să sprijine activitățile subgrupului permanent pentru supravegherea pieței prin efectuarea de evaluări sau studii de piață, în special în vederea identificării aspectelor prezentului regulament care necesită o coordonare specifică și urgentă între autoritățile de supraveghere a pieței. Consiliul IA poate înființa alte subgrupuri permanente sau temporare, după caz, în scopul examinării unor chestiuni specifice. Consiliul IA ar trebui, de asemenea, să coopereze, după caz, cu organismele, grupurile de experți și rețelele relevante ale Uniunii care își desfășoară activitatea în contextul reglementărilor relevante ale dreptului Uniunii, inclusiv, în special, cu cele care își desfășoară activitatea în temeiul reglementărilor relevante ale dreptului Uniunii privind datele, produsele și serviciile digitale.
(150)
За да се гарантира участието на заинтересованите страни в изпълнението и прилагането на настоящия регламент, следва да се създаде консултативен форум, който да консултира и да предоставя технически експертни становища на Съвета по ИИ и на Комисията. За да се гарантира разнообразно и балансирано представителство на заинтересованите страни, свързани с търговски и нетърговски интереси и, в рамките на категорията на търговските интереси, на МСП и други предприятия, консултативният форум следва да включва, наред с другото, стопанския сектор, новосъздадените предприятия, МСП, академичните среди, гражданското общество, включително социалните партньори, както и Агенцията за основните права, ENISA, Европейския комитет по стандартизация (CEN), Европейския комитет за стандартизация в електротехниката (CENELEC) и Европейския институт за стандарти в далекосъобщенията (ETSI).
(150)
Pentru a asigura implicarea părților interesate în punerea în aplicare și aplicarea prezentului regulament, ar trebui să fie instituit un forum consultativ care să furnizeze Consiliului IA și Comisiei consiliere și cunoștințe de specialitate tehnice. Pentru a asigura o reprezentare a părților interesate variată și echilibrată între interesele comerciale și cele necomerciale și, în cadrul categoriei intereselor comerciale, în ceea ce privește IMM-urile și alte întreprinderi, forumul consultativ ar trebui să cuprindă, printre altele, industria, întreprinderile nou-înființate, IMM-urile, mediul academic, societatea civilă, inclusiv partenerii sociali, precum și Agenția pentru Drepturi Fundamentale, ENISA, Comitetul European de Standardizare (CEN), Comitetul European de Standardizare în Electrotehnică (CENELEC) și Institutul European de Standardizare în Telecomunicații (ETSI).
(151)
За да се подпомогне изпълнението и прилагането на настоящия регламент, и по-специално дейностите по мониторинг на Службата по ИИ по отношение на моделите на ИИ с общо предназначение, следва да се създаде експертна група, съставена от независими експерти. Независимите експерти, които влизат в състава на експертната група, следва да бъдат подбрани въз основа на актуални научни или технически експертни познания в областта на ИИ, да изпълняват задачите си безпристрастно и обективно и да гарантират поверителността на информацията и данните, получени при изпълнението на задачите и дейностите си. За да се даде възможност за укрепване на националния капацитет, необходим за ефективното прилагане на настоящия регламент, държавите членки следва да могат да искат съдействие от експертите, влизащи в състава на експертната група, във връзка с дейностите си по прилагане на регламента.
(151)
Pentru a sprijini punerea în aplicare și respectarea prezentului regulament, în special activitățile de monitorizare ale Oficiului pentru IA în ceea ce privește modelele de IA de uz general, ar trebui să fie instituit un grup științific de experți independenți. Experții independenți din alcătuirea grupului științific ar trebui să fie selectați pe baza cunoștințelor de specialitate științifice sau tehnice actualizate în domeniul IA și ar trebui să își îndeplinească sarcinile cu imparțialitate și obiectivitate și să asigure confidențialitatea informațiilor și a datelor obținute în îndeplinirea sarcinilor și activităților lor. Pentru a permite consolidarea capacităților naționale necesare pentru aplicarea efectivă a prezentului regulament, statele membre ar trebui să poată solicita sprijin echipei de experți care formează grupul științific pentru activitățile lor de aplicare a legii.
(152)
С цел да се допринесе за адекватното правоприлагане по отношение на системите с ИИ и да се укрепи капацитетът на държавите членки, следва да се създадат структури на Съюза за подкрепа на изпитванията в областта на ИИ, които да бъдат на разположение на държавите членки.
(152)
Pentru a sprijini o aplicare adecvată a normelor în ceea ce privește sistemele de IA și pentru a consolida capacitățile statelor membre, ar trebui să fie instituite și puse la dispoziția statelor membre structuri ale Uniunii de sprijin pentru testarea IA.
(153)
Държавите членки заемат ключово място в прилагането и изпълнението на настоящия регламент. Във връзка с това всяка държава членка следва да определи най-малко един нотифициращ орган и най-малко един орган за надзор на пазара в качеството им на национални компетентни органи за целите на надзора върху прилагането и изпълнението на настоящия регламент. Държавите членки могат да решат да определят всякакъв вид публичен субект да изпълнява задачите на националните компетентни органи по смисъла на настоящия регламент, в съответствие със своите конкретни национални организационни характеристики и нужди. С цел да се повиши ефективността на организацията от страна на държавите членки и да се създаде единно звено за контакт с обществеността и други партньори на равнището на държавите членки и на Съюза, всяка държава членка следва да определи орган за надзор на пазара, който да изпълнява функциите на единно звено за контакт.
(153)
Statele membre joacă un rol esențial în aplicarea și respectarea prezentului regulament. În acest sens, fiecare stat membru ar trebui să desemneze cel puțin o autoritate de notificare și cel puțin o autoritate de supraveghere a pieței în calitatea de autorități naționale competente în scopul supravegherii aplicării și punerii în aplicare a prezentului regulament. Statele membre pot decide să numească orice tip de entitate publică pentru a îndeplini sarcinile autorităților naționale competente în sensul prezentului regulament, în conformitate cu caracteristicile și nevoile organizaționale naționale specifice ale acestora. Pentru a spori eficiența organizațională din partea statelor membre și pentru a stabili un punct unic de contact cu publicul și cu alți omologi la nivelul statelor membre și al Uniunii, fiecare stat membru ar trebui să desemneze o autoritate de supraveghere a pieței care să acționeze ca punct unic de contact.
(154)
Националните компетентни органи следва да упражняват правомощията си независимо, безпристрастно и непредубедено, за да бъдат спазени принципите за обективност в дейностите и задачите им и да се гарантира прилагането и изпълнението на настоящия регламент. Членовете на тези органи следва да се въздържат от всякакви действия, несъвместими с техните задължения, и да спазват правилата за поверителност съгласно настоящия регламент.
(154)
Autoritățile naționale competente ar trebui să își exercite competențele în mod independent, imparțial și fără prejudecăți, garantând principiile obiectivității activităților și sarcinilor lor și asigurând aplicarea și punerea în aplicare a prezentului regulament. Membrii acestor autorități ar trebui să se abțină de la orice act incompatibil cu natura funcțiilor lor și ar trebui să facă obiectul normelor de confidențialitate în temeiul prezentului regulament.
(155)
За да се гарантира, че доставчиците на високорискови системи с ИИ могат да вземат предвид опита от използването на високорискови системи с ИИ с цел да подобряват своите системи и процеса на проектиране и разработване, или че могат своевременно да предприемат евентуални коригиращи действия, всички доставчици следва да разполагат със система за мониторинг след пускането на пазара. Когато е целесъобразно, мониторингът след пускането на пазара следва да включва анализ на взаимодействието с други системи с ИИ, включително други устройства и софтуер. Мониторингът след пускането на пазара не следва да обхваща чувствителни оперативни данни на внедрители, които са правоохранителни органи. Тази система е от ключово значение и с оглед на това да се гарантира, че възможните рискове, произтичащи от системите с ИИ, които продължават да се обучават след пускането им на пазара или пускането им в действие, могат да бъдат преодолени по-ефикасно и своевременно. В този контекст от доставчиците следва също да се изисква да разполагат със система за докладване до съответните органи за всякакви сериозни инциденти, които произтичат от използването на техните системи с ИИ и представляват инцидент или неизправност, водещ(а) до смърт или сериозно увреждане на здравето, сериозно и необратимо нарушаване на управлението и експлоатацията на критична инфраструктура, нарушения на задължения съгласно правото на Съюза, имащо за цел да защитава основните права, или сериозно увреждане на имущество или на околната среда.
(155)
Pentru a se asigura că furnizorii de sisteme de IA cu grad ridicat de risc pot ține seama de experiența privind utilizarea sistemelor de IA cu grad ridicat de risc pentru îmbunătățirea sistemelor lor și a procesului de proiectare și dezvoltare sau că pot lua orice măsură corectivă posibilă în timp util, toți furnizorii ar trebui să dispună de un sistem de monitorizare ulterioară introducerii pe piață. După caz, monitorizarea ulterioară introducerii pe piață ar trebui să includă o analiză a interacțiunii cu alte sisteme de IA, inclusiv cu alte dispozitive și alt software. Monitorizarea ulterioară introducerii pe piață nu ar trebui să vizeze datele operaționale sensibile ale implementatorilor care sunt autorități de aplicare a legii. Acest sistem este, de asemenea, esențial pentru a se asigura că posibilele riscuri care decurg din sistemele de IA care continuă să „învețe” după ce au fost introduse pe piață sau puse în funcțiune pot fi abordate într-un mod mai eficient și în timp util. În acest context, furnizorii ar trebui, de asemenea, să aibă obligația de a dispune de un sistem pentru a raporta autorităților relevante orice incident grav care decurge din utilizarea sistemelor lor de IA, și anume un incident sau o funcționare defectuoasă care duce la deces sau la daune grave pentru sănătate, la perturbări grave și ireversibile ale gestionării și funcționării infrastructurii critice, la încălcări ale obligațiilor în temeiul dreptului Uniunii menite să protejeze drepturile fundamentale sau la daune grave aduse bunurilor materiale sau mediului.
(156)
С оглед да се гарантира подходящо и ефективно прилагане на изискванията и задълженията, установени с настоящия регламент, който е част от законодателството на Съюза за хармонизация, системата за надзор на пазара и съответствие на продуктите, установена с Регламент (ЕС) 2019/1020, следва да се прилага в своята цялост. Органите за надзор на пазара, определени съгласно настоящия регламент, следва да разполагат с всички правомощия за осигуряване на спазването, установени съгласно настоящия регламент и Регламент (ЕС) 2019/1020, и следва да упражняват своите правомощия и да изпълняват своите задължения независимо, безпристрастно и непредубедено. Въпреки че за по-голямата част от системите с ИИ не се прилагат специални изисквания и задължения съгласно настоящия регламент, органите за надзор на пазара могат да предприемат мерки по отношение на всички системи с ИИ, когато те представляват риск в съответствие с настоящия регламент. Поради особеното естество на институциите, агенциите и органите на Съюза, попадащи в обхвата на настоящия регламент, е целесъобразно Европейският надзорен орган по защита на данните да бъде определен за компетентен орган за надзор на пазара по отношение на тях. Това не следва да засяга определянето на национални компетентни органи от държавите членки. Дейностите по надзор на пазара не следва да засягат способността на поднадзорните субекти да изпълняват задачите си по независим начин, когато тази независимост се изисква от правото на Съюза.
(156)
Pentru a se asigura respectarea adecvată și efectivă a cerințelor și a obligațiilor prevăzute în prezentul regulament, și anume în legislația de armonizare a Uniunii, ar trebui să se aplice sistemul de supraveghere a pieței și de conformitate a produselor în ansamblul său, astfel cum a fost instituit prin Regulamentul (UE) 2019/1020. Autoritățile de supraveghere a pieței desemnate în temeiul prezentului regulament ar trebui să dispună de toate competențele de aplicare a dispozițiilor stabilite în prezentul regulament și în Regulamentul (UE) 2019/1020 și ar trebui să își exercite competențele și să își îndeplinească atribuțiile în mod independent, imparțial și fără prejudecăți. Deși majoritatea sistemelor de IA nu fac obiectul unor cerințe și obligații specifice în temeiul prezentului regulament, autoritățile de supraveghere a pieței pot lua măsuri în legătură cu toate sistemele de IA atunci când acestea prezintă un risc în conformitate cu prezentul regulament. Având în vedere natura specifică a instituțiilor, agențiilor și organelor Uniunii care intră în domeniul de aplicare al prezentului regulament, este oportun ca Autoritatea Europeană pentru Protecția Datelor să fie desemnată drept autoritate competentă de supraveghere a pieței pentru acestea. Acest lucru nu ar trebui să aducă atingere desemnării autorităților naționale competente de către statele membre. Activitățile de supraveghere a pieței nu ar trebui să afecteze capacitatea entităților supravegheate de a-și îndeplini sarcinile în mod independent, atunci când independența lor este impusă de dreptul Uniunii.
(157)
Настоящият регламент не засяга компетентността, задачите, правомощията и независимостта на съответните национални публични органи или структури, които упражняват надзор върху прилагането на правото на Съюза за защита на основните права, включително органите по въпросите на равенството и органите за защита на данните. Когато това е необходимо за упражняването на техните правомощия, тези национални публични органи или структури следва също така да имат достъп до всяка документация, изготвена съгласно настоящия регламент. Следва да се установи специална предпазна процедура, за да се гарантира адекватното и навременно осигуряване на спазването по отношение на системите с ИИ, които представляват риск за здравето, безопасността и основните права. Процедурата за такива системи с ИИ, представляващи риск, следва да се прилага за високорисковите системи с ИИ, представляващи риск, забранените системи, които са били пуснати на пазара, пуснати в действие или използвани в нарушение на определените в настоящия регламент забранени практики, и системите с ИИ, които са били предоставени в нарушение на установените в настоящия регламент изисквания за прозрачност и представляващи риск.
(157)
Prezentul regulament nu aduce atingere competențelor, sarcinilor, prerogativelor și independenței autorităților sau organismelor publice naționale relevante care supraveghează aplicarea dreptului Uniunii care protejează drepturile fundamentale, inclusiv ale organismelor de promovare a egalității și ale autorităților de protecție a datelor. În cazul în care acest lucru este necesar pentru îndeplinirea mandatului lor, autoritățile sau organismele publice naționale respective ar trebui să aibă, de asemenea, acces la orice documentație creată în temeiul prezentului regulament. Ar trebui să fie stabilită o procedură de salvgardare specifică pentru a se asigura respectarea dispozițiilor în domeniul IA, în mod adecvat și în timp util, în privința sistemelor de IA care prezintă un risc pentru sănătate, siguranță și drepturile fundamentale. Procedura pentru astfel de sisteme de IA care prezintă un risc ar trebui să se aplice sistemelor de IA cu grad ridicat de risc care prezintă un risc, sistemelor interzise care au fost introduse pe piață, puse în funcțiune sau utilizate cu încălcarea interdicției anumitor practici prevăzută în prezentul regulament, precum și sistemelor de IA care au fost puse la dispoziție cu încălcarea cerințelor de transparență prevăzute în prezentul regulament și care prezintă un risc.
(158)
Правото на Съюза в областта на финансовите услуги включва правила и изисквания за вътрешно управление и управление на риска, които са приложими за регулираните финансови институции в процеса на предоставяне на тези услуги, включително когато те използват системи с ИИ. За да се гарантира съгласувано изпълнение и прилагане на задълженията по настоящия регламент и на съответните правила и изисквания съгласно правните актове на Съюза в областта на финансовите услуги, органите, компетентни за надзора и прилагането съгласно тези правни актове, и по-специално компетентните органи по смисъла на Регламент (ЕС) 575/2013 на Европейския парламент и на Съвета (46) и директиви 2008/48/ЕО (47), 2009/138/ЕО (48), 2013/36/ЕС (49), 2014/17/ЕС (50) и (ЕС) 2016/97 (51) на Европейския парламент и на Съвета, следва да бъдат определени, в рамките на съответната им компетентност, за компетентни органи за целите на надзора на прилагането на настоящия регламент, включително за дейностите по надзор на пазара по отношение на системите с ИИ, предоставяни или използвани от регулирани и поднадзорни финансови институции, освен ако държавите членки не решат да определят друг орган, който да изпълнява тези задачи по надзор на пазара. Тези компетентни органи следва да разполагат с всички правомощия съгласно настоящия регламент и Регламент (ЕС) 2019/1020 за налагане на изпълнението на изискванията и задълженията по настоящия регламент, включително правомощия за извършване на дейности по надзор след пускане на пазара, които могат да бъдат включени, когато е целесъобразно, в техните налични надзорни механизми и процедури съгласно съответното право на Съюза в областта на финансовите услуги. Целесъобразно е да се предвиди, че когато действат като органи за надзор на пазара съгласно настоящия регламент, националните органи, отговорни за надзора над кредитните институции, регулирани съгласно Директива 2013/36/ЕС, които участват в единния надзорен механизъм, създаден с Регламент (ЕС) № 1024/2013 на Съвета (52), следва незабавно да докладват на Европейската централна банка всяка информация, установена в хода на дейностите им по надзор на пазара, която може да представлява потенциален интерес във връзка със задачите на Европейската централна банка по упражняване на пруденциален надзор, определени в посочения регламент. За да се подобри още повече съгласуваността между настоящия регламент и правилата, приложими за кредитните институции, регулирани съгласно Директива 2013/36/ЕС, е целесъобразно също така някои от процедурните задължения на доставчиците във връзка с управлението на риска, мониторинга след пускането на пазара и документирането да бъдат включени в съществуващите задължения и процедури съгласно Директива 2013/36/ЕС. За да се избегне припокриване, следва да се предвидят и ограничени дерогации във връзка със системата за управление на качеството на доставчиците и задължението за мониторинг, наложено на внедрителите на високорискови системи с ИИ, доколкото те се прилагат за кредитни институции, регулирани с Директива 2013/36/ЕС. Същият режим следва да се прилага за застрахователните и презастрахователните предприятия и застрахователните холдинги съгласно Директива 2009/138/ЕО и за застрахователните посредници съгласно Директива (ЕС) 2016/97, както и за други видове финансови институции, за които се прилагат изискванията по отношение на вътрешното управление, механизмите или процесите, установени съгласно съответното право на Съюза в областта на финансовите услуги, с цел да се гарантира последователност и равно третиране във финансовия сектор.
(158)
Dreptul Uniunii privind serviciile financiare include norme și cerințe privind guvernanța internă și gestionarea riscurilor care sunt aplicabile instituțiilor financiare reglementate în cursul furnizării acestor servicii, inclusiv atunci când acestea utilizează sisteme de IA. Pentru a asigura, în mod coerent, aplicarea și respectarea obligațiilor prevăzute în prezentul regulament și a normelor și cerințelor relevante ale actelor juridice ale Uniunii în domeniul serviciilor financiare, autoritățile competente responsabile cu supravegherea și aplicarea actelor juridice respective, în special autoritățile competente, astfel cum sunt definite în Regulamentul (UE) nr. 575/2013 al Parlamentului European și al Consiliului (46) și în Directivele 2008/48/CE (47), 2009/138/CE (48), 2013/36/UE (49), 2014/17/UE (50) și (UE) 2016/97 (51) ale Parlamentului European și ale Consiliului, ar trebui să fie desemnate, în limitele competențelor lor respective, drept autorități competente în scopul supravegherii punerii în aplicare a prezentului regulament, inclusiv pentru activitățile de supraveghere a pieței, în ceea ce privește sistemele de IA furnizate sau utilizate de instituțiile financiare reglementate și supravegheate, cu excepția cazului în care statele membre decid să desemneze o altă autoritate pentru a îndeplini aceste sarcini de supraveghere a pieței. Autoritățile competente respective ar trebui să dețină toate competențele în temeiul prezentului regulament și al Regulamentului (UE) 2019/1020 pentru a asigura respectarea cerințelor și a obligațiilor prevăzute în prezentul regulament, inclusiv competențele de a desfășura activități ex post de supraveghere a pieței care pot fi integrate, după caz, în mecanismele și procedurile lor de supraveghere existente în temeiul dispozițiilor relevante ale dreptului Uniunii din domeniul serviciilor financiare. Este oportun să se considere că, atunci când acționează în calitate de autorități de supraveghere a pieței în temeiul prezentului regulament, autoritățile naționale responsabile de supravegherea instituțiilor de credit reglementate în temeiul Directivei 2013/36/UE, care participă la mecanismul unic de supraveghere instituit prin Regulamentul (UE) nr. 1024/2013 al Consiliului (52), ar trebui să raporteze fără întârziere Băncii Centrale Europene orice informații identificate în cursul activităților lor de supraveghere a pieței care ar putea prezenta un interes pentru sarcinile de supraveghere prudențială ale Băncii Centrale Europene, astfel cum se specifică în regulamentul respectiv. Pentru a spori și mai mult coerența dintre prezentul regulament și normele aplicabile instituțiilor de credit reglementate în temeiul Directivei 2013/36/UE, este, de asemenea, oportun să se integreze unele dintre obligațiile procedurale ale furnizorilor în ceea ce privește gestionarea riscurilor, monitorizarea ulterioară introducerii pe piață și documentația în obligațiile și procedurile existente în temeiul Directivei 2013/36/UE. Pentru a evita suprapunerile, ar trebui să fie avute în vedere derogări limitate și în ceea ce privește sistemul de management al calității al furnizorilor și obligația de monitorizare impusă implementatorilor de sisteme de IA cu grad ridicat de risc, în măsura în care acestea se aplică instituțiilor de credit reglementate de Directiva 2013/36/UE. Același regim ar trebui să se aplice întreprinderilor de asigurare și reasigurare și holdingurilor de asigurare în temeiul Directivei 2009/138/CE, intermediarilor de asigurări în temeiul Directivei (UE) 2016/97, precum și altor tipuri de instituții financiare care fac obiectul cerințelor privind guvernanța internă, măsurile sau procesele interne instituite în temeiul dispozițiilor relevante ale dreptului Uniunii din domeniul serviciilor financiare pentru a asigura coerența și egalitatea de tratament în sectorul financiar.
(159)
Всеки орган за надзор на пазара на високорисковите системи с ИИ в областта на биометричните данни, чийто списък се съдържа в приложение към настоящия регламент — доколкото системите се използват за правоохранителни цели или за целите на миграцията, убежището, управлението на граничния контрол или правораздаването и демократичните процеси — следва да разполага с ефективни правомощия за разследване и с коригиращи правомощия, включително най-малко правомощието да получава достъп до всички лични данни, които се обработват, и до цялата информация, необходима за изпълнението на неговите задачи. Органите за надзор на пазара следва да могат да упражняват правомощията си, като действат напълно независимо. Ограниченията на достъпа им до чувствителни оперативни данни съгласно настоящия регламент не следва да засягат правомощията, предоставени им с Директива (ЕС) 2016/680. Случаите, в които се изключва разкриването на данни пред националните органи за защита на данните съгласно настоящия регламент, не следва да засягат настоящите или бъдещите правомощия на тези органи извън обхвата на настоящия регламент.
(159)
Fiecare autoritate de supraveghere a pieței pentru sistemele de IA cu grad ridicat de risc din domeniul biometriei, astfel cum sunt enumerate într-o anexă la prezentul regulament, în măsura în care sistemele respective sunt utilizate în scopul aplicării legii, al migrației, al azilului și al gestionării controlului la frontiere sau al administrării justiției și al proceselor democratice, ar trebui să aibă competențe de investigare și corective efective, inclusiv cel puțin competența de a obține acces la toate datele cu caracter personal care sunt prelucrate și la toate informațiile necesare pentru îndeplinirea sarcinilor sale. Autoritățile de supraveghere a pieței ar trebui să își poată exercita competențele acționând cu deplină independență. Nicio limitare a accesului acestora la date operaționale sensibile în temeiul prezentului regulament nu ar trebui să aducă atingere competențelor care le sunt conferite prin Directiva (UE) 2016/680. Nicio excludere în ceea ce privește divulgarea de date către autoritățile naționale de protecție a datelor în temeiul prezentului regulament nu ar trebui să afecteze competențele actuale sau viitoare ale autorităților respective în afara domeniului de aplicare al prezentului regulament.
(160)
Органите за надзор на пазара и Комисията следва да могат да предлагат съвместни дейности, включително съвместни разследвания, които да се провеждат от органите за надзор на пазара или от органите за надзор на пазара съвместно с Комисията, и да имат за цел насърчаване на постигането на съответствие, установяване на несъответствие, повишаване на осведомеността и осигуряване на насоки във връзка с настоящия регламент по отношение на конкретни категории високорискови системи с ИИ, за които е установено, че представляват сериозен риск в две или повече държави членки. Съвместни дейности за насърчаване на постигането на съответствие следва да се извършват съгласно член 9 от Регламент (ЕС) 2019/1020. Службата по ИИ следва да предоставя координационна подкрепа за съвместни разследвания.
(160)
Autoritățile de supraveghere a pieței și Comisia ar trebui să poată propune activități comune, inclusiv investigații comune, care să fie efectuate de autoritățile de supraveghere a pieței sau de autoritățile de supraveghere a pieței în colaborare cu Comisia și care au scopul de a promova conformitatea, de a identifica cazurile de neconformitate, de a sensibiliza și de a oferi orientări în legătură cu prezentul regulament în ceea ce privește anumite categorii de sisteme de IA cu grad ridicat de risc despre care se constată că prezintă un risc grav în două sau mai multe state membre. Activitățile comune de promovare a conformității ar trebui desfășurate în conformitate cu articolul 9 din Regulamentul (UE) 2019/1020. Oficiul pentru IA ar trebui să ofere sprijin sub formă de coordonare pentru investigațiile comune.
(161)
Необходимо е да се изяснят отговорностите и компетентността на равнището на Съюза и на национално равнище по отношение на системите с ИИ, изградени въз основа на модели на ИИ с общо предназначение. За да се избегне припокриването на компетентност, когато дадена система с ИИ се основава на модел на ИИ с общо предназначение и моделът и системата се предоставят от един и същи доставчик, надзорът следва да се извършва на равнището на Съюза чрез Службата по ИИ, която следва да разполага с правомощията на орган за надзор на пазара по смисъла на Регламент (ЕС) 2019/1020 за тази цел. Във всички останали случаи националните органи за надзор на пазара продължават да носят отговорност за надзора на системите с ИИ. За системите с ИИ с общо предназначение обаче, които могат да се използват пряко от внедрителите с най-малко едно предназначение, класифицирано като високорисково, органите за надзор на пазара следва да си сътрудничат със Службата по ИИ, за да извършат оценки на съответствието, и да информират съответно Съвета по ИИ и другите органи за надзор на пазара. Освен това органите за надзор на пазара следва да могат да искат съдействие от Службата по ИИ, когато органът за надзор на пазара не е в състояние да приключи дадено разследване на високорискова система с ИИ поради невъзможност да получи достъп до определена информация, свързана с модела на ИИ с общо предназначение, въз основа на който е изградена високорисковата система с ИИ. В такива случаи следва да се прилага mutatis mutandis процедурата за трансгранична взаимопомощ, предвидена в глава VI от Регламент (ЕС) 2019/1020.
(161)
Este necesar să se clarifice responsabilitățile și competențele la nivelul Uniunii și la nivel național în ceea ce privește sistemele de IA care au la bază modele de IA de uz general. Pentru a evita suprapunerea competențelor, în cazul în care un sistem de IA se bazează pe un model de IA de uz general, iar modelul și sistemul sunt furnizate de același furnizor, supravegherea ar trebui să aibă loc la nivelul Uniunii prin intermediul Oficiului pentru IA, care, în acest scop, ar trebui să dețină competențele unei autorități de supraveghere a pieței în sensul Regulamentului (UE) 2019/1020. În toate celelalte cazuri, responsabilitatea privind supravegherea sistemelor de IA rămâne în sarcina autorităților naționale de supraveghere a pieței. Cu toate acestea, pentru sistemele de IA de uz general care pot fi utilizate direct de către implementatori pentru cel puțin un scop clasificat ca prezentând un grad ridicat de risc, autoritățile de supraveghere a pieței ar trebui să coopereze cu Oficiul pentru IA pentru a efectua evaluări ale conformității și să informeze în consecință Consiliul IA și alte autorități de supraveghere a pieței. În plus, autoritățile de supraveghere a pieței ar trebui să poată solicita asistență din partea Oficiului pentru IA în cazul în care autoritatea de supraveghere a pieței nu este în măsură să finalizeze o investigație cu privire la un sistem de IA cu grad ridicat de risc din cauza incapacității sale de a accesa anumite informații legate de modelul de IA de uz general care stă la baza sistemului de IA cu grad ridicat de risc. În astfel de cazuri, ar trebui să se aplice mutatis mutandis procedura privind asistența reciprocă transfrontalieră din capitolul VI din Regulamentul (UE) 2019/1020.
(162)
За да се използват по най-добрия начин централизираният експертен опит на Съюза и полезните взаимодействия на равнището на Съюза, правомощията за надзор и осигуряване на спазване по отношение на задълженията на доставчиците на модели на ИИ с общо предназначение следва да бъдат от компетентността на Комисията. Службата по ИИ следва да може да извършва всички необходими действия за мониторинг на ефективното прилагане на настоящия регламент по отношение на моделите на ИИ с общо предназначение. Тя следва да може да разследва евентуални нарушения на правилата относно доставчиците на модели на ИИ с общо предназначение както по собствена инициатива, на основание на резултатите от своите дейности по мониторинг, така и по искане на органите за надзор на пазара, в съответствие с условията, установени в настоящия регламент. За да се допринесе за извършването на ефективен мониторинг от страна на Службата по ИИ, следва да се предвиди възможността доставчиците надолу по веригата да подават жалби във връзка с евентуални нарушения на правилата относно доставчиците на модели на ИИ с общо предназначение и системи с ИИ с общо предназначение.
(162)
Pentru a utiliza în mod optim cunoștințele de specialitate centralizate ale Uniunii și sinergiile de la nivelul Uniunii, competențele de supraveghere și de executare a obligațiilor care le revin furnizorilor de modele de IA de uz general ar trebui să fie deținute de Comisie. Oficiul pentru IA ar trebui să fie în măsură să întreprindă toate acțiunile necesare pentru a monitoriza punerea în aplicare efectivă a prezentului regulament în ceea ce privește modelele de IA de uz general. Acesta ar trebui să fie în măsură să investigheze posibilele încălcări ale normelor privind furnizorii de modele de IA de uz general, atât din proprie inițiativă, dând curs rezultatelor activităților sale de monitorizare, cât și la cererea autorităților de supraveghere a pieței, în conformitate cu condițiile stabilite în prezentul regulament. Pentru a sprijini desfășurarea în mod eficace de către Oficiul pentru IA a monitorizării, acesta ar trebui să prevadă posibilitatea ca furnizorii din aval să depună plângeri cu privire la posibile încălcări ale normelor privind furnizorii de sisteme și modele de IA de uz general.
(163)
С цел допълване на системите за управление на моделите на ИИ с общо предназначение, експертната група следва да подпомага дейностите по мониторинг на Службата по ИИ и да може в определени случаи да отправя приоритетни сигнали до Службата по ИИ, които да водят до последващи действия, например разследвания. Такъв следва да бъде случаят, когато експертната група има основания да предполага, че даден модел на ИИ с общо предназначение представлява конкретен и установим риск на равнището на Съюза. Освен това такъв следва да бъде случаят, когато експертната група има основания да предполага, че даден модел на ИИ с общо предназначение отговаря на критериите, които биха довели до класифицирането му като модел на ИИ с общо предназначение, пораждащ системен риск. За да може експертната група да разполага с информацията, необходима за изпълнението на тези задачи, следва да има механизъм, чрез който експертната група да може да отправи искане към Комисията с цел да бъде изискана документация или информация от даден доставчик.
(163)
În vederea completării sistemelor de guvernanță pentru modelele de IA de uz general, grupul științific ar trebui să sprijine activitățile de monitorizare ale Oficiului pentru IA și poate, în anumite cazuri, să furnizeze Oficiului pentru IA alerte calificate care declanșează acțiuni subsecvente, de exemplu investigații. Acest lucru ar trebui să fie valabil atunci când grupul științific are motive să suspecteze că un model de IA de uz general prezintă un risc concret și identificabil la nivelul Uniunii. În plus, acest lucru ar trebui să fie valabil atunci când grupul științific are motive să suspecteze că un model de IA de uz general îndeplinește criteriile care ar conduce la o clasificare ca model de IA de uz general cu risc sistemic. Pentru ca grupul științific să dispună de informațiile necesare în îndeplinirea sarcinilor respective, ar trebui să existe un mecanism prin care acesta să poată solicita Comisiei să impună furnizorilor să ofere documente sau informații.
(164)
Службата по ИИ следва да може да предприема необходимите действия за мониторинг на ефективното изпълнение и спазване на установените в настоящия регламент задължения на доставчиците на модели на ИИ с общо предназначение. Службата за ИИ следва да може да разследва евентуални нарушения в съответствие с правомощията, предвидени в настоящия регламент, включително като изисква документация и информация, като извършва оценки, както и като изисква предприемането на мерки от доставчиците на модели на ИИ с общо предназначение. При извършването на оценките, с цел да използва независим експертен опит, Службата по ИИ следва да може да привлича независими експерти, които да извършват оценките от нейно име. Спазването на задълженията следва да бъде осигурено, наред с другото, чрез искания за предприемане на подходящи мерки, включително мерки за ограничаване на риска в случай на установени системни рискове, както и чрез ограничаване на предоставянето на пазара на даден модел, неговото изтегляне или изземване. Като гаранция в случай на необходимост, освен процесуалните права, предвидени в настоящия регламент, доставчиците на модели на ИИ с общо предназначение следва да разполагат с процесуалните права съгласно член 18 от Регламент (ЕС) 2019/1020, които следва да се прилагат, mutatis mutandis, без да се засягат специалните процесуални права, предвидени в настоящия регламент.
(164)
Oficiul pentru IA ar trebui să poată lua măsurile necesare pentru a monitoriza punerea în aplicare efectivă și respectarea obligațiilor furnizorilor de modele de IA de uz general prevăzute în prezentul regulament. Oficiul pentru IA ar trebui să fie în măsură să investigheze posibilele încălcări în conformitate cu competențele prevăzute în prezentul regulament, inclusiv prin solicitarea unor documente și informații, prin desfășurarea de evaluări, precum și prin solicitarea luării de măsuri de către furnizorii de modele de IA de uz general. În desfășurarea evaluărilor, pentru a utiliza cunoștințe de specialitate cu caracter independent, Oficiul pentru IA ar trebui să poată implica experți independenți pentru a desfășura evaluările în numele său. Respectarea obligațiilor ar trebui să fie asigurată, printre altele, prin cereri de a lua măsuri adecvate, inclusiv măsuri de atenuare a riscurilor în cazul unor riscuri sistemice identificate, precum și prin restricționarea punerii la dispoziție pe piață, retragerea sau rechemarea modelului. Ca o garanție, în cazul în care aceasta este necesară dincolo de drepturile procedurale prevăzute în prezentul regulament, furnizorii de modele de IA de uz general ar trebui să beneficieze de drepturile procedurale prevăzute la articolul 18 din Regulamentul (UE) 2019/1020, care ar trebui să se aplice mutatis mutandis, fără a aduce atingere drepturilor procedurale mai specifice prevăzute în prezentul regulament.
(165)
Разработването на системи с ИИ, различни от високорискови системи с ИИ, в съответствие с изискванията на настоящия регламент може да доведе до по-широко внедряване на етичен и надежден ИИ в Съюза. Доставчиците на системи с ИИ, които не са високорискови, следва да бъдат насърчавани да изготвят кодекси за поведение, включително свързани с тях управленски механизми, предназначени да поощряват прилагането на доброволна основа на някои или на всички задължителни изисквания, приложими за високорисковите системи с ИИ и адаптирани с оглед на предназначението на системите и по-ниския риск, като вземат предвид наличните технически решения и най-добрите практики в сектора, например карти за модели и данни. Доставчиците и, когато е целесъобразно, внедрителите на всички системи с ИИ — високорискови или не, както и на всички модели с ИИ, следва също да бъдат насърчавани да прилагат на доброволна основа допълнителни изисквания, свързани например с елементи на Насоките на Съюза относно етичните аспекти за надежден ИИ, екологичната устойчивост, мерките относно грамотността в областта на ИИ, приобщаващия характер и многообразието при проектирането и разработването на системи с ИИ, включително повишеното внимание към уязвимите лица и достъпността за хора с увреждания, участието на заинтересованите страни чрез привличане, когато е целесъобразно, на заинтересовани страни като професионални организации и организации на гражданското общество, академични среди, научноизследователски организации, синдикати и организации за защита на потребителите, в проектирането и разработването на системи с ИИ, както и многообразието на екипите от разработчици, включително баланса между половете. За да се гарантира, че незадължителните кодекси за поведение са ефективни, те следва да се основават на ясни цели и ключови показатели за ефективност, за да може да бъде оценено постигането на тези цели. Те следва също така да бъдат разработени по приобщаващ начин, когато е целесъобразно - с участието на съответните заинтересовани страни, като професионални организации и организации на гражданското общество, академични среди, научноизследователски организации, синдикати и организации за защита на потребителите. Комисията може да разработва инициативи, включително от секторен характер, за да улесни преодоляването на техническите пречки пред трансграничния обмен на данни за разработването на ИИ, включително свързаните с инфраструктурата за достъп до данни и семантичната и техническата оперативна съвместимост на различните видове данни.
(165)
Dezvoltarea altor sisteme de IA decât cele cu grad ridicat de risc în conformitate cu cerințele prezentului regulament poate duce la o utilizare pe scară mai largă a IA conform unor principii etice și fiabile în Uniune. Furnizorii de sisteme de IA care nu prezintă un grad ridicat de risc ar trebui să fie încurajați să creeze coduri de conduită, inclusiv mecanisme de guvernanță conexe, menite să promoveze aplicarea parțială sau integrală, în mod voluntar, a cerințelor obligatorii aplicabile sistemelor de IA cu grad ridicat de risc, adaptate în funcție de scopul preconizat al sistemelor și de riscul mai scăzut implicat și ținând seama de soluțiile tehnice disponibile și de bunele practici din industrie, cum ar fi modelele și cardurile de date. Furnizorii și, după caz, implementatorii tuturor modelelor de IA și sistemelor de IA cu sau fără grad ridicat de risc ar trebui, de asemenea, să fie încurajați să aplice în mod voluntar cerințe suplimentare legate, de exemplu, de elementele Orientărilor Uniunii în materie de etică pentru o IA fiabilă, de durabilitatea mediului, de măsuri de alfabetizare în domeniul IA, de proiectarea și dezvoltarea sistemelor de IA ținând seama de incluziune și diversitate, inclusiv acordând atenție persoanelor vulnerabile și accesibilității pentru persoanele cu dizabilități, de participarea părților interesate în proiectarea și dezvoltarea sistemelor de IA, cu implicarea, după caz, a părților interesate relevante, cum ar fi întreprinderi și organizații ale societății civile, mediul academic, organizații de cercetare, sindicate și organizații de protecție a consumatorilor, precum și de diversitatea în cadrul echipelor de dezvoltare, inclusiv echilibrul de gen. Pentru a se asigura eficacitatea lor, codurile de conduită voluntare ar trebui să se bazeze pe obiective clare și pe indicatori-cheie de performanță pentru a măsura îndeplinirea obiectivelor respective. Acestea ar trebui, de asemenea, să fie dezvoltate într-un mod incluziv, după caz, cu implicarea părților interesate relevante, cum ar fi întreprinderi și organizații ale societății civile, mediul academic, organizații de cercetare, sindicate și organizații de protecție a consumatorilor. Comisia poate elabora inițiative, inclusiv de natură sectorială, pentru a facilita reducerea barierelor tehnice care împiedică schimbul transfrontalier de date pentru dezvoltarea IA, inclusiv în ceea ce privește infrastructura de acces la date și interoperabilitatea semantică și tehnică a diferitelor tipuri de date.
(166)
Важно е системите с ИИ, свързани с продукти, които не са високорискови в съответствие с настоящия регламент и поради това не е задължително да отговарят на изискванията, установени за високорисковите системи с ИИ, да бъдат въпреки това безопасни при пускането им на пазара или пускането им в действие. За да се допринесе за постигането на тази цел, допълнителна гаранция ще представлява възможността за прилагане на Регламент (ЕС) 2023/988 на Европейския парламент и на Съвета (53).
(166)
Este important ca sistemele de IA legate de produse care nu prezintă un risc ridicat în conformitate cu prezentul regulament și care, prin urmare, nu sunt obligate să respecte cerințele prevăzute pentru sistemele de IA cu grad ridicat de risc să fie totuși sigure atunci când sunt introduse pe piață sau puse în funcțiune. Pentru a contribui la acest obiectiv, Regulamentul (UE) 2023/988 al Parlamentului European și a Consiliului (53) ar fi aplicat ca o „plasă de siguranță”.
(167)
За да се гарантира надеждно и конструктивно сътрудничество между компетентните органи на равнището на Съюза и на национално равнище, всички страни, участващи в прилагането на настоящия регламент, следва да зачитат поверителността на информацията и данните, получавани при изпълнението на техните задачи, в съответствие с правото на Съюза и националното право. Те следва да изпълняват задачите и дейностите си по такъв начин, че да закрилят по-специално правата върху интелектуалната собственост, поверителната търговска информация и търговските тайни, ефективното прилагане на настоящия регламент, обществените интереси и националната сигурност, независимостта на наказателните или административните производства и неприкосновеността на класифицираната информация.
(167)
Pentru a asigura o cooperare de încredere și constructivă a autorităților competente la nivelul Uniunii și la nivel național, toate părțile implicate în aplicarea prezentului regulament ar trebui să respecte confidențialitatea informațiilor și a datelor obținute în cursul îndeplinirii sarcinilor lor, în conformitate cu dreptul Uniunii sau cu dreptul intern. Acestea ar trebui să își îndeplinească sarcinile și activitățile astfel încât să protejeze, în special, drepturile de proprietate intelectuală, informațiile comerciale confidențiale și secretele comerciale, punerea în aplicare efectivă a prezentului regulament, interesele de securitate publică și națională, integritatea procedurilor penale și administrative și integritatea informațiilor clasificate.
(168)
Спазването на настоящия регламент следва да може да се гарантира чрез налагането на санкции и други мерки за изпълнение. Държавите членки следва да предприемат всички необходими мерки, за да гарантират прилагането на разпоредбите на настоящия регламент, включително чрез установяването на ефективни, пропорционални и възпиращи санкции за тяхното нарушаване, за да осигурят зачитането на принципа non bis in idem. С цел подсилване и хармонизиране на административните санкции за нарушения на настоящия регламент, следва да се установят горните граници за определяне на административните глоби и имуществени санкции за някои конкретни нарушения. При определянето на размера на глобите и имуществените санкции държавите членки следва във всеки отделен случай да вземат предвид всички обстоятелства на конкретния случай, като надлежно отчитат по-специално естеството, тежестта и продължителността на нарушението и неговите последици, както и размера на доставчика, по-специално ако доставчикът е МСП, включително новосъздадено предприятие. Европейският надзорен орган по защита на данните следва да има правомощията да налага глоби на институциите, агенциите и органите на Съюза, попадащи в обхвата на настоящия регламент.
(168)
Respectarea prezentului regulament ar trebui să fie asigurată prin impunerea de sancțiuni și alte măsuri de executare. Statele membre ar trebui să ia toate măsurile necesare pentru a se asigura că sunt puse în aplicare dispozițiile prezentului regulament, inclusiv prin stabilirea unor sancțiuni efective, proporționale și cu efect de descurajare în cazul încălcării acestora, și pentru a respecta principiul ne bis in idem. În scopul de a consolida și armoniza sancțiunile administrative pentru încălcarea prezentului regulament, ar trebui să fie definite limitele superioare pentru stabilirea amenzilor administrative pentru anumite încălcări specifice. Atunci când evaluează cuantumul amenzilor, statele membre ar trebui, în fiecare caz în parte, să țină seama de toate circumstanțele relevante ale situației specifice, acordând atenția cuvenită, în special, naturii, gravității și duratei încălcării și consecințelor acesteia, precum și dimensiunii furnizorului, în special în cazul în care furnizorul este un IMM, inclusiv o întreprindere nou-înființată. Autoritatea Europeană pentru Protecția Datelor ar trebui să aibă competența de a impune amenzi instituțiilor, agențiilor și organelor Uniunii care intră în domeniul de aplicare al prezentului regulament.
(169)
Спазването на задълженията на доставчиците на модели на ИИ с общо предназначение, наложени с настоящия регламент, следва да може да се гарантира, наред с другото, чрез глоби. За тази цел следва да се определят и подходящи размери на глобите за нарушение на тези задължения, включително неизпълнението на мерките, изисквани от Комисията в съответствие с настоящия регламент, при прилагане на подходящи давностни срокове в съответствие с принципа на пропорционалност. Всички решения, приемани от Комисията съгласно настоящия регламент, подлежат на контрол от Съда на Европейския съюз в съответствие с ДФЕС, включително на пълната юрисдикция на Съда във връзка със санкциите съгласно член 261 ДФЕС.
(169)
Respectarea obligațiilor impuse furnizorilor de modele de IA de uz general în temeiul prezentului regulament ar trebui să fie asigurată, printre altele, prin amenzi. În acest scop, ar trebui să fie stabilite, de asemenea, niveluri adecvate ale amenzilor pentru încălcarea obligațiilor respective, inclusiv pentru nerespectarea măsurilor impuse de Comisie în conformitate cu prezentul regulament, sub rezerva unor termene de prescripție adecvate, în conformitate cu principiul proporționalității. Toate deciziile luate de Comisie în temeiul prezentului regulament fac obiectul controlului jurisdicțional al Curții de Justiție a Uniunii Europene în conformitate cu TFUE, incluzând competența nelimitată a Curții de Justiție cu privire la sancțiuni în temeiul articolului 261 din TFUE.
(170)
В правото на Съюза и националното право вече са предвидени ефективни правни средства за защита на физическите и юридическите лица, чиито права и свободи са неблагоприятно засегнати от използването на системи с ИИ. Без да се засягат тези правни средства за защита, всяко физическо или юридическо лице, което има основания да счита, че е налице нарушение на настоящия регламент, следва да има правото да подаде жалба до съответния орган за надзор на пазара.
(170)
Dreptul Uniunii și dreptul intern prevăd deja căi de atac efective pentru persoanele fizice și juridice ale căror drepturi și libertăți sunt afectate în mod negativ de utilizarea sistemelor de IA. Fără a aduce atingere căilor de atac respective, orice persoană fizică sau juridică care are motive să considere că a avut loc o încălcare a prezentului regulament ar trebui să aibă dreptul de a depune o plângere la autoritatea relevantă de supraveghere a pieței.
(171)
Засегнатите лица следва да имат правото да получат обяснение, в случай че дадено решение, взето от внедрител преди всичко въз основа на резултата от работата на определени високорискови системи с ИИ, попадащи в обхвата на настоящия регламент, поражда правни последици за тях или по сходен начин ги засяга в значителна степен по начин, който според тях оказва неблагоприятно въздействие върху тяхното здраве, безопасност или основни права. Това обяснение следва да бъде ясно и изчерпателно и да дава основание на засегнатите лица да упражнят правата си. Правото на получаване на обяснение не следва да се прилага относно използването на системи с ИИ, по отношение на които от правото на Съюза или от националното право произтичат изключения или ограничения, и следва да се прилага само доколкото това право все още не е предвидено в законодателството на Съюза.
(171)
Persoanele afectate ar trebui să aibă dreptul de a obține o explicație atunci când decizia implementatorului este bazată în principal pe rezultatele anumitor sisteme de IA cu grad ridicat de risc care intră în domeniul de aplicare al prezentului regulament și în cazul în care decizia respectivă produce efecte juridice sau afectează în mod similar în mod semnificativ persoanele respective într-o manieră pe care acestea o consideră ca având un impact negativ asupra sănătății, siguranței sau drepturilor fundamentale ale acestora. Explicația respectivă ar trebui să fie clară și semnificativă și să ofere un temei pentru exercitarea drepturilor de către persoanele afectate. Dreptul de a obține o explicație nu ar trebui să se aplice în cazul utilizării unor sisteme de IA care fac obiectul unor excepții sau restricții care decurg din dreptul Uniunii sau din dreptul intern și ar trebui să se aplice numai în măsura în care acest drept nu este deja prevăzut în dreptul Uniunii.
(172)
Лица, сигнализиращи за нередности във връзка с нарушения на настоящия регламент, следва да бъдат защитени в съответствие с правото на Съюза. Поради това по отношение на подаването на сигнали за нарушения на настоящия регламент и защитата на лицата, които подават сигнали за такива нарушения, следва да се прилага Директива (ЕС) 2019/1937 на Европейския парламент и на Съвета (54).
(172)
Persoanele care acționează în calitate de avertizori de integritate cu privire la încălcările prezentului regulament ar trebui să fie protejate în temeiul dreptului Uniunii. În ceea ce privește raportarea încălcărilor prezentului regulament și protecția persoanelor care raportează astfel de încălcări ar trebui, prin urmare, să se aplice Directiva (UE) 2019/1937 a Parlamentului European și a Consiliului (54).
(173)
С цел да се гарантира, че регулаторната рамка може да бъде адаптирана при необходимост, на Комисията следва да бъде делегирано правомощието да приема актове в съответствие с член 290 ДФЕС за изменение на условията, при които дадена система с ИИ не се смята за високорискова, списъка на високорисковите системи с ИИ, разпоредбите относно техническата документация, съдържанието на ЕС декларацията за съответствие, разпоредбите относно процедурите за оценяване на съответствието, разпоредбите за определяне на високорисковите системи с ИИ, за които се прилага процедурата за оценяване на съответствието въз основа на оценката на системата за управление на качеството и оценката на техническата документация, праговете, референтните стойности и показателите, включително чрез допълване на тези референтни стойности и показатели, в правилата за класифициране на моделите на ИИ с общо предназначение, пораждащи системен риск, критериите за определяне на моделите на ИИ с общо предназначение, пораждащи системен риск, техническата документация за доставчиците на модели на ИИ с общо предназначение и информацията с цел прозрачност за доставчиците на модели на ИИ с общо предназначение. От особена важност е по време на подготвителната си работа Комисията да проведе подходящи консултации, включително на експертно равнище, и тези консултации да бъдат проведени в съответствие с принципите, заложени в Междуинституционалното споразумение от 13 април 2016 г. за по-добро законотворчество (55). По-специално, с цел осигуряване на равно участие при подготовката на делегираните актове, Европейският парламент и Съветът получават всички документи едновременно с експертите от държавите членки, като техните експерти получават систематично достъп до заседанията на експертните групи на Комисията, занимаващи се с подготовката на делегираните актове.
(173)
Pentru a se asigura posibilitatea de adaptare a cadrului de reglementare atunci când este necesar, competența de a adopta acte în conformitate cu articolul 290 din TFUE ar trebui să fie delegată Comisiei pentru a modifica condițiile în care un sistem de IA nu este considerat ca având un grad ridicat de risc, lista sistemelor de IA cu grad ridicat de risc, dispozițiile privind documentația tehnică, conținutul declarației de conformitate UE, dispozițiile privind procedurile de evaluare a conformității, dispozițiile de stabilire a sistemelor de IA cu grad ridicat de risc cărora ar trebui să li se aplice procedura de evaluare a conformității bazată pe evaluarea sistemului de management al calității și pe evaluarea documentației tehnice, pragul, valorile de referință și indicatorii din cadrul normelor pentru clasificarea modelelor de IA de uz general cu risc sistemic, inclusiv prin completarea valorilor de referință și indicatorilor respectivi, criteriile pentru desemnarea modelelor de IA de uz general cu risc sistemic, documentația tehnică pentru furnizorii de modele de IA de uz general și informațiile privind transparența pentru furnizorii de modele de IA de uz general. Este deosebit de important ca, în cursul lucrărilor sale pregătitoare, Comisia să organizeze consultări adecvate, inclusiv la nivel de experți, și ca respectivele consultări să se desfășoare în conformitate cu principiile stabilite în Acordul interinstituțional din 13 aprilie 2016 privind o mai bună legiferare (55). În special, pentru a asigura participarea egală la pregătirea actelor delegate, Parlamentul European și Consiliul primesc toate documentele în același timp cu experții din statele membre, iar experții acestor instituții au acces sistematic la reuniunile grupurilor de experți ale Comisiei însărcinate cu pregătirea actelor delegate.
(174)
Предвид бързото технологично развитие и техническия експертен опит, необходим за ефективното прилагане на настоящия регламент, Комисията следва да направи оценка и преглед на настоящия регламент до 2 август 2029 г. и на всеки четири години след това, и да докладва на Европейския парламент и на Съвета. Освен това, с оглед на последиците за обхвата на настоящия регламент, Комисията следва веднъж годишно да прави оценка на необходимостта от изменение на списъка на високорисковите системи с ИИ и на списъка на забранените практики. Наред с това, до 2 август 2028 г. и на всеки четири години след това Комисията следва да оценява и да докладва на Европейския парламент и на Съвета за необходимостта от изменение на наименованията на високорисковите области в приложението към настоящия регламент, системите с ИИ, попадащи в обхвата на задълженията за прозрачност, ефективността на системата за надзор и управление и напредъка по разработването на стандартизационни документи за енергийно ефективно разработване на модели на ИИ с общо предназначение, включително за необходимостта от допълнителни мерки или действия. И на последно място, до 2 август 2028 г. и на всеки три години след това Комисията следва да оценява въздействието и ефективността на незадължителните кодекси за поведение с цел да се насърчи прилагането на изискванията, предвидени за високорисковите системи с ИИ, по отношение на системи, различни от високорискови системи с ИИ, и евентуално на други допълнителни изисквания за такива системи с ИИ.
(174)
Având în vedere evoluțiile tehnologice rapide și cunoștințele de specialitate tehnice necesare pentru aplicarea eficientă a prezentului regulament, Comisia ar trebui să evalueze și să revizuiască prezentul regulament până la 2 august 2029 și, ulterior, o dată la patru ani și să raporteze Parlamentului European și Consiliului în acest sens. În plus, ținând seama de implicațiile pentru domeniul de aplicare al prezentului regulament, Comisia ar trebui să efectueze o evaluare a necesității de a modifica, o dată pe an, lista sistemelor de IA cu grad ridicat de risc și lista practicilor interzise. În plus, până la 2 august 2028 și, ulterior, o dată la patru ani, Comisia ar trebui să evalueze necesitatea de a modifica lista rubricilor de domeniu cu grad ridicat de risc din anexa la prezentul regulament, sistemele de IA care intră în domeniul de aplicare al obligațiilor de transparență, eficacitatea sistemului de supraveghere și de guvernanță și progresele înregistrate în ceea ce privește elaborarea de documente de standardizare privind dezvoltarea eficientă din punct de vedere energetic a modelelor de IA de uz general, inclusiv necesitatea unor măsuri sau acțiuni suplimentare și să raporteze Parlamentului European și Consiliului în acest sens. În cele din urmă, până la 2 august 2028 și, ulterior, o dată la trei ani, Comisia ar trebui să evalueze impactul și eficacitatea codurilor de conduită voluntare în ceea ce privește încurajarea aplicării cerințelor prevăzute pentru sistemele de IA cu grad ridicat de risc în cazul altor sisteme de IA decât cele cu grad ridicat de risc și, eventual, a altor cerințe suplimentare pentru sistemele de IA respective.
(175)
За да се гарантират еднакви условия за изпълнение на настоящия регламент, на Комисията следва да бъдат предоставени изпълнителни правомощия. Тези правомощия следва да бъдат упражнявани в съответствие с Регламент (ЕС) № 182/2011 на Европейския парламент и на Съвета (56).
(175)
În vederea asigurării unor condiții uniforme pentru punerea în aplicare a prezentului regulament, ar trebui să fie conferite competențe de executare Comisiei. Respectivele competențe ar trebui să fie exercitate în conformitate cu Regulamentul (UE) nr. 182/2011 al Parlamentului European și al Consiliului (56).
(176)
Доколкото целта на настоящия регламент, а именно да се подобри функционирането на вътрешния пазар и да се насърчи навлизането на ориентиран към човека и надежден ИИ, като същевременно се гарантира високо равнище на защита на здравето, безопасността, основните права, залегнали в Хартата, включително демокрацията, принципите на правовата държава и опазването на околната среда, срещу вредното въздействие на системите с ИИ в Съюза и да се подкрепят иновациите, не може да бъде постигната в достатъчна степен от държавите членки, а поради мащаба или последиците на действието може да бъде по-добре постигната на равнището на Съюза, Съюзът може да приеме мерки в съответствие с принципа на субсидиарност, уреден в член 5 от Договора за Европейския съюз. В съответствие с принципа на пропорционалност, уреден в същия член, настоящият регламент не надхвърля необходимото за постигането на тази цел.
(176)
Întrucât obiectivul prezentului regulament, și anume de a îmbunătăți funcționarea pieței interne și de a promova adoptarea IA centrate pe factorul uman și fiabile, asigurând în același timp un nivel ridicat de protecție a sănătății, a siguranței și a drepturilor fundamentale consacrate în cartă, inclusiv a democrației, a statului de drept și a mediului împotriva efectelor dăunătoare ale sistemelor de IA din Uniune, și sprijinind inovarea, nu poate fi realizat în mod satisfăcător de către statele membre și, având în vedere amploarea sau efectele acțiunii sale, poate fi realizat mai bine la nivelul Uniunii, aceasta din urmă poate adopta măsuri, în conformitate cu principiul subsidiarității, astfel cum se prevede la articolul 5 din TUE. În conformitate cu principiul proporționalității, astfel cum este definit la articolul respectiv, prezentul regulament nu depășește ceea ce este necesar pentru realizarea obiectivului menționat.
(177)
С цел да се гарантира правна сигурност, да се осигури подходящ срок за адаптация за операторите и да се избегнат смущения на пазара, включително чрез осигуряване на непрекъснатост в използването на системите с ИИ, е целесъобразно настоящият регламент да се прилага за високорисковите системи с ИИ, които са били пуснати на пазара или пуснати в действие преди общата начална дата на прилагането му, само в случай че след тази дата бъдат извършени значителни промени в проекта или предназначението на тези системи. Следва да се поясни, че в този контекст понятието „значителна промяна“ следва да се разбира като равностойно по същество на понятието „съществено изменение“, което се използва само по отношение на високорисковите системи с ИИ съгласно определението в настоящия регламент. По изключение и с оглед на публичната отчетност операторите на системи с ИИ, които са компоненти на широкомащабните информационни системи, създадени с правните актове, чийто списък е приложен към настоящия регламент, и операторите на високорискови системи с ИИ, предназначени да бъдат използвани от публични органи, следва да предприемат мерките, необходими, за да се съобразят с изискванията на настоящия регламент, съответно до края на 2030 г. и в срок до 2 август 2030 г.
(177)
Pentru a asigura securitatea juridică, a asigura o perioadă de adaptare adecvată pentru operatori și a evita perturbarea pieței, inclusiv prin asigurarea continuității utilizării sistemelor de IA, este oportun ca prezentul regulament să se aplice sistemelor de IA cu grad ridicat de risc care au fost introduse pe piață sau puse în funcțiune înainte de data generală de aplicare a acestuia, numai dacă, de la data respectivă, sistemele respective fac obiectul unor modificări semnificative în ceea ce privește proiectarea sau scopul lor preconizat. Este oportun să se clarifice că, în acest sens, conceptul de modificare semnificativă ar trebui să fie înțeles ca fiind echivalent în esență cu noțiunea de modificare substanțială, care este utilizată numai în ceea ce privește sistemele de IA cu grad ridicat de risc, în temeiul prezentului regulament. În mod excepțional și având în vedere răspunderea publică, operatorii de sisteme de IA care fac parte din sistemele informatice la scară largă instituite prin actele juridice care sunt enumerate într-o anexă la prezentul regulament și operatorii de sisteme de IA cu grad ridicat de risc care sunt destinate a fi utilizate de autoritățile publice ar trebui să ia măsurile necesare pentru a se conforma cerințelor prezentului regulament până la sfârșitul anului 2030 și, respectiv, până la 2 august 2030.
(178)
Доставчиците на високорискови системи с ИИ се насърчават да започнат да спазват на доброволна основа съответните задължения, предвидени съгласно настоящия регламент, още по време на преходния период.
(178)
Furnizorii de sisteme de IA cu grad ridicat de risc sunt încurajați să înceapă să se conformeze, în mod voluntar, obligațiilor relevante aferente prezentului regulament încă din perioada de tranziție.
(179)
Настоящият регламент следва да се прилага от 2 август 2026 г. Същевременно, като се има предвид неприемливият риск, свързан с използването на ИИ по определени начини, забраните, както и общите разпоредби на настоящия регламент следва да се прилагат още от 2 февруари 2025 г. Въпреки че тези забрани ще влязат напълно в действие, след като бъде установено управлението и прилагането на настоящия регламент, предварителното им прилагане е важно с оглед да се вземе предвид неприемливият риск и да се въздейства върху други процедури, например в гражданското право. Наред с това, инфраструктурата, свързана с управлението и системата за оценяване на съответствието, следва да започне да функционира преди 2 август 2026 г., поради което разпоредбите относно нотифицираните органи и структурата на управление следва да се прилагат от 2 август 2025 г. Като се има предвид бързият темп на технологичния напредък и възприемането на модели на ИИ с общо предназначение, задълженията на доставчиците на модели на ИИ с общо предназначение следва да се прилагат от 2 август 2025 г. Кодексите за добри практики следва да бъдат готови в срок до 2 май 2025 г., за да се даде възможност на доставчиците своевременно да докажат спазването им. Службата по ИИ следва да гарантира, че правилата и процедурите за класифициране са актуални с оглед на технологичното развитие. Освен това държавите членки следва да установят и изпратят до Комисията правилата относно санкциите, включително административните глоби и имуществени санкции, и да гарантират, че те се прилагат правилно и ефективно към началната дата на прилагане на настоящия регламент. Поради това разпоредбите относно санкциите следва да се прилагат от 2 август 2025 г.
(179)
Prezentul regulament ar trebui să se aplice de la 2 august 2026. Cu toate acestea, ținând seama de riscul inacceptabil asociat utilizării IA în anumite moduri, interdicțiile și dispozițiile cu caracter general din prezentul regulament ar trebui să se aplice deja de la 2 februarie 2025. Deși efectul deplin al interdicțiilor respective este corelat cu instituirea guvernanței și cu aplicarea prezentului regulament, aplicarea anticipată a interdicțiilor este importantă pentru a se ține seama de riscurile inacceptabile și pentru a produce efecte asupra altor proceduri, cum ar fi în dreptul civil. În plus, infrastructura legată de guvernanță și de sistemul de evaluare a conformității ar trebui să fie operațională înainte de 2 august 2026; prin urmare, dispozițiile privind organismele notificate și structura de guvernanță ar trebui să se aplice de la 2 august 2025. Având în vedere ritmul rapid al progreselor tehnologice și al adoptării modelelor de IA de uz general, ar trebui ca obligațiile furnizorilor de modele de IA de uz general să se aplice de la 2 august 2025. Codurile de bune practici ar trebui să fie gata până la 2 mai 2025, pentru a permite furnizorilor să demonstreze conformitatea în timp util. Oficiul pentru IA ar trebui să se asigure că normele și procedurile de clasificare sunt actualizate în funcție de evoluțiile tehnologice. În plus, statele membre ar trebui să stabilească și să notifice Comisiei normele privind sancțiunile, inclusiv amenzile administrative, și să se asigure că acestea sunt puse în aplicare în mod corespunzător și efectiv până la data aplicării prezentului regulament. Prin urmare, dispozițiile privind sancțiunile ar trebui să se aplice de la 2 august 2025.
(180)
В съответствие с член 42, параграфи 1 и 2 от Регламент (ЕС) 2018/1725 беше проведена консултация с Европейския надзорен орган по защита на данните и Европейския комитет по защита на данните, които представиха съвместното си становище на 18 юни 2021 г.,
(180)
Autoritatea Europeană pentru Protecția Datelor și Comitetul european pentru protecția datelor au fost consultate în conformitate cu articolul 42 alineatele (1) și (2) din Regulamentul (UE) 2018/1725 și au emis avizul lor comun la 18 iunie 2021,
ПРИЕХА НАСТОЯЩИЯ РЕГЛАМЕНТ:
ADOPTĂ PREZENTUL REGULAMENT:
ГЛАВА I
CAPITOLUL I
ОБЩИ РАЗПОРЕДБИ
DISPOZIȚII GENERALE
Член 1
Articolul 1
Предмет
Obiectul
1. Целта на настоящия регламент е да се подобри функционирането на вътрешния пазар и да се насърчи навлизането на ориентиран към човека и надежден изкуствен интелект (ИИ), като същевременно се осигурява високо равнище на защита на здравето, безопасността, основните права, залегнали в Хартата, включително демокрацията, принципите на правовата държава и опазването на околната среда, от вредните въздействия на системите с ИИ в Съюза, както и да се подкрепят иновациите.
(1) Scopul prezentului regulament este de a îmbunătăți funcționarea pieței interne, de a promova adoptarea inteligenței artificiale (IA) centrate pe factorul uman și fiabile, asigurând în același timp un nivel ridicat de protecție a sănătății, a siguranței și a drepturilor fundamentale consacrate în cartă, inclusiv a democrației, a statului de drept și a mediului împotriva efectelor dăunătoare ale sistemelor de IA din Uniune, și sprijinind inovarea.
2. С настоящия регламент се установяват:
(2) Prezentul regulament stabilește:
a)
хармонизирани правила за пускането на пазара, пускането в действие и използването на системи с ИИ в Съюза;
(a)
norme armonizate pentru introducerea pe piață, punerea în funcțiune și utilizarea sistemelor de IA în Uniune;
б)
забрани на определени практики в областта на ИИ;
(b)
interdicții privind anumite practici în domeniul IA;
в)
особени изисквания за високорисковите системи с ИИ и задължения за операторите на такива системи;
(c)
cerințe specifice pentru sistemele de IA cu grad ridicat de risc și obligații pentru operatorii unor astfel de sisteme;
г)
хармонизирани правила за прозрачност за определени системи с ИИ;
(d)
norme armonizate de transparență pentru anumite sisteme de IA;
д)
хармонизирани правила за пускането на пазара на модели на ИИ с общо предназначение;
(e)
norme armonizate privind introducerea pe piață a modelelor de IA de uz general;
е)
правила за мониторинг на пазара, надзор на пазара, управление и осигуряване на спазването;
(f)
norme privind monitorizarea pieței, supravegherea pieței, guvernanța și aplicarea prezentului regulament;
ж)
мерки в подкрепа на иновациите с особено внимание към МСП, включително новосъздадените предприятия.
(g)
măsuri de susținere a inovării, cu un accent deosebit pe IMM-uri, inclusiv pe întreprinderile nou-înființate.
Член 2
Articolul 2
Обхват
Domeniul de aplicare
1. Настоящият регламент се прилага по отношение на:
(1) Prezentul regulament se aplică pentru:
a)
доставчици, които пускат на пазара или пускат в действие системи с ИИ или пускат на пазара модели на ИИ с общо предназначение в Съюза, независимо дали тези доставчици са установени или се намират на територията на Съюза или в трета държава;
(a)
furnizorii care introduc pe piață sau pun în funcțiune sisteme de IA sau introduc pe piață modele de IA de uz general în Uniune, indiferent dacă furnizorii respectivi sunt stabiliți sau se află în Uniune sau într-o țară terță;
б)
внедрители на системи с ИИ, чието място на установяване е на територията на Съюза или които се намират на територията на Съюза;
(b)
implementatorii de sisteme de IA care își au sediul sau se află pe teritoriul Uniunii;
в)
доставчици и внедрители на системи с ИИ, чието място на установяване е в трета държава или които се намират в трета държава, когато резултатът, получен от системата с ИИ, се използва в Съюза;
(c)
furnizorii și implementatorii de sisteme de IA care își au sediul sau se află într-o țară terță, în cazul în care rezultatele produse de sistemele de IA sunt utilizate în Uniune;
г)
вносители и дистрибутори на системи с ИИ;
(d)
importatorii și distribuitorii de sisteme de IA;
д)
производители на продукти, които пускат на пазара или пускат в действие система с ИИ заедно със своя продукт и със своето име или търговска марка;
(e)
fabricanții de produse care introduc pe piață sau pun în funcțiune un sistem de IA împreună cu produsul lor și sub numele sau marca lor comercială;
е)
упълномощени представители на доставчици, които не са установени в Съюза;
(f)
reprezentanții autorizați ai furnizorilor, care nu sunt stabiliți în Uniune;
ж)
засегнати лица, които се намират в Съюза.
(g)
persoanele afectate care se află în Uniune.
2. За системи с ИИ, които са класифицирани като високорискови системи с ИИ в съответствие с член 6, параграф 1, които са свързани с продукти, обхванати от законодателството на Съюза за хармонизация, посочено в раздел Б от приложение I, се прилагат само член 6, параграф 1 и членове 102 – 109 и 112. Член 57 се прилага само доколкото изискванията за високорисковите системи с ИИ съгласно настоящия регламент са били включени в това законодателство на Съюза за хармонизация.
(2) În cazul sistemelor de IA clasificate ca sisteme de IA prezentând un grad ridicat de risc în conformitate cu articolul 6 alineatul (1), legate de produse care fac obiectul actelor legislative de armonizare ale Uniunii care figurează în anexa I secțiunea B, se aplică numai articolul 6 alineatul (1), articolele 102-109 și articolul 112. Articolul 57 se aplică numai în măsura în care cerințele pentru sistemele de IA cu grad ridicat de risc prevăzute în temeiul prezentului regulament au fost integrate în respectivele acte legislative de armonizare ale Uniunii.
3. Настоящият регламент не се прилага в области извън обхвата на правото на Съюза и не засяга компетентността на държавите членки по отношение на националната сигурност, независимо от вида на субекта, на който държавите членки са възложили изпълнението на задачите във връзка с тази компетентност.
(3) Prezentul regulament nu se aplică domeniilor care nu intră în sfera de cuprindere a dreptului Uniunii și, în orice caz, nu afectează competențele statelor membre în materie de securitate națională, indiferent de tipul de entitate însărcinată de statele membre să îndeplinească sarcinile legate de competențele respective.
Настоящият регламент не се прилага за системи с ИИ, ако и доколкото те са пуснати на пазара, пуснати в действие или използвани със или без изменение на тези системи изключително за военни цели и цели, свързани с отбраната или националната сигурност, независимо от вида на субекта, който извършва тези дейности.
Prezentul regulament nu se aplică sistemelor de IA în cazul și în măsura în care sunt introduse pe piață, puse în funcțiune sau utilizate cu sau fără modificări exclusiv în scopuri militare, de apărare sau de securitate națională, indiferent de tipul de entitate care desfășoară activitățile respective.
Настоящият регламент не се прилага за системи с ИИ, които не са пуснати на пазара или пуснати в действие в Съюза, когато резултатите се използват в Съюза изключително за военни цели и цели, свързани с отбраната или националната сигурност, независимо от вида на субекта, който извършва тези дейности.
Prezentul regulament nu se aplică sistemelor de IA care nu sunt introduse pe piață sau puse în funcțiune în Uniune, în cazul în care rezultatul este utilizat în Uniune exclusiv în scopuri militare, de apărare sau de securitate națională, indiferent de tipul de entitate care desfășoară activitățile respective.
4. Настоящият регламент не се прилага за публични органи в трета държава, нито за международни организации, попадащи в обхвата на настоящия регламент съгласно параграф 1, когато тези органи или организации използват системи с ИИ в рамките на международно сътрудничество или споразумения за правоприлагане и съдебно сътрудничество със Съюза или с една или повече държави членки, при условие че тази трета държава или международна организация осигурява подходящи гаранции по отношение на защитата на основните права и свободи на физическите лица.
(4) Prezentul regulament nu se aplică autorităților publice dintr-o țară terță și nici organizațiilor internaționale care intră în sfera de cuprindere a prezentului regulament în temeiul alineatului (1), în cazul în care respectivele autorități sau organizații utilizează sisteme de IA în cadrul cooperării sau acordurilor internaționale pentru aplicarea legii și pentru cooperarea judiciară cu Uniunea sau cu unul sau mai multe state membre, cu condiția ca o astfel de țară terță sau organizație internațională să ofere garanții adecvate în ceea ce privește protecția drepturilor și libertăților fundamentale ale persoanelor.
5. Настоящият регламент не засяга прилагането на разпоредбите относно отговорността на доставчиците на посреднически услуги, установени в глава II от Регламент (ЕС) 2022/2065.
(5) Prezentul regulament nu aduce atingere aplicării dispozițiilor privind răspunderea furnizorilor de servicii intermediare cuprinse în capitolul II din Regulamentul (UE) 2022/2065.
6. Настоящият регламент не се прилага за системите с ИИ или моделите на ИИ, които са специално разработени и пуснати в действие единствено с цел научноизследователска и развойна дейност, включително за техните резултати.
(6) Prezentul regulament nu se aplică sistemelor de IA sau modelelor de IA, inclusiv rezultatelor acestora, dezvoltate și puse în funcțiune special și exclusiv pentru cercetare și dezvoltare științifică.
7. Правото на Съюза относно защитата на личните данни, неприкосновеността на личния живот и поверителността на съобщенията се прилага за личните данни, обработвани във връзка с правата и задълженията, предвидени в настоящия регламент. Настоящият регламент не засяга регламенти (ЕС) 2016/679 и (ЕС) 2018/1725, нито директиви 2002/58/ЕО и (ЕС) 2016/680, без да се засягат член 10, параграф 5 и член 59 от настоящия регламент.
(7) Dreptul Uniunii privind protecția datelor cu caracter personal, a vieții private și a confidențialității comunicațiilor se aplică datelor cu caracter personal prelucrate în legătură cu drepturile și obligațiile prevăzute în prezentul regulament. Prezentul regulament nu afectează Regulamentul (UE) 2016/679 sau (UE) 2018/1725 ori Directiva 2002/58/CE sau (UE) 2016/680, fără a aduce atingere articolului 10 alineatul (5) și articolului 59 din prezentul regulament.
8. Настоящият регламент не се прилага за научноизследователски дейности, изпитвания или развойни дейности по отношение на системи с ИИ или модели на ИИ преди пускането на пазара или пускането в действие на тези системи или модели. Тези дейности се извършват в съответствие с приложимото право на Съюза. Изпитването в реални условия не попада в обхвата на това изключение.
(8) Prezentul regulament nu se aplică niciunei activități de cercetare, testare sau dezvoltare privind sisteme de IA sau modele de IA, înainte ca acestea să fie introduse pe piață sau puse în funcțiune. Astfel de activități se desfășoară în conformitate cu dreptul aplicabil al Uniunii. Testarea în condiții reale nu face obiectul excluderii menționate.
9. Настоящият регламент не засяга правилата, установени в други правни актове на Съюза, свързани със защитата на потребителите и безопасността на продуктите.
(9) Prezentul regulament nu aduce atingere normelor prevăzute de alte acte juridice ale Uniunii referitoare la protecția consumatorilor și la siguranța produselor.
10. Настоящият регламент не се прилага за задълженията на внедрители, които са физически лица, използващи системи с ИИ в рамките на изцяло лична непрофесионална дейност.
(10) Prezentul regulament nu se aplică obligațiilor implementatorilor persoane fizice care utilizează sisteme de IA în cursul unei activități strict personale, fără caracter profesional.
11. Настоящият регламент не e пречка Съюзът или държавите членки да запазят или въведат законови, подзаконови или административни разпоредби, които са по-благоприятни за работниците по отношение на защитата на правата им във връзка с използването от работодателите на системи с ИИ, нито да насърчават или разрешават прилагането на колективни трудови договори, които са по-благоприятни за работниците.
(11) Prezentul regulament nu împiedică Uniunea sau statele membre să mențină sau să introducă acte cu putere de lege și acte administrative care sunt mai favorabile lucrătorilor privind protejarea drepturilor acestora în ceea ce privește utilizarea sistemelor de IA de către angajatori sau să încurajeze ori să permită aplicarea unor contracte colective de muncă care sunt mai favorabile lucrătorilor.
12. Настоящият регламент не се прилага за системи с ИИ, предоставени с безплатен лиценз с отворен код, освен ако не са пуснати на пазара или пуснати в действие като високорискови системи с ИИ или като система с ИИ, попадаща в обхвата на член 5 или 50.
(12) Prezentul regulament nu se aplică sistemelor de IA lansate sub licențe libere și cu sursă deschisă, cu excepția cazului în care acestea sunt introduse pe piață sau puse în funcțiune ca sisteme de IA cu grad ridicat de risc sau ca sisteme de IA care intră sub incidența articolului 5 sau a articolului 50.
Член 3
Articolul 3
Определения
Definiții
За целите на настоящия регламент се прилагат следните определения:
În sensul prezentului regulament, se aplică următoarele definiții:
1)
„система с ИИ“ означава машинно базирана система, която е проектирана да работи с различни нива на автономност и която може да прояви адаптивност след внедряването си, и която, с явна или подразбираща се цел, въз основа на въведените в нея входящи данни, извежда начина на генериране на резултати като прогнози, съдържание, препоръки или решения, които могат да окажат влияние върху физическа или виртуална среда;
1.
„sistem de IA” înseamnă un sistem bazat pe o mașină care este conceput să funcționeze cu diferite niveluri de autonomie și care poate prezenta adaptabilitate după implementare, și care, urmărind obiective explicite sau implicite, deduce, din datele de intrare pe care le primește, modul de generare a unor rezultate precum previziuni, conținut, recomandări sau decizii care pot influența mediile fizice sau virtuale;
2)
„риск“ означава съчетанието от вероятността за възникване на дадена вреда и тежестта на тази вреда;
2.
„risc” înseamnă combinația dintre probabilitatea producerii unui prejudiciu și gravitatea acestuia;
3)
„доставчик“ означава физическо или юридическо лице, публичен орган, агенция или друга организация, които разработват система с ИИ или модел на ИИ с общо предназначение или възлагат разработването на система с ИИ или на модел на ИИ с общо предназначение и ги пускат на пазара, или пускат в действие системата с ИИ със своето име или търговска марка, срещу заплащане или безплатно;
3.
„furnizor” înseamnă o persoană fizică sau juridică, o autoritate publică, o agenție sau un alt organism care dezvoltă un sistem de IA sau un model de IA de uz general sau care comandă dezvoltarea unui sistem de IA sau a unui model de IA de uz general și îl introduce pe piață sau pune în funcțiune sistemul de IA sub propriul nume sau propria marcă comercială, contra cost sau gratuit;
4)
„внедрител“ означава физическо или юридическо лице, публичен орган, агенция или друга организация, които използват система с ИИ, по отношение на която упражняват контрол, с изключение на случаите, когато системата с ИИ се използва в процеса на лична непрофесионална дейност;
4.
„implementator” înseamnă o persoană fizică sau juridică, autoritate publică, agenție sau alt organism care utilizează un sistem de IA aflat sub autoritatea sa, cu excepția cazului în care sistemul de IA este utilizat în cursul unei activități personale, fără caracter profesional;
5)
„упълномощен представител“ означава физическо или юридическо лице, намиращо се или установено в Съюза, което е получило и приело писмено пълномощно от доставчик на система с ИИ или на модел на ИИ с общо предназначение съответно да изпълнява и извършва от негово име задълженията и процедурите, установени в настоящия регламент;
5.
„reprezentant autorizat” înseamnă o persoană fizică sau juridică aflată sau stabilită în Uniune care a primit și a acceptat un mandat scris din partea unui furnizor al unui sistem de IA sau al unui model de IA de uz general pentru a exercita și, respectiv, a îndeplini, în numele său, obligațiile și procedurile stabilite prin prezentul regulament;
6)
„вносител“ означава физическо или юридическо лице, намиращо се или установено в Съюза, което пуска на пазара система с ИИ, носеща името или търговската марка на физическо или юридическо лице, установено в трета държава;
6.
„importator” înseamnă o persoană fizică sau juridică aflată sau stabilită în Uniune care introduce pe piață un sistem de IA care poartă numele sau marca unei persoane fizice sau juridice stabilite într-o țară terță;
7)
„дистрибутор“ означава физическо или юридическо лице във веригата на доставки, различно от доставчика или вносителя, което предоставя система с ИИ на пазара на Съюза;
7.
„distribuitor” înseamnă o persoană fizică sau juridică din lanțul de aprovizionare, alta decât furnizorul sau importatorul, care pune la dispoziție un sistem de IA pe piața Uniunii;
8)
„оператор“ означава доставчик, производител на продукти, внедрител, упълномощен представител, вносител или дистрибутор;
8.
„operator” înseamnă furnizor, fabricant de produse, implementator, reprezentant autorizat, importator sau distribuitor;
9)
„пускане на пазара“ означава предоставянето на система с ИИ или на модел на ИИ с общо предназначение на пазара на Съюза за първи път;
9.
„introducere pe piață” înseamnă prima punere la dispoziție a unui sistem de IA sau a unui model de IA de uz general pe piața Uniunii;
10)
„предоставяне на пазара“ означава всяка доставка на система с ИИ или на модел на ИИ с общо предназначение за дистрибуция или използване на пазара на Съюза в процеса на търговска дейност, срещу заплащане или безплатно;
10.
„punere la dispoziție pe piață” înseamnă furnizarea unui sistem de IA sau a unui model de IA de uz general pentru distribuție sau uz pe piața Uniunii în cursul unei activități comerciale, contra cost sau gratuit;
11)
„пускане в действие“ означава доставката на система с ИИ за първо използване пряко на внедрителя или за собствено ползване в Съюза в съответствие с нейното предназначение;
11.
„punere în funcțiune” înseamnă furnizarea unui sistem de IA pentru prima utilizare direct implementatorului sau pentru uz propriu în Uniune, în scopul său preconizat;
12)
„предназначение“ означава използването, за което е предназначена една система с ИИ от доставчика, включително конкретният контекст и условия на използване, посочени в информацията, предоставена от доставчика в инструкциите за употреба, рекламните или търговските материали и твърдения, както и в техническата документация;
12.
„scop preconizat” înseamnă utilizarea preconizată de către furnizor a unui sistem de IA, inclusiv contextul specific și condițiile de utilizare, astfel cum se specifică în informațiile oferite de furnizor în instrucțiunile de utilizare, în materialele promoționale sau de vânzare și în declarații, precum și în documentația tehnică;
13)
„разумно предвидима неправилна експлоатация“ означава използването на система с ИИ по начин, който не е в съответствие с нейното предназначение, но е възможно да бъде резултат от разумно предвидимо човешко поведение или от взаимодействие с други системи, включително други системи с ИИ;
13.
„utilizare necorespunzătoare previzibilă în mod rezonabil” înseamnă utilizarea unui sistem de IA într-un mod care nu este în conformitate cu scopul său preconizat, dar care poate rezulta din comportamentul uman sau din interacțiunea previzibilă în mod rezonabil cu alte sisteme, inclusiv cu alte sisteme de IA;
14)
„защѝтен елемент“ означава компонент на продукт или система с ИИ, който осигурява функция, свързана с безопасността, за този продукт или тази система с ИИ или чиято неизправност или лошо функциониране поставя в опасност здравето и безопасността на хора или имущество;
14.
„componentă de siguranță” înseamnă o componentă a unui produs sau a unui sistem de IA care îndeplinește o funcție de siguranță pentru produsul sau sistemul de IA respectiv sau a cărei defectare sau funcționare defectuoasă pune în pericol sănătatea și siguranța persoanelor sau a bunurilor;
15)
„инструкции за употреба“ означава информацията, която доставчикът предоставя с цел да информира внедрителя по-специално за предназначението и правилното използване на дадена система с ИИ;
15.
„instrucțiuni de utilizare” înseamnă informațiile oferite de furnizor pentru a informa implementatorul, în special cu privire la scopul preconizat și utilizarea corespunzătoare a unui sistem de IA;
16)
„изземване на система с ИИ“ означава всяка мярка, целяща да постигне връщане на доставчика, извеждане от действие или блокиране на използването на система с ИИ, която е предоставена на внедрителите;
16.
„rechemare a unui sistem de IA” înseamnă orice măsură care are drept scop returnarea către furnizor, scoaterea din funcțiune sau dezactivarea utilizării unui sistem de IA deja pus la dispoziția implementatorilor;
17)
„изтегляне на система с ИИ“ означава всяка мярка, целяща да предотврати предоставянето на пазара на система с ИИ, която е във веригата на доставки;
17.
„retragere a unui sistem de IA” înseamnă orice măsură care are drept scop împiedicarea punerii la dispoziție pe piață a unui sistem de IA din lanțul de aprovizionare;
18)
„действие на система с ИИ“ означава способността на дадена система с ИИ да изпълнява предназначението си;
18.
„performanță a unui sistem de IA” înseamnă capacitatea unui sistem de IA de a-și îndeplini scopul preconizat;
19)
„нотифициращ орган“ означава националният орган, отговорен за въвеждането и извършването на процедурите, необходими за оценката, определянето и нотифицирането на органи за оценяване на съответствието и за провеждането на мониторинг по отношение на тях;
19.
„autoritate de notificare” înseamnă autoritatea națională responsabilă cu instituirea și îndeplinirea procedurilor necesare pentru evaluarea, desemnarea și notificarea organismelor de evaluare a conformității și pentru monitorizarea acestora;
20)
„оценяване на съответствието“ означава процесът на доказване дали са изпълнени изискванията, установени в глава III, раздел 2 по отношение на дадена високорискова система с ИИ;
20.
„evaluare a conformității” înseamnă procesul prin care se demonstrează dacă au fost îndeplinite sau nu cerințele prevăzute în capitolul III secțiunea 2 referitoare la un sistem de IA cu grad ridicat de risc;
21)
„орган за оценяване на съответствието“ означава орган, който осъществява дейности по оценяване на съответствието от трето лице, включително изпитване, сертификация и контрол;
21.
„organism de evaluare a conformității” înseamnă un organism care efectuează activități de evaluare a conformității ca parte terță, incluzând testarea, certificarea și inspecția;
22)
„нотифициран орган“ означава орган за оценяване на съответствието, нотифициран съгласно настоящия регламент и друго приложимо законодателство на Съюза за хармонизация;
22.
„organism notificat” înseamnă un organism de evaluare a conformității notificat în conformitate cu prezentul regulament și cu alte acte legislative relevante de armonizare ale Uniunii;
23)
„съществено изменение“ означава промяна в дадена система с ИИ след пускането ѝ на пазара или пускането ѝ в действие, която не е предвидена или планирана в първоначалното оценяване на съответствието от доставчика и в резултат на която се засяга съответствието на системата с ИИ с изискванията, установени в глава III, раздел 2, или която води до изменение на предназначението, за което е била оценена системата с ИИ;
23.
„modificare substanțială” înseamnă o modificare a unui sistem de IA după introducerea sa pe piață sau punerea sa în funcțiune, care nu este prevăzută sau planificată în evaluarea inițială a conformității realizată de furnizor și în urma căreia este afectată conformitatea sistemului de IA cu cerințele prevăzute în capitolul III secțiunea 2 sau care conduce la o modificare a scopului preconizat pentru care a fost evaluat sistemul de IA;
24)
„маркировка „СЕ““ означава маркировка, чрез която доставчикът указва, че дадена система с ИИ е в съответствие с изискванията, установени в глава III, раздел 2 от настоящия регламент и в друго приложимо законодателство на Съюза за хармонизация, предвиждащо нанасянето на тази маркировка;
24.
„marcaj CE” înseamnă un marcaj prin care un furnizor indică faptul că un sistem de IA este în conformitate cu cerințele prevăzute în capitolul III secțiunea 2 și în alte acte legislative de armonizare aplicabile ale Uniunii care prevăd aplicarea acestui marcaj;
25)
„система за мониторинг след пускането на пазара“ означава всички дейности, извършвани от доставчиците на системи с ИИ с цел събиране и преглед на опита, натрупан при използването на системите с ИИ, които са пуснали на пазара или пуснали в действие, с оглед на установяване на евентуална необходимост от незабавно прилагане на всякакви необходими коригиращи или превантивни действия;
25.
„sistem de monitorizare ulterioară introducerii pe piață” înseamnă toate activitățile desfășurate de furnizorii de sisteme de IA pentru a colecta și a revizui experiența dobândită în urma utilizării sistemelor de IA pe care le introduc pe piață sau le pun în funcțiune, în scopul identificării oricărei nevoi de a aplica imediat orice măsură corectivă sau preventivă necesară;
26)
„орган за надзор на пазара“ означава националният орган, който извършва дейностите и предприема мерките съгласно Регламент (ЕС) 2019/1020;
26.
„autoritate de supraveghere a pieței” înseamnă autoritatea națională care desfășoară activități și ia măsuri în temeiul Regulamentului (UE) 2019/1020;
27)
„хармонизиран стандарт“ означава хармонизиран стандарт съгласно определението в член 2, параграф 1, буква в) от Регламент (ЕС) № 1025/2012;
27.
„standard armonizat” înseamnă un standard armonizat, în sensul definiției de la articolul 2 punctul 1 litera (c) din Regulamentul (UE) nr. 1025/2012;
28)
„обща спецификация“ означава набор от технически спецификации съгласно определението в член 2, точка 4 от Регламент (ЕС) № 1025/2012, даващи възможност да се постигне съответствие с определени изисквания, установени съгласно настоящия регламент;
28.
„specificație comună” înseamnă un set de specificații tehnice, astfel cum sunt definite la articolul 2 punctul 4 din Regulamentul (UE) nr. 1025/2012, care oferă mijloacele de a respecta anumite cerințe stabilite în temeiul prezentului regulament;
29)
„обучителни данни“ означава данни, използвани за обучение на система с ИИ чрез настройка на нейните обучавани параметри;
29.
„date de antrenament” înseamnă datele utilizate pentru antrenarea unui sistem de IA prin adaptarea parametrilor săi care pot fi învățați;
30)
„валидационни данни“ означава данни, използвани за осигуряване на оценка на обучената система с ИИ и за настройка на нейните необучавани параметри и на обучителния ѝ процес с цел, наред с другото, да се предотврати недостатъчно или прекомерно настройване;
30.
„date de validare” înseamnă datele utilizate pentru a furniza o evaluare a sistemului de IA antrenat și pentru a-i ajusta parametrii care nu pot fi învățați și procesul său de învățare, printre altele, pentru a preveni subadaptarea sau supraadaptarea;
31)
„набор от валидационни данни“ означава отделен набор от данни или част от набора обучителни данни под формата на фиксирано или променливо разделяне на данните;
31.
„set de date de validare” înseamnă un set de date separat sau o parte a setului de date de antrenament, sub forma unei divizări fixe sau variabile;
32)
„изпитвателни данни“ означава данни, използвани за извършване на независима оценка на системата с ИИ с цел потвърждаване на очакваното действие на тази система преди пускането ѝ на пазара или пускането й в действие;
32.
„date de testare” înseamnă datele utilizate pentru a furniza o evaluare independentă a sistemului de IA, în scopul de a confirma performanța preconizată a sistemului respectiv înainte de introducerea sa pe piață sau de punerea sa în funcțiune;
33)
„входящи данни“ означава данни, предоставяни на система с ИИ или пряко придобивани от нея, въз основа на които системата произвежда резултат;
33.
„date de intrare” înseamnă datele furnizate unui sistem de IA sau dobândite direct de acesta, pe baza cărora sistemul produce un rezultat;
34)
„биометрични данни“ означава лични данни, получени в резултат на специфично техническо обработване, които са свързани с физическите, физиологичните или поведенческите характеристики на дадено физическо лице, например лицеви изображения или дактилоскопични данни;
34.
„date biometrice” înseamnă datele cu caracter personal rezultate dintr-o prelucrare tehnică specifică, referitoare la caracteristicile fizice, fiziologice sau comportamentale ale unei persoane fizice, cum ar fi imaginile faciale sau datele dactiloscopice;
35)
„биометрична идентификация“ означава автоматизирано разпознаване на физически, физиологични, поведенчески и психологически човешки характеристики с цел установяване на самоличността на дадено физическо лице чрез съпоставяне на биометрични данни на това лице с биометрични данни на лица, съхранявани в база данни;
35.
„identificare biometrică” înseamnă recunoașterea automată a caracteristicilor fizice, fiziologice, comportamentale sau psihologice ale omului în scopul stabilirii identității unei persoane fizice prin compararea datelor biometrice ale persoanei respective cu datele biometrice ale persoanelor stocate într-o bază de date;
36)
„биометрична проверка“ означава автоматизирана проверка „едно към едно“, включително удостоверяване, на самоличността на физически лица чрез съпоставяне на техните биометрични данни с предварително предоставени биометрични данни;
36.
„verificare biometrică” înseamnă verificarea automată, pe baza unei comparații între două seturi de date, inclusiv autentificarea, a identității persoanelor fizice prin compararea datelor biometrice ale acestora cu datele biometrice furnizate anterior;
37)
„специални категории лични данни“ означава категориите лични данни, посочени в член 9, параграф 1 от Регламент (ЕС) 2016/679, член 10 от Директива (ЕС) 2016/680 и член 10, параграф 1 от Регламент (ЕС) 2018/1725;
37.
„categorii speciale de date cu caracter personal” înseamnă categoriile de date cu caracter personal menționate la articolul 9 alineatul (1) din Regulamentul (UE) 2016/679, la articolul 10 din Directiva (UE) 2016/680 și la articolul 10 alineatul (1) din Regulamentul (UE) 2018/1725;
38)
„чувствителни оперативни данни“ означава оперативни данни, свързани с дейности по предотвратяване, откриване, разследване и наказателно преследване на престъпления, разкриването на които може да застраши независимостта на наказателните производства;
38.
„date operaționale sensibile” înseamnă date operaționale legate de activități de prevenire, depistare, investigare sau urmărire penală a infracțiunilor a căror divulgare ar putea pune în pericol integritatea unor proceduri penale;
39)
„система за разпознаване на емоции“ означава система с ИИ, чието предназначение е да определя или да прави заключения за емоциите или намеренията на физически лица на базата на техните биометрични данни;
39.
„sistem de recunoaștere a emoțiilor” înseamnă un sistem de IA al cărui scop este de a identifica sau a deduce emoțiile sau intențiile persoanelor fizice pe baza datelor lor biometrice;
40)
„система за биометрично категоризиране“ означава система с ИИ, предназначена да отнася физически лица към конкретни категории въз основа на техните биометрични данни, освен когато тази система е чисто спомагателна по отношение на друга търговска услуга и е строго необходима по обективни технически причини;
40.
„sistem de clasificare biometrică” înseamnă un sistem de IA al cărui scop este de a încadra persoanele fizice în categorii specifice pe baza datelor lor biometrice, cu excepția cazului în care acesta este auxiliar unui alt serviciu comercial și strict necesar din motive tehnice obiective;
41)
„система за дистанционна биометрична идентификация“ означава система с ИИ, предназначена да идентифицира физически лица обикновено от разстояние, без тяхното активно участие, чрез съпоставяне на биометричните данни на дадено лице с биометричните данни, съдържащи се в референтно хранилище на данни;
41.
„sistem de identificare biometrică la distanță” înseamnă un sistem de IA al cărui scop este de a identifica persoanele fizice, fără implicarea activă a acestora, de obicei la distanță, prin compararea datelor biometrice ale unei persoane cu datele biometrice conținute într-o bază de date de referință;
42)
„система за дистанционна биометрична идентификация в реално време“ означава система за дистанционна биометрична идентификация, при която снемането на биометрични данни, съпоставянето и идентификацията се осъществяват без значително забавяне, включваща не само незабавното идентифициране, но и ограничени кратки забавяния с цел предотвратяване на заобикаляне на системата;
42.
„sistem de identificare biometrică la distanță în timp real” înseamnă un sistem de identificare biometrică la distanță în care atât capturarea datelor biometrice, cât și compararea și identificarea au loc fără întârzieri semnificative, incluzând nu numai identificarea instantanee, ci și întârzieri scurte limitate pentru a se evita eludarea;
43)
„система за последваща дистанционна биометрична идентификация“ означава система за дистанционна биометрична идентификация, различна от система за дистанционна биометрична идентификация в реално време;
43.
„sistem de identificare biometrică la distanță ulterioară” înseamnă un alt sistem de identificare biometrică la distanță decât sistemul de identificare biometrică la distanță în timp real;
44)
„обществено достъпно място“ означава всяко физическо място, което е публична или частна собственост и е достъпно за неопределен брой физически лица, независимо от прилагането на определени условия за достъп и независимо от евентуални ограничения на капацитета;
44.
„spațiu accesibil publicului” înseamnă orice loc fizic aflat în proprietate publică sau privată, accesibil unui număr nedeterminat de persoane fizice, indiferent dacă se pot aplica anumite condiții de acces și indiferent de potențiale restricții de capacitate;
45)
„правоохранителен орган“ означава:
45.
„autoritate de aplicare a legii” înseamnă:
a)
всеки публичен орган, който има правомощия за предотвратяване, разследване, откриване или наказателно преследване на престъпления или за изпълнение на наказателноправни санкции, включително за предпазване от заплахи за обществената сигурност и тяхното предотвратяване; или
(a)
orice autoritate publică competentă în materie de prevenire, investigare, depistare sau urmărire penală a infracțiunilor sau de executare a sancțiunilor penale, inclusiv în materie de protejare împotriva amenințărilor la adresa securității publice și de prevenire a acestora; sau
б)
всяка друга организация или субект, на която или на който съгласно правото на държава членка е възложено да упражнява публична власт и публични правомощия за целите на предотвратяването, разследването, откриването или наказателното преследване на престъпления или изпълнението на наказателноправни санкции, включително предпазването от заплахи за обществената сигурност и тяхното предотвратяване;
(b)
orice alt organism sau entitate împuternicit(ă) de dreptul statului membru să exercite autoritate publică și competențe publice în scopul prevenirii, investigării, depistării sau urmăririi penale a infracțiunilor sau al executării sancțiunilor penale, inclusiv al protejării împotriva amenințărilor la adresa securității publice și al prevenirii acestora;
46)
„правоохранителна дейност“ означава действия, извършвани от правоохранителните органи или от тяхно име за предотвратяване, разследване, откриване или наказателно преследване на престъпления или за изпълнение на наказателноправни санкции, включително за предпазване от заплахи за обществената сигурност и тяхното предотвратяване;
46.
„aplicarea legii” înseamnă activitățile desfășurate de autoritățile de aplicare a legii sau în numele acestora pentru prevenirea, investigarea, depistarea sau urmărirea penală a infracțiunilor sau pentru executarea sancțiunilor penale, inclusiv pentru protejarea împotriva amenințărilor la adresa securității publice și prevenirea acestora;
47)
„Служба по ИИ“ означава функцията на Комисията да допринася за прилагането, мониторинга и надзора на системите с ИИ и моделите на ИИ с общо предназначение и управлението на ИИ, предвидена в Решение на Комисията от 24 януари 2024 г.; позоваванията на Службата по ИИ в настоящия регламент се разбират като позовавания на Комисията;
47.
„Oficiul pentru IA” înseamnă funcția Comisiei de a contribui la punerea în aplicare, monitorizarea și supravegherea sistemelor de IA și a modelelor de IA de uz general și la guvernanța IA, prevăzută în Decizia din 24 ianuarie 2024 a Comisiei; trimiterile din prezentul regulament la Oficiul pentru IA se interpretează ca trimiteri la Comisie;
48)
„национален компетентен орган“ означава нотифициращ орган или орган за надзор на пазара; по отношение на системите с ИИ, пуснати в действие или използвани от институциите, агенциите, службите и органите на Съюза, всяко позоваване на националните компетентни органи или органите за надзор на пазара в настоящия регламент се тълкува като позоваване на Европейския надзорен орган по защита на данните;
48.
„autoritate națională competentă” înseamnă o autoritate de notificare sau o autoritate de supraveghere a pieței; în ceea ce privește sistemele de IA puse în funcțiune sau utilizate de instituțiile, agențiile, oficiile și organele Uniunii, mențiunile referitoare la autoritățile naționale competente sau la autoritățile de supraveghere a pieței din prezentul regulament se interpretează ca mențiuni referitoare la Autoritatea Europeană pentru Protecția Datelor;
49)
„сериозен инцидент“ означава всеки инцидент или неизправност на система с ИИ, който или която пряко или косвено води до някоя от следните последици:
49.
„incident grav” înseamnă un incident sau funcționarea necorespunzătoare a unui sistem de IA care, direct sau indirect, conduce la oricare dintre următoarele:
a)
смъртта на човек или сериозно увреждане на здравето на човек;
(a)
decesul unei persoane sau vătămarea gravă a sănătății unei persoane;
б)
сериозно и необратимо нарушаване на управлението и експлоатацията на критична инфраструктура;
(b)
o perturbare gravă și ireversibilă a gestionării sau a funcționării infrastructurii critice;
в)
нарушение на задължения съгласно правото на Съюза, имащи за цел да защитава основните права;
(c)
încălcarea obligațiilor care decurg din dreptul Uniunii menit să protejeze drepturile fundamentale;
г)
сериозно увреждане на имущество или на околната среда;
(d)
daune grave aduse bunurilor sau mediului;
50)
„лични данни“ означава лични данни съгласно определението в член 4, точка 1 от Регламент (EС) 2016/679;
50.
„date cu caracter personal” înseamnă datele cu caracter personal astfel cum sunt definite la articolul 4 punctul 1 din Regulamentul (UE) 2016/679;
51)
„нелични данни“ означава данни, различни от личните данни съгласно определението в член 4, точка 1 от Регламент (ЕС) 2016/679;
51.
„date fără caracter personal” înseamnă date, altele decât datele cu caracter personal definite la articolul 4 punctul 1 din Regulamentul (UE) 2016/679;
52)
„профилиране“ означава профилиране съгласно определението в член 4, точка 4 от Регламент (ЕС) 2016/679;
52.
„creare de profiluri” înseamnă creare de profiluri în sensul definiției de la articolul 4 punctul 4 din Regulamentul (UE) 2016/679;
53)
„план за изпитване в реални условия“ означава документ, в който се описват целите, методиката, териториалният, демографският и времевият обхват, мониторингът, организацията и провеждането на изпитвания в реални условия;
53.
„plan de testare în condiții reale” înseamnă un document care descrie obiectivele, metodologia, domeniul de aplicare geografic, demografic și temporal, monitorizarea, organizarea și efectuarea testelor în condiții reale;
54)
„план за лабораторията“ означава документ, договорен между участващия доставчик и компетентния орган, в който се описват целите, условията, графикът, методиката и изискванията по отношение на дейностите, извършвани в рамките на лабораторията;
54.
„plan privind spațiul de testare” înseamnă un document convenit între furnizorul participant și autoritatea competentă care descrie obiectivele, condițiile, calendarul, metodologia și cerințele pentru activitățile desfășurate în spațiul de testare;
55)
„регулаторна лаборатория в областта на ИИ“ означава контролирана рамка, създадена от компетентен орган, която осигурява на доставчиците или потенциалните доставчици на системи с ИИ възможност да разработват, обучават, валидират и изпитват, когато е целесъобразно в реални условия, иновативна система с ИИ, съгласно плана за лабораторията и в рамките на ограничен срок под регулаторен надзор;
55.
„spațiu de testare în materie de reglementare în domeniul IA” înseamnă un cadru controlat instituit de o autoritate competentă care oferă furnizorilor sau potențialilor furnizori de sisteme de IA posibilitatea de a dezvolta, de a antrena, de a valida și de a testa, după caz în condiții reale, un sistem de IA inovator, pe baza unui plan privind spațiul de testare, pentru o perioadă limitată de timp, sub supraveghere reglementară;
56)
„грамотност в областта на ИИ“ означава уменията, знанията и разбирането, благодарение на които доставчиците, внедрителите и засегнатите лица — като се отчитат съответните им права и задължения в контекста на настоящия регламент — могат да внедряват системи с ИИ по информиран начин, както и да се осведомяват за възможностите и рисковете, свързани с ИИ, и за евентуалните вреди, които той може да причини;
56.
„alfabetizare în domeniul IA” înseamnă competențele, cunoștințele și înțelegerea care le permit furnizorilor, implementatorilor și persoanelor afectate, ținând seama de drepturile și obligațiile lor respective în contextul prezentului regulament, să implementeze sistemele de IA în cunoștință de cauză și să conștientizeze oportunitățile și riscurile pe care le implică IA, precum și prejudiciile pe care le pot aduce;
57)
„изпитване в реални условия“ означава временното изпитване на система с ИИ в съответствие с нейното предназначение в реални условия извън лаборатория или симулирана по друг начин среда с цел събиране на надеждни и солидни данни и оценяване и проверка на съответствието на системата с ИИ с изискванията на настоящия регламент, като това не се счита за пускане на системата с ИИ на пазара или за пускането ѝ в действие по смисъла на настоящия регламент, при условие че са изпълнени всички условия, посочени в член 57 или 60;
57.
„testare în condiții reale” înseamnă testarea temporară a unui sistem de IA în scopul său preconizat, în condiții reale, în afara unui laborator sau a unui mediu simulat în alt mod, în vederea colectării de date fiabile și solide și a evaluării și verificării conformității sistemului de IA cu cerințele prezentului regulament și nu se consideră introducere pe piață sau punere în funcțiune a sistemului de IA în sensul prezentului regulament, dacă sunt îndeplinite toate condițiile prevăzute la articolul 57 sau 60;
58)
„субект в изпитване“ за целите на изпитването в реални условия означава физическо лице, което участва в изпитване в реални условия;
58.
„subiect” în scopul testării în condiții reale înseamnă o persoană fizică care participă la testarea în condiții reale;
59)
„информирано съгласие“ означава свободно, конкретно, недвусмислено и доброволно изразяване от страна на даден субект в изпитване на готовността му да участва в определено изпитване в реални условия, след като е бил информиран за всички аспекти на изпитването, които са от значение за решението за участие на субекта в изпитването;
59.
„consimțământ în cunoștință de cauză” înseamnă exprimarea liberă, specifică, neechivocă și voluntară de către un subiect a dorinței sale de a participa la o anumită testare în condiții reale, după ce a fost informat cu privire la toate aspectele testării care sunt relevante pentru decizia sa de a participa;
60)
„убедителен фалшификат“ означава генерирано или обработено изображение, аудио- или видео съдържание, което наподобява съществуващи лица, предмети, места, субекти или събития и създава погрешно впечатление у дадено лице, че е автентично или достоверно;
60.
„deepfake” înseamnă o imagine ori un conținut audio sau video generat sau manipulat de IA care prezintă o asemănare cu persoane, obiecte, locuri sau alte entități ori evenimente existente și care ar crea unei persoane impresia falsă că este autentic sau adevărat;
61)
„широко разпространено нарушение“ означава всяко действие или бездействие, което е в разрез с правото на Съюза за защита на интересите на физическите лица и което:
61.
„încălcare pe scară largă” înseamnă orice acțiuni sau omisiuni contrare dreptului Uniunii care protejează interesele persoanelor fizice și care:
a)
е увредило или има вероятност да увреди колективните интереси на физически лица, пребиваващи в най-малко две държави членки, различни от държавата членка, в която:
(a)
au adus sau ar putea aduce prejudicii intereselor colective ale persoanelor care își au reședința în cel puțin două state membre diferite de statul membru în care:
i)
е започнало или е извършено действието или бездействието;
(i)
au fost inițiate sau au avut loc acțiunile sau omisiunile în cauză;
ii)
е установен или се намира съответният доставчик или, когато е приложимо, неговият упълномощен представител; или
(ii)
se află sau este stabilit furnizorul în cauză sau, după caz, reprezentantul său autorizat; sau
iii)
е установен внедрителят, когато нарушението е извършено от внедрителя;
(iii)
este stabilit implementatorul, atunci când încălcarea este comisă de implementator;
б)
е увредило, уврежда или има вероятност да увреди колективните интереси на физически лица, има общи характеристики, включително едни и същи незаконни практики или нарушаване на едни и същи интереси, и се проявява едновременно, като се извършва от един и същи оператор в най-малко три държави членки;
(b)
au adus, aduc sau sunt susceptibile să aducă prejudicii intereselor colective ale persoanelor și au caracteristici comune, cum ar fi aceeași practică ilegală, încălcarea aceluiași interes, care survin în același timp, fiind comise de același operator, în cel puțin trei state membre;
62)
„критична инфраструктура“ означава критична инфраструктура съгласно определението в член 2, точка 4 от Директива (ЕС) 2022/2557;
62.
„infrastructură critică” înseamnă infrastructură critică în sensul definiției de la articolul 2 punctul 4 din Directiva (UE) 2022/2557;
63)
„модел на ИИ с общо предназначение“ означава модел на ИИ, включително когато такъв модел е обучен с голямо количество данни, като се използва самонадзор в голям мащаб, който има до голяма степен общ характер и е в състояние компетентно да изпълнява широк набор от отделни задачи, независимо от начина на пускане на модела на пазара, и който може да бъде интегриран в различни системи или приложения надолу по веригата, с изключение на моделите на ИИ, използвани за научноизследователски и развойни дейности и като прототипи преди пускането им на пазара;
63.
„model de IA de uz general” înseamnă un model de IA, inclusiv în cazul în care un astfel de model de IA este antrenat cu un volum mare de date care utilizează autosupravegherea la scară largă, care prezintă o generalitate semnificativă și este capabil să îndeplinească în mod competent o gamă largă de sarcini distincte, indiferent de modul în care este introdus pe piață și care poate fi integrat într-o varietate de sisteme sau aplicații din aval, cu excepția modelelor de IA care sunt utilizate pentru activități de cercetare, dezvoltare sau creare de prototipuri înainte de introducerea pe piață;
64)
„способности с висока степен на въздействие“ означава способности, които съответстват на или надхвърлят способностите, регистрирани в най-напредналите модели на ИИ с общо предназначение;
64.
„capabilități cu impact ridicat” înseamnă capabilități care corespund capabilităților înregistrate în cele mai avansate modele de IA de uz general sau depășesc capabilitățile respective;
65)
„системен риск“ означава риск, присъщ за способностите с висока степен на въздействие на моделите на ИИ с общо предназначение, които оказват значително въздействие върху пазара на Съюза поради своя обхват или поради реалните си или разумно предвидими отрицателни последици върху общественото здраве, безопасността, обществената сигурност, основните права или обществото като цяло, който може да се разпространи в голям мащаб по цялата верига за създаване на стойност;
65.
„risc sistemic” înseamnă un risc specific capabilităților cu impact ridicat ale modelelor de IA de uz general, având un impact semnificativ asupra pieței Uniunii ca urmare a amplorii acestora sau a efectelor negative reale sau previzibile în mod rezonabil asupra sănătății publice, siguranței, securității publice, drepturilor fundamentale sau asupra societății în ansamblu, care poate fi propagat la scară largă de-a lungul lanțului valoric;
66)
„система с ИИ с общо предназначение“ означава система с ИИ, основана на модел на ИИ с общо предназначение, която може да служи за различни цели и може да се използва пряко, както и да се интегрира в други системи с ИИ;
66.
„sistem de IA de uz general” înseamnă un sistem de IA care se bazează pe un model de IA de uz general și care are capabilitatea de a deservi o varietate de scopuri, atât pentru utilizare directă, cât și pentru integrarea în alte sisteme de IA;
67)
„операция с плаваща запетая“ означава всяка математическа операция или присвояване, включващи числа с плаваща запетая, които са подмножество на реалните числа и при компютрите обикновено се представят чрез цяло число с фиксирана точност, мащабирано с цял експонент с фиксирана основа;
67.
„operație în virgulă mobilă” înseamnă orice operație matematică sau atribuire care implică numere în virgulă mobilă, care sunt o subcategorie a numerelor reale și sunt reprezentate de regulă în informatică printr-un număr întreg cu precizie fixă multiplicat cu o bază fixă având un exponent număr întreg;
68)
„доставчик надолу по веригата“ означава доставчик на система с ИИ, включително на система с ИИ с общо предназначение, която включва модел на ИИ, независимо дали моделът на ИИ се предоставя от самия него и е вертикално интегриран, или се предоставя от друг субект въз основа на договорни отношения.
68.
„furnizor din aval” înseamnă un furnizor al unui sistem de IA, inclusiv al unui sistem de IA de uz general, care integrează un model de IA, indiferent dacă modelul de IA este furnizat de furnizorul însuși și integrat vertical sau dacă acesta este furnizat de o altă entitate pe baza unor relații contractuale.
Член 4
Articolul 4
Грамотност в областта на ИИ
Alfabetizarea în domeniul IA
Доставчиците и внедрителите на системи с ИИ предприемат всички възможни мерки, за да гарантират достатъчно ниво на грамотност в областта на ИИ на техния персонал и другите лица, занимаващи се с функционирането и използването на системите с ИИ от тяхно име, като отчитат техните технически познания, опит, образование и обучение, както и контекста, в който ще се използват системите с ИИ, и вземат предвид лицата или групите лица, по отношение на които ще се използват системите с ИИ.
Furnizorii și implementatorii de sisteme de IA iau măsuri pentru a asigura, în cea mai mare măsură posibilă, un nivel suficient de alfabetizare în domeniul IA a personalului lor și a altor persoane care se ocupă cu operarea și utilizarea sistemelor de IA în numele lor, ținând seama de cunoștințele tehnice, experiența, educația și formarea lor și de contextul în care urmează să fie folosite sistemele de IA și luând în considerare persoanele sau grupurile de persoane în legătură cu care urmează să fie folosite sistemele de IA.
ГЛАВА II
CAPITOLUL II
ЗАБРАНЕНИ ПРАКТИКИ
PRACTICI INTERZISE ÎN DOMENIUL IA
Член 5
Articolul 5
Забранени практики в областта на ИИ
Practici interzise în domeniul IA
1. Забраняват се следните практики в областта на ИИ:
(1) Sunt interzise următoarele practici în domeniul IA:
a)
пускането на пазара, пускането в действие или използването на система с ИИ, която си служи със техники, действащи на подсъзнанието и отвъд рамките на съзнаваното от човека, или с умишлено манипулативни или измамни техники, с цел или последици, изразяващи се в съществено изменение на поведението на дадено лице или група лица чрез значително нарушаване на способността за вземане на информирано решение, като по този начин се подтиква да вземе решение, което в противен случай не би взело, по начин, който причинява или има разумна вероятност да причини значителни вреди на същото или на друго лице, или на група лица;
(a)
introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care utilizează tehnici subliminale ce nu pot fi percepute în mod conștient de o persoană sau tehnici intenționat manipulatoare sau înșelătoare, cu scopul sau efectul de a denatura în mod semnificativ comportamentul unei persoane sau al unui grup de persoane prin împiedicarea apreciabilă a capacității acestora de a lua o decizie în cunoștință de cauză, determinându-le astfel să ia o decizie pe care altfel nu ar fi luat-o, într-un mod care aduce sau este susceptibil în mod rezonabil să aducă prejudicii semnificative persoanei respective, unei alte persoane sau unui grup de persoane;
б)
пускането на пазара, пускането в действие или използването на система с ИИ, която използва някое от уязвимите места на дадено физическо лице или на конкретна група лица, дължащи се на възраст, увреждане или конкретно социално или икономическо положение, с цел или последици, изразяващи се в съществено изменение на поведението на това лице или на лице, спадащо към тази група, по начин, който причинява или има разумна вероятност да причини значителни вреди на същото или на друго лице;
(b)
introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care exploatează oricare dintre vulnerabilitățile unei persoane fizice sau ale unui anumit grup de persoane asociate vârstei, unei dizabilități sau unei situații sociale sau economice specifice, cu scopul sau efectul de a denatura în mod semnificativ comportamentul persoanei respective sau al unei persoane care aparține grupului respectiv într-un mod care aduce sau este susceptibil în mod rezonabil să aducă prejudicii semnificative persoanei respective sau unei alte persoane;
в)
пускането на пазара, пускането в действие или използването на системи с ИИ с цел оценка или класифициране на физически лица или групи от лица през определен период от време въз основа на тяхното социално поведение или известни, изведени или предполагаеми лични или личностни характеристики, като социалната класация води до едната или и до двете посочени по-долу последици:
(c)
introducerea pe piață, punerea în funcțiune sau utilizarea unor sisteme de IA pentru evaluarea sau clasificarea persoanelor fizice sau a grupurilor de persoane pe o anumită perioadă de timp, pe baza comportamentului lor social sau a caracteristicilor personale sau de personalitate cunoscute, deduse sau preconizate, cu un punctaj social care conduce la una dintre următoarele situații sau la ambele:
i)
увреждащо или неблагоприятно третиране на определени физически лица или на групи лица в социален контекст, който няма връзка с контекста, в който първоначално са били генерирани или събрани данните;
(i)
tratamentul prejudiciabil sau nefavorabil aplicat anumitor persoane fizice sau unor grupuri de persoane în contexte sociale care nu au legătură cu contextele în care datele au fost generate sau colectate inițial;
ii)
увреждащо или неблагоприятно третиране на определени физически лица или на групи лица, което е неоправдано или непропорционално с оглед на тяхното социално поведение или на тежестта, която му се отдава;
(ii)
tratamentul prejudiciabil sau nefavorabil aplicat anumitor persoane fizice sau unor grupuri de persoane, care este nejustificat sau disproporționat în raport cu comportamentul social al acestora sau cu gravitatea acestuia;
г)
пускането на пазара, пускането в действие с това конкретно предназначение или използването на система с ИИ за извършване на оценки на риска по отношение на физически лица с цел да се прецени или предвиди вероятността дадено физическо лице да извърши престъпление, въз основа единствено на профилирането на дадено физическо лице или на оценката на личностните му черти и характеристики; тази забрана не се прилага за системи с ИИ, използвани за подпомагане на извършването от човек на оценка на участието на дадено лице в престъпна дейност, която вече е изградена на основата на обективни и проверими факти, пряко свързани с престъпна дейност;
(d)
introducerea pe piață, punerea în funcțiune în acest scop specific sau utilizarea unui sistem de IA pentru efectuarea de evaluări ale riscurilor persoanelor fizice cu scopul de a evalua sau de a prevedea riscul ca o persoană fizică să comită o infracțiune, exclusiv pe baza creării profilului unei persoane fizice sau pe baza evaluării trăsăturilor și caracteristicilor sale de personalitate; această interdicție nu se aplică sistemelor de IA utilizate pentru a sprijini evaluarea umană a implicării unei persoane într-o activitate infracțională, care se bazează deja pe fapte obiective și verificabile legate direct de o activitate infracțională;
д)
пускането на пазара, пускането в действие с това конкретно предназначение или използването на системи с ИИ, които създават или разширяват бази данни за разпознаване на лица чрез нецеленасочено извличане на лицеви изображения от интернет или записи от видеонаблюдение;
(e)
introducerea pe piață, punerea în funcțiune în acest scop specific sau utilizarea unor sisteme de IA care creează sau extind bazele de date de recunoaștere facială prin extragerea fără scop precis a imaginilor faciale de pe internet sau de pe înregistrările TVCI;
е)
пускането на пазара, пускането в действие с това конкретно предназначение или използването на системи с ИИ с цел да се направят заключения за емоциите на дадено физическо лице на работното място или в образователните институции, освен в случаите, когато системата с ИИ е предназначена да бъде внедрена или пусната на пазара по медицински съображения или съображения, свързани с безопасността;
(f)
introducerea pe piață, punerea în funcțiune în acest scop specific sau utilizarea unor sisteme de IA pentru a deduce emoțiile unei persoane fizice în sfera locului de muncă și a instituțiilor de învățământ, cu excepția cazurilor în care utilizarea sistemului de IA este destinată a fi instituită sau introdusă pe piață din motive medicale sau de siguranță;
ж)
пускането на пазара, пускането в действие с това конкретно предназначение или използването на системи за биометрично категоризиране, които категоризират по индивидуализиран начин физическите лица въз основа на техните биометрични данни с цел да се направят заключения или логически изводи за тяхната раса, политически възгледи, членство в синдикални организации, религиозни или философски убеждения, сексуален живот или сексуална ориентация; тази забрана не обхваща обозначаването или филтрирането на законно придобити набори от биометрични данни, например основани на биометрични данни изображения, или категоризиране на биометрични данни в правоохранителната област;
(g)
introducerea pe piață sau punerea în funcțiune în acest scop specific sau utilizarea de sisteme de clasificare biometrică care clasifică în mod individual persoanele fizice pe baza datelor lor biometrice pentru a deduce sau a intui rasa, opiniile politice, apartenența la un sindicat, convingerile religioase sau filozofice, viața sexuală sau orientarea sexuală ale persoanelor respective; această interdicție nu se referă la etichetarea sau filtrarea seturilor de date biometrice obținute în mod legal, cum ar fi imaginile, pe baza datelor biometrice sau la clasificarea datelor biometrice în domeniul aplicării legii;
з)
използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели, освен ако и доколкото такова използване е строго необходимо за една от следните цели:
(h)
utilizarea sistemelor de identificare biometrică la distanță în timp real în spații accesibile publicului în scopul aplicării legii, cu excepția cazului și în măsura în care o astfel de utilizare este strict necesară pentru unul dintre următoarele obiective:
i)
целево издирване на конкретни жертви на отвличане, трафик на хора и сексуална експлоатация на хора, както и издирване на изчезнали лица;
(i)
căutarea în mod specific a anumitor victime ale răpirii, traficului de persoane sau exploatării sexuale a persoanelor, precum și căutarea persoanelor dispărute;
ii)
предотвратяване на конкретна, значителна и непосредствена заплаха за живота или физическата безопасност на физически лица или на действителна и настояща или действителна и предвидима заплаха от терористично нападение;
(ii)
prevenirea unei amenințări specifice, substanțiale și iminente care vizează viața sau siguranța fizică a persoanelor fizice sau a unei amenințări reale și prezente sau reale și previzibile de atac terorist;
iii)
установяване на местонахождението или самоличността на лице, заподозряно в извършването на престъпление, за целите на провеждането на разследване или наказателно преследване или на изпълнението на наказание за престъпления, посочени в приложение II и наказуеми в съответната държава членка с лишаване от свобода или мярка за задържане с максимален срок не по-малко от четири години.
(iii)
localizarea sau identificarea unei persoane suspectate de săvârșirea unei infracțiuni, în scopul desfășurării unei investigații penale sau al urmăririi penale sau al executării unor sancțiuni penale pentru infracțiuni, menționate în anexa II și pasibile, în statul membru în cauză, de o pedeapsă privativă de libertate sau o măsură de siguranță privativă de libertate pentru o perioadă maximă de cel puțin patru ani.
Първа алинея, буква з) не засяга член 9 от Регламент (ЕС) 2016/679 за обработването на биометрични данни за цели, различни от правоохранителни цели.
Litera (h) de la primul paragraf nu aduce atingere articolului 9 din Regulamentul (UE) 2016/679 privind prelucrarea datelor biometrice în alte scopuri decât aplicarea legii.
2. Използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели за която и да е от целите, посочени в параграф 1, първа алинея, буква з), се извършва за целите, посочени в същата буква, само с оглед на потвърждаването на самоличността на конкретно лице и при отчитане на следните елементи:
(2) Sistemele de identificare biometrică la distanță în timp real în spațiile accesibile publicului în scopul aplicării legii pentru oricare dintre obiectivele menționate la alineatul (1) primul paragraf litera (h) se utilizează în scopurile prevăzute la alineatul (1) litera (h) numai pentru a confirma identitatea persoanei vizate în mod specific, ținându-se seama de următoarele elemente:
a)
естеството на ситуацията, която води до евентуалното използване, и по-специално тежестта, вероятността от настъпването и мащабът на вредата, която би била причинена, ако системата не се използва;
(a)
natura situației care determină posibila utilizare, în special gravitatea, probabilitatea și amploarea prejudiciului care ar fi cauzat dacă sistemul nu ar fi utilizat;
б)
последиците от използването на системата за правата и свободите на всички засегнати лица, и по-специално тежестта, вероятността от настъпването и мащабът на тези последици.
(b)
consecințele utilizării sistemului asupra drepturilor și libertăților tuturor persoanelor vizate, în special gravitatea, probabilitatea și amploarea acestor consecințe.
Освен това използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели за някоя от целите, посочени в параграф 1, първа алинея, буква з) от настоящия член, трябва да съответства на необходимите и пропорционални гаранции и условия за използване в съответствие с националното право, което допуска такова използване, и по-специално по отношение на времевите, териториалните ограничения и ограниченията по отношение на лицата. Използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места се разрешава само ако правоохранителният орган е извършил оценката на въздействието върху основните права, посочена в член 27, и е регистрирал системата в базата данни на ЕС в съответствие с член 49. В надлежно обосновани спешни случаи обаче използването на тези системи може да започне без регистрация в базата данни на ЕС, при условие че регистрацията бъде извършена без ненужно забавяне.
În plus, utilizarea sistemelor de identificare biometrică la distanță în timp real în spațiile accesibile publicului în scopul aplicării legii pentru oricare dintre obiectivele menționate la alineatul (1) primul paragraf litera (h) de la prezentul articol respectă garanțiile și condițiile necesare și proporționale în ceea ce privește utilizarea în conformitate cu dreptul intern care autorizează utilizarea sistemelor respective, în special în ceea ce privește limitările temporale, geografice și legate de persoane. Utilizarea sistemului de identificare biometrică la distanță în timp real în spațiile accesibile publicului este autorizată numai dacă autoritatea de aplicare a legii a finalizat o evaluare a impactului asupra drepturilor fundamentale, astfel cum se prevede la articolul 27, și a înregistrat sistemul în baza de date a UE, în conformitate cu articolul 49. Cu toate acestea, în cazuri de urgență justificate în mod corespunzător, utilizarea sistemelor respective poate fi inițiată fără înregistrarea în baza de date a UE, cu condiția ca înregistrarea respectivă să fie finalizată fără întârzieri nejustificate.
3. За целите на параграф 1, първа алинея, буква з) и параграф 2, за всяко използване за правоохранителни цели на система за дистанционна биометрична идентификация в реално време на обществено достъпни места се изисква предварително разрешение, което се издава от съдебен орган или от независим административен орган, чието решение е задължително, на държавата членка, в която ще се осъществи използването, след получаване на мотивирано искане и в съответствие с подробните правила на националното право, посочени в параграф 5. В надлежно обосновани спешни случаи обаче използването на системата може да започне без разрешение, при условие че такова разрешение се поиска без ненужно забавяне, най-късно в рамките на 24 часа. Ако искането за разрешение бъде отхвърлено, използването се прекратява незабавно и всички данни, както и резултатите от това използване, незабавно се премахват и заличават.
(3) În sensul alineatului (1) primul paragraf litera (h) și al alineatului (2), fiecare utilizare în scopul aplicării legii a unui sistem de identificare biometrică la distanță în timp real în spațiile accesibile publicului face obiectul unei autorizații prealabile acordate de o autoritate judiciară sau de o autoritate administrativă independentă a cărei decizie are efect obligatoriu din statul membru în care urmează să aibă loc utilizarea; autorizația respectivă este emisă pe baza unei cereri motivate și în conformitate cu normele detaliate de drept intern menționate la alineatul (5). Cu toate acestea, într-o situație de urgență justificată în mod corespunzător, utilizarea sistemului poate începe fără autorizație, cu condiția ca autorizația respectivă să fie solicitată fără întârzieri nejustificate, cel târziu în termen de 24 de ore. În cazul în care o astfel de autorizație este refuzată, utilizarea sistemului este oprită cu efect imediat și toate datele, precum și rezultatele și produsele obținute în cadrul utilizării respective sunt înlăturate și șterse imediat.
Компетентният съдебен орган или независим административен орган, чието решение е задължително, издава разрешението само ако въз основа на обективни доказателства или данни за ясни признаци, които са му представени, се убеди, че използването на въпросната система за дистанционна биометрична идентификация в реално време е необходимо и пропорционално за постигането на една от целите, посочени в параграф 1, първа алинея, буква з), която се посочва в искането, и по-специално се ограничава до строго необходимото по отношение на времевия и териториалния обхват и обхвата по отношение на лицата. Когато взема решение по искането, този орган взема предвид елементите, посочени в параграф 2. Не може да бъде взето решение, пораждащо неблагоприятни правни последици за дадено лице, единствено въз основа на резултата от системата за дистанционна биометрична идентификация в реално време.
Autoritatea judiciară competentă sau o autoritate administrativă independentă a cărei decizie are efect obligatoriu acordă autorizația numai dacă este convinsă, pe baza unor dovezi obiective sau a unor indicii clare care i-au fost prezentate, că utilizarea sistemului de identificare biometrică la distanță în timp real în cauză este necesară și proporțională pentru realizarea unuia dintre obiectivele menționate la alineatul (1) primul paragraf litera (h), astfel cum a fost identificat în cerere și, în special, rămâne limitată la ceea ce este strict necesar din punctul de vedere al perioadei de timp, precum și al sferei de aplicare geografică și personală. Atunci când ia o decizie cu privire la cerere, autoritatea respectivă ia în considerare elementele menționate la alineatul (2). Nicio decizie care produce un efect juridic negativ asupra unei persoane nu poate fi luată exclusiv pe baza unui rezultat al sistemului de identificare biometrică la distanță în timp real.
4. Без да се засяга параграф 3, за всяко използване на система за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели се уведомяват съответният орган за надзор на пазара и националният орган за защита на данните в съответствие с националните правила, посочени в параграф 5. Уведомлението съдържа най-малко информацията, посочена в параграф 6, и не включва чувствителни оперативни данни.
(4) Fără a aduce atingere alineatului (3), fiecare utilizare a unui sistem de identificare biometrică la distanță în timp real în spațiile accesibile publicului în scopul aplicării legii este notificată autorității relevante de supraveghere a pieței și autorității naționale pentru protecția datelor, în conformitate cu normele naționale menționate la alineatul (5). Notificarea conține cel puțin informațiile specificate la alineatul (6) și nu include date operaționale sensibile.
5. Държава членка може да реши да предвиди възможността за пълно или частично разрешаване на използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели в рамките на ограниченията и при условията, изброени в параграф 1, първа алинея, буква з) и в параграфи 2 и 3. Съответните държави членки установяват в националното си право необходимите подробни правила за подаване на искания за разрешенията, посочени в параграф 3, за тяхното издаване и изпълнение, както и за надзора и докладването по отношение на тях. В тези правила се конкретизира също така по отношение на кои от целите, посочени в параграф 1, първа алинея, буква з), включително по отношение на кои престъпления, посочени в буква з), точка iii) от същата разпоредба, на компетентните органи може да бъде разрешено да използват тези системи за правоохранителни цели. Държавите членки съобщават на Комисията тези правила най-късно 30 дни след приемането им. Държавите членки могат да въведат, в съответствие с правото на Съюза, по-ограничителни законови разпоредби относно използването на системи за дистанционна биометрична идентификация.
(5) Un stat membru poate decide să prevadă posibilitatea de a autoriza, integral sau parțial, utilizarea sistemelor de identificare biometrică la distanță în timp real în spațiile accesibile publicului în scopul aplicării legii, în limitele și condițiile enumerate la alineatul (1) primul paragraf litera (h) și la alineatele (2) și (3). Statul membru în cauză stabilește în dreptul său intern normele detaliate necesare pentru solicitarea, eliberarea și exercitarea, precum și pentru supravegherea autorizațiilor menționate la alineatul (3) și pentru raportarea cu privire la acestea. Normele respective specifică, de asemenea, pentru care dintre obiectivele enumerate la alineatul (1) primul paragraf litera (h), inclusiv pentru care dintre infracțiunile menționate la litera (h) punctul (iii) de la alineatul respectiv, pot fi autorizate autoritățile competente să utilizeze respectivele sisteme în scopul aplicării legii. Statele membre notifică normele respective Comisiei în termen de cel mult 30 de zile de la adoptarea acestora. Statele membre pot introduce, în conformitate cu dreptul Uniunii, legi mai restrictive privind utilizarea sistemelor de identificare biometrică la distanță.
6. Националните органи за надзор на пазара и националните органи за защита на данните на държавите членки, които са били уведомени за използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели съгласно параграф 4, представят на Комисията годишни доклади относно това използване. За тази цел Комисията осигурява на държавите членки и на националните органи за надзор на пазара и за защита на данните образец, включващ информация за броя на решенията, взети от компетентните съдебни органи или от независим административен орган, чието решение е задължително, по отношение на искания за разрешения в съответствие с параграф 3 и за резултатите от тях.
(6) Autoritățile naționale de supraveghere a pieței și autoritățile naționale de protecție a datelor din statele membre care au fost notificate cu privire la utilizarea sistemelor de identificare biometrică la distanță în timp real în spațiile accesibile publicului în scopul aplicării legii în temeiul alineatului (4) prezintă Comisiei rapoarte anuale cu privire la utilizarea respectivă. În acest scop, Comisia furnizează statelor membre și autorităților naționale de supraveghere a pieței și de protecție a datelor un model, inclusiv informații privind numărul deciziilor luate de autoritățile judiciare competente sau de o autoritate administrativă independentă a cărei decizie are efect obligatoriu, în ceea ce privește cererile de autorizare în conformitate cu alineatul (3), precum și rezultatul cererilor respective.
7. Комисията публикува годишни доклади относно използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели на базата на обобщени данни в държавите членки, основани на посочените в параграф 6 годишни доклади. Тези годишни доклади не съдържат чувствителни оперативни данни от съответните правоохранителни дейности.
(7) Comisia publică rapoarte anuale privind utilizarea sistemelor de identificare biometrică la distanță în timp real în spațiile accesibile publicului în scopul aplicării legii, pe baza datelor agregate din statele membre din cadrul rapoartelor anuale menționate la alineatul (6). Rapoartele anuale respective nu includ date operaționale sensibile ale activităților conexe de aplicare a legii.
8. Настоящият член не засяга забраните, които се прилагат, когато дадена практика в областта на ИИ нарушава друго право на Съюза.
(8) Prezentul articol nu afectează interdicțiile care se aplică în cazul în care o practică în materie de IA încalcă alte dispoziții din dreptul Uniunii.
ГЛАВА III
CAPITOLUL III
ВИСОКОРИСКОВИ СИСТЕМИ С ИИ
SISTEME DE IA CU GRAD RIDICAT DE RISC
РАЗДЕЛ 1
SECȚIUNEA 1
Класифициране на системи с ИИ като високорискови
Clasificarea sistemelor de IA ca prezentând un risc ridicat
Член 6
Articolul 6
Правила за класифициране на системи с ИИ като високорискови
Norme de clasificare pentru sistemele de IA cu grad ridicat de risc
1. Без оглед на това дали дадена система с ИИ се пуска на пазара или се пуска в действие независимо от продуктите, посочени в букви а) и б), тази система с ИИ се счита за високорискова, когато са изпълнени следните две условия:
(1) Indiferent dacă un sistem de IA este introdus pe piață sau pus în funcțiune independent de produsele menționate la literele (a) și (b), respectivul sistem de IA este considerat ca prezentând un grad ridicat de risc în cazul în care sunt îndeplinite cumulativ următoarele două condiții:
a)
системата с ИИ е предназначена да се използва като защѝтен елемент на продукт или самата система с ИИ е продукт, попадащ в обхвата на законодателството на Съюза за хармонизация, посочено в приложение I;
(a)
sistemul de IA este destinat a fi utilizat ca o componentă de siguranță a unui produs sau sistemul de IA este el însuși un produs care face obiectul legislației de armonizare a Uniunii care figurează în anexa I;
б)
продуктът, чийто защѝтен елемент съгласно буква а) е системата с ИИ, или самата система с ИИ като продукт трябва да премине оценяване на съответствието от трето лице с оглед на пускането на пазара или пускането в действие на посочения продукт в съответствие със законодателството на Съюза за хармонизация, посочено в приложение I.
(b)
produsul a cărui componentă de siguranță în temeiul literei (a) este sistemul de IA sau sistemul de IA în sine ca produs trebuie să fie supus unei evaluări a conformității de către o terță parte, în vederea introducerii pe piață sau a punerii în funcțiune a produsului respectiv în temeiul legislației de armonizare a Uniunii care figurează în anexa I.
2. В допълнение към високорисковите системи с ИИ, посочени в параграф 1, за високорискови се считат и системите с ИИ, посочени в приложение III.
(2) Sistemele de IA menționate în anexa III sunt considerate, pe lângă sistemele de IA cu grad ridicat de risc menționate la alineatul (1), ca prezentând un grad ridicat de risc.
3. Чрез дерогация от параграф 2, система с ИИ, посочена в приложение III, не се счита за високорискова, ако не представлява значителен риск от увреждане на здравето, безопасността или основните права на физическите лица, включително като не оказва съществено влияние върху резултата от вземането на решения.
(3) Prin derogare de la alineatul (2), un sistem de IA menționat în anexa III nu poate fi considerat ca prezentând un grad ridicat de risc dacă nu prezintă un risc semnificativ de a aduce prejudicii sănătății, siguranței sau drepturilor fundamentale ale persoanelor fizice, inclusiv prin faptul că nu influențează în mod semnificativ rezultatul procesului decizional.
Първа алинея се прилага, когато е изпълнено някое от следните условия:
Primul paragraf se aplică în cazul în care oricare dintre următoarele condiții este îndeplinită:
a)
системата с ИИ е предназначена да изпълнява точно формулирана процедурна задача;
(a)
sistemul de IA este destinat să îndeplinească o sarcină procedurală restrânsă;
б)
системата с ИИ е предназначена да подобри резултата от извършена преди това човешка дейност;
(b)
sistemul de IA este destinat să îmbunătățească rezultatul unei activități umane finalizate anterior;
в)
системата с ИИ е предназначена да открива модели за вземане на решения или отклонения от предходни модели за вземане на решения и не е предназначена да замени или повлияе на направената преди това човешка оценка, без да бъде извършен подходящ преглед от човек; или
(c)
sistemul de IA este destinat să depisteze modelele decizionale sau abaterile de la modelele decizionale anterioare și nu este menit să înlocuiască sau să influențeze evaluarea umană finalizată anterior, fără o revizuire umană adecvată; sau
г)
системата с ИИ е предназначена да изпълнява подготвителна задача с оглед на извършването на оценка, която е от значение за целите на случаите на използване, посочени в приложение III.
(d)
sistemul de IA este destinat să îndeplinească o sarcină pregătitoare pentru o evaluare relevantă în scopul cazurilor de utilizare enumerate în anexa III.
Независимо от първа алинея, система с ИИ, посочена в приложение III, винаги се счита за високорискова, когато извършва профилиране на физически лица.
În pofida primului paragraf, un sistem de IA menționat în anexa III este întotdeauna considerat ca prezentând un grad ridicat de risc dacă creează profiluri ale persoanelor fizice.
4. Доставчик, който счита, че дадена система с ИИ, посочена в приложение III, не е високорискова, документира своята оценка, преди тази система да бъде пусната на пазара или пусната в действие. За такъм доставчик се прилага задължението за регистрация, установено в член 49, параграф 2. При поискване от националните компетентни органи доставчикът предоставя документацията за оценката.
(4) Orice furnizor care consideră că un sistem de IA menționat în anexa III nu prezintă un grad ridicat de risc documentează evaluarea sa înainte ca sistemul respectiv să fie introdus pe piață sau pus în funcțiune. Furnizorul respectiv este supus obligației de înregistrare prevăzute la articolul 49 alineatul (2). La cererea autorităților naționale competente, furnizorul pune la dispoziție dovezile documentare în sprijinul evaluării.
5. Комисията, след консултация с Европейския съвет по изкуствен интелект (наричан по-долу „Съветът по ИИ“) и не по-късно от 2 февруари 2026 г., дава насоки, с които конкретизира практическото прилагане на настоящия член в съответствие с член 96, заедно с изчерпателен списък с практически примери за случаи на употреба на системи с ИИ, които са високорискови, и такива, които не са високорискови.
(5) După consultarea Consiliului european pentru inteligența artificială (denumit în continuare „Consiliul IA”) și în termen de cel mult 2 februarie 2026, Comisia furnizează orientări care precizează modalitățile privind punerea în aplicare practică a prezentului articol, în conformitate cu articolul 96, împreună cu o listă cuprinzătoare de exemple practice de cazuri de utilizare a sistemelor de IA care prezintă un grad ridicat de risc și a celor care nu prezintă un grad ridicat de risc.
6. На Комисията се предоставя правомощието да приема делегирани актове в съответствие с член 97 за изменение на параграф 3, втора алинея от настоящия член чрез добавяне на нови условия към установените в посочената разпоредба или за изменението им, когато има конкретни и достоверни доказателства за наличието на системи с ИИ, които попадат в обхвата на приложение III, но не пораждат значителен риск от увреждане на здравето, безопасността или основните права на физическите лица.
(6) Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica alineatul (3) al doilea paragraf de la prezentul articol prin adăugarea de noi condiții față de cele prevăzute la dispoziția menționată sau prin modificarea acestora, în cazul în care există dovezi concrete și fiabile ale existenței unor sisteme de IA care intră în domeniul de aplicare al anexei III, dar care nu prezintă un risc semnificativ de a aduce prejudicii sănătății, siguranței sau drepturilor fundamentale ale persoanelor fizice.
7. Комисията приема делегирани актове в съответствие с член 97 за изменение на параграф 3, втора алинея от настоящия член чрез заличаване на някое от условията, установени в посочената разпоредба, когато има конкретни и достоверни доказателства, че това е необходимо за поддържането на равнището на защита на здравето, безопасността и основните права, предвидено в настоящия регламент.
(7) Comisia adoptă acte delegate în conformitate cu articolul 97 pentru a modifica alineatul (3) al doilea paragraf de la prezentul articol prin eliminarea oricăreia dintre condițiile prevăzute la dispoziția menționată, în cazul în care există dovezi concrete și fiabile că acest lucru este necesar în scopul menținerii nivelului de protecție a sănătății, a siguranței și a drepturilor fundamentale prevăzut în prezentul regulament.
8. Приетите в съответствие с параграфи 6 и 7 от настоящия член изменения на условията, установени в параграф 3, втора алинея, не може да намаляват общото равнище на защита на здравето, безопасността и основните права, предвидено в настоящия регламент, трябва да осигуряват съгласуваност с делегираните актове, приети съгласно член 7, параграф 1, и да са съобразени с пазарното и технологичното развитие.
(8) Orice modificare a condițiilor prevăzute la alineatul (3) al doilea paragraf, adoptată în conformitate cu alineatele (6) și (7) de la prezentul articol, nu reduce nivelul general de protecție a sănătății, a siguranței și a drepturilor fundamentale prevăzut în prezentul regulament și asigură corelarea cu actele delegate adoptate în temeiul articolului 7 alineatul (1) și ține seama de evoluțiile pieței și ale tehnologiei.
Член 7
Articolul 7
Изменения на приложение III
Modificări ale anexei III
1. На Комисията се предоставя правомощието да приема делегирани актове в съответствие с член 97 за изменение на приложение III чрез добавяне на нови или изменение на случаите на употреба на високорискови системи с ИИ, когато са изпълнени следните две условия:
(1) Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica anexa III prin adăugarea de cazuri de utilizare a sistemelor de IA cu grad ridicat de risc sau prin modificarea unor astfel de cazuri dacă sunt îndeplinite cumulativ următoarele două condiții:
a)
системите с ИИ са предназначени за използване в някоя от областите, посочени в приложение III;
(a)
sistemele de IA sunt destinate a fi utilizate în oricare dintre domeniile enumerate în anexa III;
б)
системите с ИИ пораждат риск от увреждане на здравето и безопасността или риск от неблагоприятно въздействие върху основните права и този риск е равностоен или по-голям от риска от увреждане или неблагоприятно въздействие, породен от високорисковите системи с ИИ, които вече са посочени в приложение III.
(b)
sistemele de IA prezintă un risc de a aduce prejudicii sănătății și siguranței sau un risc de impact negativ asupra drepturilor fundamentale, iar riscul respectiv este echivalent sau mai mare în raport cu riscul de a aduce prejudicii sau de a provoca un impact negativ prezentat de sistemele de IA cu grad ridicat de risc deja menționate în anexa III.
2. При оценката във връзка с условието по параграф 1, буква б), Комисията взема предвид следните критерии:
(2) Atunci când evaluează condiția prevăzută la alineatul (1) litera (b), Comisia ia în considerare următoarele criterii:
a)
предназначението на системата с ИИ;
(a)
scopul preconizat al sistemului de IA;
б)
степента, в която дадена система с ИИ е била използвана или е вероятно да бъде използвана;
(b)
măsura în care a fost utilizat sau este probabil să fie utilizat un sistem de IA;
в)
естеството и количеството на данните, обработвани и използвани от системата с ИИ, и по-специално дали се обработват специални категории лични данни;
(c)
natura și volumul datelor prelucrate și utilizate de sistemul de IA, în special dacă sunt prelucrate categorii speciale de date cu caracter personal;
г)
степента, в която системата с ИИ действа автономно, и възможността човек да отхвърли решение или препоръки, които могат да доведат до евентуална вреда;
(d)
măsura în care sistemul de IA acționează în mod autonom și posibilitatea ca o persoană să anuleze o decizie sau recomandări care atrag un potențial prejudiciu;
д)
степента, в която използването на система с ИИ вече е причинило увреждане на здравето и безопасността или е оказало неблагоприятно въздействие върху основните права, или е породило значителни опасения във връзка с вероятността от такова увреждане или неблагоприятно въздействие, като за това свидетелстват например доклади или документирани твърдения, представени на националните компетентни органи, или други доклади, когато е приложимо;
(e)
măsura în care utilizarea unui sistem de IA a adus deja prejudicii sănătății și siguranței, a avut un impact negativ asupra drepturilor fundamentale sau a generat motive de îngrijorare semnificative în ceea ce privește probabilitatea unor astfel de prejudicii sau a unui astfel de impact negativ, astfel cum o demonstrează, de exemplu, rapoartele sau acuzațiile documentate prezentate autorităților naționale competente sau alte rapoarte, după caz;
е)
потенциалната степен на такова увреждане или неблагоприятно въздействие, по-специално по отношение на неговия интензитет и способността му да засегне множество лица или да засегне несъразмерно конкретна група лица;
(f)
amploarea potențială a unor astfel de prejudicii sau a unui astfel de impact negativ, în special în ceea ce privește intensitatea și capacitatea sa de a afecta numeroase persoane sau de a afecta în mod disproporționat un anumit grup de persoane;
ж)
степента, в която лицата, които може да бъдат засегнати от увреждане или неблагоприятно въздействие, зависят от резултата, получен от дадена система с ИИ, по-специално тъй като поради практически или правни причини не е възможно в разумна степен да не използват този резултат;
(g)
măsura în care persoanele care sunt potențial prejudiciate sau afectate de un impact negativ depind de rezultatul produs cu ajutorul unui sistem de IA, în special deoarece, din motive practice sau juridice, nu este posibil în mod rezonabil să se renunțe la rezultatul respectiv;
з)
степента, в която съществува властово неравновесие или в която лицата, които може да бъдат засегнати от увреждане или неблагоприятно въздействие, се намират в уязвимо положение по отношение на внедрителя на система с ИИ, по-специално поради статус, авторитет, познания, икономическо или социално положение или възраст;
(h)
măsura în care există un dezechilibru de putere sau persoanele care sunt potențial prejudiciate sau afectate de impactul negativ se află într-o poziție vulnerabilă în raport cu implementatorul unui sistem de IA, în special din cauza statutului, a autorității, a cunoștințelor, a circumstanțelor economice sau sociale sau a vârstei;
и)
степента, в която резултатът, получен с използването на система с ИИ, е лесно поправим или обратим, предвид наличните технически решения за неговата поправка или отхвърляне, при които резултатите, оказващи неблагоприятно въздействие върху здравето, безопасността или основните права, не се считат за лесно поправими или обратими;
(i)
măsura în care rezultatul produs cu implicarea unui sistem de IA este ușor de corectat sau reversibil, avându-se în vedere soluțiile tehnice disponibile pentru corectare sau reversare și dat fiind că rezultatele care au un impact negativ asupra sănătății, siguranței sau drepturilor fundamentale nu sunt considerate ca fiind ușor de corectat sau reversibile;
й)
мащаба и вероятната полза от внедряването на системата с ИИ за отделни лица, групи или обществото като цяло, включително възможни подобрения на безопасността на продуктите;
(j)
amploarea și probabilitatea beneficiilor implementării sistemului de IA pentru persoane fizice, grupuri sau societate în general, inclusiv îmbunătățirile posibile ale siguranței produselor;
к)
степента, в която в действащото право на Съюза са предвидени:
(k)
măsura în care dreptul existent al Uniunii prevede:
i)
ефективни мерки за правна защита във връзка с рисковете, произтичащи от дадена система с ИИ, с изключение на искове за обезщетение;
(i)
măsuri reparatorii eficace în legătură cu riscurile prezentate de un sistem de IA, cu excepția cererilor de despăgubiri;
ii)
ефективни мерки за предотвратяване или значително намаляване на тези рискове.
(ii)
măsuri eficace de prevenire sau de reducere substanțială a acestor riscuri.
3. На Комисията се предоставя правомощието да приема делегирани актове в съответствие с член 97 за изменение на списъка в приложение III чрез заличаване на високорискови системи с ИИ, когато са изпълнени следните две условия:
(3) Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica lista din anexa III prin eliminarea de sisteme de IA cu grad ridicat de risc în cazul în care sunt îndeplinite cumulativ următoarele două condiții:
a)
съответната високорискова система с ИИ или системи с ИИ вече не поражда(т) значителен риск за основните права, здравето или безопасността предвид критериите, изброени в параграф 2;
(a)
sistemul de IA cu grad ridicat de risc în cauză nu mai prezintă riscuri semnificative pentru drepturile fundamentale, sănătate sau siguranță, ținând seama de criteriile enumerate la alineatul (2);
б)
заличаването не намалява общото равнище на защитата на здравето, безопасността и основните права съгласно правото на Съюза.
(b)
eliminarea nu reduce nivelul general de protecție a sănătății, siguranței și drepturilor fundamentale în temeiul dreptului Uniunii.
РАЗДЕЛ 2
SECȚIUNEA 2
Изисквания по отношение на високорисковите системи с ИИ
Cerințe pentru sistemele de IA cu grad ridicat de risc
Член 8
Articolul 8
Съответствие с изискванията
Respectarea cerințelor
1. Високорисковите системи с ИИ трябва да съответстват на изискванията, установени в настоящия раздел, като се взема предвид тяхното предназначение, както и общоприетите съвременни технически постижения в областта на ИИ и свързаните с ИИ технологии. При осигуряването на съответствие с тези изисквания се взема предвид системата за управление на риска, посочена в член 9.
(1) Sistemele de IA cu grad ridicat de risc respectă cerințele stabilite în prezenta secțiune, ținând seama de scopul lor preconizat, precum și de stadiul de avansare general recunoscut al IA și al tehnologiilor conexe IA. Sistemul de gestionare a riscurilor menționat la articolul 9 este luat în considerare atunci când se asigură respectarea cerințelor respective.
2. Когато даден продукт съдържа система с ИИ, за която се прилагат изискванията на настоящия регламент, както и изискванията на законодателството на Съюза за хармонизация, посочено в раздел А от приложение I, доставчиците носят отговорност за осигуряване на пълното съответствие на продукта с всички приложими изисквания съгласно приложимото законодателство на Съюза за хармонизация. С оглед на осигуряване на съответствието на високорисковите системи с ИИ, посочени в параграф 1, с изискванията, установени в настоящия раздел, и с цел да се осигури съгласуваност, да се избегне дублиране и да се сведе до минимум допълнителната тежест, доставчиците могат да изберат да включат, когато е целесъобразно, необходимите процеси на изпитване и докладване, информация и документация, които предоставят за своя продукт, във вече съществуваща документация и процедури, изисквани съгласно законодателството на Съюза за хармонизация, посочено в раздел А от приложение I.
(2) În cazul în care un produs conține un sistem de IA căruia i se aplică cerințele prezentului regulament, precum și cerințele din legislația de armonizare a Uniunii care figurează în anexa I secțiunea A, furnizorii au responsabilitatea de a se asigura că produsul lor respectă pe deplin toate cerințele aplicabile impuse de legislația aplicabilă de armonizare a Uniunii. Pentru a asigura conformitatea sistemelor de IA cu grad ridicat de risc menționate la alineatul (1) cu cerințele prevăzute în prezenta secțiune și pentru a asigura coerența, a evita suprapunerile și a reduce la minimum sarcinile suplimentare, furnizorii au posibilitatea de a integra, după caz, procesele de testare și raportare necesare, informațiile și documentația pe care le furnizează cu privire la produsul lor în documentația și procedurile deja existente și sunt impuse în temeiul legislației de armonizare a Uniunii care figurează în anexa I secțiunea A.
Член 9
Articolul 9
Система за управление на риска
Sistemul de gestionare a riscurilor
1. Във връзка с високорисковите системи с ИИ се създава, прилага, документира и поддържа система за управление на риска.
(1) Se instituie, se pune în aplicare, se documentează și se menține un sistem de gestionare a riscurilor în legătură cu sistemele de IA cu grad ridicat de risc.
2. Системата за управление на риска се разбира като непрекъснат цикличен процес, планиран и протичащ през целия жизнен цикъл на високорисковата система с ИИ и изискващ редовен и систематичен преглед и актуализиране. Тя включва следните стъпки:
(2) Sistemul de gestionare a riscurilor este înțeles ca un proces iterativ continuu planificat și derulat pe parcursul întregului ciclu de viață al unui sistem de IA cu grad ridicat de risc, necesitând în mod periodic actualizarea și revizuirea sistematică. Acesta cuprinde următoarele etape:
a)
установяване и анализ на известните и разумно предвидимите рискове, които високорисковата система с ИИ може да породи по отношение на здравето, безопасността и основните права, когато високорисковата система с ИИ се използва в съответствие с предназначението си;
(a)
identificarea și analiza riscurilor cunoscute și previzibile în mod rezonabil pe care sistemul de IA cu grad ridicat de risc le poate prezenta pentru sănătate, siguranță sau drepturile fundamentale atunci când sistemul de IA cu grad ridicat de risc este utilizat în conformitate cu scopul preconizat;
б)
прогноза и оценка на рисковете, които могат да възникнат, когато високорисковата система с ИИ се използва в съответствие с предназначението си и в условия на разумно предвидима неправилна експлоатация;
(b)
estimarea și evaluarea riscurilor care pot apărea atunci când sistemul de IA cu grad ridicat de risc este utilizat în conformitate cu scopul său preconizat și în condiții de utilizare necorespunzătoare previzibilă în mod rezonabil;
в)
оценка на други евентуално възникващи рискове въз основа на анализ на данните, събрани от системата за мониторинг след пускането на пазара, посочена в член 72;
(c)
evaluarea altor riscuri care ar putea apărea pe baza analizei datelor colectate din sistemul de monitorizare ulterioară introducerii pe piață menționat la articolul 72;
г)
приемане на подходящи и целенасочени мерки за управление на риска, разработени с цел преодоляване на рисковете, установени съгласно буква а).
(d)
adoptarea unor măsuri adecvate și specifice de gestionare a riscurilor, concepute pentru a combate riscurile identificate în temeiul literei (a).
3. Рисковете, посочени в настоящия член, се отнасят само до тези, които могат да бъдат разумно ограничени или отстранени при разработването или проектирането на високорисковата система с ИИ или чрез предоставянето на подходяща техническа информация.
(3) Prezentul articol se referă numai la riscurile care pot fi atenuate sau eliminate în mod rezonabil prin dezvoltarea sau proiectarea sistemului de IA cu grad ridicat de risc sau prin furnizarea de informații tehnice adecvate.
4. Мерките за управление на риска, посочени в параграф 2, буква г), трябва да са надлежно съобразени с последиците и възможното взаимодействие в резултат на съчетаното прилагане на изискванията, установени в настоящия раздел, с цел по-ефективното свеждане до минимум на рисковете, като същевременно се постигне подходящ баланс при прилагането на мерките за изпълнение на тези изисквания.
(4) Măsurile de gestionare a riscurilor menționate la alineatul (2) litera (d) țin seama în mod corespunzător de efectele și interacțiunea posibilă care rezultă din aplicarea combinată a cerințelor prevăzute în prezenta secțiune, în vederea reducerii la minimum a riscurilor într-un mod mai eficace, obținându-se totodată un echilibru adecvat în punerea în aplicare a măsurilor de îndeplinire a cerințelor respective.
5. Мерките за управление на риска, посочени в параграф 2, буква г), трябва да са такива, че съответният остатъчен риск, свързан с всяка опасност, както и общият остатъчен риск на високорисковите системи с ИИ, да се считат за приемливи.
(5) Măsurile de gestionare a riscurilor menționate la alineatul (2) litera (d) sunt de așa natură încât riscul rezidual relevant asociat fiecărui pericol, precum și riscul rezidual global al sistemelor de IA cu grad ridicat de risc să fie considerate a fi acceptabile.
При определянето на най-подходящите мерки за управление на риска се гарантира следното:
La identificarea celor mai adecvate măsuri de gestionare a riscurilor se asigură următoarele:
a)
отстраняване или намаляване на рисковете, установени и оценени съгласно параграф 2, доколкото е технически осъществимо, чрез адекватно проектиране и разработване на високорисковата система с ИИ;
(a)
eliminarea sau reducerea riscurilor identificate și evaluate în temeiul alineatului (2), în măsura în care acest lucru este fezabil din punct de vedere tehnic prin proiectarea și dezvoltarea adecvată a sistemului de IA cu grad ridicat de risc;
б)
когато е целесъобразно, прилагане на адекватни мерки за ограничаване и контрол по отношение на рисковете, които не могат да бъдат отстранени;
(b)
după caz, punerea în aplicare a unor măsuri adecvate de atenuare și control pentru combaterea riscurilor care nu pot fi eliminate;
в)
предоставяне на необходимата информация съгласно член 13 и, където е целесъобразно, обучение на внедрителите.
(c)
furnizarea informațiilor necesare în temeiul articolului 13 și, după caz, formarea implementatorilor.
С оглед на отстраняването или намаляването на рисковете, свързани с използването на високорисковата система с ИИ, се отчитат надлежно техническите познания, опитът, образованието и обучението, които се очакват от внедрителя, и предполагаемият контекст, в който системата е предназначена да се използва.
În vederea eliminării sau reducerii riscurilor legate de utilizarea sistemului de IA cu grad ridicat de risc se acordă atenția cuvenită cunoștințelor tehnice, experienței, educației și formării preconizate din partea implementatorului, precum și contextului prezumtiv în care urmează să fie utilizat sistemul.
6. Високорисковите системи с ИИ се изпитват с цел набелязване на най-подходящите и целенасочени мерки за управление на риска. Изпитванията трябва да гарантират, че високорисковите системи с ИИ функционират стабилно с оглед на предназначението си и че са в съответствие с изискванията, установени в настоящия раздел.
(6) Sistemele de IA cu grad ridicat de risc sunt testate în scopul identificării celor mai adecvate măsuri specifice de gestionare a riscurilor. Testarea asigură faptul că sistemele de IA cu grad ridicat de risc funcționează într-un mod coerent cu scopul preconizat și că sunt conforme cu cerințele stabilite în prezenta secțiune.
7. Процедурите за изпитване може да включват изпитване в реални условия в съответствие с член 60.
(7) Procedurile de testare pot include testarea în condiții reale, în conformitate cu articolul 60.
8. Изпитването на високорисковите системи с ИИ се извършва, когато е целесъобразно, във всеки момент от процеса на разработване и — при всички случаи — преди пускането им на пазара или пускането им в действие. Изпитването се извършва спрямо предварително определени показатели и вероятностни прагове, които са подходящи с оглед на предназначението на високорисковата система с ИИ.
(8) Testarea sistemelor de IA cu grad ridicat de risc se efectuează, după caz, în orice moment pe parcursul procesului de dezvoltare și, în orice caz, înainte de introducerea pe piață sau de punerea în funcțiune a acestora. Testarea se efectuează pe baza unor indicatori și a unor praguri probabilistice definite în prealabil, care sunt adecvate scopului preconizat al sistemului de IA cu grad ridicat de risc.
9. При прилагането на системата за управление на риска, предвидена в параграфи 1—7, доставчиците разглеждат въпроса дали, с оглед на предназначението на високорисковата система с ИИ, е вероятно тя да окаже неблагоприятно въздействие върху ненавършили 18 години лица и, в зависимост от случая, върху други уязвими групи.
(9) La punerea în aplicare a sistemului de gestionare a riscurilor descris la alineatele (1)-(7), furnizorii analizează dacă, având în vedere scopul său preconizat, sistemul de IA cu grad ridicat de risc este susceptibil să aibă un impact negativ asupra persoanelor cu vârsta sub 18 ani și, după caz, asupra altor grupuri vulnerabile.
10. За доставчиците на високорискови системи с ИИ, спрямо които се прилагат изисквания по отношение на вътрешните процеси за управление на риска съгласно други относими разпоредби на правото на Съюза, аспектите, предвидени в параграфи 1—9, могат да бъдат част от процедурите за управление на риска, установени съгласно това право, или да се съчетават с тях.
(10) Pentru furnizorii de sisteme de IA cu grad ridicat de risc care fac obiectul unor cerințe privind procesele interne de gestionare a riscurilor în temeiul altor dispoziții relevante din dreptul Uniunii, aspectele descrise la alineatele (1)-(9) pot face parte din procedurile de gestionare a riscurilor stabilite în temeiul legislației respective sau pot fi combinate cu acestea.
Член 10
Articolul 10
Данни и администриране на данните
Datele și guvernanța datelor
1. Високорисковите системи с ИИ, при които се използват техники, свързани с обучение с данни на модели с ИИ, се разработват въз основа на набори от обучителни, валидационни и изпитвателни данни, които отговарят на критериите за качество, посочени в параграфи 2—5, когато се използват такива набори от данни.
(1) Sistemele de IA cu grad ridicat de risc care utilizează tehnici ce implică antrenarea de modele de IA cu date se dezvoltă pe baza unor seturi de date de antrenament, de validare și de testare care îndeplinesc criteriile de calitate menționate la alineatele (2)-(5) ori de câte ori sunt utilizate astfel de seturi de date.
2. По отношение на наборите от обучителни, валидационни и изпитвателни данни се прилагат практики за администриране и управление на данните, подходящи с оглед на предназначението на системата с ИИ. Тези практики се отнасят по-специално до:
(2) Seturile de date de antrenament, de validare și de testare fac obiectul unor practici de guvernanță și gestionare a datelor adecvate scopului preconizat al sistemului de IA cu grad ridicat de risc. Practicile respective se referă în special la:
a)
съответните проектантски решения;
(a)
opțiunile de proiectare relevante;
б)
процесите на събиране на данни и произхода на данните и в случай на лични данни — първоначалната цел на събирането на данните;
(b)
procesele de colectare a datelor și originea datelor, iar în cazul datelor cu caracter personal, scopul inițial al colectării datelor;
в)
съответните операции по подготовка на данните, като анотиране, обозначаване, изчистване, актуализиране, обогатяване и агрегиране;
(c)
operațiunile relevante de prelucrare în vederea pregătirii datelor, cum ar fi adnotarea, etichetarea, curățarea, actualizarea, îmbogățirea și agregarea;
г)
формулирането на допускания, по-специално по отношение на информацията, която данните следва да измерват и представят;
(d)
formularea unor ipoteze, în special în ceea ce privește informațiile pe care datele ar trebui să le măsoare și să le reprezinte;
д)
оценка на наличието, количеството и годността на необходимите набори от данни;
(e)
o evaluare a disponibilității, a cantității și a adecvării seturilor de date necesare;
е)
преглед с оглед на евентуална предубеденост, която има вероятност да засегне здравето и безопасността на хората, да окаже отрицателно въздействие върху основните права или да доведе до дискриминация, забранена съгласно правото на Съюза, по-специално когато резултатите от данните оказват влияние върху входящите данни за бъдещи операции;
(f)
examinarea în vederea identificării unor posibile prejudecăți care sunt susceptibile să afecteze sănătatea și siguranța persoanelor, să aibă un impact negativ asupra drepturilor fundamentale sau să conducă la o discriminare interzisă în temeiul dreptului Uniunii, în special în cazul în care datele de ieșire influențează datele de intrare pentru operațiunile viitoare;
ж)
подходящи мерки за откриване, предотвратяване и смекчаване на евентуална предубеденост, установена съгласно буква е);
(g)
măsuri adecvate pentru detectarea, prevenirea și atenuarea posibilelor prejudecăți identificate în conformitate cu litera (f);
з)
откриване на съответни пропуски или недостатъци в данните, които възпрепятстват съответствието с настоящия регламент, и на начините за отстраняване на тези пропуски и недостатъци.
(h)
identificarea lacunelor sau a deficiențelor relevante în materie de date care împiedică conformitatea cu prezentul regulament și a modului în care acestea pot fi abordate.
3. Наборите от обучителни, валидационни и изпитвателни данни трябва да са подходящи, достатъчно представителни и във възможно най-голяма степен без грешки и пълни с оглед на предназначението на системата. Те трябва да притежават подходящите статистически свойства, включително, когато е приложимо, по отношение на лицата или групите лица, по отношение на които високорисковата система с ИИ е предназначена да се използва. Тези характеристики на наборите от данни могат да са налични на равнището на отделните набори от данни или по отношение на комбинация от тях.
(3) Seturile de date de antrenament, de validare și de testare sunt relevante, suficient de reprezentative, și pe cât posibil, fără erori și complete, având în vedere scopul preconizat. Acestea au proprietățile statistice corespunzătoare, inclusiv, după caz, în ceea ce privește persoanele sau grupurile de persoane în legătură cu care se intenționează să fie utilizat sistemul de IA cu grad ridicat de risc. Caracteristicile respective ale seturilor de date pot fi îndeplinite la nivelul seturilor de date individuale sau la nivelul unei combinații a acestora.
4. Наборите от данни трябва да са съобразени — доколкото това е необходимо с оглед на предназначението — с характеристиките или елементите, характерни за конкретната географска, контекстуална, поведенческа или функционална среда, в която високорисковата система с ИИ е предназначена да бъде използвана.
(4) Seturile de date iau în considerare, în măsura impusă de scopul preconizat, caracteristicile sau elementele specifice cadrului geografic, contextual, comportamental sau funcțional specific în care este destinat să fie utilizat sistemul de IA cu grad ridicat de risc.
5. Доколкото това е строго необходимо, за да се гарантира откриване и коригиране на предубеденост във високорисковите системи с ИИ в съответствие с параграф 2, букви е) и ж) от настоящия член, доставчиците на такива системи могат по изключение да обработват специални категории лични данни при спазването на подходящи гаранции за основните права и свободи на физическите лица. Освен разпоредбите, предвидени в регламенти (ЕС) 2016/679 и (ЕС) 2018/1725 и Директива (ЕС) 2016/680, за да може да се извърши такова обработване, трябва да бъдат изпълнени всички посочени по-долу условия:
(5) În măsura în care acest lucru este strict necesar pentru a asigura detectarea și corectarea prejudecăților în legătură cu sistemele de IA cu grad ridicat de risc în conformitate cu alineatul (2) literele (f) și (g) de la prezentul articol, furnizorii de astfel de sisteme pot prelucra în mod excepțional categoriile speciale de date cu caracter personal, sub rezerva unor garanții adecvate pentru drepturile și libertățile fundamentale ale persoanelor fizice. În plus față de dispozițiile prevăzute de Regulamentele (UE) 2016/679 și (UE) 2018/1725 și de Directiva (UE) 2016/680, pentru ca o astfel de prelucrare să aibă loc, trebuie să fie respectate toate condițiile următoare:
a)
откриването и коригирането на предубедеността не могат да се осъществят ефективно чрез обработването на други данни, включително синтетични или анонимизирани данни;
(a)
depistarea și corectarea prejudecăților nu poate fi realizată în mod eficace prin prelucrarea altor date, inclusiv a datelor sintetice sau anonimizate;
б)
по отношение на специалните категории лични данни се прилагат технически ограничения, свързани с повторното използване на личните данни, както и най-съвременни мерки за сигурност и опазване на неприкосновеността на личния живот, включително псевдонимизация;
(b)
categoriile speciale de date cu caracter personal fac obiectul unor limitări tehnice privind reutilizarea datelor cu caracter personal și al unor măsuri avansate de securitate și de protecție a vieții private, inclusiv pseudonimizarea;
в)
по отношение на специалните категории лични данни се прилагат мерки, с които се гарантира, че обработваните лични данни са обезопасени, защитени, спрямо тях се прилагат подходящи гаранции, включително строг контрол и документиране на достъпа, с цел да се избегне злоупотреба и да се гарантира, че само оправомощени лица имат достъп до тези лични данни със съответните задължения за спазване на поверителност;
(c)
categoriile speciale de date cu caracter personal fac obiectul unor măsuri prin care să se asigure că datele cu caracter personal prelucrate sunt securizate și protejate, sub rezerva unor garanții adecvate, inclusiv controale stricte și documentarea accesului, pentru a se evita utilizarea necorespunzătoare și pentru a se asigura că numai persoanele autorizate cu obligații de confidențialitate corespunzătoare au acces la aceste date cu caracter personal;
г)
специалните категории лични данни не се предоставят, не се предават, нито достъпват по друг начин от други лица;
(d)
categoriile speciale de date cu caracter personal nu trebuie să fie transmise, transferate sau accesate în alt mod de către alte părți;
д)
специалните категории лични данни се заличават, след като предубедеността бъде коригирана или личните данни достигнат края на срока си на съхранение, като се взема предвид по-рано настъпилото от двете събития;
(e)
categoriile speciale de date cu caracter personal sunt șterse după corectarea prejudecăților sau după ce datele cu caracter personal au ajuns la sfârșitul perioadei lor de păstrare, în funcție de care dintre acestea survine mai întâi;
е)
записите за дейностите по обработване съгласно регламенти (ЕС) 2016/679 и (ЕС) 2018/1725 и Директива (ЕС) 2016/680 включват причините, поради които обработването на специални категории лични данни е било строго необходимо за откриване и коригиране на предубедеността и не било възможно тази цел да се постигне чрез обработване на други данни.
(f)
evidențele activităților de prelucrare în temeiul Regulamentelor (UE) 2016/679 și (UE) 2018/1725 și al Directivei (UE) 2016/680 includ motivele pentru care a fost strict necesară prelucrarea unor categorii speciale de date cu caracter personal pentru a depista și a corecta prejudecățile și motivele pentru care acest obiectiv nu putea fi realizat prin prelucrarea altor date.
6. При разработването на високорискови системи с ИИ, които не използват техники, включващи обучение на модели с ИИ, параграфи 2—5 се прилагат само за наборите от изпитвателни данни.
(6) Pentru dezvoltarea sistemelor de IA cu grad ridicat de risc care nu utilizează tehnici care implică antrenarea de modele de IA, alineatele (2)-(5) se aplică numai seturilor de date de testare.
Член 11
Articolul 11
Техническа документация
Documentația tehnică
1. Техническата документация на дадена високорискова система с ИИ се изготвя, преди тя да бъде пусната на пазара или пусната в действие, и се поддържа актуална.
(1) Documentația tehnică a unui sistem de IA cu grad ridicat de risc se întocmește înainte ca sistemul respectiv să fie introdus pe piață sau pus în funcțiune și se actualizează.
Техническата документация се изготвя по такъв начин, че да показва, че високорисковата система с ИИ съответства на изискванията, установени в настоящия раздел, и да предоставя на националните компетентни органи и нотифицираните органи цялата необходима информация в ясна и разбираема форма с цел оценяване на съответствието на системата с ИИ с посочените изисквания. Тя съдържа най-малко елементите, установени в приложение IV. МСП, включително новосъздадените предприятия, могат да предоставят по опростен начин елементите на техническата документация, посочени в приложение IV. За тази цел Комисията създава опростен формуляр за техническа документация, съобразен с нуждите на малките предприятия и микропредприятията. Когато МСП, включително новосъздадените предприятия, изберат да предоставят по опростен начин информацията, изисквана съгласно приложение IV, те използват формуляра, посочен в настоящия параграф. Нотифицираните органи приемат формуляра за целите на оценяването на съответствието.
Documentația tehnică se întocmește astfel încât să demonstreze că sistemul de IA cu grad ridicat de risc respectă cerințele prevăzute în prezenta secțiune și să furnizeze autorităților naționale competente și organismelor notificate informațiile necesare într-un mod clar și cuprinzător, pentru a evalua conformitatea sistemului de IA cu cerințele respective. Aceasta conține cel puțin elementele prevăzute în anexa IV. IMM-urile, inclusiv întreprinderile nou-înființate, pot furniza într-o manieră simplificată elementele documentației tehnice specificate în anexa IV. În acest scop, Comisia stabilește un formular simplificat de documentație tehnică care vizează nevoile întreprinderilor mici și ale microîntreprinderilor. În cazul în care IMM-urile, inclusiv întreprinderile nou-înființate, optează să furnizeze informațiile solicitate în anexa IV într-o manieră simplificată, acestea utilizează formularul menționat la prezentul alineat. Organismele notificate acceptă formularul în scopul evaluării conformității.
2. Когато се пуска на пазара или пуска в действие високорискова система с ИИ, свързана с продукт, обхванат от законодателството на Съюза за хармонизация, посочено в раздел А от приложение I, се изготвя един набор от техническа документация, съдържаща цялата посочена в параграф 1 информация, както и информацията, изисквана съгласно тези правни актове.
(2) În cazul în care este introdus pe piață sau pus în funcțiune un sistem de IA cu grad ridicat de risc legat de un produs care face obiectul actelor legislative de armonizare ale Uniunii care figurează în anexa I secțiunea A, se întocmește o singură documentație tehnică ce conține toate informațiile prevăzute la alineatul (1), precum și informațiile necesare în temeiul respectivelor acte juridice.
3. На Комисията се предоставя правомощието да приема делегирани актове в съответствие с член 97 за изменение на приложение IV, когато това е необходимо, за да се гарантира, че предвид техническия напредък техническата документация предоставя цялата информация, необходима за оценяване на съответствието на системата с установените в настоящия раздел изисквания.
(3) Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica anexa IV, atunci când este necesar, pentru a se asigura că, având în vedere progresul tehnic, documentația tehnică furnizează toate informațiile necesare pentru evaluarea conformității sistemului cu cerințele prevăzute în prezenta secțiune.
Член 12
Articolul 12
Поддържане на регистри
Păstrarea evidențelor
1. Високорисковите системи с ИИ технически позволяват автоматичното записване на събития (наричано по-долу „записи“) по време на срока на действие на системата.
(1) Sistemele de IA cu grad ridicat de risc permit din punct de vedere tehnic înregistrarea automată a evenimentelor (fișiere de jurnalizare) de-a lungul duratei de viață a sistemului.
2. С цел да се гарантира равнище на проследимост на функционирането на високорисковата система с ИИ, което е подходящо с оглед на нейното предназначение, възможностите за създаване на записи позволяват записване на събития, които са от значение за:
(2) Pentru a asigura un nivel de trasabilitate a funcționării sistemului de IA cu grad ridicat de risc care să fie adecvat scopului preconizat al sistemului, capabilitățile de jurnalizare permit înregistrarea evenimentelor relevante pentru:
a)
идентифицирането на ситуации, които могат да доведат до това високорисковата система с ИИ да представлява риск по смисъла на член 79, параграф 1 или до съществено изменение;
(a)
identificarea situațiilor care pot avea ca rezultat faptul că sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 79 alineatul (1) sau care pot conduce la o modificare substanțială;
б)
улесняването на мониторинга след пускането на пазара, посочен в член 72; и
(b)
facilitarea monitorizării ulterioare introducerii pe piață menționate la articolul 72; și
в)
мониторинга на функционирането на високорисковите системи с ИИ, посочен в член 26, параграф 5.
(c)
monitorizarea funcționării sistemelor de IA cu grad ridicat de risc menționate la articolul 26 alineatul (5).
3. За високорисковите системи с ИИ, посочени в точка 1, буква а) от приложение III, възможностите за създаване на записи осигуряват най-малко следното:
(3) În cazul sistemelor de IA cu grad ridicat de risc menționate în anexa III punctul 1 litera (a), capabilitățile de jurnalizare furnizează cel puțin:
a)
записване на времето на всяко използване на системата (начална дата и час и крайна дата и час на всяко използване);
(a)
înregistrarea perioadei fiecărei utilizări a sistemului (data și ora de începere, precum și data și ora de încheiere a fiecărei utilizări);
б)
референтната база данни, спрямо която системата е проверявала входящите данни;
(b)
baza de date de referință în raport cu care au fost verificate de sistem datele de intrare;
в)
входящите данни, за които търсенето е довело до съвпадение;
(c)
datele de intrare pentru care căutarea a generat o concordanță;
г)
посочване на самоличността на физическите лица, участвали в проверката на резултатите, посочена в член 14, параграф 5.
(d)
identificarea persoanelor fizice implicate în verificarea rezultatelor, astfel cum se menționează la articolul 14 alineatul (5).
Член 13
Articolul 13
Прозрачност и предоставяне на информация на внедрителите
Transparența și furnizarea de informații implementatorilor
1. Високорисковите системи с ИИ се проектират и разработват така, че да се гарантира, че функционирането им е достатъчно прозрачно, за да позволи на внедрителите да тълкуват резултатите, получени от системата, и да ги използват по подходящ начин. Осигурява се подходящ вид и степен на прозрачност с оглед изпълнение на приложимите задължения на доставчика и внедрителя, установени в раздел 3.
(1) Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate astfel încât să se asigure că funcționarea lor este suficient de transparentă pentru a permite implementatorilor să interpreteze rezultatele sistemului și să le utilizeze în mod corespunzător. Se asigură un tip și un grad adecvat de transparență, în vederea respectării obligațiilor relevante ale furnizorului și ale implementatorului prevăzute în secțiunea 3.
2. Високорисковите системи с ИИ се придружават от инструкции за употреба в подходящ цифров или друг формат, които включват кратка, пълна, вярна и ясна информация, която е относима, достъпна и разбираема за внедрителите.
(2) Sistemele de IA cu grad ridicat de risc sunt însoțite de instrucțiuni de utilizare într-un format digital adecvat sau în alt tip de format adecvat, care includ informații concise, complete, corecte și clare care sunt relevante, accesibile și ușor de înțeles pentru implementatori.
3. Инструкциите за употреба съдъ