Официален вестник
на Европейския съюз
BG
Gazzetta ufficiale
dell'Unione europea
IT
РЕГЛАМЕНТ (ЕС) 2024/1689 НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ И НА СЪВЕТА
REGOLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO
за установяване на хармонизирани правила относно изкуствения интелект и за изменение на регламенти (ЕО) № 300/2008, (ЕС) № 167/2013, (ЕС) № 168/2013, (ЕС) 2018/858, (ЕС) 2018/1139 и (ЕС) 2019/2144 и директиви 2014/90/ЕС, (ЕС) 2016/797 и (ЕС) 2020/1828 (Акт за изкуствения интелект)
che stabilisce regole armonizzate sull'intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull'intelligenza artificiale)
(текст от значение за ЕИП)
(Testo rilevante ai fini del SEE)
ЕВРОПЕЙСКИЯТ ПАРЛАМЕНТ И СЪВЕТЪТ НА ЕВРОПЕЙСКИЯ СЪЮЗ,
IL PARLAMENTO EUROPEO E IL CONSIGLIO DELL'UNIONE EUROPEA,
като взеха предвид Договора за функционирането на Европейския съюз, и по-специално членове 16 и 114 от него,
visto il trattato sul funzionamento dell'Unione europea, in particolare gli articoli 16 e 114,
като взеха предвид предложението на Европейската комисия,
vista la proposta della Commissione europea,
след предаване на проекта на законодателния акт на националните парламенти,
previa trasmissione del progetto di atto legislativo ai parlamenti nazionali,
като взеха предвид становището на Европейския икономически и социален комитет (1),
visto il parere del Comitato economico e sociale europeo (1),
като взеха предвид становището на Европейската централна банка (2),
visto il parere della Banca centrale europea (2),
като взеха предвид становището на Комитета на регионите (3),
visto il parere del Comitato delle regioni (3),
в съответствие с обикновената законодателна процедура (4),
deliberando secondo la procedura legislativa ordinaria (4),
considerando quanto segue:
(1)
Целта на настоящия регламент е да се подобри функционирането на вътрешния пазар чрез установяване на единна правна рамка, по-специално за разработването, пускането на пазара, пускането в действие и използването на системи с изкуствен интелект (наричани по-долу „системи с ИИ“) в Съюза, в съответствие с ценностите на Съюза, да се насърчи навлизането на ориентиран към човека и надежден изкуствен интелект (ИИ), като същевременно се гарантира високо равнище на защита на здравето, безопасността и основните права, залегнали в Хартата на основните права на Европейския съюз (наричана по-долу „Хартата“), включително демокрацията, принципите на правовата държава и опазването на околната среда, да се осигури защита срещу вредните последици от системите с ИИ в Съюза и да се подкрепят иновациите. С настоящия регламент се гарантира свободното трансгранично движение на стоки и услуги, основани на ИИ, като по този начин не се допуска държавите членки да налагат ограничения върху разработването, предлагането на пазара и използването на системи с ИИ, освен ако това не е изрично разрешено с настоящия регламент.
(1)
Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, l'immissione sul mercato, la messa in servizio e l'uso di sistemi di intelligenza artificiale (sistemi di IA) nell'Unione, in conformità dei valori dell'Unione, promuovere la diffusione di un'intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea («Carta»), compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, proteggere contro gli effetti nocivi dei sistemi di IA nell'Unione, nonché promuovere l'innovazione. Il presente regolamento garantisce la libera circolazione transfrontaliera di beni e servizi basati sull'IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di IA, salvo espressa autorizzazione del presente regolamento.
(2)
Настоящият регламент следва да се прилага в съответствие с ценностите на Съюза, залегнали в Хартата, като се улеснява защитата на физическите лица, предприятията, демокрацията, принципите на правовата държава и опазването на околната среда и същевременно се насърчават иновациите и заетостта и се спомага за превръщането на Съюза в лидер във възприемането на надежден ИИ.
(2)
Il presente regolamento dovrebbe essere applicato conformemente ai valori dell'Unione sanciti dalla Carta agevolando la protezione delle persone fisiche, delle imprese, della democrazia e dello Stato di diritto e la protezione dell'ambiente, promuovendo nel contempo l'innovazione e l'occupazione e rendendo l'Unione un leader nell'adozione di un'IA affidabile.
(3)
Системите с ИИ могат лесно да бъдат внедрени в най-различни сектори на икономиката и в много сфери на обществото, включително в трансграничен план, и да се ползват от свободно движение в целия Съюз. Някои държави членки вече са проучили възможността за приемане на национални правила, за да гарантират, че ИИ е надежден и безопасен и се разработва и използва в съответствие със задълженията, свързани с основните права. Различаващите се национални правила могат да доведат до разпокъсаност на вътрешния пазар и да намалят правната сигурност за операторите, които разработват, внасят или използват системи с ИИ. Ето защо, с цел да се осигури надежден ИИ, следва да се гарантира последователно и високо равнище на защита в целия Съюз, като същевременно се предотвратят различията, възпрепятстващи свободното движение, иновациите, внедряването и възприемането в рамките на вътрешния пазар на системи с ИИ и свързани с тях продукти и услуги, като за целта се предвидят еднакви задължения за операторите и се гарантира еднаква защита на императивните съображения от обществен интерес и на правата на лицата в рамките на целия вътрешен пазар на основание член 114 от Договора за функционирането на Европейския съюз (ДФЕС). Доколкото настоящият регламент съдържа специални правила за защита на физическите лица по отношение на обработването на лични данни във връзка с ограниченията за използването на системи с ИИ за дистанционна биометрична идентификация за правоохранителни цели, за използването на системи с ИИ за оценка на риска за физическите лица за правоохранителни цели и за използването на системи с ИИ за биометрично категоризиране за правоохранителни цели, е целесъобразно правното основание на настоящия регламент, във връзка с тези специални правила, да бъде член 16 ДФЕС. С оглед на тези специални правила и защитата съгласно член 16 ДФЕС е целесъобразно да се проведе консултация с Европейския комитет по защита на данните.
(3)
I sistemi di IA possono essere facilmente impiegati in un'ampia gamma di settori dell'economia e in molte parti della società, anche a livello transfrontaliero, e possono facilmente circolare in tutta l'Unione. Alcuni Stati membri hanno già preso in esame l'adozione di regole nazionali per garantire che l'IA sia affidabile e sicura e sia sviluppata e utilizzata nel rispetto degli obblighi in materia di diritti fondamentali. Normative nazionali divergenti possono determinare una frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori che sviluppano, importano o utilizzano sistemi di IA. È pertanto opportuno garantire un livello di protezione costante ed elevato in tutta l'Unione al fine di conseguire un'IA affidabile, mentre dovrebbero essere evitate le divergenze che ostacolano la libera circolazione, l'innovazione, la diffusione e l'adozione dei sistemi di IA e dei relativi prodotti e servizi nel mercato interno, stabilendo obblighi uniformi per gli operatori e garantendo la tutela uniforme dei motivi imperativi di interesse pubblico e dei diritti delle persone in tutto il mercato interno, sulla base dell'articolo 114 del trattato sul funzionamento dell'Unione europea (TFUE). Nella misura in cui il presente regolamento prevede regole specifiche sulla protezione delle persone fisiche con riguardo al trattamento dei dati personali, consistenti in limitazioni dell'uso dei sistemi di IA per l'identificazione biometrica remota a fini di attività di contrasto, dell'uso dei sistemi di IA per le valutazione dei rischi delle persone fisiche a fini di attività di contrasto e dell'uso dei sistemi di IA di categorizzazione biometrica a fini di attività di contrasto, è opportuno basare il presente regolamento, per quanto riguarda tali regole specifiche, sull'articolo 16 TFUE. Alla luce di tali regole specifiche e del ricorso all'articolo 16 TFUE, è opportuno consultare il comitato europeo per la protezione dei dati.
(4)
ИИ е бързо развиваща се съвкупност от технологии, които допринасят за извличането на множество икономически, екологични и обществени ползи по протежение на целия спектър от стопански сектори и социални дейности. Като подобрява прогнозирането, оптимизира операциите и разпределянето на ресурсите и персонализира цифровите решения, които са на разположение на физическите лица и организациите, използването на ИИ може да осигури ключови конкурентни предимства за предприятията и да спомогне за постигането на социално и екологично благоприятни резултати, например в областта на здравеопазването, селското стопанство, безопасността на храните, образованието и обучението, медиите, спорта, културата, управлението на инфраструктурата, енергетиката, транспорта и логистиката, публичните услуги, сигурността, правосъдието, ресурсната и енергийната ефективност, мониторинга на околната среда, опазването и възстановяването на биоразнообразието и екосистемите, както и смекчаването на последиците от изменението на климата и адаптирането към него.
(4)
L'IA consiste in una famiglia di tecnologie in rapida evoluzione che contribuisce al conseguimento di un'ampia gamma di benefici a livello economico, ambientale e sociale nell'intero spettro delle attività industriali e sociali. L'uso dell'IA, garantendo un miglioramento delle previsioni, l'ottimizzazione delle operazioni e dell'assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni, può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale e ambientale, ad esempio in materia di assistenza sanitaria, agricoltura, sicurezza alimentare, istruzione e formazione, media, sport, cultura, gestione delle infrastrutture, energia, trasporti e logistica, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, monitoraggio ambientale, conservazione e ripristino della biodiversità e degli ecosistemi, mitigazione dei cambiamenti climatici e adattamento ad essi.
(5)
Същевременно, в зависимост от обстоятелствата по отношение на конкретното му приложение, използване и равнище на технологично развитие, ИИ може да доведе до рискове и да накърни обществените интереси и основните права, защитени от правото на Съюза. Тези вреди могат да бъдат имуществени или неимуществени, включително физически, психически, обществени или икономически.
(5)
L'IA può nel contempo, a seconda delle circostanze relative alla sua applicazione, al suo utilizzo e al suo livello di sviluppo tecnologico specifici, comportare rischi e pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dal diritto dell'Unione. Tale pregiudizio può essere sia materiale sia immateriale, compreso il pregiudizio fisico, psicologico, sociale o economico.
(6)
Предвид значителното въздействие, което ИИ може да окаже върху обществото, и необходимостта от изграждане на доверие, е от жизненоважно значение ИИ и неговата регулаторна рамка да бъдат разработени в съответствие с ценностите на Съюза, залегнали в член 2 от Договора за Европейския съюз (ДЕС), и основните права и свободи, залегнали в Договорите и, съгласно член 6 ДЕС, в Хартата. Като предварително условие ИИ следва да бъде технология, ориентирана към човека. Той следва да служи като инструмент за хората, като крайната цел е да се повиши тяхното благосъстояние.
(6)
In considerazione dell'impatto significativo che l'IA può avere sulla società e della necessità di creare maggiore fiducia, è essenziale che l'IA e il suo quadro normativo siano sviluppati conformemente ai valori dell'Unione sanciti dall'articolo 2 del trattato sull'Unione europea (TUE), ai diritti e alle libertà fondamentali sanciti dai trattati e, conformemente all'articolo 6 TUE, alla Carta. Come prerequisito, l'IA dovrebbe essere una tecnologia antropocentrica. Dovrebbe fungere da strumento per le persone, con il fine ultimo di migliorare il benessere degli esseri umani.
(7)
За да се гарантира последователно и високо равнище на защита на обществените интереси по отношение на здравето, безопасността и основните права, следва да бъдат установени общи правила за високорисковите системи с ИИ. Тези правила следва да бъдат в съответствие с Хартата, да бъдат недискриминационни и да са в съответствие с международните търговски ангажименти на Съюза. Освен това те следва да са съобразени с Европейската декларация относно цифровите права и принципи за цифровото десетилетие и Насоките относно етичните аспекти за надежден ИИ на експертната група на високо равнище по въпросите на изкуствения интелект (ЕГВР ИИ).
(7)
Al fine di garantire un livello costante ed elevato di tutela degli interessi pubblici in materia di salute, sicurezza e diritti fondamentali, è opportuno stabilire regole comuni per i sistemi di IA ad alto rischio. Tali regole dovrebbero essere coerenti con la Carta, non discriminatorie e in linea con gli impegni commerciali internazionali dell'Unione. Dovrebbero inoltre tenere conto della dichiarazione europea sui diritti e i principi digitali per il decennio digitale e degli orientamenti etici per un'IA affidabile del gruppo di esperti ad alto livello sull'intelligenza artificiale (AI HLEG).
(8)
Поради това е необходима правна рамка на Съюза, с която да се установят хармонизирани правила относно ИИ, за да се насърчи разработването, използването и навлизането на ИИ на вътрешния пазар, и която същевременно да осигурява високо равнище на защита на обществените интереси, например здравето и безопасността, и защитата на основните права, включително демокрацията, принципите на правовата държава и опазването на околната среда, признати и защитени от правото на Съюза. За постигането на тази цел следва да бъдат установени правила, уреждащи пускането на пазара, пускането в действие и използването на някои системи с ИИ, и по този начин да се гарантира безпрепятственото функциониране на вътрешния пазар и да се даде възможност на тези системи да се ползват от принципа на свободно движение на стоки и услуги. Тези правила следва да бъдат ясни и надеждни по отношение на защитата на основните права, да благоприятстват нови иновативни решения и да дават възможност за изграждане на европейска екосистема от публични и частни участници, които да създават системи с ИИ в съответствие с ценностите на Съюза и да отключват потенциала на цифровата трансформация във всички региони на Съюза. С установяването на такива правила, както и на мерки в подкрепа на иновациите с отделяне на специално внимание на малките и средните предприятия (МСП), включително новосъздадените предприятия, настоящият регламент подкрепя целта за насърчаване на европейския подход към ИИ, ориентиран към човека, и целта на Съюза да бъде световен лидер в разработването на сигурен, надежден и етичен ИИ, както бе посочено от Европейския съвет (5), и гарантира защитата на етичните принципи, както изрично бе поискано от Европейския парламент (6).
(8)
Si rende pertanto necessario un quadro giuridico dell'Unione che istituisca regole armonizzate in materia di IA per promuovere lo sviluppo, l'uso e l'adozione dell'IA nel mercato interno, garantendo nel contempo un elevato livello di protezione degli interessi pubblici, quali la salute e la sicurezza e la protezione dei diritti fondamentali, compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, come riconosciuti e tutelati dal diritto dell'Unione. Per conseguire tale obiettivo, è opportuno stabilire regole che disciplinino l'immissione sul mercato, la messa in servizio e l'uso di determinati sistemi di IA, garantendo in tal modo il buon funzionamento del mercato interno e consentendo a tali sistemi di beneficiare del principio della libera circolazione di beni e servizi. Tali norme dovrebbero essere chiare e solide nel tutelare i diritti fondamentali, sostenere nuove soluzioni innovative e consentire un ecosistema europeo di attori pubblici e privati che creino sistemi di IA in linea con i valori dell'Unione e sblocchino il potenziale della trasformazione digitale in tutte le regioni dell'Unione. Stabilendo tali regole nonché le misure a sostegno dell'innovazione, con particolare attenzione alle piccole e medie imprese (PMI), comprese le start-up, il presente regolamento contribuisce all'obiettivo di promuovere l'approccio antropocentrico europeo all'IA ed essere un leader mondiale nello sviluppo di un'IA sicura, affidabile ed etica, come affermato dal Consiglio europeo (5), e garantisce la tutela dei principi etici, come specificamente richiesto dal Parlamento europeo (6).
(9)
Следва да бъдат установени хармонизирани правила, приложими за пускането на пазара, пускането в действие и използването на високорискови системи с ИИ, в съответствие с Регламент (ЕО) № 765/2008 на Европейския парламент и на Съвета (7), Решение № 768/2008/ЕО на Европейския парламент и на Съвета (8) и Регламент (ЕС) 2019/1020 на Европейския парламент и на Съвета (9) (наричани по-долу „новата законодателна рамка“). Хармонизираните правила, установени в настоящия регламент, следва да се прилагат във всички сектори и, в съответствие с новата законодателна рамка, следва да не засягат действащото право на Съюза, по-специално в областта на защитата на данните, защитата на потребителите, основните права, заетостта, защитата на работниците и безопасността на продуктите, което настоящият регламент допълва. В резултат на това всички права и правни средства за защита, предвидени в това право на Съюза в интерес на потребителите и други лица, върху които системите с ИИ могат да окажат отрицателно въздействие, включително по отношение на обезщетението за евентуални вреди съгласно Директива 85/374/ЕИО на Съвета (10), остават незасегнати и напълно приложими. Наред с това, в контекста на заетостта и защитата на работниците, настоящият регламент не следва да засяга правото на Съюза в областта на социалната политика и националното трудово право, което е в съответствие с правото на Съюза, относно условията на заетост и труд, включително здравословните и безопасни условия на труд и отношенията между работодателите и работниците. Настоящият регламент не следва да засяга и упражняването на основни права, признати в държавите членки и на равнището на Съюза, включително правото или свободата на стачка или на други действия, обхванати от специалните системи на колективни трудови правоотношения в държавите членки, както и правото да се преговаря, да се сключват и прилагат колективни трудови договори или да се предприемат колективни действия в съответствие с националното право. Настоящият регламент не следва да засяга разпоредбите, насочени към подобряване на условията на труд при работа през платформа, предвидени в директива на Европейския парламент и на Съвета относно подобряването на условията на труд при работата през платформа. Освен това настоящият регламент има за цел да повиши ефективността на тези съществуващи права и правни средства за защита чрез установяване на конкретни изисквания и задължения, включително по отношение на прозрачността, техническата документация и поддържането на регистри по отношение на системите с ИИ. Наред с това задълженията, наложени на различните оператори, участващи във веригата за създаване на стойност в областта на ИИ съгласно настоящия регламент, следва да се прилагат, без да се засяга националното право, съвместимо с правото на Съюза и което води до ограничаване на използването на определени системи с ИИ, когато това право е извън приложното поле на настоящия регламент или преследва законни цели от обществен интерес, различни от преследваните с настоящия регламент. Например националното трудово право и правото за закрила на ненавършилите пълнолетие лица, а именно лицата на възраст под 18 години, като се вземе предвид Общ коментар № 25 (2021) на Комитета по правата на детето на Организацията на обединените нации относно правата на децата във връзка с цифровата среда, доколкото те не са конкретно насочени към системите с ИИ и преследват други законни цели от обществен интерес, не следва да бъдат засегнати от настоящия регламент.
(9)
È opportuno che le norme armonizzate applicabili all'immissione sul mercato, alla messa in servizio e all'uso di sistemi di IA ad alto rischio siano stabilite conformemente al regolamento (CE) n, 765/2008 del Parlamento europeo e del Consiglio (7), alla decisione n, 768/2008/CE del Parlamento europeo e del Consiglio (8) e al regolamento (UE) 2019/1020 del Parlamento europeo e del Consiglio (9) («nuovo quadro legislativo»). Le norme armonizzate stabilite nel presente regolamento dovrebbero applicarsi in tutti i settori e, in linea con il nuovo quadro legislativo, non dovrebbero pregiudicare il vigente diritto dell'Unione, in particolare in materia di protezione dei dati, tutela dei consumatori, diritti fondamentali, occupazione e protezione dei lavoratori e sicurezza dei prodotti, al quale il presente regolamento è complementare. Di conseguenza, restano impregiudicati e pienamente applicabili tutti i diritti e i mezzi di ricorso previsti da tali disposizioni di diritto dell'Unione a favore dei consumatori e delle altre persone su cui i sistemi di IA possono avere un impatto negativo, anche in relazione al risarcimento di eventuali danni a norma della direttiva 85/374/CEE del Consiglio (10). Inoltre, nel contesto dell'occupazione e della protezione dei lavoratori, il presente regolamento non dovrebbe pertanto incidere sul diritto dell'Unione in materia di politica sociale né sul diritto del lavoro nazionale, in conformità del diritto dell'Unione, per quanto riguarda le condizioni di impiego e le condizioni di lavoro, comprese la salute e la sicurezza sul luogo di lavoro, e il rapporto tra datori di lavoro e lavoratori. Il presente regolamento non dovrebbe inoltre pregiudicare l'esercizio dei diritti fondamentali riconosciuti dagli Stati membri e a livello di Unione, compresi il diritto o la libertà di sciopero o il diritto o la libertà di intraprendere altre azioni contemplate dalla disciplina delle relazioni industriali negli Stati membri nonché il diritto di negoziare, concludere ed eseguire accordi collettivi, o di intraprendere azioni collettive in conformità del diritto nazionale. Il presente regolamento dovrebbe lasciare impregiudicate le disposizioni volte a migliorare le condizioni di lavoro nel lavoro mediante piattaforme digitali di cui alla direttiva del Parlamento europeo e del Consiglio relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali. Inoltre, il presente regolamento mira a rafforzare l'efficacia di tali diritti e mezzi di ricorso esistenti definendo requisiti e obblighi specifici, anche per quanto riguarda la trasparenza, la documentazione tecnica e la conservazione delle registrazioni dei sistemi di IA. Oltre a ciò, gli obblighi imposti a vari operatori coinvolti nella catena del valore dell'IA a norma del presente regolamento dovrebbero applicarsi senza pregiudizio del diritto nazionale, in conformità del diritto dell'Unione, e avere l'effetto di limitare l'uso di determinati sistemi di IA qualora tale diritto non rientri nell'ambito di applicazione del presente regolamento o persegua obiettivi legittimi di interesse pubblico diversi da quelli perseguiti dal presente regolamento. Ad esempio, il presente regolamento non dovrebbe incidere sulla normativa nazionale in materia di lavoro e sulla normativa in materia di protezione dei minori, ossia le persone di età inferiore ai 18 anni, tenendo conto del commento generale n, 25 della Convenzione sui diritti dell'infanzia e dell'adolescenza (2021) sui diritti dei minori in relazione all'ambiente digitale, nella misura in cui esse non riguardino in modo specifico i sistemi di IA e perseguano altri obiettivi legittimi di interesse pubblico.
(10)
Основното право на защита на личните данни е гарантирано по-специално с регламенти (ЕС) 2016/679 (11) и (ЕС) 2018/1725 (12) на Европейския парламент и на Съвета и с Директива (ЕС) 2016/680 на Европейския парламент и на Съвета (13). Директива 2002/58/ЕО на Европейския парламент и на Съвета (14) допълнително защитава личния живот и поверителността на съобщенията, включително чрез установяване на условията за съхраняване на лични и нелични данни в крайно оборудване и достъп до такива данни от крайно оборудване. Посочените правни актове на Съюза осигуряват основата за устойчиво и отговорно обработване на данни, включително когато наборите от данни включват комбинация от лични и нелични данни. Настоящият регламент няма за цел да засегне прилагането на съществуващото право на Съюза, уреждащо обработването на лични данни, включително задачите и правомощията на независимите надзорни органи, компетентни да наблюдават спазването на тези инструменти. Освен това той не засяга задълженията на доставчиците и внедрителите на системи с ИИ в ролята им на администратори или обработващи лични данни, които произтичат от правото на Съюза или националното право относно защитата на личните данни, доколкото проектирането, разработването или използването на системи с ИИ включва обработването на лични данни. Целесъобразно е също така да се поясни, че субектите на данни продължават да се ползват с всички права и гаранции, предоставени им с посоченото право на Съюза, включително правата, свързани с изцяло автоматизираното вземане на индивидуални решения, включително профилирането. Хармонизираните правила относно пускането на пазара, пускането в действие и използването на системи с ИИ, установени съгласно настоящия регламент, следва да улеснят ефективното прилагане и да позволят упражняването на правата на субектите на данни и другите правни средства за защита, гарантирани с правото на Съюза в областта на защитата на личните данни, и на други основни права.
(10)
Il diritto fondamentale alla protezione dei dati personali è garantito in particolare dai regolamenti (UE) 2016/679 (11) e (UE) 2018/1725 (12) del Parlamento europeo e del Consiglio e dalla direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio (13). La direttiva 2002/58/CE del Parlamento europeo e del Consiglio (14) tutela inoltre la vita privata e la riservatezza delle comunicazioni, in particolare stabilendo le condizioni per l'archiviazione di dati personali e non personali e l'accesso ai dati in apparecchi terminali. Tali atti giuridici dell'Unione costituiscono la base per un trattamento sostenibile e responsabile dei dati, anche nei casi in cui gli insiemi di dati comprendono una combinazione di dati personali e non personali. Il presente regolamento non mira a pregiudicare l'applicazione del vigente diritto dell'Unione che disciplina il trattamento dei dati personali, inclusi i compiti e i poteri delle autorità di controllo indipendenti competenti a monitorare la conformità con tali strumenti. Inoltre, lascia impregiudicati gli obblighi dei fornitori e dei deployer dei sistemi di IA nel loro ruolo di titolari del trattamento o responsabili del trattamento derivanti dal diritto dell'Unione o nazionale in materia di protezione dei dati personali, nella misura in cui la progettazione, lo sviluppo o l'uso di sistemi di IA comportino il trattamento di dati personali. È inoltre opportuno chiarire che gli interessati continuano a godere di tutti i diritti e le garanzie loro conferiti da tale diritto dell'Unione, compresi i diritti connessi al processo decisionale esclusivamente automatizzato relativo alle persone fisiche, compresa la profilazione. Norme armonizzate per l'immissione sul mercato, la messa in servizio e l'uso dei sistemi di IA istituiti a norma del presente regolamento dovrebbero facilitare l'efficace attuazione e consentire l'esercizio dei diritti degli interessati e di altri mezzi di ricorso garantiti dal diritto dell'Unione in materia di protezione dei dati personali nonché degli altri diritti fondamentali.
(11)
Настоящият регламент следва да не засяга разпоредбите относно отговорността на доставчиците на посреднически услуги, установени в Регламент (ЕС) 2022/2065 на Европейския парламент и на Съвета (15).
(11)
Il presente regolamento non dovrebbe pregiudicare le disposizioni relative alla responsabilità dei prestatori intermediari di cui al regolamento (UE) 2022/2065 del Parlamento europeo e del Consiglio (15).
(12)
Понятието „система с ИИ“ в настоящия регламент следва да бъде ясно определено и тясно съгласувано с резултатите от работата на международни организации в областта на ИИ, за да се гарантира правна сигурност и да се улесни сближаването и широкото приемане в международен план, като същевременно се осигури гъвкавост с цел да се реагира на бързото технологично развитие в тази област. Освен това определението следва да се основава на ключови характеристики на системите с ИИ, които ги отличават от по-прости традиционни софтуерни системи или подходи за програмиране, и не следва да обхваща системи, които се основават на правилата, определени единствено от физически лица за автоматично изпълнение на операциите. Ключова характеристика на системите с ИИ е тяхната способност да правят изводи. Тази способност да се правят изводи се отнася до процеса на получаване на резултати, например прогнози, съдържание, препоръки или решения, които могат да повлияят на физическата и виртуалната среда, както и до способността на системите с ИИ да извличат модели или алгоритми, или и двете, от входяща информация или данни. Техниките, даващи възможност да се правят изводи при изграждането на системи с ИИ, включват подходи за машинно обучение, при които те се учат от данните как да постигнат определени цели, както и основани на логика и знания подходи, при които достигат до изводи от кодирани знания или символично представяне на задачата, която трябва да бъде решена. Способността на дадена система с ИИ да прави изводи надхвърля основната обработка на данни, като дава възможност за обучение, разсъждение или моделиране. Понятието „машинно базиран“ се отнася до факта, че системите с ИИ работят с помощта на машини. С позоваването на явни или подразбиращи цели се подчертава, че системите с ИИ могат да работят в съответствие с ясно определени или с подразбиращи се цели. Целите на дадена система с ИИ може да се различават от предназначението на системата с ИИ в специфичен контекст. За целите на настоящия регламент под „среда“ следва да се разбира контекстът, в който функционират системите с ИИ, а резултатите, генерирани от системата с ИИ, отразяват различни функции, изпълнявани от системите с ИИ, и включват прогнози, съдържание, препоръки или решения. Системите с ИИ са проектирани да функционират с различна степен на автономност, което означава, че те разполагат с известна степен на независимост на действията от участието на човека и на способност за работа без човешка намеса. Адаптивността, която дадена система с ИИ би могла да прояви след внедряването ѝ, се отнася до способностите за самообучение, които позволяват на системата да се променя по време на нейното използване. Системите с ИИ могат да се използват самостоятелно или като компонент на продукт, независимо дали системата е физически интегрирана в продукта (вградена), или обслужва функционалността на продукта, без да бъде интегрирана в него (невградена).
(12)
La nozione di «sistema di IA» di cui al presente regolamento dovrebbe essere definita in maniera chiara e dovrebbe essere strettamente allineata al lavoro delle organizzazioni internazionali che si occupano di IA al fine di garantire la certezza del diritto, agevolare la convergenza internazionale e un'ampia accettazione, prevedendo nel contempo la flessibilità necessaria per agevolare i rapidi sviluppi tecnologici in questo ambito. Inoltre, la definizione dovrebbe essere basata sulle principali caratteristiche dei sistemi di IA, che la distinguono dai tradizionali sistemi software o dagli approcci di programmazione più semplici, e non dovrebbe riguardare i sistemi basati sulle regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico. Una caratteristica fondamentale dei sistemi di IA è la loro capacità inferenziale. Tale capacità inferenziale si riferisce al processo di ottenimento degli output, quali previsioni, contenuti, raccomandazioni o decisioni, che possono influenzare gli ambienti fisici e virtuali e alla capacità dei sistemi di IA di ricavare modelli o algoritmi, o entrambi, da input o dati. Le tecniche che consentono l'inferenza nella costruzione di un sistema di IA comprendono approcci di apprendimento automatico che imparano dai dati come conseguire determinati obiettivi e approcci basati sulla logica e sulla conoscenza che traggono inferenze dalla conoscenza codificata o dalla rappresentazione simbolica del compito da risolvere. La capacità inferenziale di un sistema di IA trascende l'elaborazione di base dei dati consentendo l'apprendimento, il ragionamento o la modellizzazione. Il termine «automatizzato» si riferisce al fatto che il funzionamento dei sistemi di IA prevede l'uso di macchine. Il riferimento a obiettivi espliciti o impliciti sottolinea che i sistemi di IA possono operare in base a obiettivi espliciti definiti o a obiettivi impliciti. Gli obiettivi del sistema di IA possono essere diversi dalla finalità prevista del sistema di IA in un contesto specifico. Ai fini del presente regolamento, gli ambienti dovrebbero essere intesi come i contesti in cui operano i sistemi di IA, mentre gli output generati dal sistema di IA riflettono le diverse funzioni svolte dai sistemi di IA e comprendono previsioni, contenuti, raccomandazioni o decisioni. I sistemi di IA sono progettati per funzionare con livelli di autonomia variabili, il che significa che dispongono di un certo grado di autonomia di azione rispetto al coinvolgimento umano e di capacità di funzionare senza l'intervento umano. L'adattabilità che un sistema di IA potrebbe presentare dopo la diffusione si riferisce alle capacità di autoapprendimento, che consentono al sistema di cambiare durante l'uso. I sistemi di IA possono essere utilizzati come elementi indipendenti (stand-alone) o come componenti di un prodotto, a prescindere dal fatto che il sistema sia fisicamente incorporato nel prodotto (integrato) o assista la funzionalità del prodotto senza esservi incorporato (non integrato).
(13)
Понятието „внедрител“, посочено в настоящия регламент, следва да се тълкува като всяко физическо или юридическо лице, включително публичен орган, агенция или друга структура, които използват система с ИИ, върху която упражняват контрол, с изключение на случаите, когато системата с ИИ се използва в процеса на лична непрофесионална дейност. В зависимост от вида на системата с ИИ използването на системата може да засегне лица, различни от внедрителя.
(13)
La nozione di «deployer» di cui al presente regolamento dovrebbe essere interpretata come qualsiasi persona fisica o giuridica, compresi un'autorità pubblica, un'agenzia o altro organismo, che utilizza un sistema di IA sotto la sua autorità, salvo nel caso in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale. A seconda del tipo di sistema di IA, l'uso del sistema può interessare persone diverse dal deployer.
(14)
Понятието „биометрични данни“, посочено в настоящия регламент, следва да се тълкува с оглед на понятието за биометрични данни съгласно определението в член 4, точка 14 от Регламент (ЕС) 2016/679, член 3, точка 18 от Регламент (ЕС) 2018/1725 и член 3, точка 13 от Директива (ЕС) 2016/680. Биометричните данни могат да позволят удостоверяване на самоличността, идентифициране или категоризиране на физически лица, както и разпознаване на емоции на физически лица.
(14)
La nozione di «dati biometrici» utilizzata nel presente regolamento dovrebbe essere interpretata alla luce della nozione di dati biometrici di cui all'articolo 4, punto 14, del regolamento (UE) 2016/679, all'articolo 3, punto 18, del regolamento (UE) 2018/172 e all'articolo 3, punto 13, della direttiva (UE) 2016/680. I dati biometrici possono consentire l'autenticazione, l'identificazione o la categorizzazione delle persone fisiche e il riconoscimento delle emozioni delle persone fisiche.
(15)
Понятието „биометрична идентификация“, посочено в настоящия регламент, следва да се определи като автоматизираното разпознаване на физически, физиологични и поведенчески характеристики на човека, например лице, движение на очите, форма на тялото, глас, ритъм и интонация на говора, походка, стойка, сърдечен ритъм, кръвно налягане, мирис и особености на натиска на клавиши, с цел установяване на самоличността на дадено лице чрез сравняване на биометрични данни на това лице със съхранени биометрични данни на лица в референтна база данни, независимо дали лицето е дало своето съгласие. Това изключва системите с ИИ, предназначени да бъдат използвани за биометрична проверка, която включва удостоверяване на самоличността, чиято единствена цел е да се потвърди, че конкретно физическо лице е лицето, за което се представя, и да се потвърди самоличността на физическо лице единствено за да се получи достъп до услуга, да се отключи устройство или да се придобие сигурен достъп до помещения.
(15)
La nozione di «identificazione biometrica» di cui al presente regolamento dovrebbe essere definita come il riconoscimento automatico di caratteristiche fisiche, fisiologiche e comportamentali di una persona, quali il volto, il movimento degli occhi, la forma del corpo, la voce, la prosodia, l'andatura, la postura, la frequenza cardiaca, la pressione sanguigna, l'odore, la pressione esercitata sui tasti, allo scopo di determinare l'identità di una persona confrontando i suoi dati biometrici con quelli di altri individui memorizzati in una banca dati di riferimento, indipendentemente dal fatto che la persona abbia fornito il proprio consenso. Sono esclusi i sistemi di IA destinati a essere utilizzati per la verifica biometrica, che include l'autenticazione, la cui unica finalità è confermare che una determinata persona fisica è la persona che dice di essere e confermare l'identità di una persona fisica al solo scopo di accedere a un servizio, sbloccare un dispositivo o disporre dell'accesso di sicurezza a locali.
(16)
Понятието „биометрично категоризиране“, посочено в настоящия регламент, следва да се определи като отнасяне на физически лица към конкретни категории въз основа на техните биометрични данни. Подобни конкретни категории могат да са свързани с аспекти като пол, възраст, цвят на косата, цвят на очите, татуировки, поведенчески или личностни черти, език, религия, принадлежност към национално малцинство, сексуална или политическа ориентация. Това не включва системи за биометрично категоризиране, които представляват чисто спомагателна функция, неразривно свързана с друга търговска услуга, което означава, че тази функция не може по обективни технически причини да се използва без основната услуга и интегрирането на тази функция или функционалност не е средство за заобикаляне на приложимостта на правилата на настоящия регламент. Например филтрите за категоризиране на черти на лицето или тялото, използвани на онлайн места за търговия, биха могли да представляват такава спомагателна функция, тъй като могат да се използват само във връзка с основната услуга, която се състои в продажбата на продукт, като позволяват на потребителя да визуализира изображението на продукта върху себе си и му помагат да вземе решение при покупка. Филтрите, използвани в онлайн услугите на социалните мрежи, които категоризират черти на лицето или тялото, за да позволят на ползвателите да добавят или променят снимки или видеоклипове, също могат да се считат за спомагателна функция, тъй като такъв филтър не може да се използва без основната услуга при услугите на социалните мрежи, състояща се в споделяне на съдържание онлайн.
(16)
La nozione di «categorizzazione biometrica» di cui al presente regolamento dovrebbe essere definita come l'assegnazione di persone fisiche a categorie specifiche sulla base dei loro dati biometrici. Tali categorie specifiche possono riguardare aspetti quali il sesso, l'età, il colore dei capelli, il colore degli occhi, i tatuaggi, i tratti comportamentali o di personalità, la lingua, la religione, l'appartenenza a una minoranza nazionale, l'orientamento sessuale o politico. Ciò non comprende i sistemi di categorizzazione biometrica che sono una caratteristica puramente accessoria intrinsecamente legata a un altro servizio commerciale, il che significa che l'elemento non può, per ragioni tecniche oggettive, essere utilizzato senza il servizio principale e che l'integrazione di tale caratteristica o funzionalità non rappresenta un mezzo per eludere l'applicabilità delle norme del presente regolamento. Ad esempio, i filtri che classificano le caratteristiche facciali o del corpo utilizzate sui mercati online potrebbero costituire una tale caratteristica accessoria, in quanto possono essere utilizzati solo in relazione al servizio principale che consiste nel vendere un prodotto consentendo al consumatore di visualizzare in anteprima il prodotto su se stesso e aiutarlo a prendere una decisione di acquisto. Anche i filtri utilizzati nei servizi di social network online che classificano le caratteristiche facciali o del corpo per consentire agli utenti di aggiungere o modificare immagini o video potrebbero essere considerati una caratteristica accessoria, in quanto tale filtro non può essere utilizzato senza il servizio principale dei servizi di social network consistente nella condivisione di contenuti online.
(17)
Понятието „система за дистанционна биометрична идентификация“, посочено в настоящия регламент, следва да се определи функционално като система с ИИ, предназначена за идентифициране на физически лица без тяхното активно участие, обикновено от разстояние, чрез сравняване на биометричните данни на дадено лице с биометричните данни, съдържащи се в референтна база данни, независимо от конкретните използвани технологии, процеси или видове биометрични данни. Такива системи за дистанционна биометрична идентификация обикновено се използват за едновременно наблюдение на множество лица или тяхното поведение с цел да се улесни значително идентифицирането на физически лица без тяхното активно участие. Това изключва системите с ИИ, предназначени да бъдат използвани за биометрична проверка, която включва удостоверяване на самоличността, чиято единствена цел е да се потвърди, че конкретно физическо лице е лицето, за което се представя, и да се потвърди самоличността на физическо лице единствено за да се получи достъп до услуга, да се отключи устройство или да се придобие сигурен достъп до помещения. Това изключване е обосновано от факта, че е вероятно такива системи да оказват незначително въздействие върху основните права на физическите лица в сравнение със системите за дистанционна биометрична идентификация, които могат да се използват за обработването на биометрични данни на голям брой лица без тяхното активно участие. При системите, работещи в реално време, снемането на биометрични данни, сравнението и идентификацията се осъществяват мигновено, почти мигновено или при всички случаи без значително забавяне. В това отношение не следва да има възможност за заобикаляне на правилата на настоящия регламент относно използването в реално време на съответните системи с ИИ и за целта в него следва да се уредят незначителните забавяния. Системите, работещи в реално време, предполагат използването на материал „на живо“ или „почти на живо“, като видеозапис от камера или друго устройство с подобна функция. За разлика от тях при функциониращите впоследствие системи биометричните данни вече са снети и сравняването и идентифицирането се извършват едва след значително забавяне. Това предполага материал, като снимки или видеозаписи от камери от вътрешна система за видеонаблюдение или от частни устройства, които са направени преди използването на системата по отношение на съответните физически лица.
(17)
È opportuno definire a livello funzionale la nozione di «sistema di identificazione biometrica remota» di cui al presente regolamento, quale sistema di IA destinato all'identificazione, tipicamente a distanza, di persone fisiche senza il loro coinvolgimento attivo mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento, a prescindere dalla tecnologia, dai processi o dai tipi specifici di dati biometrici utilizzati. Tali sistemi di identificazione biometrica remota sono generalmente utilizzati per percepire più persone o il loro comportamento simultaneamente al fine di facilitare in modo significativo l'identificazione di persone fisiche senza il loro coinvolgimento attivo. Sono esclusi i sistemi di IA destinati a essere utilizzati per la verifica biometrica, che include l'autenticazione, la cui unica finalità è confermare che una determinata persona fisica è la persona che dice di essere e confermare l'identità di una persona fisica al solo scopo di accedere a un servizio, sbloccare un dispositivo o disporre dell'accesso di sicurezza a locali. Tale esclusione è giustificata dal fatto che detti sistemi hanno probabilmente un impatto minore sui diritti fondamentali delle persone fisiche rispetto ai sistemi di identificazione biometrica remota, che possono essere utilizzati per il trattamento dei dati biometrici di un numero elevato di persone senza il loro coinvolgimento attivo. Nel caso dei sistemi «in tempo reale», il rilevamento dei dati biometrici, il confronto e l'identificazione avvengono tutti istantaneamente, quasi istantaneamente o in ogni caso senza ritardi significativi. A tale riguardo è opportuno impedire l'elusione delle regole del presente regolamento per quanto attiene all'uso «in tempo reale» dei sistemi di IA interessati prevedendo ritardi minimi. I sistemi «in tempo reale» comportano l'uso di materiale «dal vivo» o «quasi dal vivo» (ad esempio filmati) generato da una telecamera o da un altro dispositivo con funzionalità analoghe. Nel caso dei sistemi di identificazione a posteriori, invece, i dati biometrici sono già stati rilevati e il confronto e l'identificazione avvengono solo con un ritardo significativo. Si tratta di materiale, come immagini o filmati generati da telecamere a circuito chiuso o da dispositivi privati, che è stato generato prima che il sistema fosse usato in relazione alle persone fisiche interessate.
(18)
Понятието „система за разпознаване на емоции“, посочено в настоящия регламент, следва да се определи като система с ИИ, чието предназначение е да определи или да прави изводи за емоциите или намеренията на физически лица въз основа на техните биометрични данни. Това понятие се отнася до емоции или намерения като щастие, тъга, гняв, изненада, отвращение, смущение, вълнение, срам, презрение, удовлетворение и забавление. Не се включват физически състояния като болка или умора, като например системи, използвани за установяване на състояние на умора при професионални пилоти или водачи с цел предотвратяване на произшествия. Освен това то не включва откриването на лесно забележими изражения, жестове или движения, освен ако те не се използват, за да се определят или да се правят изводи за емоциите. Тези изражения могат да бъдат основни изражения на лицето, като например намръщване или усмивка, или жестове като движение на ръцете или главата, или характеристики на човешкия глас, например висок глас или шепот.
(18)
La nozione di «sistema di riconoscimento delle emozioni» di cui al presente regolamento dovrebbe essere definita come un sistema di IA finalizzato a identificare o inferire emozioni o intenzioni di persone fisiche, sulla base dei loro dati biometrici. La nozione si riferisce a emozioni o intenzioni quali felicità, tristezza, rabbia, sorpresa, disgusto, imbarazzo, eccitazione, vergogna, disprezzo, soddisfazione e divertimento. Non comprende stati fisici, quali dolore o affaticamento, compresi, ad esempio, ai sistemi utilizzati per rilevare lo stato di affaticamento dei piloti o dei conducenti professionisti al fine di prevenire gli incidenti. Non comprende neppure la semplice individuazione di espressioni, gesti o movimenti immediatamente evidenti, a meno che non siano utilizzati per identificare o inferire emozioni. Tali espressioni possono essere espressioni facciali di base quali un aggrottamento delle sopracciglia o un sorriso, gesti quali il movimento di mani, braccia o testa, o caratteristiche della voce di una persona, ad esempio una voce alta o un sussurro.
(19)
За целите на настоящия регламент понятието „обществено достъпно място“ следва да се разбира като означаващо всяко физическо място, което е достъпно за неопределен брой физически лица, независимо дали това място е частна или публична собственост и без значение от дейността, за която мястото може да се използва, като за търговия, например магазини, ресторанти, кафенета, за услуги, например банки, професионални дейности, хотелиерство и ресторантьорство, за спорт, например плувни басейни, спортни зали, стадиони, за транспорт, например автобусни, метро и железопътни гари, летища, транспортни средства, за развлечение, например кина, театри, музеи, концертни и конферентни зали, за отдих или други дейности, например отворени за обществено ползване пътища, площади, паркове, гори, детски площадки. Дадено място следва също така да се класифицира като обществено достъпно ако, независимо от потенциалния капацитет или ограниченията във връзка със сигурността, достъпът до него зависи от някои предварително определени условия, които могат да бъдат изпълнени от неопределен брой лица, като например закупуване на билет или друг превозен документ, предварителна регистрация или навършване на определена възраст. Дадено място не следва обаче да се счита за обществено достъпно, ако достъпът до него е ограничен до конкретни и определени физически лица чрез правото на Съюза или националното право, пряко свързано с обществената безопасност или сигурност, или чрез ясното волеизявление от страна на лицето, което е носител на съответните права по отношение на мястото. Единствено фактическата възможност за достъп, например незаключена врата или отворена порта в ограда, не означава, че мястото е обществено достъпно, при наличие на признаци или обстоятелства, които предполагат обратното, например знаци, забраняващи или ограничаващи достъпа. Помещенията на дадено дружество и фабрика, както и офисите и работните места, до които се предвижда достъп само за съответните служители и доставчици на услуги, не са обществено достъпни места. Обществено достъпните места не следва да включват затворите или зоните за граничен контрол. Други зони могат да се състоят както от зони, които са обществено достъпни, така и от зони, които не са обществено достъпни, като например коридорите в частни жилищни сгради, необходими за достъп до лекарски кабинет, или летищата. Онлайн пространствата не се включват, тъй като те не са физически места. Дали дадено място е достъпно за обществеността обаче следва да се определя отделно във всеки един случай, като се отчитат особеностите на отделния случай.
(19)
Ai fini del presente regolamento la nozione di «spazio accessibile al pubblico» dovrebbe essere intesa come riferita a qualsiasi luogo fisico accessibile a un numero indeterminato di persone fisiche e a prescindere dal fatto che il luogo in questione sia di proprietà pubblica o privata, indipendentemente dall'attività per la quale il luogo può essere utilizzato, quali il commercio (ad esempio negozi, ristoranti, bar), i servizi (ad esempio banche, attività professionali, ospitalità), lo sport (ad esempio piscine, palestre, stadi), i trasporti (ad esempio stazioni di autobus, metropolitane e ferroviarie, aeroporti, mezzi di trasporto), l'intrattenimento (ad esempio cinema, teatri, musei, sale da concerto e sale conferenze), il tempo libero o altro (ad esempio strade e piazze pubbliche, parchi, foreste, parchi giochi). Un luogo dovrebbe essere classificato come accessibile al pubblico anche se, indipendentemente da potenziali restrizioni di capacità o di sicurezza, l'accesso è soggetto a determinate condizioni predeterminate, che possono essere soddisfatte da un numero indeterminato di persone, quali l'acquisto di un biglietto o titolo di trasporto, la registrazione previa o il raggiungimento di una determinata età. Per contro, un luogo non dovrebbe essere considerato accessibile al pubblico se l'accesso è limitato a persone fisiche specifiche e definite attraverso il diritto dell'Unione o nazionale direttamente connesso alla pubblica sicurezza o attraverso la chiara manifestazione di volontà da parte della persona che ha l'autorità pertinente sul luogo. La sola possibilità concreta di accesso (ad esempio una porta sbloccata, un cancello aperto in una recinzione) non implica che il luogo sia accessibile al pubblico in presenza di indicazioni o circostanze che suggeriscono il contrario (ad esempio segnaletica che vieta o limita l'accesso). I locali delle imprese e delle fabbriche, come pure gli uffici e i luoghi di lavoro destinati ad essere accessibili solo dai pertinenti dipendenti e prestatori di servizi, sono luoghi non accessibili al pubblico. Gli spazi accessibili al pubblico non dovrebbero includere le carceri o i controlli di frontiera. Alcune altre zone possono comprendere sia aree non accessibili al pubblico che aree accessibili al pubblico, come l'atrio di un edificio residenziale privato da cui è possibile accedere a uno studio medico o un aeroporto. Non sono del pari contemplati gli spazi online, dato che non sono luoghi fisici. L'accessibilità di un determinato spazio al pubblico dovrebbe tuttavia essere determinata caso per caso, tenendo conto delle specificità della singola situazione presa in esame.
(20)
За да се извлекат максимални ползи от системите с ИИ, като същевременно се защитават основните права, здравето и безопасността, и за да се даде възможност за демократичен контрол, грамотността в областта на ИИ следва да осигури на доставчиците, внедрителите и засегнатите лица необходимите понятия за вземане на информирани решения относно системите с ИИ. Тези понятия могат да се различават по отношение на съответния контекст и могат да включват разбиране на правилното прилагане на техническите елементи по време на етапа на разработване на системата с ИИ, мерките, които трябва да се прилагат по време на използването ѝ, подходящите начини за тълкуване на резултатите от системата с ИИ и, по отношение на засегнатите лица, знанията, необходими за разбиране на начина, по който решенията, взети с помощта на ИИ, ще окажат въздействие върху тях. В контекста на прилагането на настоящия регламент грамотността в областта на ИИ следва да осигури на всички съответни участници във веригата за създаване на стойност в областта на ИИ необходимата информация, за да се гарантира подходящото спазване и правилното му прилагане. Освен това широкото прилагане на мерки за повишаване на грамотността в областта на ИИ и въвеждането на подходящи последващи действия биха могли да допринесат за подобряване на условията на труд и в крайна сметка да поддържат процеса на утвърждаване и иновации на надеждния ИИ в Съюза. Европейският съвет по изкуствен интелект (наричан по-долу „Съветът по ИИ“) следва да подпомага Комисията с цел насърчаване на инструментите за грамотност в областта на ИИ, обществената осведоменост и разбирането на ползите, рисковете, гаранциите, правата и задълженията във връзка с използването на системи с ИИ. В сътрудничество със съответните заинтересовани страни Комисията и държавите членки следва да улеснят изготвянето на незадължителни кодекси за поведение с цел повишаване на грамотността в областта на ИИ сред лицата, занимаващи се с разработването, експлоатацията и използването на ИИ.
(20)
Al fine di ottenere i massimi benefici dai sistemi di IA proteggendo nel contempo i diritti fondamentali, la salute e la sicurezza e di consentire il controllo democratico, l'alfabetizzazione in materia di IA dovrebbe dotare i fornitori, i deployer e le persone interessate delle nozioni necessarie per prendere decisioni informate in merito ai sistemi di IA. Tali nozioni possono variare in relazione al contesto pertinente e possono includere la comprensione della corretta applicazione degli elementi tecnici durante la fase di sviluppo del sistema di IA, le misure da applicare durante il suo utilizzo, le modalità adeguate per interpretare l'output del sistema di IA e, nel caso delle persone interessate, le conoscenze necessarie per comprendere in che modo le decisioni adottate con l'assistenza dell'IA incideranno su di esse. Nel contesto dell'applicazione del presente regolamento, l'alfabetizzazione in materia di IA dovrebbe fornire a tutti i pertinenti attori della catena del valore dell'IA le conoscenze necessarie per garantire l'adeguata conformità e la sua corretta esecuzione. Inoltre, l'ampia attuazione delle misure di alfabetizzazione in materia di IA e l'introduzione di adeguate azioni di follow-up potrebbero contribuire a migliorare le condizioni di lavoro e, in ultima analisi, sostenere il consolidamento e il percorso di innovazione di un'IA affidabile nell'Unione. Il consiglio europeo per l'intelligenza artificiale («consiglio per l'IA») dovrebbe sostenere la Commissione al fine di promuovere gli strumenti di alfabetizzazione in materia di IA, la sensibilizzazione del pubblico e la comprensione dei benefici, dei rischi, delle garanzie, dei diritti e degli obblighi in relazione all'uso dei sistemi di IA. In cooperazione con i pertinenti portatori di interessi, la Commissione e gli Stati membri dovrebbero agevolare l'elaborazione di codici di condotta volontari per migliorare l'alfabetizzazione in materia di IA tra le persone che si occupano di sviluppo, funzionamento e uso dell'IA.
(21)
За да се гарантират равнопоставеност и ефективна защита на правата и свободите на физическите лица в целия Съюз, правилата, установени с настоящия регламент, следва да се прилагат недискриминационно за доставчиците на системи с ИИ, независимо дали са установени в Съюза, или в трета държава, както и за внедрителите на системи с ИИ, установени в Съюза.
(21)
Al fine di garantire condizioni di parità e una protezione efficace dei diritti e delle libertà delle persone in tutta l'Unione, è opportuno che le regole stabilite dal presente regolamento si applichino ai fornitori di sistemi di IA in modo non discriminatorio, a prescindere dal fatto che siano stabiliti nell'Unione o in un paese terzo, e ai deployer dei sistemi di IA stabiliti nell'Unione.
(22)
Поради своето цифрово естество някои системи с ИИ следва да попадат в обхвата на настоящия регламент дори когато не се пускат на пазара, не се пускат в действие и не се използват в Съюза. Такъв е например случаят с оператор, установен в Съюза, който сключва договор за определени услуги с оператор, установен в трета държава, във връзка с дейност, която ще се извършва от система с ИИ, която би била определена като високорискова. При тези обстоятелства системата с ИИ, използвана в трета държава от оператора, би могла да обработва данни, които са законно събрани в Съюза и прехвърлени от Съюза, и да предоставя на сключилия договор оператор в Съюза резултата от системата с ИИ, получен въз основа на тази обработка, без системата с ИИ да е била пускана на пазара, пусната в действие или използвана в Съюза. За да не се допусне заобикаляне на настоящия регламент и да се гарантира ефективна защита на физическите лица, намиращи се в Съюза, настоящият регламент следва също така да се прилага за доставчиците и внедрителите на системи с ИИ, установени в трета държава, доколкото резултатът, получен от тези системи, е предназначен да се използва в Съюза. Независимо от това, за да се вземат предвид съществуващите договорености и особените нужди от бъдещо сътрудничество с чуждестранни партньори, с които се обменят информация и доказателства, настоящият регламент не следва да се прилага за публични органи на трета държава и за международни организации, когато те действат в рамките на споразумения за сътрудничество или международни споразумения, сключени на равнището на Съюза или на национално равнище за сътрудничество в областта на правоприлагането и за съдебно сътрудничество със Съюза или с неговите държави членки, при условие че съответната трета държава или международна организация осигурява подходящи гаранции по отношение на защитата на основните права и свободи на лицата. Когато е приложимо, това може да обхваща дейности на субекти, на които третите държави са възложили изпълнението на конкретни задачи в подкрепа на това сътрудничество в областта на правоприлагането и съдебно сътрудничество. Такива рамки за сътрудничество или споразумения са установени двустранно между държави членки и трети държави или между Европейския съюз, Европол и други агенции на Съюза, трети държави и международни организации. Органите, компетентни за надзора на правоохранителните органи и органите на съдебната власт съгласно настоящия регламент, следва да преценят дали тези рамки за сътрудничество или международни споразумения включват подходящи гаранции по отношение на защитата на основните права и свободи на лицата. Националните органи и институциите, органите, службите и агенциите на Съюза, които получават и използват такива резултати в Съюза, продължават да са задължени да гарантират, че използването им е в съответствие с правото на Съюза. Когато тези международни споразумения се преразглеждат или се сключват нови в бъдеще, договарящите страни следва да положат максимални усилия да приведат тези споразумения в съответствие с изискванията на настоящия регламент.
(22)
Alla luce della loro natura di sistemi digitali, è opportuno che determinati sistemi di IA rientrino nell'ambito di applicazione del presente regolamento anche quando non sono immessi sul mercato, né messi in servizio, né utilizzati nell'Unione. È il caso, ad esempio, di un operatore stabilito nell'Unione che appalta alcuni servizi a un operatore stabilito in un paese terzo in relazione a un'attività che deve essere svolta da un sistema di IA che sarebbe classificato ad alto rischio. In tali circostanze il sistema di IA utilizzato dall'operatore in un paese terzo potrebbe trattare dati raccolti nell'Unione e da lì trasferiti nel rispetto della legge, e fornire all'operatore appaltante nell'Unione l'output di tale sistema di IA risultante da tale trattamento, senza che tale sistema di IA sia immesso sul mercato, messo in servizio o utilizzato nell'Unione. Al fine di impedire l'elusione del presente regolamento e di garantire una protezione efficace delle persone fisiche che si trovano nell'Unione, è opportuno che il presente regolamento si applichi anche ai fornitori e ai deployer di sistemi di IA stabiliti in un paese terzo, nella misura in cui l'output prodotto da tali sistemi è destinato a essere utilizzato nell'Unione. Cionondimeno, per tener conto degli accordi vigenti e delle esigenze particolari per la cooperazione futura con partner stranieri con cui sono scambiate informazioni e elementi probatori, il presente regolamento non dovrebbe applicarsi alle autorità pubbliche di un paese terzo e alle organizzazioni internazionali che agiscono nel quadro della cooperazione o di accordi internazionali conclusi a livello dell'Unione o nazionale per la cooperazione delle autorità giudiziarie e di contrasto con l'Unione o con gli Stati membri, a condizione che il paese terzo o le organizzazioni internazionali pertinenti forniscano garanzie adeguate per quanto riguarda la protezione dei diritti e delle libertà fondamentali delle persone. Se del caso, ciò può riguardare le attività di entità incaricate dai paesi terzi di svolgere compiti specifici a sostegno di tale cooperazione delle autorità giudiziarie e di contrasto. Tali quadri per la cooperazione o accordi sono stati istituiti bilateralmente tra Stati membri e paesi terzi o tra l'Unione europea, Europol e altre agenzie dell'Unione e paesi terzi e organizzazioni internazionali. Le autorità competenti per il controllo delle autorità giudiziarie e di contrasto ai sensi del presente regolamento dovrebbero valutare se tali quadri per la cooperazione o accordi internazionali includano garanzie adeguate per quanto riguarda la protezione dei diritti e delle libertà fondamentali delle persone. Le autorità nazionali destinatarie e le istituzioni, gli organi e gli organismi dell'Unione che si avvalgono di tali output nell'Unione, restano responsabili di garantire che il loro utilizzo sia conforme al diritto dell'Unione. In caso di revisione di tali accordi internazionali o di conclusione di nuovi accordi internazionali in futuro, le parti contraenti dovrebbero adoperarsi quanto più possibile per allineare tali accordi ai requisiti del presente regolamento.
(23)
Настоящият регламент следва да се прилага и за институциите, органите, службите и агенциите на Съюза, когато те действат като доставчик или внедрител на система с ИИ.
(23)
È altresì opportuno che il presente regolamento si applichi alle istituzioni, agli organi e agli organismi dell'Unione quando agiscono in qualità di fornitori o deployer di un sistema di IA.
(24)
Ако и доколкото системите с ИИ се пускат на пазара, пускат в действие или използват, със или без изменение на тези системи, за военни цели и цели, свързани с отбраната или националната сигурност, те следва да бъдат изключени от обхвата на настоящия регламент, независимо от това какъв вид субект извършва тези дейности, например дали е публичен, или частен субект. По отношение на военните цели и целите, свързани с отбраната, това изключение е обосновано както от член 4, параграф 2 ДЕС, така и от специфичните особености на политиката за отбрана на държавите членки и общата политика за отбрана на Съюза, обхваната от дял V, глава 2 ДЕС, спрямо които се прилага международното публично право, което поради това е по-подходящата правна рамка за регулиране на системите с ИИ в контекста на употребата на смъртоносна сила и на други системи с ИИ в контекста на военните и отбранителните дейности. По отношение на целите на националната сигурност, изключението е обосновано както от факта, че националната сигурност продължава да бъде отговорност единствено на държавите членки в съответствие с член 4, параграф 2 ДЕС, така и от специфичното естество и оперативни нужди на дейностите в областта на националната сигурност и специалните национални правила, приложими за тези дейности. Въпреки това, ако система с ИИ, разработена, пусната на пазара, пусната в действие или използвана за военни цели и цели, свързани с отбраната или националната сигурност, се използва извън рамките на тези цели временно или се използва постоянно за други цели, например за граждански или хуманитарни цели и за правоохранителни цели или цели, свързани с обществената сигурност, тази система би попаднала в обхвата на настоящия регламент. В този случай субектът, използващ системата с ИИ за цели, различни от военни цели и цели, свързани с отбраната или националната сигурност, следва да гарантира съответствието на системата с ИИ с настоящия регламент, освен ако системата вече не е в съответствие с настоящия регламент. Системите с ИИ, пуснати на пазара или пуснати в действие за изключена цел, а именно военна цел и цел, свързана с отбраната или национална сигурност, и една или повече неизключени цели, например граждански цели или правоохранителни цели, попадат в обхвата на настоящия регламент и доставчиците на тези системи следва да гарантират спазването на настоящия регламент. В тези случаи фактът, че дадена система с ИИ може да попадне в обхвата на настоящия регламент, не следва да засяга възможността субектите, извършващи дейности в областта на националната сигурност и отбраната и военни дейности, независимо от вида на субекта, извършващ тези дейности, да използват за цели в областта на националната сигурност и отбраната и за военни цели системи с ИИ, чието използване е изключено от обхвата на настоящия регламент. Система с ИИ, пусната на пазара за граждански цели или за правоохранителни цели, която се използва, със или без изменение, за военни цели и за цели, свързани с отбраната или националната сигурност, не следва да попада в обхвата на настоящия регламент, независимо от вида на субекта, извършващ тези дейности.
(24)
Se, e nella misura in cui, i sistemi di IA sono immessi sul mercato, messi in servizio o utilizzati con o senza modifica di tali sistemi per scopi militari, di difesa o di sicurezza nazionale, essi dovrebbero essere esclusi dall'ambito di applicazione del presente regolamento indipendentemente dal tipo di entità che svolge tali attività, ad esempio se si tratta di un'entità pubblica o privata. Per quanto riguarda gli scopi militari e di difesa, tale esclusione è giustificata sia dall'articolo 4, paragrafo 2, TUE sia dalle specificità della politica di difesa comune degli Stati membri e dell'Unione di cui al titolo V, capo 2, TUE che sono soggette al diritto internazionale pubblico, che costituisce pertanto il quadro giuridico più appropriato per la regolamentazione dei sistemi di IA nel contesto dell'uso letale della forza e di altri sistemi di IA nel contesto delle attività militari e di difesa. Per quanto riguarda le finalità di sicurezza nazionale, l'esclusione è giustificata sia dal fatto che la sicurezza nazionale resta di esclusiva competenza degli Stati membri ai sensi dell'articolo 4, paragrafo 2, TUE, sia dalla natura specifica e dalle esigenze operative delle attività di sicurezza nazionale, nonché dalle specifiche norme nazionali applicabili a tali attività. Tuttavia, se un sistema di IA sviluppato, immesso sul mercato, messo in servizio o utilizzato per scopi militari, di difesa o di sicurezza nazionale è usato al di fuori di tali finalità, in via temporanea o permanente, per altri scopi, ad esempio a fini civili o umanitari, per scopi di attività di contrasto o di sicurezza pubblica, tale sistema rientrerebbe nell'ambito di applicazione del presente regolamento. In tal caso, l'entità che utilizza il sistema di IA per finalità diverse da quelle militari, di difesa o di sicurezza nazionale dovrebbe garantire la conformità del sistema di IA al presente regolamento, a meno che il sistema non sia già conforme al presente regolamento. Rientrano nell'ambito di applicazione del presente regolamento i sistemi di IA immessi sul mercato o messi in servizio per una finalità esclusa, ossia militare, di difesa o di sicurezza nazionale, e per una o più finalità non escluse, ad esempio scopi civili o attività di contrasto, e i fornitori di tali sistemi dovrebbero garantire la conformità al presente regolamento. In tali casi, il fatto che un sistema di IA possa rientrare nell'ambito di applicazione del presente regolamento non dovrebbe incidere sulla possibilità per le entità che svolgono attività militari, di sicurezza nazionale e di difesa, indipendentemente dal tipo di entità che svolge tali attività, di utilizzare sistemi di IA per scopi di sicurezza nazionale, militari e di difesa, l'uso dei quali è escluso dall'ambito di applicazione del presente regolamento. Un sistema di IA immesso sul mercato per scopi civili o di attività di contrasto che è utilizzato con o senza modifiche a fini militari, di difesa o di sicurezza nazionale non dovrebbe rientrare nell'ambito di applicazione del presente regolamento, indipendentemente dal tipo di entità che svolge tali attività.
(25)
Настоящият регламент следва да подкрепя иновациите, да зачита свободата на науката и не следва да е пречка за научноизследователската и развойната дейност. Поради това е необходимо от неговия обхват да бъдат изключени системите и моделите с ИИ, специално разработени и пуснати в действие единствено с цел научноизследователска и развойна дейност. Освен това е необходимо да се гарантира, че настоящият регламент не засяга по друг начин научноизследователската и развойната дейност в областта на системите или моделите с ИИ преди пускането им на пазара или пускането им в действие. По отношение на ориентираната към продуктите научноизследователска, изпитателна и развойна дейност във връзка със системи или модели с ИИ, разпоредбите на настоящия регламент също така не следва да се прилагат преди пускането в действие или пускането на пазара на тези системи и модели. Това изключение не засяга задължението за спазване на настоящия регламент, когато система с ИИ, попадаща в обхвата на настоящия регламент, е пусната на пазара или пусната в действие в резултат на такава научноизследователска и развойна дейност, както и прилагането на разпоредбите относно регулаторните лаборатории в областта на ИИ и изпитването в реални условия. Освен това, без да се засяга изключението по отношение на системите с ИИ, специално разработени и пуснати в действие единствено за целите на научноизследователската и развойната дейност, за всяка друга система с ИИ, която може да се използва за извършването на научноизследователска и развойна дейност, разпоредбите на настоящия регламент следва да продължат да се прилагат. Във всеки случай всяка научноизследователска и развойна дейност следва да се извършва в съответствие с признатите етични и професионални стандарти по отношение на научните изследвания и следва да се провежда в съответствие с приложимото право на Съюза.
(25)
Il presente regolamento dovrebbe sostenere l'innovazione, rispettare la libertà della scienza e non dovrebbe pregiudicare le attività di ricerca e sviluppo. È pertanto necessario escludere dal suo ambito di applicazione i sistemi e i modelli di IA specificamente sviluppati e messi in servizio al solo scopo di ricerca e sviluppo scientifici. È inoltre necessario garantire che il regolamento non incida altrimenti sulle attività scientifiche di ricerca e sviluppo relative ai sistemi o modelli di IA prima dell'immissione sul mercato o della messa in servizio. Per quanto riguarda le attività di ricerca, prova e sviluppo orientate ai prodotti relative ai sistemi o modelli di IA, le disposizioni del presente regolamento non dovrebbero nemmeno applicarsi prima che tali sistemi e modelli siano messi in servizio o immessi sul mercato. Tale esclusione non pregiudica l'obbligo di conformarsi al presente regolamento qualora un sistema di IA che rientra nell'ambito di applicazione del presente regolamento sia immesso sul mercato o messo in servizio in conseguenza di tale attività di ricerca e sviluppo, così come non pregiudica l'applicazione delle disposizioni sugli spazi di sperimentazione normativa per l’IA e sulle prove in condizioni reali. Inoltre, fatta salva l'esclusione dei sistemi di IA specificamente sviluppati e messi in servizio solo a scopo di ricerca e sviluppo in ambito scientifico, qualsiasi altro sistema di IA che possa essere utilizzato per lo svolgimento di qualsiasi attività di ricerca e sviluppo dovrebbe rimanere soggetto alle disposizioni del presente regolamento. In ogni caso, qualsiasi attività di ricerca e sviluppo dovrebbe essere svolta conformemente alle norme etiche e professionali riconosciute nell'ambito della ricerca scientifica e dovrebbe essere condotta conformemente al diritto dell'Unione applicabile.
(26)
За да се въведе пропорционален и ефективен набор от задължителни правила за системите с ИИ, следва да се прилага ясно определен подход, основан на риска. В рамките на този подход видът и съдържанието на правилата следва да се адаптират към интензитета и обхвата на рисковете, които системите с ИИ могат да породят. Поради това е необходимо да се забранят някои неприемливи практики в областта на ИИ, да се установят изисквания за високорисковите системи с ИИ и задължения за съответните оператори, както и да се установят задължения за прозрачност за някои системи с ИИ.
(26)
Al fine di introdurre un insieme proporzionato ed efficace di regole vincolanti per i sistemi di IA è opportuno avvalersi di un approccio basato sul rischio definito in modo chiaro. Tale approccio dovrebbe adattare la tipologia e il contenuto di dette regole all'intensità e alla portata dei rischi che possono essere generati dai sistemi di IA. È pertanto necessario vietare determinate pratiche di IA inaccettabili, stabilire requisiti per i sistemi di IA ad alto rischio e obblighi per gli operatori pertinenti, nonché obblighi di trasparenza per determinati sistemi di IA.
(27)
Въпреки че основаният на риска подход е основата за пропорционален и ефективен набор от задължителни правила, е важно да се припомнят Насоките относно етичните аспекти за надежден ИИ от 2019 г., разработени от независимата ЕГВР ИИ, определена от Комисията. В тези насоки ЕГВР ИИ е разработила седем необвързващи етични принципа за ИИ, които имат за цел да спомогнат да се гарантира, че ИИ е надежден и етичен. Седемте принципа включват човешки фактор и контрол; техническа стабилност и безопасност; неприкосновеност на личния живот и управление на данните; прозрачност; многообразие, недискриминация и справедливост; обществено и екологично благосъстояние; отчетност. Без да засягат правно обвързващите изисквания на настоящия регламент и на всички други приложими правни актове на Съюза, посочените насоки допринасят за разработването на съгласуван, надежден и ориентиран към човека ИИ в съответствие с Хартата и с ценностите, на които се основава Съюзът. Съгласно Насоките на ЕГВР ИИ човешки фактор и контрол означава, че системите с ИИ се разработват и използват като инструмент, който служи на хората, зачита човешкото достойнство и личната независимост и функционира така, че да може да се контролира и наблюдава от хората по подходящ начин. Техническа стабилност и безопасност означава, че системите с ИИ се разработват и използват по начин, който позволява стабилност в случай на проблеми и устойчивост срещу опити за промяна на използването или действието на системата с ИИ, така че да се даде възможност за незаконно използване от трети лица, и който свежда до минимум непреднамерените вреди. Неприкосновеност на личния живот и управление на данните означава, че системите с ИИ се разработват и използват в съответствие с правилата относно неприкосновеността на личния живот и защитата на данните, като същевременно се обработват данни, които отговарят на високи стандарти по отношение на качеството и целостта. Прозрачност означава, че системите с ИИ се разработват и използват по начин, който позволява подходяща проследимост и разбираемост, като същевременно хората се уведомяват, че комуникират или си взаимодействат със система с ИИ, и внедрителите надлежно се информират за способностите и ограниченията на тази система с ИИ, а засегнатите лица – за техните права. Многообразие, недискриминация и справедливост означава, че системите с ИИ се разработват и използват по начин, който включва различни участници и насърчава равния достъп, равенството между половете и културното многообразие, като същевременно се избягват дискриминационните въздействия и несправедливата предубеденост, които са забранени от правото на Съюза или националното право. Обществено и екологично благосъстояние означава, че системите с ИИ се разработват и използват по устойчив и екологосъобразен начин, както и така, че да са от полза за всички хора, като същевременно се наблюдават и оценяват дългосрочните въздействия върху отделните лица, обществото и демокрацията. Прилагането на тези принципи следва да бъде отразено, когато е възможно, при проектирането и използването на модели с ИИ. При всички случаи те следва да служат като основа за изготвянето на кодекси за поведение съгласно настоящия регламент. Всички заинтересовани страни, включително стопанските сектори, академичните среди, гражданското общество и организациите за стандартизация, се насърчават да вземат предвид, когато е целесъобразно, етичните принципи за разработването на незадължителни най-добри практики и стандарти.
(27)
Sebbene l'approccio basato sul rischio costituisca la base per un insieme proporzionato ed efficace di regole vincolanti, è importante ricordare gli orientamenti etici per un'IA affidabile del 2019 elaborati dall'AI HLEG indipendente nominato dalla Commissione. In tali orientamenti l'AI HLEG ha elaborato sette principi etici non vincolanti per l'IA che sono intesi a contribuire a garantire che l'IA sia affidabile ed eticamente valida. I sette principi comprendono: intervento e sorveglianza umani, robustezza tecnica e sicurezza, vita privata e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale e ambientale e responsabilità. Fatti salvi i requisiti giuridicamente vincolanti del presente regolamento e di qualsiasi altra disposizione di diritto dell'Unione applicabile, tali orientamenti contribuiscono all'elaborazione di un'IA coerente, affidabile e antropocentrica, in linea con la Carta e con i valori su cui si fonda l'Unione. Secondo gli orientamenti dell'AI HLEG con «intervento e sorveglianza umani» si intende che i sistemi di IA sono sviluppati e utilizzati come strumenti al servizio delle persone, nel rispetto della dignità umana e dell'autonomia personale, e funzionano in modo da poter essere adeguatamente controllati e sorvegliati dagli esseri umani. Con «robustezza tecnica e sicurezza» si intende che i sistemi di IA sono sviluppati e utilizzati in modo da consentire la robustezza nel caso di problemi e resilienza contro i tentativi di alterare l'uso o le prestazioni del sistema di IA in modo da consentire l'uso illegale da parte di terzi e ridurre al minimo i danni involontari. Con «vita privata e governance dei dati» si intende che i sistemi di IA sono sviluppati e utilizzati nel rispetto delle norme in materia di vita privata e protezione dei dati, elaborando al contempo dati che soddisfino livelli elevati in termini di qualità e integrità. Con «trasparenza» si intende che i sistemi di IA sono sviluppati e utilizzati in modo da consentire un'adeguata tracciabilità e spiegabilità, rendendo gli esseri umani consapevoli del fatto di comunicare o interagire con un sistema di IA e informando debitamente i deployer delle capacità e dei limiti di tale sistema di IA e le persone interessate dei loro diritti. Con «diversità, non discriminazione ed equità» si intende che i sistemi di IA sono sviluppati e utilizzati in modo da includere soggetti diversi e promuovere la parità di accesso, l'uguaglianza di genere e la diversità culturale, evitando nel contempo effetti discriminatori e pregiudizi ingiusti vietati dal diritto dell'Unione o nazionale. Con «benessere sociale e ambientale» si intende che i sistemi di IA sono sviluppati e utilizzati in modo sostenibile e rispettoso dell'ambiente e in modo da apportare benefici a tutti gli esseri umani, monitorando e valutando gli impatti a lungo termine sull'individuo, sulla società e sulla democrazia. L'applicazione di tali principi dovrebbe essere tradotta, ove possibile, nella progettazione e nell'utilizzo di modelli di IA. Essi dovrebbero in ogni caso fungere da base per l'elaborazione di codici di condotta a norma del presente regolamento. Tutti i portatori di interessi, compresi l'industria, il mondo accademico, la società civile e le organizzazioni di normazione, sono incoraggiati a tenere conto, se del caso, dei principi etici per lo sviluppo delle migliori pratiche e norme volontarie.
(28)
Въпреки че ИИ има многобройни полезни приложения, с него може да се злоупотребява и той може да осигури нови и мощни инструменти за манипулативни и експлоататорски практики и практики за социален контрол. Тези практики са особено вредни и недобросъвестни и следва да бъдат забранени, тъй като противоречат на ценностите на Съюза за зачитане на човешкото достойнство, свободата, равенството, демокрацията и принципите на правовата държава, и основните права, залегнали в Хартата, включително правото на недискриминация, на защита на данните и на неприкосновеност на личния живот, както и правата на детето.
(28)
L'IA presenta, accanto a molti utilizzi benefici, la possibilità di essere utilizzata impropriamente e di fornire strumenti nuovi e potenti per pratiche di manipolazione, sfruttamento e controllo sociale. Tali pratiche sono particolarmente dannose e abusive e dovrebbero essere vietate poiché sono contrarie ai valori dell'Unione relativi al rispetto della dignità umana, alla libertà, all'uguaglianza, alla democrazia e allo Stato di diritto e ai diritti fondamentali sanciti dalla Carta, compresi il diritto alla non discriminazione, alla protezione dei dati e alla vita privata e i diritti dei minori.
(29)
Манипулативните техники, използващи ИИ, могат да служат за склоняване на хората към нежелано поведение или за подвеждането им, като ги подтикват да вземат решения по начин, който подкопава и накърнява тяхната независимост, вземане на решения и свободен избор. Пускането на пазара, пускането в действие или използването на някои системи с ИИ с цел или последици, изразяващи се в съществено изменение на човешкото поведение, при което е вероятно да възникнат значителни вреди, по-специално оказващи достатъчно значимо неблагоприятно въздействие върху физическото или психологическото здраве или финансовите интереси, са особено опасни и поради това следва да бъдат забранени. Такива системи с ИИ използват компоненти, действащи на подсъзнанието, например стимули чрез изображения и аудио и видео стимули, които хората не могат да възприемат, тъй като тези стимули са отвъд човешкото възприятие, или други манипулативни или заблуждаващи техники, които подкопават или накърняват независимостта, вземането на решения или свободния избор така, че хората не осъзнават, че се използват такива техники, или дори когато го осъзнават, те все пак могат да бъдат заблудени или не са в състояние да ги контролират или да им устоят. Това може да бъде улеснено например от интерфейси мозък-машина или виртуална реалност, тъй като те позволяват по-висока степен на контрол върху това какви стимули се предоставят на хората, доколкото те могат съществено да променят поведението им по начин, който води до значителна вреда. Наред с това системите с ИИ могат да се възползват и по друг начин от уязвимостта на дадено лице или конкретна група лица поради тяхната възраст, увреждане по смисъла на Директива (ЕС) 2019/882 на Европейския парламенти и на Съвета (16) или конкретно социално или икономическо положение, което има вероятност да направи тези лица по-уязвими на експлоатация, като например лица, живеещи в крайна бедност, етнически или религиозни малцинства. Такива системи с ИИ могат да бъдат пуснати на пазара, пуснати в действие или използвани с цел или последици, изразяващи се в съществено изменение на поведението на дадено лице, и по начин, който причинява или има разумна вероятност да причини значителна вреда на това или на друго лице или групи лица, включително вреди, които могат да се натрупват с течение на времето, поради което следва да бъдат забранени. Може да не е възможно да се приеме, че е налице намерение за изменение на поведението, когато изменението се дължи на фактори, външни за системата с ИИ, които са извън контрола на доставчика или внедрителя, а именно фактори, които може да не са разумно предвидими и поради това да не е възможно доставчикът или внедрителят на системата с ИИ да ги смекчи. Във всеки случай не е необходимо доставчикът или внедрителят да има намерение да причини значителна вреда, при условие че тази вреда произтича от манипулативни или експлоататорски практики, използващи ИИ. Забраните за такива практики в областта на ИИ допълват разпоредбите, съдържащи се в Директива 2005/29/ЕО на Европейския парламент и на Съвета (17), по-специално за забрана при всички обстоятелства на нелоялните търговски практики, водещи до икономически или финансови вреди за потребителите, независимо дали са въведени чрез системи с ИИ, или по друг начин. Забраните за манипулативни и експлоататорски практики в настоящия регламент не следва да засягат законните практики при медицинско лечение, като например психологическо лечение на психично заболяване или физическа рехабилитация, когато тези практики се извършват в съответствие с приложимото право и приложимите медицински стандарти, например за изричното съгласие на лицата или техните законни представители. Освен това общоприетите и законни търговски практики, например в областта на рекламата, които са в съответствие с приложимото право, не следва сами по себе си да се считат за вредни манипулативни практики, използващи ИИ.
(29)
Le tecniche di manipolazione basate sull'IA possono essere utilizzate per persuadere le persone ad adottare comportamenti indesiderati o per indurle con l'inganno a prendere decisioni in modo da sovvertirne e pregiudicarne l'autonomia, il processo decisionale e la libera scelta. L'immissione sul mercato, la messa in servizio o l'uso di determinati sistemi di IA con l'obiettivo o l'effetto di distorcere materialmente il comportamento umano, con il rischio di causare danni significativi, in particolare aventi effetti negativi sufficientemente importanti sulla salute fisica, psicologica o sugli interessi finanziari, sono particolarmente pericolosi e dovrebbero pertanto essere vietati. Tali sistemi di IA impiegano componenti subliminali quali stimoli audio, grafici e video che le persone non sono in grado di percepire poiché tali stimoli vanno al di là della percezione umana o altre tecniche manipolative o ingannevoli che sovvertono o pregiudicano l'autonomia, il processo decisionale o la libera scelta di una persona senza che sia consapevole di tali tecniche o, se ne è consapevole, senza che sia in grado di controllarle o resistervi o possa evitare l'inganno. Ciò potrebbe essere facilitato, ad esempio, da interfacce cervello-computer o dalla realtà virtuale, in quanto queste consentono un livello più elevato di controllo degli stimoli presentati alle persone, nella misura in cui possono distorcerne materialmente il comportamento in modo significativamente nocivo. In aggiunta, i sistemi di IA possono inoltre sfruttare in altro modo le vulnerabilità di una persona o di uno specifico gruppo di persone dovute all'età, a disabilità ai sensi della direttiva (UE) 2019/882 del Parlamento europeo e del Consiglio (16) o a una specifica situazione sociale o economica che potrebbe rendere tali persone più vulnerabili allo sfruttamento, come le persone che vivono in condizioni di povertà estrema e le minoranze etniche o religiose. Tali sistemi di IA possono essere immessi sul mercato, messi in servizio o utilizzati con l'obiettivo o l'effetto di distorcere materialmente il comportamento di una persona e in un modo che provochi o possa verosimilmente provocare a tale persona o a un'altra persona o gruppo di persone un danno significativo, compresi danni che possono essere accumulati nel tempo, e dovrebbero pertanto essere vietati. Potrebbe non essere possibile presumere che vi sia l'intenzione di distorcere il comportamento qualora la distorsione sia determinata da fattori esterni al sistema di IA, che sfuggono al controllo del fornitore o del deployer, ossia fattori che non possono essere ragionevolmente prevedibili e non possono quindi essere attenuati dal fornitore o dal deployer del sistema di IA. In ogni caso, non è necessario che il fornitore o il deployer abbiano l'intento di provocare un danno significativo, purché tale danno derivi da pratiche manipolative o di sfruttamento consentite dall'IA. Il divieto di tali pratiche di IA è complementare alle disposizioni contenute nella direttiva 2005/29/CE del Parlamento europeo e del Consiglio (17), in particolare le pratiche commerciali sleali che comportano danni economici o finanziari per i consumatori sono vietate in ogni circostanza, indipendentemente dal fatto che siano attuate attraverso sistemi di IA o in altro modo. I divieti di pratiche manipolative e di sfruttamento di cui al presente regolamento non dovrebbero pregiudicare le pratiche lecite nel contesto di trattamenti medici, quali il trattamento psicologico di una malattia mentale o la riabilitazione fisica, quando tali pratiche sono svolte conformemente al diritto applicabile e alle norme in ambito medico, ad esempio il consenso esplicito delle persone fisiche o dei loro rappresentanti legali. Inoltre, le pratiche commerciali comuni e legittime, ad esempio nel settore della pubblicità, che sono conformi alla normativa applicabile non dovrebbero essere considerate di per sé come pratiche consentite dall’IA manipolative o dannose.
(30)
Следва да бъдат забранени системите за биометрично категоризиране, които се основават на биометрични данни на физическите лица, като например лицето или пръстовите отпечатъци на дадено лице, за да се направят заключения или изводи относно неговите политически възгледи, членство в синдикални организации, религиозни или философски убеждения, раса, сексуален живот или сексуална ориентация. Тази забрана не следва да обхваща законното обозначаване, филтриране или категоризиране на наборите от биометрични данни, получени в съответствие с правото на Съюза или националното право въз основа на биометрични данни, като например сортиране на изображения според цвета на косата или цвета на очите, които могат да се използват например в правоохранителната област.
(30)
Dovrebbero essere vietati i sistemi di categorizzazione biometrica basati sui dati biometrici di persone fisiche, quali il volto o le impronte digitali, per trarre deduzioni o inferenze in merito alle opinioni politiche, all'appartenenza sindacale, alle convinzioni religiose o filosofiche, alla razza, alla vita sessuale o all'orientamento sessuale di una persona. Tale divieto non dovrebbe riguardare l'etichettatura, il filtraggio o la categorizzazione legali dei set di dati biometrici acquisiti in linea con il diritto dell'Unione o nazionale in funzione dei dati biometrici, come la selezione di immagini in base al colore dei capelli o degli occhi, che possono essere utilizzati, ad esempio, nel settore delle attività di contrasto.
(31)
Системите с ИИ, осигуряващи социално оценяване на физически лица, извършено от публични или частни субекти, могат да доведат до дискриминационни резултати и изключване на определени групи. Те могат да нарушат правото на достойнство и недискриминация и ценностите на равенството и справедливостта. Подобни системи с ИИ оценяват или класифицират физически лица или групи от такива лица въз основа на множество данни, свързани с тяхното социално поведение в различен контекст, или известни, изведени или предполагаеми лични или личностни характеристики, през определен период от време. Социалната класация, получена от такива системи с ИИ, може да доведе до увреждащо или неблагоприятно третиране на физически лица или на цели групи от такива лица в социален контекст, който няма връзка с контекста, в който първоначално са били генерирани или събрани данните, или до увреждащо третиране, което е непропорционално или неоправдано с оглед на тежестта, която се отдава на тяхното социално поведение. Поради това системите с ИИ, които включват такива неприемливи практики за оценяване и водещи до вредни или неблагоприятни резултати, следва да бъдат забранени. Тази забрана не следва да засяга законните практики за оценяване на физически лица, извършвани за конкретна цел в съответствие с правото на Съюза или националното право.
(31)
I sistemi di IA che permettono ad attori pubblici o privati di attribuire un punteggio sociale alle persone fisiche possono portare a risultati discriminatori e all'esclusione di determinati gruppi. Possono inoltre ledere il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia. Tali sistemi di IA valutano o classificano le persone fisiche o i gruppi di persone fisiche sulla base di vari punti di dati riguardanti il loro comportamento sociale in molteplici contesti o di caratteristiche personali o della personalità note, inferite o previste nell'arco di determinati periodi di tempo. Il punteggio sociale ottenuto da tali sistemi di IA può determinare un trattamento pregiudizievole o sfavorevole di persone fisiche o di interi gruppi in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti, o a un trattamento pregiudizievole che risulta ingiustificato o sproporzionato rispetto alla gravità del loro comportamento sociale. I sistemi di IA che comportano tali pratiche inaccettabili di punteggio aventi risultati pregiudizievoli o sfavorevoli dovrebbero pertanto essere vietati. Tale divieto non dovrebbe pregiudicare le pratiche lecite di valutazione delle persone fisiche effettuate per uno scopo specifico in conformità del diritto dell'Unione e nazionale.
(32)
Използването на системи с ИИ за дистанционна биометрична идентификация в реално време на физически лица на обществено достъпни места за правоохранителни цели особено силно накърнява правата и свободите на засегнатите лица, доколкото то може да засегне личния живот на голяма част от населението, да породи усещане за постоянно наблюдение и косвено да действа разубеждаващо по отношение на упражняването на свободата на събранията и други основни права. Техническите неточности на системите с ИИ, предназначени за дистанционна биометрична идентификация на физически лица, могат да доведат до опорочени от предубеденост резултати и до дискриминация. Такива възможни опорочени от предубеденост резултати и дискриминационни последици са от особено значение по отношение на възраст, етническа принадлежност, раса, пол или увреждане. Освен това непосредственият ефект и ограничените възможности за допълнителни проверки или корекции във връзка с използването на такива системи, функциониращи в реално време, крият повишен риск за правата и свободите на лицата, които са засегнати при правоохранителните дейности или върху които тези дейности оказват въздействие.
(32)
L'uso di sistemi di IA di identificazione biometrica remota «in tempo reale» delle persone fisiche in spazi accessibili al pubblico a fini di attività di contrasto è particolarmente invasivo dei diritti e delle libertà delle persone interessate, nella misura in cui potrebbe avere ripercussioni sulla vita privata di un'ampia fetta della popolazione, farla sentire costantemente sotto sorveglianza e scoraggiare in maniera indiretta l'esercizio della libertà di riunione e di altri diritti fondamentali. Le inesattezze di carattere tecnico dei sistemi di IA destinati all'identificazione biometrica remota delle persone fisiche possono determinare risultati distorti e comportare effetti discriminatori. Tali possibili risultati distorti ed effetti discriminatori sono particolarmente importanti per quanto riguarda l'età, l'etnia, la razza, il sesso o le disabilità. L'immediatezza dell'impatto e le limitate opportunità di eseguire ulteriori controlli o apportare correzioni in relazione all'uso di tali sistemi che operano «in tempo reale» comportano inoltre un aumento dei rischi per quanto concerne i diritti e le libertà delle persone interessate nell’ambito delle attività di contrasto, o che sono da queste condizionate.
(33)
Поради това използването на тези системи за правоохранителни цели следва да бъде забранено, освен в изчерпателно изброени и подробно определени ситуации, при които използването е строго необходимо за постигане на значителен обществен интерес, чиято важност надделява над рисковете. Тези ситуации включват издирването на някои жертви на престъпления, включително изчезнали лица; някои заплахи за живота или физическата безопасност на физически лица или от терористично нападение; както и установяването на местоположението или самоличността на извършители или заподозрени в извършването на престъпленията, изброени в приложение към настоящия регламент, когато тези престъпления се наказват в съответната държава членка с лишаване от свобода или мярка за задържане с максимален срок не по-малко от четири години, като се отчита определението на тези престъпления в правото на съответната държава членка. Прагът относно срока на лишаването от свобода или на мярката за задържане в съответствие с националното право спомага да се гарантира, че престъплението е достатъчно тежко, за да обоснове евентуално използването на системи за дистанционна биометрична идентификация в реално време. Освен това списъкът на престъпленията, поместен в приложение към настоящия регламент, се основава на 32-те престъпления, изброени в Рамково решение 2002/584/ПВР на Съвета (18), като се отчита, че някои от тези престъпления на практика вероятно имат по-голямо значение от други, доколкото използването на дистанционна биометрична идентификация в реално време би могло да е вероятно необходимо и пропорционално в много различна степен с оглед на практическото установяване на местоположението или самоличността на извършителя или заподозрения за различните изброени престъпления, като се имат предвид също вероятните разлики в тяхната тежест, вероятност и размер на вредата или възможните отрицателни последици. Непосредствена заплаха за живота или физическата безопасност на физически лица може да възникне и от сериозно нарушаване на критична инфраструктура съгласно определението в член 2, точка 4 от Директива (ЕС) 2022/2557 на Европейския парламент и на Съвета (19), когато нарушаването или унищожаването на такава критична инфраструктура би довело до непосредствена заплаха за живота или физическата безопасност на дадено лице, включително чрез сериозно увреждане на снабдяването с основни продукти за населението или на упражняването на основните функции на държавата. Освен това с настоящия регламент следва да се запази възможността правоохранителните органи, органите за граничен контрол, имиграционните органи или органите в областта на убежището да извършват проверки на самоличността в присъствието на засегнатото лице в съответствие с условията, определени в правото на Съюза и в националното право за такива проверки. По-специално, правоохранителните органи, органите за граничен контрол, имиграционните органи или органите в областта на убежището следва да могат да използват информационни системи, в съответствие с правото на Съюза или националното право, за установяване на самоличността на лица, които по време на проверка за установяване на самоличността отказват да бъде установена самоличността им или не са в състояние да посочат или докажат самоличността си, без настоящият регламент да изисква предварително разрешение с тази цел. Това може да бъде например лице, замесено в престъпление, което не желае или не може, поради злополука или здравословно състояние, да разкрие самоличността си пред правоохранителните органи.
(33)
L'uso di tali sistemi a fini di attività di contrasto dovrebbe pertanto essere vietato, eccezion fatta per le situazioni elencate in modo esaustivo e definite rigorosamente, nelle quali l'uso è strettamente necessario per perseguire un interesse pubblico rilevante, la cui importanza prevale sui rischi. Tali situazioni comprendono la ricerca di determinate vittime di reato, comprese le persone scomparse, determinate minacce per la vita o l'incolumità fisica delle persone fisiche o un attacco terroristico nonché la localizzazione o l'identificazione degli autori o dei sospettati di reati elencati nell'allegato del presente regolamento qualora tali reati siano punibili nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà personale della durata massima di almeno quattro anni e sono definiti conformemente al diritto di tale Stato membro. Tale soglia per la pena o la misura di sicurezza privativa della libertà personale in conformità del diritto nazionale contribuisce a garantire che il reato sia sufficientemente grave da giustificare potenzialmente l'uso di sistemi di identificazione biometrica remota «in tempo reale». Inoltre, l’elenco dei reati di cui all’allegato del presente regolamento è basato sui 32 reati elencati nella decisione quadro 2002/584/GAI del Consiglio (18), tenendo conto che alcuni reati risultano più pertinenti di altri, poiché il grado di necessità e proporzionalità del ricorso all'identificazione biometrica remota «in tempo reale» potrebbe essere prevedibilmente molto variabile per quanto concerne il perseguimento pratico della localizzazione o dell'identificazione nei confronti di un autore o un sospettato dei vari reati elencati e con riguardo alle possibili differenze in termini di gravità, probabilità e portata del danno o delle eventuali conseguenze negative. Una minaccia imminente per la vita o l'incolumità fisica delle persone fisiche potrebbe anche derivare da un grave danneggiamento dell'infrastruttura critica quale definita all'articolo 2, punto 4, della direttiva (UE) 2022/2557 del Parlamento europeo e del Consiglio (19), ove il danneggiamento o la distruzione di tale infrastruttura critica possa comportare una minaccia imminente per la vita o l'integrità fisica di una persona, anche in ragione di un grave danno alla fornitura di forniture di base alla popolazione o all'esercizio della funzione essenziale dello Stato. Il presente regolamento dovrebbe altresì preservare la capacità delle autorità competenti in materia di contrasto, di controllo delle frontiere, di immigrazione o di asilo di svolgere controlli d'identità in presenza della persona interessata, conformemente alle condizioni stabilite per tali controlli dal diritto dell'Unione e nazionale. In particolare, le autorità competenti in materia di contrasto, di controllo delle frontiere, di immigrazione o di asilo dovrebbero poter utilizzare i sistemi di informazione, conformemente al diritto dell'Unione o nazionale, per identificare le persone che, durante un controllo d'identità, rifiutano di essere identificate o non sono in grado di dichiarare o dimostrare la loro identità, senza essere tenute, a norma del presente regolamento, a ottenere un'autorizzazione preventiva. Potrebbe trattarsi, ad esempio, di una persona coinvolta in un reato che, a causa di un incidente o di un problema di salute, non vuole rivelare la propria identità alle autorità di contrasto o non è in grado di farlo.
(34)
За да се гарантира, че тези системи се използват по отговорен и пропорционален начин, е важно също така да се определи, че във всяка от тези изчерпателно изброени и подробно определени ситуации следва да се вземат предвид определени елементи, по-специално по отношение на естеството на ситуацията, във връзка с която е искането, и последиците от използването за правата и свободите на всички засегнати лица, както и гаранциите и условията, при които ще премине използването. Освен това използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели следва да бъде единствено с цел потвърждаване на самоличността на конкретно лице и следва да бъде ограничено до строго необходимото от гледна точка на срок, както и на териториален обхват и обхват по отношение на лицата, като се вземат предвид по-специално доказателствата или признаците за опасностите, жертвите или извършителя. Използването на системата за дистанционна биометрична идентификация в реално време на обществено достъпни места следва да бъде разрешено само ако съответният правоохранителен орган е извършил оценка на въздействието върху основните права и, освен ако в настоящия регламент не е предвидено друго, е регистрирал системата в базата данни, посочена в настоящия регламент. Референтната база данни на лицата следва да бъде подходяща за всеки случай на използване във всяка от посочените по-горе ситуации.
(34)
Al fine di garantire che tali sistemi siano utilizzati in modo responsabile e proporzionato, è altresì importante stabilire che, in ciascuna delle situazioni elencate in modo esaustivo e definite rigorosamente, è opportuno tener conto di taluni elementi, in particolare per quanto riguarda la natura della situazione all'origine della richiesta e le conseguenze dell'uso per i diritti e le libertà di tutte le persone interessate, nonché le tutele e le condizioni previste per l'uso. L'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto dovrebbe inoltre essere impiegato solo per confermare l'identità della persona specificamente interessata e dovrebbe essere limitato a quanto strettamente necessario per quanto riguarda il periodo di tempo e l'ambito geografico e personale, con particolare riguardo a indicazioni o elementi probatori relativi a minacce, vittime o autori di reati. L'uso del sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico dovrebbe essere autorizzato solo se l'autorità di contrasto pertinente ha completato una valutazione d'impatto sui diritti fondamentali e, salvo disposizione contraria del presente regolamento, ha registrato il sistema nella banca dati di cui al presente regolamento. La banca dati di riferimento delle persone dovrebbe risultare adeguata per ogni caso d'uso in ciascuna delle situazioni di cui sopra.
(35)
За всяко използване на система за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели следва да се изисква изрично и конкретно разрешение от съдебен орган или от независим административен орган на държава членка, чието решение е задължително. Това разрешение следва по принцип да бъде получено преди използването на системата с ИИ с цел идентифициране на дадено лице или лица. Изключения от това правило следва да се допускат в надлежно обосновани спешни случаи, а именно в ситуации, при които необходимостта от използване на съответните системи е такава, че е практически и обективно невъзможно да бъде получено разрешение преди началото на използването на системата с ИИ. При такива спешни ситуации използването на системата с ИИ следва да бъде ограничено до абсолютно необходимия минимум и да е съпроводено с подходящи гаранции и условия, както са установени в националното право и специално указани в контекста на всеки отделен случай на спешно използване от самия правоохранителен орган. Освен това в такива ситуации правоохранителният орган следва да поиска такова разрешение, като посочи причините, поради които не е могъл да го поиска по-рано, без ненужно забавяне и най-късно в рамките на 24 часа. Ако искането за това разрешение бъде отхвърлено, използването на системи за биометрична идентификация в реално време, свързано с това разрешение, следва да бъде прекратено незабавно и всички данни, свързани с това използване, следва да бъдат премахнати и заличени. Тези данни включват входящите данни, получени пряко от система с ИИ в хода на използването на такава система, както и резултатите от използването, свързано с това разрешение. Това не следва да включва входящи данни, законно придобити в съответствие с друг правен акт на Съюза или национален правен акт. Във всеки случай решение, което поражда неблагоприятни правни последици за дадено лице, не следва да бъде взето единствено въз основа на резултата от системата за дистанционна биометрична идентификация.
(35)
È opportuno subordinare ogni uso di un sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto a un'autorizzazione esplicita e specifica da parte di un'autorità giudiziaria o di un'autorità amministrativa indipendente di uno Stato membro la cui decisione sia vincolante. Tale autorizzazione dovrebbe, in linea di principio, essere ottenuta prima dell'uso del sistema di IA al fine di identificare una o più persone. Eccezioni a tale regola dovrebbero essere ammesse in situazioni di urgenza debitamente giustificate, vale a dire le situazioni in cui la necessità di utilizzare i sistemi interessati è tale da far sì che sia effettivamente e oggettivamente impossibile ottenere un'autorizzazione prima di iniziare a utilizzare il sistema di IA. In tali situazioni di urgenza, è opportuno limitare l'uso del sistema di IA al minimo indispensabile e subordinarlo a tutele e condizioni adeguate, come stabilito dal diritto nazionale e specificato nel contesto di ogni singolo caso d'uso urgente dall'autorità di contrasto stessa. In tali situazioni, inoltre, l'autorità di contrasto dovrebbe richiedere tale autorizzazione, indicando contestualmente i motivi per cui non ha potuto richiederla prima, senza indebito ritardo e al più tardi entro 24 ore. Se tale autorizzazione è respinta, l'uso dei sistemi di identificazione biometrica «in tempo reale» collegati a tale autorizzazione dovrebbe essere interrotto con effetto immediato e tutti i dati relativi a tale uso dovrebbero essere eliminati e cancellati. Tali dati comprendono i dati di input acquisiti direttamente da un sistema di IA nel corso dell'uso di tale sistema, nonché i risultati e gli output dell'uso connessi a tale autorizzazione. Non dovrebbero includere gli input acquisiti legalmente in conformità di altre disposizioni del diritto dell'Unione o nazionale. In ogni caso, nessuna decisione che produca effetti giuridici negativi su una persona dovrebbe essere presa unicamente sulla base dell'output del sistema di identificazione biometrica remota.
(36)
За да изпълняват задачите си в съответствие с изискванията, установени в настоящия регламент, както и в националните правила, съответният орган за надзор на пазара и националният орган за защита на данните следва да бъдат уведомявани за всяко използване на системата за биометрична идентификация в реално време. Уведомените за това използване органи за надзор на пазара и национални органи за защита на данните следва да представят на Комисията годишен доклад относно използването на системи за биометрична идентификация в реално време.
(36)
Affinché svolgano i loro compiti conformemente alle prescrizioni del presente regolamento e alle norme nazionali, è opportuno notificare alla pertinente autorità di vigilanza del mercato e all'autorità nazionale per la protezione dei dati ogni uso del sistema di identificazione biometrica «in tempo reale». Le autorità di vigilanza del mercato e le autorità nazionali per la protezione dei dati che sono state notificate dovrebbero presentare alla Commissione una relazione annuale sull'uso dei sistemi di identificazione biometrica «in tempo reale».
(37)
Също така е целесъобразно да се предвиди, в рамките на изчерпателната уредба, създадена с настоящия регламент, че такова използване на територията на държава членка в съответствие с настоящия регламент следва да бъде възможно само и доколкото съответната държава членка е решила изрично да предвиди възможността за допускане на такова използване в подробните правила на националното си право. Следователно съгласно настоящия регламент държавите членки са свободни изобщо да не предвиждат такава възможност или да предвидят такава възможност само по отношение на някои от целите, посочени в настоящия регламент, които могат да оправдаят допустимото използване. Тези национални правила следва да бъдат съобщени на Комисията в срок от 30 дни след приемането им.
(37)
È altresì opportuno prevedere, nell'ambito del quadro esaustivo stabilito dal presente regolamento, che tale uso nel territorio di uno Stato membro in conformità del presente regolamento sia possibile solo nel caso e nella misura in cui lo Stato membro interessato abbia deciso di prevedere espressamente la possibilità di autorizzare tale uso nelle regole dettagliate del proprio diritto nazionale. Gli Stati membri restano di conseguenza liberi, a norma del presente regolamento, di non prevedere affatto tale possibilità o di prevederla soltanto per alcuni degli obiettivi idonei a giustificare l'uso autorizzato di cui nel presente regolamento. Tali regole nazionali dovrebbero essere notificate alla Commissione entro 30 giorni dalla loro adozione.
(38)
Използването на системи с ИИ за дистанционна биометрична идентификация в реално време на физически лица на обществено достъпни места за правоохранителни цели задължително включва обработването на биометрични данни. Правилата на настоящия регламент, които забраняват, с някои изключения, подобно използване и чието правно основание е член 16 ДФЕС, следва да се прилагат като lex specialis по отношение на правилата относно обработването на биометрични данни, съдържащи се в член 10 от Директива (ЕС) 2016/680, като по този начин се урежда изчерпателно това използване и свързаното с него обработване на биометрични данни. Поради това такова използване и такова обработване следва да бъдат възможни само доколкото са съвместими с рамката, установена с настоящия регламент, без да има възможност извън тази рамка компетентните органи, когато действат с правоохранителни цели, да използват такива системи и да обработват такива данни във връзка с тях на основанията, изброени в член 10 от Директива (ЕС) 2016/680. В този контекст настоящият регламент няма за цел да осигури правно основание на обработването на лични данни съгласно член 8 от Директива (ЕС) 2016/680. Използването обаче на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за цели, различни от правоохранителни цели, включително от компетентни органи, не следва да бъде обхванато от специалната рамка относно такова използване за правоохранителни цели, установена с настоящия регламент. Поради това спрямо използването за цели, различни от правоохранителни цели, не следва да се прилагат изискването за разрешение съгласно настоящия регламент и приложимите подробни правила на националното право, които може да уреждат това разрешение.
(38)
L'uso di sistemi di IA per l'identificazione biometrica remota «in tempo reale» di persone fisiche in spazi accessibili al pubblico a fini di attività di contrasto comporta necessariamente il trattamento di dati biometrici. Le regole del presente regolamento che, fatte salve alcune eccezioni, vietano tale uso, e che sono basate sull'articolo 16 TFUE, dovrebbero applicarsi come lex specialis rispetto alle regole sul trattamento dei dati biometrici di cui all'articolo 10 della direttiva (UE) 2016/680, disciplinando quindi in modo esaustivo tale uso e il trattamento dei dati biometrici interessati. L'uso e il trattamento di cui sopra dovrebbero pertanto essere possibili solo nella misura in cui siano compatibili con il quadro stabilito dal presente regolamento, senza che al di fuori di tale quadro sia prevista la possibilità, per le autorità competenti, quando agiscono a fini di attività di contrasto, di utilizzare tali sistemi e trattare tali dati in connessione con tali attività per i motivi di cui all'articolo 10 della direttiva (UE) 2016/680. In tale contesto, il presente regolamento non è inteso a fornire la base giuridica per il trattamento dei dati personali a norma dell'articolo 8 della direttiva (UE) 2016/680. Tuttavia, l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini diversi dalle attività di contrasto, anche da parte delle autorità competenti, non dovrebbe rientrare nel quadro specifico stabilito dal presente regolamento in relazione a tale uso a fini di attività di contrasto. Tale uso a fini diversi dalle attività di contrasto non dovrebbe pertanto essere subordinato all'obbligo di un'autorizzazione a norma del presente regolamento e delle regole dettagliate applicabili del diritto nazionale che possono dare attuazione a tale autorizzazione.
(39)
Всяко обработване на биометрични данни и други лични данни, необходимо за използването на системи с ИИ за биометрична идентификация, различно от обработване във връзка с използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели, уредено в настоящия регламент, следва да продължи да отговаря на всички изисквания, произтичащи от член 10 от Директива (ЕС) 2016/680. За цели, различни от правоохранителни цели, с член 9, параграф 1 от Регламент (ЕС) 2016/679 и член 10, параграф 1 от Регламент (ЕС) 2018/1725 се забранява обработването на биометрични данни, като се прилагат ограничен брой изключения, предвидени в посочените членове. В приложение на член 9, параграф 1 от Регламент (ЕС) 2016/679 използването на дистанционна биометрична идентификация за цели, различни от правоохранителни цели, вече е забранявано с решения на националните органи за защита на данните.
(39)
Qualsiasi trattamento di dati biometrici e di altri dati personali interessati dall'uso di sistemi di IA a fini di identificazione biometrica, diverso da quello connesso all'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto disciplinato dal presente regolamento, dovrebbe continuare a soddisfare tutti i requisiti derivanti dall'articolo 10 della direttiva (UE) 2016/680. Per fini diversi dalle attività di contrasto, l'articolo 9, paragrafo 1, del regolamento (UE) 2016/679 e l'articolo 10, paragrafo 1, del regolamento (UE) 2018/1725 vietano il trattamento di dati biometrici fatte salve limitate eccezioni previste da tali articoli. Nell‘applicazione dell'articolo 9, paragrafo 1, del regolamento (UE) 2016/679, l'uso dell'identificazione biometrica remota a fini diversi dalle attività di contrasto è già stato oggetto di decisioni di divieto da parte delle autorità nazionali per la protezione dei dati.
(40)
В съответствие с член 6а от Протокол № 21 относно позицията на Обединеното кралство и Ирландия по отношение на пространството на свобода, сигурност и правосъдие, приложен към ДЕС и към ДФЕС, Ирландия не е обвързана от правилата, предвидени в член 5, параграф 1, първа алинея, буква ж), доколкото се прилагат за използването на системи за биометрично категоризиране за дейности в областта на полицейското и съдебното сътрудничество по наказателноправни въпроси, в член 5, параграф 1, първа алинея, буква г), доколкото се прилагат за използването на системи с ИИ, обхванати от посочената разпоредба, в член 5, параграф 1, първа алинея, буква з) и параграфи 2 – 6 и в член 26, параграф 10 от настоящия регламент, приети на основание член 16 ДФЕС и отнасящи се до обработването на лични данни от държавите членки при осъществяване на дейности, попадащи в обхвата на трета част, дял V, глава 4 или 5 ДФЕС, когато Ирландия не е обвързана от правилата, уреждащи формите на съдебно сътрудничество по наказателноправни въпроси или на полицейско сътрудничество, в рамките на които трябва да бъдат спазвани разпоредбите, установени на основание член 16 ДФЕС.
(40)
A norma dell'articolo 6 bis del protocollo n, 21 sulla posizione del Regno Unito e dell'Irlanda rispetto allo spazio di libertà, sicurezza e giustizia, allegato al TUE e al TFUE, l'Irlanda non è vincolata dalle regole stabilite all'articolo 5, paragrafo 1, primo comma, lettera g), nella misura in cui si applica all'uso di sistemi di categorizzazione biometrica per le attività nel settore della cooperazione di polizia e della cooperazione giudiziaria in materia penale, all'articolo 5, paragrafo 1, primo comma, lettera d), nella misura in cui si applica all'uso dei sistemi di IA contemplati da tale disposizione, all’articolo 5, paragrafo 1, primo comma, lettera h), paragrafi da 2 a 6, e all'articolo 26, paragrafo 10, del presente regolamento, adottate in base all'articolo 16 TFUE, che riguardano il trattamento dei dati personali da parte degli Stati membri nell'esercizio di attività che rientrano nell'ambito di applicazione della parte terza, titolo V, capi 4 o 5, TFUE, laddove l'Irlanda non sia vincolata da regole che disciplinano forme di cooperazione giudiziaria in materia penale o di cooperazione di polizia nell'ambito delle quali devono essere rispettate le disposizioni stabilite in base all'articolo 16 TFUE.
(41)
В съответствие с членове 2 и 2а от Протокол № 22 относно позицията на Дания, приложен към ДЕС и към ДФЕС, Дания не е обвързана и за нея не се прилагат правилата, предвидени в член 5, параграф 1, първа алинея, буква ж), доколкото се прилагат за използването на системи за биометрично категоризиране за дейности в областта на полицейското и съдебното сътрудничество по наказателноправни въпроси, в член 5, параграф 1, първа алинея, буква г), доколкото се прилагат за използването на системи с ИИ, обхванати от посочената разпоредба, в член 5, параграф 1, първа алинея, буква з) и параграфи 2 – 6 и в член 26, параграф 10 от настоящия регламент, приети на основание член 16 от ДФЕС и отнасящи се до обработването на лични данни от държавите членки при осъществяването на дейности, попадащи в обхвата на трета част, дял V, глава 4 или 5 ДФЕС.
(41)
A norma degli articoli 2 e 2 bis del protocollo n, 22 sulla posizione della Danimarca, allegato al TUE e al TFUE, la Danimarca non è vincolata dalle regole stabilite all'articolo 5, paragrafo 1, primo comma, lettera g), nella misura in cui si applica all'uso di sistemi di categorizzazione biometrica per le attività nel settore della cooperazione di polizia e della cooperazione giudiziaria in materia penale, all'articolo 5, paragrafo 1, primo comma, lettera d), nella misura in cui si applica all'uso dei sistemi di IA contemplati da tale disposizione, all’articolo 5, paragrafo 1, primo comma, lettera h), paragrafi da 2 a 6, e all'articolo 26, paragrafo 10, del presente regolamento, adottate in base all'articolo 16 TFUE, che riguardano il trattamento dei dati personali da parte degli Stati membri nell'esercizio di attività che rientrano nell'ambito di applicazione della parte terza, titolo V, capi 4 o 5, TFUE, né è soggetta alla loro applicazione.
(42)
В съответствие с презумпцията за невиновност физическите лица в Съюза следва винаги да бъдат съдени въз основа на тяхното действително поведение. Физическите лица никога не следва да бъдат съдени въз основа на прогнозирано от ИИ поведение, базирано единствено на тяхното профилиране, личностни черти или характеристики, например гражданство, място на раждане, местопребиваване, брой деца, равнище на задлъжнялост или вид автомобил, без основателно подозрение за участието на лицето в престъпна дейност въз основа на обективни и проверими факти и без човешка оценка. Поради това следва да се забрани извършването на оценки на риска по отношение на физически лица, за да се оцени вероятността от извършване на престъпление или да се прогнозира извършването на действително или вероятно престъпление единствено въз основа на профилирането им или на оценката на техните личностни черти и характеристики. Във всеки случай тази забрана не се отнася до анализа на вероятността, който не се основава на профилирането на лица или на личностните черти и характеристики на тези лица, като например системи с ИИ, използващи анализ на риска за оценка на риска от финансови измами от страна на предприятия въз основа на подозрителни сделки или инструменти за анализ на риска за прогнозиране на вероятността за откриване на наркотици или незаконни стоки от страна на митническите органи, например въз основа на известни маршрути за трафик.
(42)
In linea con la presunzione di innocenza, le persone fisiche nell'Unione dovrebbero sempre essere giudicate in base al loro comportamento effettivo. Le persone fisiche non dovrebbero mai essere giudicate sulla base di un comportamento previsto dall'IA basato unicamente sulla profilazione, sui tratti della personalità o su caratteristiche quali la cittadinanza, il luogo di nascita, il luogo di residenza, il numero di figli, il livello di indebitamento o il tipo di automobile, senza che vi sia un ragionevole sospetto che la persona sia coinvolta in un'attività criminosa sulla base di fatti oggettivi verificabili e senza una valutazione umana al riguardo. Pertanto, dovrebbero essere vietate le valutazioni del rischio effettuate in relazione a persone fisiche intese a determinare la probabilità che queste ultime commettano un reato o volte a prevedere il verificarsi di un reato effettivo o potenziale unicamente sulla base della loro profilazione o della valutazione dei loro tratti della personalità e delle loro caratteristiche. In ogni caso, tale divieto non fa riferimento né riguarda l'analisi del rischio che non è basata sulla profilazione delle persone o sui tratti della personalità e sulle caratteristiche delle persone, come i sistemi di IA che utilizzano l'analisi dei rischi per valutare il rischio di frode finanziaria da parte di imprese sulla base di transazioni sospette o di strumenti di analisi del rischio per prevedere la probabilità di localizzazione di stupefacenti o merci illecite da parte delle autorità doganali, ad esempio sulla base di rotte di traffico conosciute.
(43)
Пускането на пазара, пускането в действие за тази конкретна цел или използването на системи с ИИ, които създават или разширяват бази данни за разпознаване на лица чрез нецеленасочено извличане на лицеви изображения от интернет или записи от видеонаблюдение, следва да бъдат забранени, тъй като тази практика допринася за усещането за масово наблюдение и може да доведе до груби нарушения на основните права, включително правото на неприкосновеност на личния живот.
(43)
L'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di IA che creano o ampliano le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso dovrebbero essere vietati, in quanto tale pratica accresce il senso di sorveglianza di massa e può portare a gravi violazioni dei diritti fondamentali, compreso il diritto alla vita privata.
(44)
Съществуват сериозни опасения относно научната основа на системите с ИИ, които имат за цел да определят или да направят изводи за емоциите, по-специално като се има предвид, че изразяването на емоции се различава значително в отделните култури и ситуации и дори при едно и също лице. Сред основните недостатъци на тези системи са ограничената надеждност, липсата на съобразен с конкретния случай подход и ограничената възможност за обобщаване. Поради това системите с ИИ, които определят или правят изводи за емоциите или намеренията на физически лица въз основа на техните биометрични данни, могат да доведат до дискриминационни резултати и да накърнят правата и свободите на съответните лица. Като се има предвид властовото неравновесие в контекста на работата или образованието, съчетано с инвазивния характер на тези системи, подобни системи биха могли да доведат до увреждащо или неблагоприятно третиране на определени физически лица или на цели групи от такива лица. Поради това пускането на пазара, пускането в действие или използването на системи с ИИ, предназначени за определяне на емоционалното състояние на лица в ситуации, свързани с работното място и образованието, следва да бъдат забранени. Тази забрана не следва да обхваща системи с ИИ, пуснати на пазара единствено от медицински съображения или съображения, свързани с безопасността, като например системи, предназначени за терапевтична употреба.
(44)
Sussistono serie preoccupazioni in merito alla base scientifica dei sistemi di IA volti a identificare o inferire emozioni, in particolare perché l'espressione delle emozioni varia notevolmente in base alle culture e alle situazioni e persino in relazione a una stessa persona. Tra le principali carenze di tali sistemi figurano la limitata affidabilità, la mancanza di specificità e la limitata generalizzabilità. Pertanto, i sistemi di IA che identificano o inferiscono emozioni o intenzioni di persone fisiche sulla base dei loro dati biometrici possono portare a risultati discriminatori e possono essere invasivi dei diritti e delle libertà delle persone interessate. Considerando lo squilibrio di potere nel contesto del lavoro o dell'istruzione, combinato con la natura invasiva di tali sistemi, questi ultimi potrebbero determinare un trattamento pregiudizievole o sfavorevole di talune persone fisiche o di interi gruppi di persone fisiche. È pertanto opportuno vietare l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA destinati a essere utilizzati per rilevare lo stato emotivo delle persone in situazioni relative al luogo di lavoro e all'istruzione. Tale divieto non dovrebbe riguardare i sistemi di IA immessi sul mercato esclusivamente per motivi medici o di sicurezza, come i sistemi destinati all'uso terapeutico.
(45)
Практиките, които са забранени от правото на Съюза, включително правото в областта на защитата на данните, недискриминацията и защитата на потребителите, както и правото в областта на конкуренцията, не следва да бъдат засегнати от настоящия регламент.
(45)
Il presente regolamento non dovrebbe incidere sulle pratiche vietate dal diritto dell'Unione, ivi incluso dal diritto in materia di protezione dei dati, non discriminazione, protezione dei consumatori e concorrenza.
(46)
Високорисковите системи с ИИ следва да се пускат на пазара на Съюза, да се пускат в действие или да се използват само ако отговарят на определени задължителни изисквания. Тези изисквания следва да гарантират, че високорисковите системи с ИИ, които се предлагат в Съюза или резултатите от които се използват по друг начин в Съюза, не пораждат неприемливи рискове за важни обществени интереси на Съюза, признати и защитени от правото на Съюза. Въз основа на новата законодателна рамка, както е пояснено в известието на Комисията „Синьото ръководство“ за прилагане на правилата на ЕС относно продуктите – 2022 г. (20), общото правило е, че повече от един правен акт от законодателството на Съюза за хармонизация, например регламенти (ЕС) 2017/745 (21) и (ЕС) 2017/746 (22) на Европейския парламент и на Съвета или Директива 2006/42/ЕО на Европейския парламент и на Съвета (23), може да е приложим за един продукт, тъй като предоставянето или пускането в действие може да се извърши само когато продуктът е в съответствие с цялото приложимо законодателство на Съюза за хармонизация. За да се гарантира съгласуваност и да се избегне ненужна административна тежест или разходи, доставчиците на продукт, който съдържа една или повече високорискови системи с ИИ, за които се прилагат изискванията на настоящия регламент и на законодателството на Съюза за хармонизация, посочено в приложение към настоящия регламент, следва да разполагат с гъвкавост по отношение на оперативните решения за това как да се гарантира оптимално съответствие на продукт, който съдържа една или повече системи с ИИ, с всички приложими изисквания на законодателството на Съюза за хармонизация. Системите с ИИ, които се определят като високорискови, следва да се ограничат до имащите значително вредно въздействие върху здравето, безопасността и основните права на хората в Съюза, като при това следва да се свежда до минимум всяко възможно ограничаване на международната търговия.
(46)
È opportuno che i sistemi di IA ad alto rischio siano immessi sul mercato dell'Unione, messi in servizio o utilizzati solo se soddisfano determinati requisiti obbligatori. Tali requisiti dovrebbero garantire che i sistemi di IA ad alto rischio disponibili nell'Unione o i cui output sono altrimenti utilizzati nell'Unione non presentino rischi inaccettabili per interessi pubblici importanti dell'Unione, come riconosciuti e tutelati dal diritto dell'Unione. In base al nuovo quadro legislativo, come chiarito nella comunicazione della Commissione «La “Guida blu” all'attuazione della normativa UE sui prodotti 2022» (20), la regola generale è che più di un atto giuridico della normativa di armonizzazione dell'Unione, come i regolamenti (UE) 2017/745 (21) e (UE) 2017/746 (22) del Parlamento europeo e del Consiglio o la direttiva n, 2006/42/CE del Parlamento europeo e del Consiglio (23), può essere applicabile a un solo prodotto, poiché quest'ultimo può essere messo a disposizione o messo in servizio solo se risulta conforme a tutta la normativa di armonizzazione dell'Unione applicabile. Al fine di garantire la coerenza ed evitare oneri amministrativi o costi non necessari, i fornitori di un prodotto contenente uno o più sistemi di IA ad alto rischio cui si applicano i requisiti del presente regolamento e della normativa di armonizzazione dell'Unione elencata in un allegato del presente regolamento dovrebbero avere flessibilità per quanto riguarda le decisioni operative sui modi per garantire in modo ottimale la conformità di un prodotto contenente uno o più sistemi di IA a tutti i requisiti applicabili della normativa di armonizzazione dell'Unione. È opportuno limitare i sistemi di IA identificati come ad alto rischio a quelli che hanno un impatto nocivo significativo sulla salute, la sicurezza e i diritti fondamentali delle persone nell'Unione, e tale limitazione dovrebbe ridurre al minimo eventuali potenziali restrizioni al commercio internazionale.
(47)
Системите с ИИ биха могли да имат неблагоприятни последици за здравето и безопасността на хората, по-специално когато тези системи функционират като защитни елементи на продуктите. В съответствие с целите на законодателството на Съюза за хармонизация – да се улесни свободното движение на продукти на вътрешния пазар и да се гарантира, че на пазара се предлагат само безопасни и съответстващи на изискванията продукти – е важно да бъдат надлежно предотвратени и ограничени рисковете за безопасността, които могат да бъдат породени от даден продукт като цяло поради неговите цифрови компоненти, включително системи с ИИ. Например все по-автономните роботи, независимо дали в контекста на производството, или на личната помощ и грижи, следва да могат да работят и да изпълняват функциите си безопасно в сложна среда. По същия начин, в сектора на здравеопазването, където рисковете за живота и здравето са особено високи, все по-усъвършенстваните системи за диагностика и системите за подпомагане на човешките решения следва да бъдат надеждни и точни.
(47)
I sistemi di IA potrebbero avere un impatto negativo sulla salute e sulla sicurezza delle persone, in particolare quando tali sistemi sono impiegati come componenti di sicurezza dei prodotti. Coerentemente con gli obiettivi della normativa di armonizzazione dell'Unione di agevolare la libera circolazione dei prodotti nel mercato interno e di garantire che solo prodotti sicuri e comunque conformi possano essere immessi sul mercato, è importante che i rischi per la sicurezza che un prodotto nel suo insieme può generare a causa dei suoi componenti digitali, compresi i sistemi di IA, siano debitamente prevenuti e attenuati. Ad esempio, i robot sempre più autonomi, sia nel contesto della produzione sia in quello della cura e dell'assistenza alle persone, dovrebbero essere in misura di operare e svolgere le loro funzioni in condizioni di sicurezza in ambienti complessi. Analogamente, nel settore sanitario, in cui la posta in gioco per la vita e la salute è particolarmente elevata, è opportuno che i sistemi diagnostici e i sistemi di sostegno delle decisioni dell'uomo, sempre più sofisticati, siano affidabili e accurati.
(48)
Степента на неблагоприятно въздействие на системата с ИИ върху основните права, защитени от Хартата, е от особено значение, когато дадена система с ИИ се класифицира като високорискова. Тези права включват правото на човешко достойнство, правото на зачитане на личния и семейния живот, защитата на личните данни, свободата на изразяване на мнение и свободата на информация, свободата на събранията и сдруженията, правото на недискриминация, правото на образование, защитата на потребителите, правата на работниците, правата на хората с увреждания, равенството между половете, правата върху интелектуалната собственост, правото на ефективни правни средства за защита и на справедлив съдебен процес, правото на защита и презумпцията за невиновност, както и правото на добра администрация. В допълнение към тези права е важно да се подчертае факта, че децата имат специални права, които са залегнали в член 24 от Хартата и в Конвенцията на Организацията на обединените нации за правата на детето, допълнително разработени в Общ коментар № 25 по Конвенцията на ООН за правата на детето по отношение на цифровата среда, като и в двата акта се изисква да се отчита уязвимостта на децата и да се осигуряват защитата и грижите, необходими за тяхното благосъстояние. Основното право на високо равнище на опазване на околната среда, залегнало в Хартата и отразено в политиките на Съюза, също следва да се взема предвид при оценката на тежестта на вредата, която дадена система с ИИ може да причини, включително във връзка с човешкото здраве и безопасност.
(48)
La portata dell'impatto negativo del sistema di IA sui diritti fondamentali protetti dalla Carta è di particolare rilevanza ai fini della classificazione di un sistema di IA tra quelli ad alto rischio. Tali diritti comprendono il diritto alla dignità umana, il rispetto della vita privata e della vita familiare, la protezione dei dati personali, la libertà di espressione e di informazione, la libertà di riunione e di associazione e il diritto alla non discriminazione, il diritto all'istruzione, la protezione dei consumatori, i diritti dei lavoratori, i diritti delle persone con disabilità, l'uguaglianza di genere, i diritti di proprietà intellettuale, il diritto a un ricorso effettivo e a un giudice imparziale, i diritti della difesa e la presunzione di innocenza e il diritto a una buona amministrazione. Oltre a tali diritti, è importante sottolineare il fatto che i minori godono di diritti specifici sanciti dall'articolo 24 della Carta e dalla Convenzione delle Nazioni Unite sui diritti dell'infanzia e dell'adolescenza, ulteriormente sviluppati nell'osservazione generale n, 25 della Convenzione delle Nazioni Unite dell'infanzia e dell'adolescenza per quanto riguarda l'ambiente digitale, che prevedono la necessità di tenere conto delle loro vulnerabilità e di fornire la protezione e l'assistenza necessarie al loro benessere. È altresì opportuno tenere in considerazione, nel valutare la gravità del danno che un sistema di IA può provocare, anche in relazione alla salute e alla sicurezza delle persone, il diritto fondamentale a un livello elevato di protezione dell'ambiente sancito dalla Carta e attuato nelle politiche dell'Unione.
(49)
По отношение на високорисковите системи с ИИ, които са защитни елементи на продукти или системи или които сами по себе си са продукти или системи, попадащи в обхвата на Регламент (ЕО) № 300/2008 на Европейския парламент и на Съвета (24), Регламент (ЕС) № 167/2013 на Европейския парламент и на Съвета (25), Регламент (ЕС) № 168/2013 на Европейския парламент и на Съвета (26), Директива 2014/90/ЕС на Европейския парламент и на Съвета (27), Директива (ЕС) 2016/797 на Европейския парламент и на Съвета (28), Регламент (ЕС) 2018/858 на Европейския парламент и на Съвета (29), Регламент (ЕС) 2018/1139 на Европейския парламент и на Съвета (30) и Регламент (ЕС) 2019/2144 на Европейския парламент и на Съвета (31), е целесъобразно тези актове да бъдат изменени, за да се гарантира, че Комисията отчита – въз основа на техническата и регулаторна специфика на всеки сектор и без да има намеса в съществуващите механизми и органи за управление, оценяване на съответствието и контрол на прилагането, създадени съгласно горепосочените актове – задължителните изисквания за високорисковите системи с ИИ, установени в настоящия регламент, когато приема съответни делегирани актове или актове за изпълнение на основание на горепосочените актове.
(49)
Per quanto riguarda i sistemi di IA ad alto rischio che sono componenti di sicurezza di prodotti o sistemi o che sono essi stessi prodotti o sistemi che rientrano nell'ambito di applicazione del regolamento (CE) n, 300/2008 del Parlamento europeo e del Consiglio (24), del regolamento (UE) n, 167/2013 del Parlamento europeo e del Consiglio (25), del regolamento (UE) n, 168/2013 del Parlamento europeo e del Consiglio (26), della direttiva 2014/90/UE del Parlamento europeo e del Consiglio (27), della direttiva (UE) 2016/797 del Parlamento europeo e del Consiglio (28), del regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio (29), del regolamento (UE) 2018/1139 del Parlamento europeo e del Consiglio (30), e del regolamento (UE) 2019/2144 del Parlamento europeo e del Consiglio (31), è opportuno modificare i suddetti atti per garantire che, nell'adottare qualsiasi atto delegato o di esecuzione pertinente sulla base di tali atti, la Commissione tenga conto, sulla base delle specificità tecniche e normative di ciascun settore e senza interferire con i vigenti meccanismi di governance, valutazione della conformità e applicazione e con le autorità da essi stabilite, dei requisiti obbligatori sanciti dal presente regolamento.
(50)
По отношение на системите с ИИ, които са защитни елементи на продукти или които сами по себе си са продукти, попадащи в обхвата на определено законодателство на Съюза за хармонизация, посочено в приложение към настоящия регламент, е целесъобразно те да бъдат класифицирани като високорискови съгласно настоящия регламент, ако съответният продукт преминава през процедура за оценяване на съответствието с орган за оценяване на съответствието – трето лице, съгласно съответното законодателство на Съюза за хармонизация. Подобни продукти са по-специално машини, играчки, асансьори, оборудване и защитни системи, предназначени за използване в потенциално взривоопасна среда, радиооборудване, оборудване под налягане, оборудване за плавателни съдове за отдих, въжени линии, уреди, захранвани с газово гориво, медицински изделия, медицински изделия за инвитро диагностика, автомобили и въздухоплавателни средства.
(50)
Per quanto riguarda i sistemi di IA che sono componenti di sicurezza di prodotti, o che sono essi stessi prodotti, e rientrano nell'ambito di applicazione di una determinata normativa di armonizzazione dell'Unione elencata nell’allegato al presente regolamento, è opportuno classificarli come sistemi ad alto rischio a norma del presente regolamento se il prodotto interessato è sottoposto alla procedura di valutazione della conformità con un organismo terzo di valutazione della conformità a norma della suddetta pertinente normativa di armonizzazione dell’Unione. Tali prodotti sono, in particolare, macchine, giocattoli, ascensori, apparecchi e sistemi di protezione destinati a essere utilizzati in atmosfera potenzialmente esplosiva, apparecchiature radio, attrezzature a pressione, attrezzature per imbarcazioni da diporto, impianti a fune, apparecchi che bruciano carburanti gassosi, dispositivi medici, dispositivi medico-diagnostici in vitro, veicoli automobilistici e aeronautici.
(51)
Класифицирането на дадена система с ИИ като високорискова съгласно настоящия регламент не следва непременно да означава, че продуктът, чийто защѝтен елемент е системата с ИИ, или самата система с ИИ като продукт, се счита за високорисков или високорискова съгласно критериите, установени в съответното законодателство на Съюза за хармонизация, приложимо за продукта. Такъв е по-специално случаят с регламенти (ЕС) 2017/745 и (ЕС) 2017/746, в които се предвижда оценяване на съответствието от трето лице за продукти със среден и висок риск.
(51)
La classificazione di un sistema di IA come ad alto rischio a norma del presente regolamento non dovrebbe necessariamente significare che il prodotto il cui componente di sicurezza è il sistema di IA, o il sistema di IA stesso in quanto prodotto, sia considerato «ad alto rischio» in base ai criteri stabiliti nella pertinente normativa di armonizzazione dell'Unione che si applica al prodotto. Ciò vale, in particolare, per i regolamenti (UE) 2017/745 e (UE) 2017/746, in cui è prevista una valutazione della conformità da parte di terzi per i prodotti a medio rischio e ad alto rischio.
(52)
По отношение на самостоятелните системи с ИИ, а именно високорисковите системи с ИИ, различни от тези, които са защитни елементи на продукти или които сами по себе си са продукти, е целесъобразно те да бъдат класифицирани като високорискови, ако с оглед на предназначението си представляват висок риск от увреждане на здравето и безопасността или на основните права на хората, като се вземат предвид както тежестта на възможната вреда, така и вероятността от настъпването ѝ, и тези системи с ИИ се използват в някои конкретно и предварително определени области, посочени в настоящия регламент. Идентифицирането на тези системи се основава на същата методика и критерии като предвидените и за евентуални бъдещи изменения на списъка на високорисковите системи с ИИ, които Комисията следва да бъде оправомощена да приеме чрез делегирани актове, за да се вземат предвид бързите темпове на технологично развитие, както и възможните промени в използването на системите с ИИ.
(52)
Per quanto riguarda i sistemi di IA indipendenti, ossia i sistemi di IA ad alto rischio diversi da quelli che sono componenti di sicurezza dei prodotti o che sono essi stessi prodotti, è opportuno classificarli come ad alto rischio se, alla luce della loro finalità prevista, presentano un alto rischio di pregiudicare la salute e la sicurezza o i diritti fondamentali delle persone, tenendo conto sia della gravità del possibile danno sia della probabilità che si verifichi, e sono utilizzati in una serie di settori specificamente predefiniti indicati nel presente regolamento. L'identificazione di tali sistemi si basa sulla stessa metodologia e sui medesimi criteri previsti anche per eventuali future modifiche dell'elenco dei sistemi di IA ad alto rischio che la Commissione dovrebbe avere il potere di adottare, mediante atti delegati, per tenere conto del rapido ritmo dello sviluppo tecnologico nonché dei potenziali cambiamenti nell'uso dei sistemi di IA.
(53)
Важно е също така да се поясни, че може да има особени случаи, в които системите с ИИ, свързани с предварително определени области, посочени в настоящия регламент, не водят до значителен риск от увреждане на правните интереси, защитени в тези области, тъй като не оказват съществено влияние върху вземането на решения или не увреждат съществено тези интереси. За целите на настоящия регламент система с ИИ, която не оказва съществено влияние върху резултата от вземането на решения, следва да се разбира като система с ИИ, която не оказва въздействие върху същността, а оттам и върху резултата от вземането на решения, независимо дали е от човека, или автоматизирано. Система с ИИ, която не оказва съществено влияние върху резултата от вземането на решения, може да включва ситуации, при които са изпълнени едно или повече от посочените по-нататък условия. Първото условие следва да бъде системата с ИИ да е предназначена да изпълнява конкретно определена процедурна задача, като например система с ИИ, която преобразува неструктурирани данни в структурирани данни, система с ИИ, която класифицира входящите документи в категории, или система с ИИ, която се използва за откриване на случаи на дублиране в рамките на голям брой приложения. Тези задачи са с толкова тесен и ограничен характер, че пораждат само ограничени рискове, които не се увеличават чрез използването на система с ИИ в контекст, посочен като високорисково използване в приложение към настоящия регламент. Второто условие следва да бъде задачата, изпълнявана от системата с ИИ, да има за цел подобряване на резултата от извършена преди това човешка дейност, която може да е от значение за целите на видовете високорисково използване, изброени в приложение към настоящия регламент. Като се имат предвид тези характеристики, системата с ИИ представлява само допълнение към човешката дейност с произтичащ от това понижен риск. Това условие например ще е приложимо при системи с ИИ, които имат за цел да подобрят езика, използван във вече изготвени документи, например във връзка с професионалния тон, академичния стил на езика или чрез привеждане на текста в съответствие с определено послание на дадена марка. Третото условие следва да бъде системата с ИИ да е предназначена да открива модели за вземане на решения или отклонения от съществуващи модели за вземане на решения. Рискът ще бъде намален, тъй като използването на системата с ИИ следва предварително извършена човешка оценка, която системата няма за цел да замени или да повлияе без подходящ преглед, извършен от човек. Тези системи с ИИ включват например такива, които, предвид определен модел на оценяване от преподавател, могат да се използват за последваща проверка на вероятността преподавателят да се е отклонил от модела на оценяване, така че да се откроят възможни несъответствия или аномалии. Четвъртото условие следва да бъде системата с ИИ да е предназначена да изпълнява задача, която представлява само подготвителен етап преди извършването на оценка, която е от значение за целите на системите с ИИ, изброени в приложение в настоящия регламент, като по този начин възможното въздействие на резултата от системата намалява в значителна степен от гледна точка на това дали представлява риск за оценката, която ще последва. Това условие обхваща, наред с другото, интелигентни решения за обработка на файлове, които включват различни функции като индексиране, търсене, обработка на текст и реч или свързване на данни с други източници на данни, или системи с ИИ, използвани за превод на първоначални документи. Във всеки случай следва да се счита, че системи с ИИ, използвани в случаи на високорисково използване, посочени в приложение към настоящия регламент, пораждат значителни рискове от вреди за здравето, безопасността или основните права, ако системата с ИИ предполага профилиране по смисъла на член 4, точка 4 от Регламент (ЕС) 2016/679 или член 3, точка 4 от Директива (ЕС) 2016/680, или член 3, точка 5 от Регламент (ЕС) 2018/1725. За да се гарантират проследимост и прозрачност, доставчик, който счита, че дадена система с ИИ не е високорискова въз основа на посочените по-горе условия, следва да изготви документация за оценката, преди системата да бъде пусната на пазара или пусната в действие, и при поискване да предостави тази документация на националните компетентни органи. Този доставчик следва да бъде задължен да регистрира системата с ИИ в базата данни на ЕС, създадена съгласно настоящия регламент. С цел да се дадат допълнителни насоки за практическото изпълнение на условията, съгласно които системи с ИИ, изброени в приложение към настоящия регламент, по изключение не са високорискови, Комисията, след консултация със Съвета по ИИ, следва да предостави насоки, в които да се конкретизира това практическо изпълнение, допълнено от изчерпателен списък с практически примери за случаи на използване на системи с ИИ, които са високорискови, и такива, които не са.
(53)
È altresì importante chiarire che possono esservi casi specifici in cui i sistemi di IA riferiti a settori predefiniti indicati nel presente regolamento non comportano un rischio significativo di pregiudicare gli interessi giuridici tutelati nell'ambito di tali settori in quanto non influenzano materialmente il processo decisionale né pregiudicano tali interessi in modo sostanziale. Ai fini del presente regolamento, un sistema di IA che non influenza materialmente l'esito del processo decisionale dovrebbe essere inteso come un sistema di IA che non ha un impatto sulla sostanza, e quindi sull'esito, del processo decisionale, sia esso umano o automatizzato. Un sistema di IA che non influenza materialmente l'esito del processo decisionale potrebbe includere situazioni in cui sono soddisfatte una o più delle seguenti condizioni. La prima di tali condizioni dovrebbe essere che il sistema di IA sia destinato a svolgere un compito procedurale ristretto, come un sistema di IA che trasforma dati non strutturati in dati strutturati, un sistema di IA che classifica i documenti in entrata per categorie o un sistema di IA utilizzato per rilevare duplicati tra un gran numero di applicazioni. Tali compiti sono di natura così ristretta e limitata da comportare solo rischi limitati che non aumentano con l'uso di un sistema di IA in un contesto elencato come uso ad alto rischio in un allegato del presente regolamento. La seconda condizione dovrebbe essere che il compito svolto dal sistema di IA sia inteso a migliorare il risultato di un'attività umana precedentemente completata che può essere pertinente ai fini degli usi ad alto rischio elencati nell’ allegato del presente regolamento. Tenuto conto di tali caratteristiche, il sistema di IA fornisce solo un livello aggiuntivo a un'attività umana con conseguente riduzione del rischio. Tale condizione si applicherebbe, ad esempio, ai sistemi di IA destinati a migliorare il linguaggio utilizzato in documenti redatti in precedenza, ad esempio in relazione al tono professionale, allo stile accademico del linguaggio o allineando il testo a una determinata comunicazione di marchio. La terza condizione dovrebbe essere che il sistema di IA sia inteso a individuare modelli decisionali o deviazioni da modelli decisionali precedenti. Il rischio sarebbe ridotto in quanto l'uso del sistema di IA segue una valutazione umana precedentemente completata che non è destinato a sostituire o influenzare, senza un'adeguata revisione umana. Tali sistemi di IA comprendono, ad esempio, quelli che, dato un determinato modello di valutazione di un insegnante, possono essere utilizzati per verificare ex post se l'insegnante possa essersi discostato dal modello di valutazione in modo da segnalare potenziali incongruenze o anomalie. La quarta condizione dovrebbe essere che il sistema di IA sia destinato a svolgere un compito che è solo preparatorio rispetto a una valutazione pertinente ai fini dei sistemi di IA elencati in un allegato del presente regolamento, e pertanto la probabilità che l'output del sistema presenti un rischio per la valutazione posteriore è molto ridotto. Tale condizione riguarda, in particolare, soluzioni intelligenti per la gestione dei fascicoli, che comprendono varie funzioni quali l'indicizzazione, la ricerca, l'elaborazione testuale e vocale o il collegamento dei dati ad altre fonti di dati, o i sistemi di IA utilizzati per la traduzione di documenti iniziali. In ogni caso, è opportuno ritenere che i sistemi di IA utilizzati usi ad alto rischio elencati nell’ allegato del presente regolamento comportino rischi significativi di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche se il sistema di IA implica la profilazione ai sensi dell'articolo 4, punto 4, del regolamento (UE) 2016/679, o dell'articolo 3, punto 4, della direttiva (UE) 2016/680 o dell'articolo 3, punto 5, del regolamento (UE) 2018/1725. Al fine di garantire la tracciabilità e la trasparenza, un fornitore che ritiene che un sistema di IA non sia ad alto rischio sulla base delle condizioni di cui sopra dovrebbe redigere la documentazione relativa alla valutazione prima che tale sistema sia immesso sul mercato o messo in servizio e dovrebbe fornire tale documentazione alle autorità nazionali competenti su richiesta. Tale fornitore dovrebbe essere tenuto a registrare il sistema di IA nella banca dati dell'UE istituita a norma del presente regolamento. Al fine di fornire ulteriori orientamenti per l'attuazione pratica delle condizioni alle quali i sistemi di IA elencati in un allegato del presente regolamento sono, in via eccezionale, non ad alto rischio, la Commissione, previa consultazione del consiglio per l'IA, dovrebbe fornire orientamenti che specifichino tale attuazione pratica completati da un elenco completo di esempi pratici di casi d'uso di sistemi di IA ad alto rischio e casi d’uso che non lo sono.
(54)
Тъй като биометричните данни представляват специална категория лични данни, е целесъобразно да се класифицират като високорискови няколко случая на критично използване на биометрични системи, доколкото тяхното използване е разрешено съгласно съответното право на Съюза и национално право. Техническите неточности на системите с ИИ, предназначени за дистанционна биометрична идентификация на физически лица, могат да доведат до опорочени от предубеденост резултати и до дискриминация. Рискът от такива опорочени от предубеденост резултати и дискриминация е от особено значение във връзка с възраст, етническа принадлежност, раса, пол или увреждане. Поради това системите за дистанционна биометрична идентификация следва да бъдат класифицирани като високорискови с оглед на рисковете, които пораждат. Тази класификация изключва системите с ИИ, предназначени да бъдат използвани за биометрична проверка, включително за удостоверяване на самоличността, чиято единствена цел е да се потвърди, че конкретно физическо лице е лицето, за което се представя, и да се потвърди самоличността на физическо лице единствено за да се получи достъп до услуга, да се отключи устройство или да се придобие сигурен достъп до помещения. Освен това следва да бъдат класифицирани като високорискови системите с ИИ, предназначени да се използват за биометрично категоризиране в съответствие с чувствителни признаци или характеристики, защитени съгласно член 9, параграф 1 от Регламент (ЕС) 2016/679, въз основа на биометрични данни, доколкото те не са забранени съгласно настоящия регламент, и системи за разпознаване на емоции, които не са забранени съгласно настоящия регламент. Биометричните системи, които са предназначени да се използват единствено с цел да се позволи предприемането на мерки за киберсигурност и за защита на личните данни, не следва да се считат за високорискови системи с ИИ.
(54)
Poiché i dati biometrici costituiscono una categoria particolare di dati personali, è opportuno classificare come ad alto rischio diversi casi di uso critico di sistemi biometrici, nella misura in cui il loro uso è consentito dal pertinente diritto dell'Unione e nazionale. Le inesattezze di carattere tecnico dei sistemi di IA destinati all'identificazione biometrica remota delle persone fisiche possono determinare risultati distorti e comportare effetti discriminatori. Il rischio di tali risultati distorti ed effetti discriminatori è particolarmente importante per quanto riguarda l'età, l'etnia, la razza, il sesso o le disabilità. I sistemi destinati all'identificazione biometrica remota dovrebbero pertanto essere classificati come ad alto rischio in considerazione dei rischi che comportano. Tale classificazione esclude i sistemi di IA destinati a essere utilizzati per la verifica biometrica, inclusa l'autenticazione, la cui unica finalità è confermare che una determinata persona fisica è chi dice di essere e confermare l'identità di una persona fisica al solo scopo di accedere a un servizio, sbloccare un dispositivo o disporre dell'accesso sicuro a locali. Inoltre, è opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati per la categorizzazione biometrica in base ad attributi o caratteristiche sensibili protetti a norma dell'articolo 9, paragrafo 1, del regolamento (UE) 2016/679 sulla base di dati biometrici, nella misura in cui non sono vietati a norma del presente regolamento, e i sistemi di riconoscimento delle emozioni che non sono vietati a norma del presente regolamento. I sistemi biometrici destinati a essere utilizzati al solo scopo di consentire la cibersicurezza e le misure di protezione dei dati personali non dovrebbero essere considerati sistemi di IA ad alto rischio.
(55)
Във връзка с управлението и експлоатацията на критична инфраструктура, е целесъобразно системите с ИИ, предназначени да бъдат използвани като защитни елементи при управлението и експлоатацията на критична цифрова инфраструктура, посочена в точка 8 от приложението към Директива (ЕС) 2022/2557, движението по пътищата и водоснабдяването, газоснабдяването, отоплението и електроенергията, да бъдат класифицирани като високорискови системи с ИИ, тъй като при тях аварията или неизправността може да изложи на риск живота и здравето на множество хора и да доведе до значителни смущения в обичайното осъществяване на социални и икономически дейности. Защитните елементи на критичната инфраструктура, включително критичната цифрова инфраструктура, са системи, използвани за пряка защита на физическата цялост на критичната инфраструктура или на здравето и безопасността на хората и имуществото, но не са необходими за функционирането на системата. Аварията или неизправността на тези елементи може пряко да породи рискове за физическата цялост на критичната инфраструктура и оттук –рискове за здравето и безопасността на хората и имуществото. Елементи, предназначени да се използват единствено за целите на киберсигурността, не следва да се квалифицират като защитни елементи. Сред примерите за защитни елементи на критичната инфраструктура могат да се посочат системите за наблюдение на водното налягане или контролните системи за пожароизвестяване в центровете за изчисления в облак.
(55)
Per quanto riguarda la gestione e il funzionamento delle infrastrutture critiche, è opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati come componenti di sicurezza ai fini della gestione e del funzionamento delle infrastrutture digitali critiche di cui all'allegato, punto 8, della direttiva (UE) 2022/2557, del traffico stradale nonché della fornitura di acqua, gas, riscaldamento ed elettricità, in quanto un loro guasto o malfunzionamento può mettere a rischio la vita e la salute di un grande numero di persone e provocare perturbazioni significative del normale svolgimento delle attività sociali ed economiche. I componenti di sicurezza delle infrastrutture critiche, comprese le infrastrutture digitali critiche, sono sistemi utilizzati per proteggere direttamente l'integrità fisica delle infrastrutture critiche ovvero la salute e la sicurezza delle persone e dei beni ma che non sono necessari per il funzionamento del sistema. Un guasto o malfunzionamento di tali componenti potrebbe comportare direttamente rischi per l'integrità fisica delle infrastrutture critiche e quindi per la salute e la sicurezza delle persone e dei beni. I componenti destinati a essere utilizzati esclusivamente a fini di cibersicurezza non dovrebbero essere considerati componenti di sicurezza. Tra gli esempi di componenti di sicurezza di tali infrastrutture critiche possono rientrare i sistemi di monitoraggio della pressione idrica o sistemi di controllo degli incendi nei centri di cloud computing.
(56)
Внедряването на системи с ИИ в образованието е важно, за да се насърчи висококачествено цифрово образование и обучение и да се даде възможност на всички учащи се и преподаватели да придобиват и споделят необходимите цифрови умения и компетентности, включително за медийна грамотност и критично мислене, за да участват активно в икономиката, обществото и демократичните процеси. Същевременно системите с ИИ, използвани в образованието или професионалното обучение, по-специално за определяне на достъпа или приема, за разпределяне на лица в институции или програми на всички нива на образованието и професионалното обучение, за оценяване на учебните резултати, за оценяване на подходящото ниво на образование за дадено лице и за оказване на съществено влияние върху нивото на образование и обучение, което лицата ще получат или до което ще могат да имат достъп, или за наблюдение и откриване на забранено поведение на ученици и студенти по време на изпити, следва да се класифицират като високорискови системи с ИИ, тъй като могат да определят образователния и професионалния път на дадено лице и така да повлияят на способността на това лице да осигурява прехраната си. Когато не са правилно проектирани и използвани, тези системи може да са особено инвазивни и е възможно да нарушат правото на образование и обучение, както и правото на недискриминация, и да продължат да възпроизвеждат исторически наложени дискриминационни модели, например срещу жени, определени възрастови групи, хора с увреждания или с определен расов или етнически произход или сексуална ориентация.
(56)
La diffusione dei sistemi di IA nell'istruzione è importante per promuovere un'istruzione e una formazione digitali di alta qualità e per consentire a tutti i discenti e gli insegnanti di acquisire e condividere le competenze e le abilità digitali necessarie, compresa l'alfabetizzazione mediatica, e il pensiero critico, per partecipare attivamente all'economia, alla società e ai processi democratici. Tuttavia, i sistemi di IA utilizzati nell'istruzione o nella formazione professionale, in particolare per determinare l'accesso o l'ammissione, per assegnare persone agli istituti o ai programmi di istruzione e formazione professionale a tutti i livelli, per valutare i risultati dell'apprendimento delle persone, per valutare il livello di istruzione adeguato per una persona e influenzare materialmente il livello di istruzione e formazione che le persone riceveranno o a cui potranno avere accesso o per monitorare e rilevare comportamenti vietati degli studenti durante le prove, dovrebbero essere classificati come sistemi di IA ad alto rischio, in quanto possono determinare il percorso d'istruzione e professionale della vita di una persona e quindi può incidere sulla sua capacità di garantire il proprio sostentamento. Se progettati e utilizzati in modo inadeguato, tali sistemi possono essere particolarmente intrusivi e violare il diritto all'istruzione e alla formazione, nonché il diritto alla non discriminazione, e perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale.
(57)
Системите с ИИ, използвани в областта на заетостта, управлението на работниците и достъпа до самостоятелна заетост, по-специално за подбор и наемане на лица, за вземане на решения, засягащи условията за повишение при отношения във връзка с полагане на труд и прекратяване на договорни отношения във връзка с полагане на труд, за разпределяне на задачи въз основа на индивидуално поведение, личностни черти или характеристики и за наблюдение или оценка на лица, които имат договорни отношения във връзка с полагане на труд, също следва да бъдат класифицирани като високорискови, тъй като тези системи могат в значителна степен да повлияят на бъдещите перспективи за професионално развитие, осигуряването на прехраната на тези лица и правата на работниците. Съответните договорни отношения във връзка с полагането на труд следва по пълноценен начин да включват и служителите и лицата, предоставящи услуги чрез платформи, както е посочено в работната програма на Комисията за 2021 г. По време на целия процес на набиране на персонал и при оценката, повишаването или задържането на лица в договорни отношения във връзка с полагането на труд такива системи могат да продължат да възпроизвеждат исторически наложени дискриминационни модели, например срещу жени, определени възрастови групи, хора с увреждания или с определен расов или етнически произход или сексуална ориентация. Системите с ИИ, използвани за наблюдение на работата и поведението на тези лица, могат също така да накърнят техните основни права на защита на данните и неприкосновеност на личния живот.
(57)
Anche i sistemi di IA utilizzati nel settore dell'occupazione, nella gestione dei lavoratori e nell'accesso al lavoro autonomo, in particolare per l'assunzione e la selezione delle persone, per l'adozione di decisioni riguardanti le condizioni del rapporto di lavoro la promozione e la cessazione dei rapporti contrattuali di lavoro, per l'assegnazione dei compiti sulla base dei comportamenti individuali, dei tratti o delle caratteristiche personali e per il monitoraggio o la valutazione delle persone nei rapporti contrattuali legati al lavoro, dovrebbero essere classificati come sistemi ad alto rischio, in quanto tali sistemi possono avere un impatto significativo sul futuro di tali persone in termini di prospettive di carriera e sostentamento e di diritti dei lavoratori. I pertinenti rapporti contrattuali di lavoro dovrebbero coinvolgere, in modo significativo, i dipendenti e le persone che forniscono servizi tramite piattaforme, come indicato nel programma di lavoro annuale della Commissione per il 2021. Durante tutto il processo di assunzione, nonché ai fini della valutazione e della promozione delle persone o del proseguimento dei rapporti contrattuali legati al lavoro, tali sistemi possono perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale. I sistemi di IA utilizzati per monitorare le prestazioni e il comportamento di tali persone possono inoltre comprometterne i diritti fondamentali in materia di protezione dei dati e vita privata.
(58)
Друга област, в която използването на системи с ИИ заслужава специално внимание, е достъпът до и ползването на някои основни частни и публични услуги и подпомагане, необходими на хората за пълноценно участие в обществото или за подобряване на техния стандарт на живот. По-специално, физическите лица, които кандидатстват или получават основно обществено подпомагане и услуги от публични органи, а именно здравни услуги, социалноосигурителни обезщетения, социални услуги, осигуряващи закрила в случаи като майчинство, заболяване, трудова злополука, зависимост или старост и загуба на работа, както и на социална помощ и помощ за жилищно настаняване, обикновено зависят от това подпомагане и услуги и са в уязвимо положение по отношение на отговорните органи. Ако системите с ИИ се използват, за да се определи дали това подпомагане и услуги следва да бъдат предоставени, отказани, намалени, отменени или възстановени от органите, включително дали бенефициерите имат законно право да се ползват от това подпомагане или услуги, въпросните системи могат да окажат значително въздействие върху материалната издръжка на тези лица и да нарушат основните им права, като правото на социална закрила, недискриминация, човешко достойнство или ефективни правни средства за защита, и поради това следва да бъдат класифицирани като високорискови. Независимо от това настоящият регламент не следва да възпрепятства разработването и използването на иновативни подходи в публичната администрация, за които по-широкото използване на съвместими и безопасни системи с ИИ би било полезно, при условие че тези системи не пораждат висок риск за юридическите и физическите лица. Наред с това системите с ИИ, използвани за оценка на кредитния рейтинг или кредитоспособността на физически лица, следва да бъдат класифицирани като високорискови системи с ИИ, тъй като те определят какъв достъп ще имат тези лица до финансови ресурси или основни услуги като жилищно настаняване, електроенергия и телекомуникационни услуги. Използваните за тези цели системи с ИИ могат да доведат до дискриминация на лица или групи и да продължат да възпроизвеждат исторически наложени дискриминационни модели, например въз основа на расов или етнически произход, пол, увреждане, възраст, сексуална ориентация, или да създадат нови форми на дискриминация. Системите с ИИ, предвидени в правото на Съюза за целите на разкриването на измами при предлагането на финансови услуги и за пруденциални цели за изчисляване на капиталовите изисквания на кредитните институции и застрахователите, не следва обаче да се считат за високорискови съгласно настоящия регламент. Освен това системите с ИИ, предназначени да се използват за оценка на риска и ценообразуване във връзка със здравно застраховане и животозастраховане на физически лица, също могат да окажат значително въздействие върху осигуряването на прехраната на лицата и ако не са надлежно проектирани, разработени и използвани, могат да нарушат техните основни права и да доведат до сериозни последици за живота и здравето на хората, включително финансово изключване и дискриминация. И на последно място, системите с ИИ, използвани за оценка и класифициране на спешните повиквания от физически лица или за изпращане или определяне на приоритет по отношение на изпращането на службите за спешно реагиране, включително от полицията, пожарната и медицинската помощ, както и на системите за разпределяне на пациенти в областта на спешната здравна помощ, също следва да бъдат класифицирани като високорискови, тъй като те вземат решения в ситуации, които са изключително критични за живота и здравето на хората и за тяхното имущество.
(58)
Un altro settore in cui l'utilizzo dei sistemi di IA merita particolare attenzione è l'accesso ad alcuni servizi e prestazioni essenziali, pubblici e privati, necessari affinché le persone possano partecipare pienamente alla vita sociale o migliorare il proprio tenore di vita, e la fruizione di tali servizi. In particolare, le persone fisiche che chiedono o ricevono prestazioni e servizi essenziali di assistenza pubblica dalle autorità pubbliche, vale a dire servizi sanitari, prestazioni di sicurezza sociale, servizi sociali che forniscono protezione in casi quali la maternità, la malattia, gli infortuni sul lavoro, la dipendenza o la vecchiaia e la perdita di occupazione e l'assistenza sociale e abitativa, sono di norma dipendenti da tali prestazioni e servizi e si trovano generalmente in una posizione vulnerabile rispetto alle autorità responsabili. I sistemi di IA, se utilizzati per determinare se tali prestazioni e servizi dovrebbero essere concessi, negati, ridotti, revocati o recuperati dalle autorità, compreso se i beneficiari hanno legittimamente diritto a tali prestazioni o servizi, possono avere un impatto significativo sul sostentamento delle persone e violare i loro diritti fondamentali, quali il diritto alla protezione sociale, alla non discriminazione, alla dignità umana o a un ricorso effettivo e dovrebbero pertanto essere classificati come sistemi ad alto rischio. Cionondimeno, il presente regolamento non dovrebbe ostacolare lo sviluppo e l'utilizzo di approcci innovativi nella pubblica amministrazione, che trarrebbero beneficio da un uso più ampio di sistemi di IA conformi e sicuri, a condizione che tali sistemi non comportino un rischio alto per le persone fisiche e giuridiche. È inoltre opportuno classificare i sistemi di IA utilizzati per valutare il merito di credito o l'affidabilità creditizia delle persone fisiche come sistemi di IA ad alto rischio, in quanto determinano l'accesso di tali persone alle risorse finanziarie o a servizi essenziali quali l'alloggio, l'elettricità e i servizi di telecomunicazione. I sistemi di IA utilizzati a tali fini possono portare alla discriminazione fra persone o gruppi e possono perpetuare modelli storici di discriminazione, come quella basata sull'origine razziale o etnica, sul genere, sulle disabilità, sull'età o sull'orientamento sessuale, o possono dar vita a nuove forme di impatti discriminatori. Tuttavia, i sistemi di IA previsti dal diritto dell'Unione al fine di individuare frodi nell'offerta di servizi finanziari e a fini prudenziali per calcolare i requisiti patrimoniali degli enti creditizi e delle imprese assicurative non dovrebbero essere considerati ad alto rischio ai sensi del presente regolamento. Inoltre, anche i sistemi di IA destinati a essere utilizzati per la valutazione dei rischi e la determinazione dei prezzi in relazione alle persone fisiche per assicurazioni sulla vita e assicurazioni sanitarie possono avere un impatto significativo sul sostentamento delle persone e, se non debitamente progettati, sviluppati e utilizzati, possono violare i loro diritti fondamentali e comportare gravi conseguenze per la vita e la salute delle persone, tra cui l'esclusione finanziaria e la discriminazione. Infine, è opportuno classificare come ad alto rischio anche i sistemi di IA utilizzati per valutare e classificare le chiamate di emergenza effettuate da persone fisiche o inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all'invio di tali servizi, anche da parte di polizia, vigili del fuoco e assistenza medica, nonché per i sistemi di selezione dei pazienti per quanto concerne l'assistenza sanitaria di emergenza in quanto prendono decisioni in situazioni molto critiche per la vita e la salute delle persone e per i loro beni.
(59)
Предвид техните функции и отговорност, действията на правоохранителните органи, включващи определени видове използване на системи с ИИ, се характеризират със значителна степен на властово неравновесие и могат да доведат до наблюдение, задържане или лишаване от свобода на физическо лице, както и до други неблагоприятни въздействия по отношение на основните права, гарантирани от Хартата. По-специално, ако системата с ИИ не е обучена с висококачествени данни, не отговаря на съответните изисквания по отношение на своето функциониране, точност или надеждност или не е била правилно проектирана и изпитана преди да бъде пусната на пазара или по друг начин пусната в действие, тя може да избира лица по дискриминационен начин или по неправилен или необективен в друго отношение начин. Освен това упражняването на важни процесуални основни права, като правото на ефективни правни средства за защита и на справедлив съдебен процес, както и правото на защита и презумпцията за невиновност, би могло да бъде възпрепятствано, по-специално когато системите с ИИ не са достатъчно прозрачни, разбираеми и документирани. Поради това е целесъобразно редица системи с ИИ, предназначени да бъдат използвани в правоохранителен контекст, където точността, надеждността и прозрачността са особено важни за избягване на неблагоприятни въздействия, запазване на общественото доверие и гарантиране на отчетност и ефективна правна защита, да се класифицират като високорискови, доколкото тяхното използване е разрешено съгласно съответното право на Съюза и национално право. С оглед на естеството на дейностите и свързаните с тях рискове тези високорискови системи с ИИ следва да включват по-специално системи с ИИ, предназначени да бъдат използвани от или от името на правоохранителните органи или от институции, органи, служби или агенции на Съюза в подкрепа на правоохранителните органи за оценка на риска дадено физическо лице да стане жертва на престъпления, например полиграфи и подобни инструменти, за оценка на надеждността на доказателствата в хода на разследването или наказателното преследване на престъпления, и, доколкото това не е забранено съгласно настоящия регламент, за оценка на риска дадено физическо лице да извърши нарушение или повторно нарушение не само въз основа на профилирането на физически лица или на оценката на личностни черти и характеристики или на минало престъпно поведение на физически лица или групи, както и за профилиране в хода на разкриването, разследването или наказателното преследване на престъпления. Системите с ИИ, специално предназначени да се използват за административни производства от данъчните и митническите органи, както и от звената за финансово разузнаване, изпълняващи административни задачи за анализ на информация съгласно правото на Съюза за борба с изпирането на пари, не следва да се класифицират като високорискови системи с ИИ, използвани от правоохранителните органи за целите на предотвратяването, разкриването, разследването и наказателното преследване на престъпления. Използването на инструменти с ИИ от страна на правоохранителните и други съответни органи не следва да се превръща във фактор, обуславящ неравенство или изключване. Въздействието на използването на инструменти с ИИ върху правата на защита на заподозрените лица не следва да се пренебрегва, по-специално трудностите при получаване на съдържателна информация относно функционирането на тези системи и произтичащите от това трудности при оспорване на резултатите от тях в съда, по-специално от страна на физически лица, срещу които се води разследване.
(59)
Tenuto conto del loro ruolo e della loro responsabilità, le azioni delle autorità di contrasto che prevedono determinati usi dei sistemi di IA sono caratterizzate da un livello significativo di squilibrio di potere e possono portare alla sorveglianza, all'arresto o alla privazione della libertà di una persona fisica, come pure avere altri impatti negativi sui diritti fondamentali garantiti nella Carta. In particolare, il sistema di IA, se non è addestrato con dati di elevata qualità, se non soddisfa requisiti adeguati in termini di prestazione, accuratezza o robustezza, o se non è adeguatamente progettato e sottoposto a prova prima di essere immesso sul mercato o altrimenti messo in servizio, può individuare le persone in modo discriminatorio o altrimenti errato o ingiusto. Potrebbe inoltre essere ostacolato l'esercizio di importanti diritti procedurali fondamentali, quali il diritto a un ricorso effettivo e a un giudice imparziale, nonché i diritti della difesa e la presunzione di innocenza, in particolare nel caso in cui tali sistemi di IA non siano sufficientemente trasparenti, spiegabili e documentati. È pertanto opportuno classificare come ad alto rischio, nella misura in cui il loro uso è consentito dal pertinente diritto dell'Unione e nazionale, una serie di sistemi di IA destinati a essere utilizzati nel contesto delle attività di contrasto, in cui l'accuratezza, l'affidabilità e la trasparenza risultano particolarmente importanti per evitare impatti negativi, mantenere la fiducia dei cittadini e garantire la responsabilità e mezzi di ricorso efficaci. In considerazione della natura delle attività e dei rischi a esse connessi, tra tali sistemi di IA ad alto rischio è opportuno includere, in particolare, i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto, o per loro conto, o dagli organi o organismi dell'Unione a sostegno delle autorità di contrasto per valutare il rischio per una persona fisica di diventare vittima di reati, come poligrafi e strumenti analoghi, valutare l'affidabilità degli elementi probatori nel corso dell'accertamento e del perseguimento di reati, e, nella misura in cui non è vietato a norma del presente regolamento, determinare il rischio di reato o recidiva in relazione a una persona fisica non solo sulla base della profilazione delle persone fisiche, ma anche della valutazione dei tratti e delle caratteristiche della personalità o del comportamento criminale pregresso delle persone fisiche o dei gruppi, ai fini della profilazione nel corso dell'indagine, dell'accertamento e del perseguimento di reati. I sistemi di IA specificamente destinati a essere utilizzati per procedimenti amministrativi dalle autorità fiscali e doganali, come pure dalle unità di informazione finanziaria che svolgono compiti amministrativi di analisi delle informazioni conformemente al diritto dell’Unione in materia di antiriciclaggio, non dovrebbero essere classificati come sistemi di IA ad alto rischio utilizzati dalle autorità di contrasto a fini di prevenzione, accertamento, indagine e perseguimento di reati. L'utilizzo degli strumenti di IA da parte delle autorità di contrasto e delle altre pertinenti autorità non dovrebbe diventare un fattore di disuguaglianza o esclusione. L'impatto dell'utilizzo degli strumenti di IA sul diritto alla difesa degli indagati non dovrebbe essere ignorato, in particolare la difficoltà di ottenere informazioni significative sul funzionamento di tali sistemi e la difficoltà che ne risulta nel confutarne i risultati in tribunale, in particolare per le persone fisiche sottoposte a indagini.
(60)
Системите с ИИ, използвани в управлението на миграцията, убежището и граничния контрол, засягат лица, които често са в особено уязвимо положение и които зависят от резултата от действията на компетентните публични органи. Поради това точността, недискриминационният характер и прозрачността на системите с ИИ, използвани в тези ситуации, са особено важни, за да се гарантира зачитането на основните права на засегнатите лица, по-специално правото им на свободно движение, недискриминация, защита на личния живот и личните данни, международна закрила и добра администрация. Поради това е целесъобразно, доколкото използването им е разрешено съгласно съответното право на Съюза и национално право, да бъдат класифицирани като високорискови системите с ИИ, предназначени да бъдат използвани от или от името на компетентните публични органи или от институции, органи, служби или агенции на Съюза, натоварени със задачи в областта на управлението на миграцията, убежището и граничния контрол, например полиграфи и подобни инструменти, за оценка на определени рискове, произтичащи от физически лица, които влизат на територията на държава членка или подават молба за виза или убежище, за подпомагане на компетентните публични органи при разглеждането, включително свързаната с това оценка на надеждността на доказателствата, на молби за убежище, визи и разрешения за пребиваване и свързаните с тях жалби по отношение на целта за установяване на допустимостта на физическите лица, кандидатстващи за статут, с цел откриване, разпознаване или установяване на самоличността на физически лица в контекста на управлението на миграцията, убежището и граничния контрол, с изключение на проверка на документите за пътуване. Системите с ИИ в областта на управлението на миграцията, убежището и граничния контрол, обхванати от настоящия регламент, следва да съответстват на съответните процедурни изисквания, установени в Регламент (ЕО) № 810/2009 на Европейския парламент и на Съвета (32), Директива 2013/32/ЕС на Европейския парламент и на Съвета (33) и друго съответно право на Съюза. Системите с ИИ в контекста на управлението на миграцията, убежището и граничния контрол не следва при никакви обстоятелства да се използват от държавите членки или институциите, органите, службите или агенциите на Съюза като средство за заобикаляне на техните международни задължения съгласно Конвенцията на Организацията на обединените нации за статута на бежанците, съставена в Женева на 28 юли 1951 г. и изменена с Протокола от 31 януари 1967 г. Те не следва да се използват и за нарушаване по какъвто и да било начин на принципа на забрана за връщане или за отказ във връзка с безопасни и ефективни законни възможности за достъп до територията на Съюза, включително правото на международна закрила.
(60)
I sistemi di IA utilizzati nel settore della migrazione, dell'asilo e della gestione del controllo delle frontiere hanno effetti su persone che si trovano spesso in una posizione particolarmente vulnerabile e il cui futuro dipende dall'esito delle azioni delle autorità pubbliche competenti. L'accuratezza, la natura non discriminatoria e la trasparenza dei sistemi di IA utilizzati in tali contesti sono pertanto particolarmente importanti per garantire il rispetto dei diritti fondamentali delle persone interessate, in particolare i loro diritti alla libera circolazione, alla non discriminazione, alla protezione della vita privata e dei dati personali, alla protezione internazionale e alla buona amministrazione. È pertanto opportuno classificare come ad alto rischio, nella misura in cui il loro uso è consentito dal pertinente diritto dell'Unione e nazionale, i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti, o per loro conto, o dalle istituzioni, dagli organi o dagli organismi dell'Unione, incaricati di compiti in materia di migrazione, asilo e gestione del controllo delle frontiere, come poligrafi e strumenti analoghi, per valutare taluni rischi presentati da persone fisiche che entrano nel territorio di uno Stato membro o presentano domanda di visto o di asilo, per assistere le autorità pubbliche competenti nell'esame delle domande di asilo, di visto e di permesso di soggiorno e dei relativi reclami in relazione all'obiettivo di determinare l'ammissibilità delle persone fisiche che richiedono tale status, compresa la connessa valutazione dell'affidabilità degli elementi probatori, al fine di individuare, riconoscere o identificare persone fisiche nel contesto della migrazione, dell'asilo e della gestione del controllo delle frontiere con l’eccezione della verifica dei documenti di viaggio. I sistemi di IA nel settore della migrazione, dell'asilo e della gestione del controllo delle frontiere disciplinati dal presente regolamento dovrebbero essere conformi ai pertinenti requisiti procedurali stabiliti dal regolamento (CE) n, 810/2009 del Parlamento europeo e del Consiglio (32), dalla direttiva 2013/32/UE del Parlamento europeo e del Consiglio, (33) e da altre pertinenti disposizioni di diritto dell’Unione. I sistemi di IA nel settore della migrazione, dell'asilo e della gestione del controllo delle frontiere non dovrebbero in alcun caso essere utilizzati dagli Stati membri o dalle istituzioni, dagli organi o dagli organismi dell'Unione come mezzo per eludere gli obblighi internazionali a essi derivanti a titolo della convenzione delle Nazioni Unite relativa allo status dei rifugiati firmata a Ginevra il 28 luglio 1951, modificata dal protocollo del 31 gennaio 1967. Essi non dovrebbero essere utilizzati per violare in alcun modo il principio di non respingimento o per negare sicure ed efficaci vie legali di ingresso nel territorio dell'Unione, compreso il diritto alla protezione internazionale.
(61)
Някои системи с ИИ, предназначени за използване в правораздаването и при демократичните процеси, следва да бъдат класифицирани като високорискови, като се има предвид потенциално значителното им въздействие върху демокрацията, принципите на правовата държава, индивидуалните свободи, както и правото на ефективни правни средства за защита и на справедлив съдебен процес. По-специално, за да се преодолеят рисковете от възможна предубеденост, грешки и непрозрачност, е целесъобразно да се класифицират като високорискови системите с ИИ, предназначени да бъдат използвани от орган на съдебна власт или от негово име, за да подпомагат органите на съдебна власт при проучването и тълкуването на фактите и правото и при прилагането на правото към конкретен набор от факти. Системите с ИИ, предназначени да бъдат използвани от органите за алтернативно разрешаване на спорове за тези цели, също следва да се считат за високорискови, когато резултатите от производството по алтернативно разрешаване на спорове пораждат правни последици за страните. Използването на инструменти с ИИ може да подпомогне, но не следва да заменя правомощията на съда за вземане на решения или независимостта на съдебната власт; окончателното вземане на решение трябва да продължи да бъде ръководено от човека. Класификацията на системите с ИИ като високорискови не следва обаче да обхваща системите с ИИ, предназначени за чисто спомагателни административни дейности, които не засягат самото правораздаване по отделните дела, като например анонимизиране или псевдонимизиране на съдебни решения, документи или данни, комуникация между персонала и административни задачи.
(61)
Alcuni sistemi di IA destinati all'amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un'autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti. Anche i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie a tali fini dovrebbero essere considerati ad alto rischio quando gli esiti dei procedimenti di risoluzione alternativa delle controversie producono effetti giuridici per le parti. L'utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all'indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un'attività a guida umana. Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi.
(62)
Без да се засягат правилата, предвидени в Регламент (ЕС) 2024/900 на Европейския парламент и на Съвета (34), и с цел да се преодолеят рисковете от неправомерна външна намеса в упражняването на правото на глас, залегнало в член 39 от Хартата, и от неблагоприятните последици за демокрацията и принципите на правовата държава, системите с ИИ, предназначени да се използват за оказване на влияние върху резултата от избори или референдум или върху поведението на физическите лица при упражняване на правото им на глас в избори или референдум, следва да се класифицират като високорискови системи с ИИ, с изключение на системите с ИИ, на чиито резултати физическите лица не са пряко изложени, като например инструменти, използвани за организиране, оптимизиране и структуриране на политически кампании от административна и логистична гледна точка.
(62)
Fatte salve le norme previste dal regolamento (UE) 2024/900 del Parlamento europeo e del Consiglio (34), e al fine di affrontare i rischi di indebite interferenze esterne sul diritto di voto sancito dall'articolo 39 della Carta e di effetti negativi sulla democrazia e sullo Stato di diritto, i sistemi di IA destinati a essere utilizzati per influenzare l'esito di elezioni o referendum o il comportamento di voto delle persone fisiche nell'esercizio del loro voto alle elezioni o ai referendum dovrebbero essere classificati come sistemi di IA ad alto rischio, ad eccezione dei sistemi di IA ai cui output le persone fisiche non sono direttamente esposte, come gli strumenti utilizzati per organizzare, ottimizzare e strutturare le campagne politiche da un punto di vista amministrativo e logistico.
(63)
Фактът, че дадена система с ИИ е класифицирана като високорискова система с ИИ съгласно настоящия регламент, не следва да се тълкува като указване, че използването на системата е законосъобразно съгласно други актове на правото на Съюза или съгласно националното право, съвместимо с правото на Съюза, като например относно защитата на личните данни и използването на полиграфи и подобни инструменти или други системи за разпознаване на емоционалното състояние на физическите лица. Всяко такова използване следва да продължи да се извършва единствено в съответствие с приложимите изисквания, произтичащи от Хартата и от приложимите актове на вторичното право на Съюза и националното право. Настоящият регламент не следва да се тълкува като предоставящ правно основание за обработването на лични данни, включително, ако е приложимо, на специални категории лични данни, освен когато в него изрично е предвидено друго.
(63)
Il fatto che un sistema di IA sia classificato come sistema di IA ad alto rischio a norma del presente regolamento non dovrebbe essere interpretato come un'indicazione del fatto che l'utilizzo del sistema sia lecito a norma di altri atti giuridici dell'Unione o del diritto nazionale compatibile con il diritto dell'Unione, ad esempio in materia di protezione dei dati personali, uso di poligrafi e strumenti analoghi o di altri sistemi atti a rilevare lo stato emotivo delle persone fisiche. Qualsiasi siffatto utilizzo dovrebbe continuare a verificarsi solo in conformità dei requisiti applicabili risultanti dalla Carta e dagli atti applicabili di diritto derivato dell'Unione e di diritto nazionale. Il presente regolamento non dovrebbe essere inteso come un fondamento giuridico per il trattamento dei dati personali, comprese, ove opportuno, categorie particolari di dati personali, salvo quando diversamente disposto in modo specifico dal presente regolamento.
(64)
За да се ограничат рисковете, произтичащи от високорискови системи с ИИ, пуснати на пазара или пуснати в действие, и за да се гарантира високо равнище на надеждност, за високорисковите системи с ИИ следва да се прилагат някои задължителни изисквания, при които се вземат предвид предназначението и контекстът на използване на системата с ИИ и които са съобразени със системата за управление на риска, която ще бъде създадена от доставчика. Мерките, предприети от доставчиците за спазване на задължителните изисквания на настоящия регламент, следва да са съобразени с общопризнатите съвременни технически постижения в областта на ИИ и да бъдат пропорционални и ефективни за постигане на целите на настоящия регламент. Въз основа на новата законодателна рамка, съгласно обясненията в известието на Комисията „Синьото ръководство“ за прилагане на правилата на ЕС относно продуктите – 2022 г., общото правило е, че повече от един правен акт от законодателството на Съюза за хармонизация може да е приложим за един продукт, тъй като предоставянето на пазара или пускането в действие може да се извърши само когато продуктът е в съответствие с цялото приложимо законодателство на Съюза за хармонизация. Опасностите, свързани със системите с ИИ, обхванати от изискванията на настоящия регламент, се отнасят до аспекти, различни от действащото законодателство на Съюза за хармонизация, поради което изискванията на настоящия регламент ще допълнят действащото законодателство на Съюза за хармонизация. Например машините или медицинските изделия, включващи система с ИИ, могат да представляват рискове, които не са обхванати от съществените изисквания, свързани със здравето и безопасността, установени в съответното законодателство на Съюза за хармонизация, тъй като в това секторно право не се уреждат рисковете, присъщи за системите с ИИ. Поради това е необходимо едновременно и допълващо се прилагане на различните законодателни актове. За да се гарантира съгласуваност и да се избегнат ненужна административна тежест и ненужни разходи, доставчиците на продукт, който съдържа една или повече високорискови системи с ИИ, за които се прилагат изискванията на настоящия регламент и на законодателството на Съюза за хармонизация въз основа на новата законодателна рамка, което е посочено в приложение към настоящия регламент, следва да разполагат с гъвкавост по отношение на оперативните решения за това как да се гарантира оптимално съответствие на продукт, който съдържа една или повече системи с ИИ, с всички приложими изисквания на това законодателство на Съюза за хармонизация. Тази гъвкавост би могла да означава например решение на доставчика да интегрира част от необходимите процеси на изпитване и докладване, информация и документация, изисквани съгласно настоящия регламент, във вече съществуваща документация и процедури, изисквани съгласно съществуващото законодателство на Съюза за хармонизация въз основа на новата законодателна рамка, посочено в приложение към настоящия регламент. Това по никакъв начин не следва да засяга задължението на доставчика да спазва всички приложими изисквания.
(64)
Al fine di attenuare i rischi derivanti dai sistemi di IA ad alto rischio immessi sul mercato o messi in servizio e per garantire un elevato livello di affidabilità, è opportuno applicare determinati requisiti obbligatori ai sistemi di IA ad alto rischio, tenendo conto della finalità prevista e del contesto dell'uso del sistema di IA e conformemente al sistema di gestione dei rischi che deve essere stabilito dal fornitore. Le misure adottate dai fornitori per conformarsi ai requisiti obbligatori del presente regolamento dovrebbero tenere conto dello stato dell'arte generalmente riconosciuto in materia di IA ed essere proporzionate ed efficaci per conseguire gli obiettivi del presente regolamento. Sulla base del nuovo quadro legislativo, come chiarito nella comunicazione della Commissione «La “Guida blu” all'attuazione della normativa UE sui prodotti 2022», di norma più di un atto giuridico della normativa di armonizzazione dell'Unione può essere applicabile a un prodotto, poiché quest'ultimo può essere messo a disposizione o messo in servizio solo se risulta conforme a tutta la normativa di armonizzazione dell'Unione applicabile. I pericoli dei sistemi di IA disciplinati dai requisiti del presente regolamento riguardano aspetti diversi rispetto alla vigente normativa di armonizzazione dell'Unione e pertanto i requisiti del presente regolamento completerebbero il corpus esistente della normativa di armonizzazione dell'Unione. Ad esempio, le macchine o i dispositivi medici in cui è integrato un sistema di IA potrebbero presentare rischi non affrontati dai requisiti essenziali di sicurezza e di tutela della salute stabiliti nella pertinente normativa armonizzata dell'Unione, in quanto tale normativa settoriale non affronta i rischi specifici dei sistemi di IA. Ciò richiede un'applicazione simultanea e complementare dei vari atti legislativi. Al fine di garantire la coerenza ed evitare oneri amministrativi e costi inutili, i fornitori di un prodotto contenente uno o più sistemi di IA ad alto rischio cui si applicano i requisiti del presente regolamento e della normativa di armonizzazione dell'Unione basata sul nuovo quadro legislativo ed elencata in un allegato del presente regolamento dovrebbero avere flessibilità per quanto riguarda le decisioni operative sulle maniere per garantire in modo ottimale la conformità di un prodotto contenente uno o più sistemi di IA a tutti i requisiti applicabili di tale normativa armonizzata dell'Unione. Tale flessibilità potrebbe significare, ad esempio, che il fornitore decide di integrare una parte dei necessari processi di prova e comunicazione, nonché delle informazioni e della documentazione richieste a norma del presente regolamento nella documentazione e nelle procedure già esistenti richieste dalla vigente normativa di armonizzazione dell'Unione sulla base del nuovo quadro legislativo ed elencate in un allegato del presente regolamento. Ciò non dovrebbe in alcun modo compromettere l'obbligo del fornitore di rispettare tutti i requisiti applicabili.
(65)
Системата за управление на риска следва да се състои от непрекъснат цикличен процес, който се планира и протича през целия жизнен цикъл на високорисковата система с ИИ. Този процес следва да бъде насочен към установяване и ограничаване на съответните рискове, произтичащи от системите с ИИ, за здравето, безопасността и основните права. Системата за управление на риска следва да подлежи на редовен преглед и за бъде актуализирана, за да се гарантира непрекъснатата ѝ ефективност, както и обосновката и документирането на всички важни решения и действия, предприети съгласно настоящия регламент. Този процес следва да гарантира, че доставчикът установява рисковете или неблагоприятните въздействия и прилага мерки за ограничаване на известните и разумно предвидими рискове, произтичащи от системите с ИИ, за здравето, безопасността и основните права с оглед на тяхното предназначение и разумно предвидима неправилна експлоатация, включително възможните рискове, произтичащи от взаимодействието между системата с ИИ и средата, в която тя работи. Системата за управление на риска следва да предприема най-подходящите мерки за управление на риска с оглед на съвременните технически постижения в областта на ИИ. При определянето на най-подходящите мерки за управление на риска доставчикът следва да документира и обясни направения избор и, когато е целесъобразно, да включи експерти и външни заинтересовани страни. При установяването на разумно предвидима неправилна експлоатация на високорискови системи с ИИ доставчикът следва да обхване използването на системите с ИИ, които, макар и да не са пряко обхванати от предназначението и предвидени в инструкциите за употреба, може все пак да се очаква, че са резултат от лесно предвидимо човешко поведение в контекста на специфичните характеристики и използване на конкретна система с ИИ. Всички известни или предвидими обстоятелства, свързани с използването на високорисковата система с ИИ в съответствие с предназначението ѝ или в условия на разумно предвидима неправилна експлоатация, които могат да породят рискове за здравето и безопасността или за основните права, следва да бъдат включени в инструкциите за употреба, предоставени от доставчика. Целта е да се гарантира, че внедрителят е запознат с тях и ги взема предвид при използването на високорисковата система с ИИ. Определянето и прилагането на мерки за ограничаване на риска в случаи на предвидима неправилна експлоатация съгласно настоящия регламент не следва да изискват осигуряването на конкретно допълнително обучение за високорисковата система с ИИ от страна на доставчика с цел намиране на решение във връзка с предвидимата неправилна експлоатация. Доставчиците обаче се насърчават да обмислят такива допълнителни мерки за обучение с цел ограничаване на случаи на разумно предвидима неправилна експлоатация, когато това е необходимо и целесъобразно.
(65)
Il sistema di gestione dei rischi dovrebbe essere costituito da un processo iterativo continuo pianificato ed eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio. Tale processo dovrebbe mirare a individuare e attenuare i rischi pertinenti dei sistemi di IA per la salute, la sicurezza e i diritti fondamentali. Il sistema di gestione dei rischi dovrebbe essere periodicamente riesaminato e aggiornato per garantirne l'efficacia costante, nonché la giustificazione e la documentazione delle eventuali decisioni e azioni significative adottate a norma del presente regolamento. Tale processo dovrebbe garantire che il fornitore individui rischi o impatti negativi e attui misure di attenuazione per i rischi noti e ragionevolmente prevedibili dei sistemi di IA per la salute, la sicurezza e i diritti fondamentali alla luce della loro finalità prevista e del loro uso improprio ragionevolmente prevedibile, compresi gli eventuali rischi derivanti dall'interazione tra il sistema di IA e l'ambiente in cui opera. Il sistema di gestione dei rischi dovrebbe adottare le misure di gestione dei rischi più appropriate alla luce dello stato dell'arte in materia di IA. Nell'individuare le misure di gestione dei rischi più appropriate, il fornitore dovrebbe documentare e spiegare le scelte effettuate e, se del caso, coinvolgere esperti e portatori di interessi esterni. Nell'individuare l'uso improprio ragionevolmente prevedibile dei sistemi di IA ad alto rischio, il fornitore dovrebbe contemplare gli usi di sistemi di IA che, pur non essendo direttamente coperti dalla finalità prevista e considerati nelle istruzioni per l'uso, si può ragionevolmente prevedere derivino da un comportamento umano facilmente prevedibile nel contesto delle caratteristiche e dell'uso specifici di un determinato sistema di IA. Qualsiasi circostanza nota o prevedibile connessa all'uso del sistema di IA ad alto rischio in conformità della sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, che possa comportare rischi per la salute e la sicurezza o per i diritti fondamentali, dovrebbe essere inclusa nelle istruzioni per l'uso fornite dal fornitore. L'obiettivo è garantire che il deployer sia consapevole e ne tenga conto quando utilizza il sistema di IA ad alto rischio. L'individuazione e l'attuazione di misure di attenuazione dei rischi per un uso improprio prevedibile a norma del presente regolamento non dovrebbero richiedere, da parte del fornitore per farvi fronte, specifiche formazioni aggiuntive per il sistema di IA ad alto rischio. I fornitori sono tuttavia incoraggiati a prendere in considerazione tali misure di formazione aggiuntive per attenuare gli usi impropri ragionevolmente prevedibili, ove necessario e opportuno.
(66)
По отношение на високорисковите системи с ИИ следва да се прилагат изисквания за управлението на риска, качеството и целесъобразността на използваните набори от данни, техническата документация и поддържането на регистри, прозрачността и предоставянето на информация на внедрителите, човешкия контрол, надеждността, точността и киберсигурността. Тези изисквания са необходими за ефективно ограничаване на рисковете за здравето, безопасността и основните права. Тъй като не съществуват други разумни, по-малко ограничителни мерки за търговията, тези изисквания не представляват необосновани ограничения на търговията.
(66)
Tali requisiti dovrebbero applicarsi ai sistemi di IA ad alto rischio per quanto concerne la gestione dei rischi, la qualità e la pertinenza dei set di dati utilizzati, la documentazione tecnica e la conservazione delle registrazioni, la trasparenza e la fornitura di informazioni ai deployer, la sorveglianza umana e la robustezza, l'accuratezza e la cibersicurezza. Tali requisiti sono necessari per attenuare efficacemente i rischi per la salute, la sicurezza e i diritti fondamentali e, non essendo ragionevolmente disponibili altre misure meno restrittive degli scambi, non costituiscono limitazioni ingiustificate del commercio.
(67)
Висококачествените данни и достъпът до тях имат жизненоважна роля за осигуряването на структура и за гарантирането на функционирането на много системи с ИИ, особено когато се използват техники, включващи обучение на модели, с цел да се гарантира, че високорисковата система с ИИ функционира по предназначение и по безопасен начин и не води до дискриминация, забранена от правото на Съюза. Висококачествените набори от обучителни, валидационни и изпитвателни данни изискват прилагането на подходящи практики за администриране и управление на данни. Наборите от обучителни, валидационни и изпитвателни данни, включително обозначенията, следва да бъдат подходящи, достатъчно представителни и във възможно най-голяма степен пълни и без грешки с оглед на предназначението на системата. За да се улесни спазването на правото на Съюза в областта на защитата на данните, като например Регламент (ЕС) 2016/679, практиките за администриране и управление на данни следва да включват, в случай на лични данни, прозрачност по отношение на първоначалната цел на събирането на данните. Наборите от данни следва също така да имат подходящи статистически свойства, включително по отношение на лицата или групите лица, във връзка с които е предназначена да се използва високорисковата система с ИИ, като се обръща специално внимание на намаляването на възможна предубеденост в наборите от данни, която има вероятност да засегне здравето и безопасността на хората, да окаже отрицателно въздействие върху основните права или да доведе до дискриминация, забранена съгласно правото на Съюза, особено когато резултатите от данните оказват влияние върху входящите данни за бъдещи операции (обратни връзки). Предубедеността може например да бъде присъща за основните набори от данни, особено при използването или генерирането на исторически данни, когато системите се внедряват в реални условия. Резултатите, предоставени от системи с ИИ, могат да се повлияват от такава присъща предубеденост, при която съществува тенденция постепенно да се увеличава и по този начин да затвърждава и засилва съществуващата дискриминация, по-специално по отношение на лица, принадлежащи към определени уязвими групи, включително расови или етнически групи. Изискването наборите от данни да бъдат във възможно най-голяма степен пълни и без грешки не следва да засяга използването на техники за опазване на неприкосновеността на личния живот в контекста на разработването и изпитването на системи с ИИ. По-специално, наборите от данни следва да са съобразени, доколкото това се изисква с оглед на предназначението им, с особеностите, характеристиките или елементите, характерни за конкретната географска, контекстуална, поведенческа или функционална среда, в която системата с ИИ е предназначена да бъде използвана. Изискванията, свързани с администрирането на данни, могат да бъдат спазени чрез използване на услугите на трети лица, които предлагат сертифицирани услуги за осигуряване на съответствие, включително проверка на администрирането на данните, целостта на наборите от данни и практиките за обучение, валидиране и изпитване на данните, доколкото се гарантира спазването на изискванията за данните по настоящия регламент.
(67)
Dati di alta qualità e l'accesso a dati di alta qualità svolgono un ruolo essenziale nel fornire una struttura e garantire le prestazioni di molti sistemi di IA, in particolare quando si utilizzano tecniche che prevedono l'addestramento di modelli, al fine di garantire che il sistema di IA ad alto rischio funzioni come previsto e in maniera sicura e che non diventi una fonte di discriminazione vietata dal diritto dell'Unione. Per disporre di set di dati di addestramento, convalida e prova di elevata qualità è necessario attuare adeguate pratiche di governance e gestione dei dati. I set di dati di addestramento, convalida e prova, incluse le etichette, dovrebbero essere pertinenti, sufficientemente rappresentativi e, nella misura del possibile, esenti da errori e completi nell'ottica della finalità prevista del sistema. Al fine di agevolare il rispetto del diritto dell'Unione in materia di protezione dei dati, come il regolamento (UE) 2016/679, le pratiche di governance e di gestione dei dati dovrebbero includere, nel caso dei dati personali, la trasparenza in merito alla finalità originaria della raccolta dei dati. I set di dati dovrebbero inoltre possedere le proprietà statistiche appropriate, anche per quanto riguarda le persone o i gruppi di persone in relazione ai quali il sistema di IA ad alto rischio è destinato a essere usato, prestando particolare attenzione all'attenuazione di possibili distorsioni nei set di dati, suscettibili di incidere sulla salute e sulla sicurezza delle persone, di avere un impatto negativo sui diritti fondamentali o di comportare discriminazioni vietate dal diritto dell'Unione, specie laddove gli output di dati influenzano gli input per operazioni future (feedback loops - «circuiti di feedback»). Le distorsioni possono ad esempio essere intrinseche ai set di dati di base, specie se si utilizzano dati storici, o generate quando i sistemi sono attuati in contesti reali. I risultati forniti dai sistemi di IA potrebbero essere influenzati da tali distorsioni intrinseche, che sono destinate ad aumentare gradualmente e quindi a perpetuare e amplificare le discriminazioni esistenti, in particolare nei confronti delle persone che appartengono a determinati gruppi vulnerabili, inclusi gruppi razziali o etnici. Il requisito secondo cui i set di dati dovrebbero essere, per quanto possibile, completi ed esenti da errori non dovrebbe incidere sull'uso di tecniche di tutela della vita privata nel contesto dello sviluppo e della prova dei sistemi di IA. In particolare i set di dati dovrebbero tenere conto, nella misura necessaria per la finalità prevista, delle caratteristiche o degli elementi particolari dello specifico contesto geografico, contestuale, comportamentale o funzionale nel quale il sistema di IA ad alto rischio è destinato a essere usato. I requisiti relativi alla governance dei dati possono essere soddisfatti ricorrendo a terzi che offrono servizi di conformità certificati, compresa la verifica della governance dei dati, dell'integrità dei set di dati e delle pratiche di addestramento, convalida e prova dei dati, purché sia garantita la conformità ai requisiti in materia di dati di cui al presente regolamento.
(68)
За разработването и оценката на високорискови системи с ИИ определени участници, като например доставчици, нотифицирани органи и други съответни субекти, например европейски цифрови иновационни центрове, структури за експериментиране и изпитване и научни работници, следва да имат достъп до и да използват висококачествени набори от данни в областите на дейност на тези участници, които са свързани с настоящия регламент. Общите европейски пространства на данни, създадени от Комисията, и улесняването на обмена на данни между предприятията и с държавните органи в името на обществения интерес ще бъдат от основно значение за осигуряването на надежден, отговорен и недискриминационен достъп до висококачествени данни за обучението, валидирането и изпитването на системите с ИИ. Например в областта на здравеопазването европейското пространство на здравни данни ще улесни недискриминационния достъп до здравни данни и обучението на алгоритми на ИИ въз основа на тези набори от данни по сигурен, навременен, прозрачен и надежден начин, при който се запазва неприкосновеността на личния живот, и при подходящо институционално управление. Съответните компетентни органи, включително секторните органи, които предоставят или подпомагат достъпа до данни, могат също така да подкрепят предоставянето на висококачествени данни за обучението, валидирането и изпитването на системите с ИИ.
(68)
Ai fini dello sviluppo e della valutazione di sistemi di IA ad alto rischio, è opportuno concedere ad alcuni soggetti, come fornitori, organismi notificati e altre entità pertinenti, quali i poli europei dell'innovazione digitale, gli impianti di prova e sperimentazione e i ricercatori, l'accesso a set di dati di elevata qualità e la possibilità di utilizzarli nell'ambito dei settori di attività di tali attori soggetti al presente regolamento. Gli spazi comuni europei di dati istituiti dalla Commissione e l'agevolazione della condivisione dei dati tra imprese e con i governi, nell'interesse pubblico, saranno fondamentali per fornire un accesso affidabile, responsabile e non discriminatorio a dati di elevata qualità a fini di addestramento, convalida e prova dei sistemi di IA. Ad esempio, per quanto riguarda la salute, lo spazio europeo di dati sanitari agevolerà l'accesso non discriminatorio ai dati sanitari e l'addestramento di algoritmi di IA a partire da tali set di dati in modo sicuro, tempestivo, trasparente, affidabile e tale da tutelare la vita privata, nonché con un'adeguata governance istituzionale. Le autorità competenti interessate, comprese quelle settoriali, che forniscono o sostengono l'accesso ai dati, possono anche sostenere la fornitura di dati di alta qualità a fini di addestramento, convalida e prova dei sistemi di IA.
(69)
Правото на неприкосновеност на личния живот и на защита на личните данни трябва да бъде гарантирано през целия жизнен цикъл на системата с ИИ. В това отношение принципите на свеждане на данните до минимум и на защита на данните при проектирането и по подразбиране, определени в правото на Съюза в областта на защитата на данните, са приложими при обработването на лични данни. Мерките, предприети от доставчиците за гарантиране на спазването на тези принципи, могат да включват не само анонимизиране и криптиране, но и използване на технологии, които позволяват въвеждането на алгоритми в данните и позволяват обучение на системи с ИИ без предаване между страните или копиране на самите необработени или структурирани данни, без да се засягат изискванията за администриране на данните, предвидени в настоящия регламент.
(69)
Il diritto alla vita privata e alla protezione dei dati personali deve essere garantito durante l'intero ciclo di vita del sistema di IA. A tale riguardo, i principi della minimizzazione dei dati e della protezione dei dati fin dalla progettazione e per impostazione predefinita, sanciti dal diritto dell'Unione in materia di protezione dei dati, sono applicabili nel trattamento dei dati personali. Le misure adottate dai fornitori per garantire il rispetto di tali principi possono includere non solo l'anonimizzazione e la cifratura, ma anche l'uso di tecnologie che consentano di inserire algoritmi nei dati e di addestrare i sistemi di IA senza trasmissione tra le parti o copia degli stessi dati grezzi o strutturati, fatti salvi i requisiti in materia di governance dei dati di cui al presente regolamento.
(70)
За да се защитят правата на други лица от дискриминацията, която може да произтича от предубеденост в системите с ИИ, доставчиците следва по изключение, доколкото това е строго необходимо за целите на осигуряването на откриване и коригиране на предубедеността във високорисковите системи с ИИ, при спазване на подходящи гаранции за основните права и свободи на физическите лица и след прилагането на всички приложими условия, установени в настоящия регламент, в допълнение към условията, установени в регламенти (ЕС) 2016/679 и (ЕС) 2018/1725 и в Директива (ЕС) 2016/680, да могат да обработват и специални категории лични данни като въпрос от важен обществен интерес по смисъла на член 9, параграф 2, буква ж) от Регламент (ЕС) 2016/679 и член 10, параграф 2, буква ж) от Регламент (ЕС) 2018/1725.
(70)
Al fine di proteggere i diritti altrui contro la discriminazione che potrebbe derivare dalla distorsione nei sistemi di IA, è opportuno che i fornitori, in via eccezionale e nella misura strettamente necessaria al fine di garantire il rilevamento e la correzione delle distorsioni in relazione ai sistemi di IA ad alto rischio, fatte salve le tutele adeguate per i diritti e le libertà fondamentali delle persone fisiche e previa attuazione di tutte le condizioni applicabili previste dal presente regolamento unitamente alle condizioni previste dai regolamenti (UE) 2016/679 e (UE) 2018/1725 e dalla direttiva (UE) 2016/680, siano in grado di trattare anche categorie particolari di dati personali, come questione di interesse pubblico rilevante ai sensi dell'articolo 9, paragrafo 2, lettera g), del regolamento (UE) 2016/679 e dell'articolo 10, paragrafo 2, lettera g), del regolamento (UE) 2018/1725.
(71)
Наличието на разбираема информация за начина на разработване на високорисковите системи с ИИ и начина на функционирането им през целия срок на експлоатация е от съществено значение, за да се даде възможност за проследимост на тези системи, проверка на съответствието с изискванията съгласно настоящия регламент, както и мониторинг на тяхното функциониране и мониторинг след пускането на пазара. Това изисква поддържането на регистри и наличието на техническа документация, съдържаща информация, която е необходима за оценяване на съответствието на системата с ИИ с приложимите изисквания и за улесняване на мониторинга след пускането на пазара. Тази информация следва да включва общите характеристики, способностите и ограниченията на системата, използваните алгоритми, данни и процеси на обучение, изпитване и валидиране, както и документация за съответната система за управление на риска, и следва да се изготвя в ясна и разбираема форма. Техническата документация следва да се актуализира по подходящ начин през целия срок на експлоатация на системата с ИИ. Освен това високорисковите системи с ИИ следва технически да позволяват автоматично записване на събития посредством записи по време на срока на експлоатация на системата.
(71)
Disporre di informazioni comprensibili sulle modalità di sviluppo dei sistemi di IA ad alto rischio e sulle loro modalità di funzionamento durante tutto il ciclo di vita è essenziale per consentire la tracciabilità di tali sistemi, verificare la conformità ai requisiti di cui al presente regolamento, monitorarne il funzionamento e svolgere il monitoraggio successivo all'immissione sul mercato. Occorre a tal fine conservare le registrazioni e disporre di una documentazione tecnica contenente le informazioni necessarie per valutare la conformità del sistema di IA ai requisiti pertinenti e agevolare il monitoraggio successivo all'immissione sul mercato. Tali informazioni dovrebbero includere le caratteristiche, le capacità e i limiti generali del sistema, gli algoritmi, i dati, l'addestramento, i processi di prova e di convalida utilizzati, nonché la documentazione sul pertinente sistema di gestione dei rischi redatta in forma chiara e comprensibile. È opportuno tenere aggiornata in modo adeguato la documentazione tecnica durante l'intero ciclo di vita del sistema di IA. Inoltre, i sistemi di IA ad alto rischio dovrebbero consentire, a livello tecnico, la registrazione automatica degli eventi, mediante «log», per la durata del ciclo di vita del sistema.
(72)
За да се отговори на опасенията, свързани с непрозрачността и сложността на някои системи с ИИ, и да се помогне на внедрителите да изпълняват задълженията си съгласно настоящия регламент, следва да се изисква прозрачност за високорисковите системи с ИИ преди пускането им на пазара или пускането им в действие. Високорисковите системи с ИИ следва да бъдат проектирани по начин, който позволява на внедрителите да разберат как функционира системата с ИИ, да оценят нейната функционалност и да разберат нейните силни страни и ограничения. Високорисковите системи с ИИ следва да се придружават от подходяща информация под формата на инструкции за употреба. Тази информация следва да включва характеристиките, способностите и ограниченията на действието на системата с ИИ. Те ще обхващат информация относно възможните известни и предвидими обстоятелства, свързани с използването на високорисковата система с ИИ, включително действия от страна на внедрителя, които могат да повлияят на поведението и работата на системата и в рамките на които системата с ИИ може да породи рискове за здравето, безопасността и основните права, относно промените, които са предварително определени и чието съответствие е оценено от доставчика, както и относно съответните мерки за човешки контрол, включително мерките за улесняване на тълкуването на резултатите от системата с ИИ от внедрителите. Прозрачността, включително придружаващите инструкции за употреба, следва да подпомага внедрителите при използването на системата, както и при вземането на информирани решения. Внедрителите следва, наред с другото, да разполагат с по-добра възможност да направят правилния избор за системата, която възнамеряват да използват с оглед на приложимите за тях задължения, да бъдат запознати с предвиденото и неразрешеното използване и да използват системата с ИИ правилно и целесъобразно. За да се подобри разбираемостта и достъпността на информацията, включена в инструкциите за употреба, когато е целесъобразно следва да бъдат включени илюстративни примери, например относно ограниченията и относно предвиденото и неразрешеното използване на системата с ИИ. Доставчиците следва да гарантират, че цялата документация, включително инструкциите за употреба, съдържа съдържателна, изчерпателна, достъпна и разбираема информация, като се вземат предвид нуждите и предвидимите познания на внедрителите, за които е предназначена. Инструкциите за употреба следва да се предоставят на език, лесно разбираем за внедрителите, за които са предназначени, който е определен от съответната държава членка.
(72)
Per rispondere alle preoccupazioni relative all'opacità e alla complessità di determinati sistemi di IA e aiutare i deployer ad adempiere ai loro obblighi a norma del presente regolamento, è opportuno imporre la trasparenza per i sistemi di IA ad alto rischio prima che siano immessi sul mercato o messi in servizio. I sistemi di IA ad alto rischio dovrebbero essere progettati in modo da consentire ai deployer di comprendere il funzionamento del sistema di IA, valutarne la funzionalità e comprenderne i punti di forza e i limiti. I sistemi di IA ad alto rischio dovrebbero essere accompagnati da informazioni adeguate sotto forma di istruzioni per l'uso. Tali informazioni dovrebbero includere le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA. Tali elementi comprenderebbero informazioni su possibili circostanze note e prevedibili connesse all'uso del sistema di IA ad alto rischio, compresa l'azione del deployer suscettibile di influenzare il comportamento e le prestazioni del sistema, nel quadro dei quali il sistema di IA può comportare rischi per la salute, la sicurezza e i diritti fondamentali, sulle modifiche che sono state predeterminate e valutate a fini di conformità dal fornitore e sulle pertinenti misure di sorveglianza umana, comprese le misure volte a facilitare l'interpretazione degli output del sistema di IA da parte dei deployer. La trasparenza, comprese le istruzioni per l'uso che la accompagnano, dovrebbe aiutare i deployer a utilizzare il sistema e a prendere decisioni informate. Tra l'altro, i deployer dovrebbero essere nella posizione migliore per effettuare la scelta corretta del sistema che intendono utilizzare alla luce degli obblighi loro applicabili, essere a conoscenza degli usi previsti e vietati e utilizzare il sistema di IA in modo corretto e opportuno. Al fine di migliorare la leggibilità e l'accessibilità delle informazioni incluse nelle istruzioni per l'uso, se del caso, dovrebbero essere inclusi, esempi illustrativi, ad esempio sulle limitazioni e sugli usi previsti e vietati del sistema di IA. I fornitori dovrebbero garantire che tutta la documentazione, comprese le istruzioni per l'uso, contenga informazioni significative, complete, accessibili e comprensibili, tenendo conto delle esigenze e delle conoscenze prevedibili dei deployer destinatari. Le istruzioni per l'uso dovrebbero essere messe a disposizione in una lingua che possa essere compresa facilmente dai deployer destinatari, secondo quanto stabilito dallo Stato membro interessato.
(73)
Високорисковите системи с ИИ следва да бъдат проектирани и разработени по такъв начин, че физическите лица да могат да следят тяхното функциониране, да гарантират, че те се използват по предназначение и че въздействието им се взема предвид през целия жизнен цикъл на системата. За тази цел доставчикът на системата следва да определи подходящи мерки за човешки контрол преди пускането ѝ на пазара или пускането ѝ в действие. По-специално, когато е целесъобразно, тези мерки следва да гарантират, че за системата се прилагат вградени оперативни ограничения, които не могат да бъдат заобиколени от самата система, и че тя отговаря на човека оператор, както и че физическите лица, на които е възложен човешкият контрол, разполагат с необходимата компетентност, обучение и авторитет за изпълнение на тази роля. Освен това е от съществено значение, когато е целесъобразно, да се гарантира, че високорисковите системи с ИИ включват механизми за даване на насоки и информация на дадено физическо лице, на което е възложен човешки контрол, за да взема информирани решения дали, кога и как да се намеси, за да се избегнат отрицателни последици или рискове, или да се спре системата, ако тя не функционира по предназначение. Предвид сериозните последици за хората в случай на неточно съвпадение, генерирано от някои системи за биометрична идентификация, е целесъобразно да се предвиди изискване за засилен човешки контрол над тези системи, така че внедрителят да не може да предприеме действие или да вземе решение въз основа на установена от системата самоличност, без това да е било проверено и потвърдено най-малко от две физически лица поотделно. Тези лица могат да се числят към един или повече образувания и да включват лицето, което управлява или използва системата. Това изискване не следва да поражда ненужна тежест или да води до забавяне; автоматичното вписване на отделните проверки, извършени от различните лица, в генерираните от системата записи би могло да е достатъчно. Като се имат предвид особеностите на правоохранителната област и областите на миграцията, граничния контрол и убежището, това изискване не следва да се прилага, когато според правото на Съюза или националното право се счита, че прилагането на това изискване е непропорционално.
(73)
I sistemi di IA ad alto rischio dovrebbero essere progettati e sviluppati in modo da consentire alle persone fisiche di sorvegliarne il funzionamento, garantire che siano utilizzati come previsto e che i loro impatti siano affrontati durante il ciclo di vita del sistema. Il fornitore del sistema dovrebbe a tal fine individuare misure di sorveglianza umana adeguate prima dell'immissione del sistema sul mercato o della sua messa in servizio. Tali misure dovrebbero in particolare garantire, ove opportuno, che il sistema sia soggetto a vincoli operativi intrinseci che il sistema stesso non può annullare e che risponda all'operatore umano, e che le persone fisiche alle quali è stata affidata la sorveglianza umana dispongano delle competenze, della formazione e dell'autorità necessarie per svolgere tale ruolo. È inoltre essenziale, se del caso, garantire che i sistemi di IA ad alto rischio includano meccanismi per guidare e informare la persona fisica alla quale è stata affidata la sorveglianza umana affinché prenda decisioni informate in merito alla possibilità, ai tempi e alle modalità di intervento, onde evitare conseguenze negative o rischi, oppure affinché arresti il sistema, qualora non funzionasse come previsto. Tenuto conto delle conseguenze significative per le persone in caso di una corrispondenza non corretta da parte di determinati sistemi di identificazione biometrica, è opportuno prevedere un requisito rafforzato di sorveglianza umana per tali sistemi, in modo che il deployer non possa adottare alcuna azione o decisione sulla base dell'identificazione risultante dal sistema, a meno che ciò non sia stato verificato e confermato separatamente da almeno due persone fisiche. Tali persone potrebbero provenire da una o più entità e comprendere la persona che gestisce o utilizza il sistema. Tale requisito non dovrebbe comportare oneri o ritardi inutili e potrebbe essere sufficiente che le verifiche separate da parte delle diverse persone siano automaticamente registrate nei log generati dal sistema. Date le specificità dei settori delle attività di contrasto, della migrazione, del controllo delle frontiere e dell'asilo, tale requisito non dovrebbe applicarsi se il diritto dell'Unione o nazionale ritenga sproporzionata la sua applicazione.
(74)
Високорисковите системи с ИИ следва да функционират стабилно през целия си жизнен цикъл и да съответстват на подходящо ниво на точност, надеждност и киберсигурност, с оглед на тяхното предназначение и в съответствие с общопризнатите съвременни технически постижения. Комисията и съответните организации и заинтересовани страни се насърчават да вземат надлежно предвид ограничаването на рисковете и отрицателното въздействие на системата с ИИ. Очакваното ниво на показателите за ефективност следва да бъде обявено в придружаващите инструкции за употреба. Доставчиците се приканват да съобщават тази информация на внедрителите по ясен и лесно разбираем начин, без възможности за недоразумения или подвеждащи твърдения. Правото на Съюза в областта на законовата метрология, включително директиви 2014/31/ЕС (35) и 2014/32/ЕС (36) на Европейския парламент и на Съвета, има за цел да гарантира точността на измерванията и да спомогне за прозрачността и почтеността на търговските сделки. В този контекст, в сътрудничество със съответните заинтересовани страни и организации, като например органите по метрология и сравнителен анализ, Комисията следва да насърчава, когато е целесъобразно, разработването на сравнителни показатели и методики за измерване за системите с ИИ. При това Комисията следва да вземе под внимание и да си сътрудничи с международните партньори, работещи в областта на метрологията и съответните показатели за измерване, свързани с ИИ.
(74)
Le prestazioni dei sistemi di IA ad alto rischio dovrebbero essere coerenti durante tutto il loro ciclo di vita e tali sistemi dovrebbero garantire un livello adeguato di accuratezza, robustezza e cibersicurezza, alla luce della loro finalità prevista e conformemente allo stato dell'arte generalmente riconosciuto. La Commissione e le organizzazioni e i portatori di interessi pertinenti sono incoraggiati a tenere in debita considerazione l'attenuazione dei rischi e degli impatti negativi del sistema di IA. Il livello atteso delle metriche di prestazione dovrebbe essere dichiarato nelle istruzioni per l'uso che accompagnano il sistema. I fornitori sono invitati a comunicare tali informazioni ai deployer in modo chiaro e facilmente comprensibile, senza malintesi o affermazioni fuorvianti. Il diritto dell'Unione in materia di metrologia legale, comprese le direttive 2014/31/UE (35) e 2014/32/UE (36) del Parlamento europeo e del Consiglio, mira a garantire l'accuratezza delle misurazioni e a favorire la trasparenza e l'equità delle transazioni commerciali. In tale contesto, in cooperazione con i portatori di interessi e le organizzazioni pertinenti, quali le autorità di metrologia e di analisi comparativa, la Commissione dovrebbe incoraggiare, se del caso, lo sviluppo di parametri di riferimento e metodologie di misurazione per i sistemi di IA. A tal fine, la Commissione dovrebbe prendere atto dei partner internazionali che operano nel settore della metrologia, collaborando con essi, e dei pertinenti indicatori di misurazione relativi all'IA.
(75)
Техническата надеждност е ключово изискване за високорисковите системи с ИИ. Те следва да бъдат устойчиви на вредно или друго нежелателно поведение, което може да се прояви в резултат на ограничения в системите или средата, в която те работят (например грешки, дефекти, несъответствия, неочаквани ситуации). Поради това следва да се предприемат технически и организационни мерки, за да се гарантира надеждността на високорисковите системи с ИИ, например чрез проектиране и разработване на подходящи технически решения за предотвратяване или свеждане до минимум на вредното или друго нежелано поведение. Тези технически решения могат да включват например механизми, позволяващи на системата безопасно да прекъсне работата си (аварийни планове) при наличието на определени аномалии или когато работата се извършва извън предварително определени граници. Липсата на защита срещу тези рискове може да повлияе на безопасността или да се отрази отрицателно на основните права, например поради неправилни решения или погрешни или опорочени от предубеденост резултати, генерирани от системата с ИИ.
(75)
La robustezza tecnica è un requisito fondamentale dei sistemi di IA ad alto rischio. Essi dovrebbero essere resilienti in relazione a comportamenti dannosi o altrimenti indesiderati che possono derivare da limitazioni all'interno dei sistemi o dell'ambiente in cui i sistemi funzionano (ad esempio errori, guasti, incongruenze, situazioni impreviste). È pertanto opportuno adottare misure tecniche e organizzative per garantire la robustezza dei sistemi di IA ad alto rischio, ad esempio progettando e sviluppando soluzioni tecniche adeguate per prevenire o ridurre al minimo i comportamenti dannosi o altrimenti indesiderati. Tali soluzioni tecniche possono comprendere, ad esempio, meccanismi che consentano al sistema di interrompere in modo sicuro il proprio funzionamento (piani fail-safe) in presenza di determinate anomalie o quando il funzionamento ha luogo al di fuori di determinati limiti prestabiliti. La mancata protezione da tali rischi potrebbe avere ripercussioni sulla sicurezza o incidere negativamente sui diritti fondamentali, ad esempio a causa di decisioni errate o di output sbagliati o distorti generati dal sistema di IA.
(76)
Киберсигурността има решаващо значение, за да се гарантира, че системите с ИИ са устойчиви на опити за промяна на тяхното използване, поведение или ефективност или за засягане на техните свойства, свързани със сигурността, от недобросъвестни трети лица, които се възползват от уязвимостта на системата. Кибератаките срещу системи с ИИ могат да засегнат специфични за ИИ ресурси, като например набори от обучителни данни (например чрез „отравяне на данните“) или обучени модели (например чрез враждебни атаки или изводи за принадлежност), или да използват уязвимите места в цифровите ресурси на системата с ИИ или в основната ИКТ инфраструктура. За да се гарантира ниво на киберсигурност, съобразено с рисковете, доставчиците на високорискови системи с ИИ следва да предприемат подходящи мерки, например проверки на сигурността, като отчитат надлежно и основната ИКТ инфраструктура.
(76)
La cibersicurezza svolge un ruolo cruciale nel garantire che i sistemi di IA siano resilienti ai tentativi compiuti da terzi con intenzioni malevole che, sfruttando le vulnerabilità del sistema, mirano ad alterarne l'uso, il comportamento, le prestazioni o a comprometterne le proprietà di sicurezza. Gli attacchi informatici contro i sistemi di IA possono far leva sulle risorse specifiche dell'IA, quali i set di dati di addestramento (ad esempio il data poisoning, «avvelenamento dei dati») o i modelli addestrati (ad esempio gli adversarial attacks, «attacchi antagonisti» o la membership inference, «attacchi inferenziali»), o sfruttare le vulnerabilità delle risorse digitali del sistema di IA o dell'infrastruttura TIC sottostante. Al fine di garantire un livello di cibersicurezza adeguato ai rischi, è pertanto opportuno che i fornitori di sistemi di IA ad alto rischio adottino misure adeguate, come controlli di sicurezza, anche tenendo debitamente conto dell'infrastruttura TIC sottostante.
(77)
Без да се засягат изискванията, свързани с надеждността и точността, установени в настоящия регламент, при високорисковите системи с ИИ, които попадат в обхвата на регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, в съответствие с посочения регламент, може да се докаже съответствие с изискванията за киберсигурност на настоящия регламент, като се изпълнят съществените изисквания за киберсигурност, установени в посочения регламент. Когато високорисковите системи с ИИ съответстват на съществените изисквания на регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, те следва да се считат за съответстващи на изискванията за киберсигурност, установени в настоящия регламент, доколкото изпълнението на тези изисквания е доказано в ЕС декларацията за съответствие или части от нея, изготвена съгласно посочения регламент. За тази цел при оценката на рисковете за киберсигурността, свързани с продукт с цифрови елементи, класифициран като високорискова система с ИИ съгласно настоящия регламент, извършена съгласно регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, следва да се вземат предвид рисковете за киберустойчивостта на дадена система с ИИ по отношение на опитите на неоправомощени трети лица да променят нейното използване, поведение или работа, включително специфичните за ИИ уязвими места, като например „отравяне на данни“ или враждебни атаки, както и, ако е целесъобразно, рисковете за основните права, както се изисква в настоящия регламент.
(77)
Fatti salvi i requisiti relativi alla robustezza e all'accuratezza di cui al presente regolamento, i sistemi di IA ad alto rischio che rientrano nell'ambito di applicazione del regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali, ai sensi di tale regolamento possono dimostrare la conformità ai requisiti di cibersicurezza del presente regolamento rispettando i requisiti essenziali di cibersicurezza a norma di tale regolamento. Quando rispettano i requisiti essenziali del regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali, i sistemi di IA ad alto rischio dovrebbero essere considerati conformi ai requisiti di cibersicurezza di cui al presente regolamento nella misura in cui il rispetto di tali requisiti sia dimostrato nella dichiarazione di conformità UE, o in parti di essa, rilasciata a norma di tale regolamento. A tal fine, la valutazione dei rischi di cibersicurezza, associati a un prodotto con elementi digitali classificati come sistemi di IA ad alto rischio ai sensi del presente regolamento, effettuata a norma del regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali, dovrebbe tenere in considerazione i rischi per la ciberresilienza di un sistema di IA per quanto riguarda i tentativi di terzi non autorizzati di modificarne l'uso, il comportamento o le prestazioni, comprese le vulnerabilità specifiche dell'IA, quali il data poisoning («avvelenamento dei dati») o gli adversarial attack («attacchi antagonisti»), nonché, se del caso, i rischi per i diritti fondamentali come disposto dal presente regolamento.
(78)
Процедурата за оценяване на съответствието, предвидена в настоящия регламент, следва да се прилага по отношение на съществените изисквания за киберсигурност на даден продукт с цифрови елементи, попадащ в обхвата на регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи и класифициран като високорискова система с ИИ съгласно настоящия регламент. Това правило обаче не следва да води до намаляване на необходимото ниво на увереност за критичните продукти с цифрови елементи, обхванати от регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи. Поради това, чрез дерогация от това правило, за високорисковите системи с ИИ, които попадат в обхвата на настоящия регламент и които също така са определени като важни и критични продукти с цифрови елементи съгласно регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, и за които се прилага процедурата за оценяване на съответствието въз основа на вътрешен контрол, посочена в приложение към настоящия регламент, се прилагат разпоредбите за оценяване на съответствието, съдържащи се в регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, доколкото това се отнася до съществените изисквания за киберсигурност, установени в посочения регламент. В този случай за всички останали аспекти, обхванати от настоящия регламент, следва да се прилагат съответните разпоредби относно оценяването на съответствието въз основа на вътрешен контрол, установени в приложение към настоящия регламент. Въз основа на знанията и експертния опит на Агенцията на Европейския съюз за киберсигурност (ENISA) относно политиката в областта на киберсигурността и задачите, възложени на ENISA съгласно Регламент (ЕС) 2019/881 на Европейския парламент и на Съвета (37), Комисията следва да си сътрудничи с ENISA по въпроси, свързани с киберсигурността на системите с ИИ.
(78)
La procedura di valutazione della conformità di cui al presente regolamento dovrebbe applicarsi in relazione ai requisiti essenziali di cibersicurezza di un prodotto con elementi digitali disciplinato dal regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali e classificato come sistema di IA ad alto rischio a norma del presente regolamento. Tuttavia, tale norma non dovrebbe comportare una riduzione del livello di garanzia necessario per i prodotti con elementi digitali critici disciplinati dal regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali. Pertanto, in deroga a detta norma, i sistemi di IA ad alto rischio che rientrano nell'ambito di applicazione del presente regolamento e che sono anche qualificati come prodotti con elementi digitali importanti e critici a norma del regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali, e ai quali si applica la procedura di valutazione della conformità basata sul controllo interno in allegato al presente regolamento, sono soggetti alle disposizioni in materia di valutazione della conformità del regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali per quanto riguarda i requisiti essenziali di cibersicurezza di tale regolamento. In tal caso, per tutti gli altri aspetti disciplinati dal presente regolamento dovrebbero applicarsi le rispettive disposizioni in materia di valutazione della conformità basata sul controllo interno, in allegato al presente regolamento. Sulla base delle conoscenze e delle competenze dell'ENISA in merito alla politica in materia di cibersicurezza e ai relativi compiti assegnati all'ENISA a norma del regolamento (UE) 2019/881 del Parlamento europeo e del Consiglio (37), la Commissione dovrebbe cooperare con l'ENISA sulle questioni relative alla cibersicurezza dei sistemi di IA.
(79)
Целесъобразно е конкретно физическо или юридическо лице, определено като доставчик, да поеме отговорността за пускането на пазара или пускането в действие на дадена високорискова система с ИИ, независимо дали това физическо или юридическо лице е проектирало или разработило системата.
(79)
È opportuno che una specifica persona fisica o giuridica, definita come il fornitore, si assuma la responsabilità dell'immissione sul mercato o della messa in servizio di un sistema di IA ad alto rischio, a prescindere dal fatto che tale persona fisica o giuridica sia la persona che ha progettato o sviluppato il sistema.
(80)
Като страни по Конвенцията на Организацията на обединените нации за правата на хората с увреждания Съюзът и държавите членки са правно задължени да защитават хората с увреждания от дискриминация и да насърчават тяхното равенство, да гарантират, че хората с увреждания имат достъп на равна основа с всички останали до информационни и комуникационни технологии и системи, и да гарантират зачитане на неприкосновеността на личния живот на хората с увреждания. Предвид нарастващото значение и използване на системи с ИИ прилагането на принципите за универсален дизайн за всички нови технологии и услуги следва да гарантира пълен и равен достъп на всички, които е възможно да бъдат засегнати от технологиите за ИИ или които ги използват, включително хората с увреждания, по начин, който изцяло отчита присъщото им достойнство и многообразие. Следователно е от съществено значение доставчиците да осигурят пълно съответствие с изискванията за достъпност, включително с Директива (ЕС) 2016/2102 на Европейския парламент и на Съвета (38) и Директива (ЕС) 2019/882. Доставчиците следва да осигурят съответствието с тези изисквания при проектирането. Поради това необходимите мерки следва да бъдат интегрирани във възможно най-голяма степен в проектирането на високорисковата система с ИИ.
(80)
In qualità di firmatari della Convenzione delle Nazioni Unite sui diritti delle persone con disabilità, l'Unione e gli Stati membri sono tenuti, dal punto di vista giuridico, a proteggere le persone con disabilità dalla discriminazione e a promuoverne l'uguaglianza, a garantire che le persone con disabilità abbiano accesso, su un piano di parità con gli altri, alle tecnologie e ai sistemi di informazione e comunicazione e a garantire il rispetto della vita privata delle persone con disabilità. In considerazione dell'importanza e dell'utilizzo crescenti dei sistemi di IA, l'applicazione dei principi della progettazione universale a tutti i nuovi servizi e tecnologie dovrebbe garantire un accesso pieno e paritario a tutti coloro che sono potenzialmente interessati dalle tecnologie di IA o che le utilizzano, ivi comprese le persone con disabilità, in modo da tenere pienamente conto delle loro dignità e diversità intrinseche. È pertanto essenziale che i fornitori garantiscano la piena conformità ai requisiti di accessibilità, anche alla direttiva (UE) 2016/2102 del Parlamento europeo e del Consiglio (38) e alla direttiva (UE) 2019/882. I fornitori dovrebbero garantire il rispetto di tali requisiti fin dalla progettazione. Pertanto, le misure necessarie dovrebbero essere quanto più possibile integrate nella progettazione dei sistemi di IA ad alto rischio.
(81)
Доставчикът следва да създаде стабилна система за управление на качеството, да гарантира изпълнението на изискваната процедура за оценяване на съответствието, да изготви съответната документация и да създаде надеждна система за мониторинг след пускането на пазара. Доставчиците на високорискови системи с ИИ, които имат задължения по отношение на системите за управление на качеството съгласно съответното секторно право на Съюза, следва да имат възможност да включат елементите на системата за управление на качеството, предвидена в настоящия регламент, като част от съществуващата система за управление на качеството, предвидена в посоченото друго секторно право на Съюза. Взаимното допълване между настоящия регламент и действащото секторно право на Съюза също следва да бъде взето предвид в бъдещите дейности по стандартизация или в насоките, приемани от Комисията. Публичните органи, които пускат в действие високорискови системи с ИИ за свое собствено ползване, могат да приемат и прилагат правилата за системата за управление на качеството като част от приетата на национално или регионално равнище система за управление на качеството, когато е целесъобразно, като вземат предвид особеностите на сектора и компетентността и организацията на съответния публичен орган.
(81)
È opportuno che il fornitore istituisca un solido sistema di gestione della qualità, garantisca l'espletamento della procedura di valutazione della conformità richiesta, rediga la documentazione pertinente e istituisca un sistema robusto per il monitoraggio successivo all'immissione sul mercato. I fornitori di sistemi di IA ad alto rischio che sono soggetti a obblighi relativi ai sistemi di gestione della qualità conformemente al pertinente diritto settoriale dell'Unione dovrebbero avere la possibilità di includere gli elementi del sistema di gestione della qualità di cui al presente regolamento nell'ambito del sistema di gestione della qualità esistente previsto da tale altro diritto settoriale dell'Unione. La complementarità tra il presente regolamento e il diritto settoriale vigente dell'Unione dovrebbe essere tenuta in considerazione anche nelle future attività di normazione o negli orientamenti adottati dalla Commissione. Le autorità pubbliche che mettono in servizio sistemi di IA ad alto rischio per uso proprio possono adottare e attuare le regole per il sistema di gestione della qualità nell'ambito del sistema di gestione della qualità adottato a livello nazionale o regionale, a seconda dei casi, tenendo conto delle specificità del settore come pure delle competenze e dell'organizzazione dell'autorità pubblica interessata.
(82)
За да се даде възможност за прилагането на настоящия регламент и за да се създадат условия на равнопоставеност за операторите, както и предвид различните форми на предоставяне на цифрови продукти, е важно да се гарантира, че при всички обстоятелства установено в Съюза лице може да предостави на органите цялата необходима информация относно съответствието на дадена система с ИИ. Следователно преди да се предоставят техните системи на пазара на Съюза, доставчиците, установени в трети държави, следва да определят с писмено пълномощно упълномощен представител, който е установен в Съюза. Този упълномощен представител има ключово значение за осигуряване на съответствието на високорисковите системи с ИИ, пуснати на пазара или пуснати в действие в Съюза от тези доставчици, които не са установени в Съюза, както и за изпълнение на функциите на лице за връзка, установено в Съюза.
(82)
Al fine di consentire l'applicazione del presente regolamento e di creare condizioni di parità per gli operatori, e tenendo conto delle diverse forme di messa a disposizione di prodotti digitali, è importante garantire che, in qualsiasi circostanza, una persona stabilita nell'Unione possa fornire alle autorità tutte le informazioni necessarie sulla conformità di un sistema di IA. Pertanto, prima di mettere a disposizione i propri sistemi di IA nell'Unione, i fornitori stabiliti in paesi terzi dovrebbero nominare, mediante mandato scritto, un rappresentante autorizzato stabilito nell'Unione. Tale rappresentante autorizzato svolge un ruolo chiave nel garantire la conformità dei sistemi di IA ad alto rischio immessi sul mercato o messi in servizio nell'Unione da tali fornitori non stabiliti nell'Unione e nel servire da loro referente stabilito nell'Unione.
(83)
С оглед на естеството и сложността на веригата за създаване на стойност за системите с ИИ и в съответствие с новата законодателна рамка, е от съществено значение да се гарантира правна сигурност и да се улесни спазването на настоящия регламент. Поради това е необходимо да се изяснят функциите и конкретните задължения на съответните оператори по веригата за създаване на стойност, като например вносителите и дистрибуторите, които могат да допринесат за разработването на системи с ИИ. В определени ситуации тези оператори биха могли да имат едновременно повече от една функция и поради това следва кумулативно да изпълняват всички съответни задължения, свързани с тези функции. Например даден оператор може да действа едновременно като дистрибутор и вносител.
(83)
Alla luce della natura e della complessità della catena del valore per i sistemi di IA e in linea con il nuovo quadro legislativo, è essenziale garantire la certezza del diritto e facilitare il rispetto del presente regolamento. È pertanto necessario chiarire il ruolo e gli obblighi specifici degli operatori pertinenti lungo tale catena del valore, come importatori e distributori che possono contribuire allo sviluppo dei sistemi di IA. In determinate situazioni tali operatori potrebbero agire contemporaneamente in più di un ruolo e dovrebbero pertanto adempiere cumulativamente tutti gli obblighi pertinenti associati a tali ruoli. Ad esempio, un operatore potrebbe agire contemporaneamente come distributore e importatore.
(84)
За да се гарантира правна сигурност, е необходимо да се поясни, че при определени специфични условия всеки дистрибутор, вносител, внедрител или друго трето лице следва да се счита за доставчик на високорискова система с ИИ и следователно да поеме всички съответни задължения. Такъв би бил случаят, ако това лице постави името или търговската си марка върху високорискова система с ИИ, която вече е пусната на пазара или пусната в действие, без да се засягат споразумения, предвиждащи, че задълженията се разпределят по друг начин. Такъв би бил и случаят, ако това лице внесе съществено изменение във високорискова система с ИИ, която вече е пусната на пазара или пусната в действие, по такъв начин, че тя да продължи да бъде високорискова система с ИИ в съответствие с настоящия регламент, или ако измени предназначението на система с ИИ, включително система с ИИ с общо предназначение, която не е класифицирана като високорискова и вече е пусната на пазара или пусната в действие, по такъв начин, че системата с ИИ да стане високорискова система с ИИ в съответствие с настоящия регламент. Тези разпоредби следва да се прилагат, без да се засягат специалните разпоредби, установени в някои секторни законодателни актове на Съюза за хармонизация въз основа на новата законодателна рамка, заедно с които следва да се прилага настоящият регламент. Например член 16, параграф 2 от Регламент (ЕС) 745/2017, съгласно който определени изменения не следва да се считат за промени на изделие, които могат да се отразят на съответствието му с приложимите изисквания, следва да продължи да се прилага за високорисковите системи с ИИ, които са медицински изделия по смисъла на посочения регламент.
(84)
Al fine di garantire la certezza del diritto, è necessario chiarire che, a determinate condizioni specifiche, qualsiasi distributore, importatore, deployer o altro terzo dovrebbe essere considerato un fornitore di un sistema di IA ad alto rischio e, pertanto, assumere tutti gli obblighi del caso. Ciò si verifica ove tale parte apponga il proprio nome o marchio su un sistema di IA ad alto rischio già immesso sul mercato o messo in servizio, fatti salvi accordi contrattuali che prevedano una diversa ripartizione degli obblighi. Ciò si verifica anche ove tale parte apporti una modifica sostanziale a un sistema di IA ad alto rischio già immesso sul mercato o messo in servizio e in modo che resti un sistema di IA ad alto rischio a norma del presente regolamento, ovvero ove modifichi la finalità prevista di un sistema di IA, compreso un sistema di IA per finalità generali, che non è stato classificato come sistema ad alto rischio ed è già immesso sul mercato o messo in servizio, in modo tale da rendere il sistema di IA un sistema di IA ad alto rischio a norma del presente regolamento. Tali disposizioni dovrebbero applicarsi fatte salve le disposizioni più specifiche stabilite in alcune normative di armonizzazione dell'Unione basate sul nuovo quadro legislativo, unitamente al quale dovrebbe applicarsi il presente regolamento. Ad esempio, l'articolo 16, paragrafo 2, del regolamento (UE) 2017/745, che stabilisce che talune modifiche non dovrebbero essere considerate modifiche di un dispositivo tali da compromettere la sua conformità alle prescrizioni applicabili, dovrebbe continuare ad applicarsi ai sistemi di IA ad alto rischio che sono dispositivi medici ai sensi di tale regolamento.
(85)
Системите с ИИ с общо предназначение могат да се използват като високорискови системи с ИИ сами по себе си или да бъдат компоненти на други високорискови системи с ИИ. Ето защо поради специфичното си естество и за да се гарантира справедливо разпределяне на отговорността по веригата за създаване на стойност в областта на ИИ, доставчиците на такива системи, независимо дали те могат да се използват сами по себе си като високорискови системи с ИИ от други доставчици, или като компоненти на високорискови системи с ИИ, и освен ако не е предвидено друго съгласно настоящия регламент, следва да си сътрудничат тясно с доставчиците на съответните високорискови системи с ИИ, за да им се даде възможност да спазват съответните задължения съгласно настоящия регламент, както и с компетентните органи, създадени съгласно настоящия регламент.
(85)
I sistemi di IA per finalità generali possono essere utilizzati da soli come sistemi di IA ad alto rischio o essere componenti di altri sistemi di IA ad alto rischio. Pertanto, data la loro natura particolare e al fine di garantire un'equa ripartizione delle responsabilità lungo la catena del valore dell'IA, i fornitori di tali sistemi, indipendentemente dal fatto che questi possano essere utilizzati di per sé come sistemi di IA ad alto rischio da altri fornitori o come componenti di sistemi di IA ad alto rischio, e salvo se diversamente disposto dal presente regolamento, dovrebbero cooperare strettamente con i fornitori dei pertinenti sistemi di IA ad alto rischio per consentire loro di conformarsi ai pertinenti obblighi previsti dal presente regolamento e con le autorità competenti istituite a norma del presente regolamento.
(86)
Когато съгласно условията, предвидени в настоящия регламент, доставчикът, който първоначално е пуснал на пазара системата с ИИ или я е пуснал в действие, вече не следва да се счита за доставчик за целите на настоящия регламент и когато този доставчик не е изключил изрично промяната на системата с ИИ във високорискова система с ИИ, първоначалният доставчик следва въпреки това да си сътрудничи тясно и да предостави необходимата информация, както и да осигури разумно очакваните технически достъп и друга помощ, които са необходими за изпълнението на задълженията, установени в настоящия регламент, по-специално по отношение на спазването на оценката на съответствието на високорисковите системи с ИИ.
(86)
Qualora, alle condizioni di cui al presente regolamento, il fornitore che ha inizialmente immesso sul mercato o messo in servizio il sistema di IA non dovesse più essere considerato il fornitore ai fini del presente regolamento, e se tale fornitore non ha espressamente escluso la modifica del sistema di IA in un sistema di IA ad alto rischio, il precedente fornitore dovrebbe comunque cooperare strettamente e mettere a disposizione le informazioni necessarie nonché fornire l'accesso tecnico ragionevolmente atteso e qualsiasi altra forma di assistenza che sono richiesti per l'adempimento degli obblighi di cui al presente regolamento, in particolare per quanto riguarda la conformità alla valutazione della conformità dei sistemi di IA ad alto rischio.
(87)
Освен това когато високорискова система с ИИ, която е защѝтен елемент на продукт, попадащ в обхвата на законодателството на Съюза за хармонизация въз основа на новата законодателна рамка, не е пусната на пазара или пусната в действие независимо от продукта, производителят на продукта съгласно определението в съответното законодателство, следва да спазва задълженията на доставчика, установени в настоящия регламент, и следва по-специално да гарантира, че системата с ИИ, вградена в крайния продукт, съответства на изискванията на настоящия регламент.
(87)
Inoltre, se un sistema di IA ad alto rischio che è un componente di sicurezza di un prodotto rientrante nell'ambito di applicazione della normativa di armonizzazione dell'Unione basata sul nuovo quadro legislativo non è immesso sul mercato o messo in servizio separatamente dal prodotto, il fabbricante del prodotto quale definito in tale normativa dovrebbe adempiere gli obblighi del fornitore stabiliti nel presente regolamento e, in particolare, dovrebbe garantire che il sistema di IA integrato nel prodotto finale soddisfa i requisiti del presente regolamento.
(88)
В рамките на веригата за създаване на стойност в областта на ИИ множество лица често доставят системи, инструменти и услуги с ИИ, но също така и компоненти или процеси, които са интегрирани от доставчика в системата с ИИ с различни цели, включително обучение и повторно обучение на модели и изпитване и оценка на модели, интегриране в софтуера или други аспекти на разработването на модели. Тези лица заемат важно място във веригата за създаване на стойност по отношение на доставчика на високорисковата система с ИИ, в която са интегрирани техните системи, инструменти, услуги, компоненти или процеси с ИИ, и следва да предоставят чрез писмено споразумение на този доставчик необходимата информация, капацитет, технически достъп и друга помощ въз основа на общопризнатите съвременни технически постижения, за да се даде възможност на доставчика да изпълни изцяло задълженията, установени в настоящия регламент, без да се излагат на риск собствените им права върху интелектуалната собственост или търговски тайни.
(88)
Lungo la catena del valore dell'IA, spesso più parti forniscono sistemi di IA, strumenti e servizi, ma anche componenti o processi, che sono integrati dal fornitore nel sistema di IA con varie finalità, inclusi l'addestramento dei modelli, la riqualificazione dei modelli, la prova e la valutazione dei modelli, l'integrazione nel software o altri aspetti dello sviluppo dei modelli. Tali parti svolgono un ruolo importante nella catena del valore nei confronti del fornitore del sistema di IA ad alto rischio in cui i loro sistemi di IA, strumenti, servizi, componenti o processi sono integrati e dovrebbero fornire a tale fornitore mediante accordo scritto le informazioni, le capacità, l'accesso tecnico e qualsiasi altra forma di assistenza necessari sulla base dello stato dell'arte generalmente riconosciuto, al fine di consentire al fornitore di adempiere pienamente gli obblighi di cui al presente regolamento, senza compromettere i propri diritti di proprietà intellettuale o segreti commerciali.
(89)
Трети лица, които предоставят публичен достъп до инструменти, услуги, процеси или компоненти с ИИ, различни от модели на ИИ с общо предназначение, не следва да са задължени да спазват изискванията, насочени към отговорността по веригата за създаване на стойност в областта на ИИ, по-специално по отношение на доставчика, който ги е използвал или интегрирал, когато тези инструменти, услуги, процеси или компоненти с ИИ са достъпни в рамките на безплатен лиценз с отворен код. Разработчиците на безплатни инструменти, услуги, процеси или компоненти с ИИ с отворен код, различни от модели на ИИ с общо предназначение, следва да се насърчават да прилагат широко възприети практики за документиране, например карти за модели и информационни фишове, като начин за ускоряване на обмена на информация по веригата за създаване на стойност в областта на ИИ, което ще даде възможност да се популяризират надеждни системи с ИИ в Съюза.
(89)
I terzi che rendono accessibili al pubblico strumenti, servizi, processi o componenti di IA diversi dai modelli di IA per finalità generali non dovrebbero essere tenuti a conformarsi a requisiti relativi alle responsabilità lungo la catena del valore dell'IA, in particolare nei confronti del fornitore che li ha utilizzati o integrati, quando tali strumenti, servizi, processi o componenti di IA sono resi accessibili con licenza libera e open source. Gli sviluppatori di strumenti, servizi, processi o componenti di IA liberi e open source diversi dai modelli di IA per finalità generali dovrebbero essere incoraggiati ad attuare pratiche di documentazione ampiamente adottate, come schede di modelli e schede dati, al fine di accelerare la condivisione delle informazioni lungo la catena del valore dell'IA, consentendo la promozione di sistemi di IA affidabili nell'Unione.
(90)
Комисията би могла да разработи и препоръча незадължителни примерни договорни условия между доставчиците на високорискови системи с ИИ и трети лица, които доставят инструменти, услуги, компоненти или процеси, използвани или интегрирани във високорискови системи с ИИ, за да се улесни сътрудничеството по веригата за създаване на стойност. При разработването на незадължителни примерни договорни условия Комисията следва също така да взема предвид възможните договорни изисквания, приложими в конкретни сектори или стопански дейности.
(90)
La Commissione potrebbe elaborare e raccomandare clausole contrattuali tipo volontarie tra i fornitori di sistemi di IA ad alto rischio e i terzi che forniscono strumenti, servizi, componenti o processi utilizzati o integrati in sistemi di IA ad alto rischio, al fine di agevolare la cooperazione lungo la catena del valore. Nell'elaborare clausole contrattuali tipo volontarie, la Commissione dovrebbe altresì tenere conto dei possibili requisiti contrattuali applicabili in determinati settori o casi commerciali.
(91)
Предвид естеството на системите с ИИ и евентуалните рискове за безопасността и основните права, свързани с тяхното използване, включително по отношение на необходимостта да се гарантира подходящ мониторинг на работата на дадена система с ИИ в реални условия, е целесъобразно да се определят конкретни отговорности за внедрителите. Внедрителите следва по-специално да предприемат подходящи технически и организационни мерки, за да гарантират, че използват високорискови системи с ИИ в съответствие с инструкциите за употреба, а също така следва да се предвидят някои други задължения по отношение на мониторинга на функционирането на системите с ИИ и по отношение на поддържането на регистри, когато е целесъобразно. Освен това внедрителите следва да гарантират, че лицата, на които е възложено да изпълняват инструкциите за употреба и човешкия контрол съгласно настоящия регламент, притежават необходимата компетентност, по-специално подходящо ниво на грамотност, обучение и авторитет в областта на ИИ, за да изпълняват правилно тези задачи. Тези задължения не следва да засягат други задължения на внедрителите във връзка с високорискови системи с ИИ съгласно правото на Съюза или националното право.
(91)
In considerazione della natura dei sistemi di IA e dei possibili rischi per la sicurezza e i diritti fondamentali associati al loro utilizzo, anche per quanto riguarda la necessità di garantire un adeguato monitoraggio delle prestazioni di un sistema di IA in un contesto reale, è opportuno stabilire responsabilità specifiche per i deployer. È in particolare opportuno che i deployer adottino misure tecniche e organizzative adeguate per garantire di utilizzare i sistemi di IA ad alto rischio conformemente alle istruzioni per l'uso e che siano previsti alcuni altri obblighi in materia di monitoraggio del funzionamento dei sistemi di IA e conservazione delle registrazioni, a seconda dei casi. Inoltre, i deployer dovrebbero garantire che le persone alle quali è affidata l'attuazione delle istruzioni per l'uso e della sorveglianza umana di cui al presente regolamento dispongano delle competenze necessarie, in particolare un livello adeguato di alfabetizzazione, formazione e autorità in materia di IA per svolgere adeguatamente tali compiti. Tali obblighi dovrebbero lasciare impregiudicati altri obblighi dei deployer in relazione ai sistemi di IA ad alto rischio previsti dal diritto dell'Unione o nazionale.
(92)
Настоящият регламент не засяга задълженията на работодателите да информират или да информират и консултират работниците или техните представители съгласно правото и практиката на Съюза или националното право и практика, включително Директива 2002/14/ЕО на Европейския парламент и на Съвета (39), относно решения за пускане в действие или използване на системи с ИИ. Продължава да е необходимо да се гарантира предоставянето на информация на работниците и техните представители относно планираното внедряване на високорискови системи с ИИ на работното място, когато не са изпълнени условията за тези задължения за информиране или информиране и консултиране, предвидени в други правни актове. Освен това подобно право на информиране допълва и е необходимо за постигането на целта за защита на основните права, залегнала в основата на настоящия регламент. Поради това в настоящия регламент следва да бъде предвидено изискване за информиране в този смисъл, без да се засягат съществуващите права на работниците.
(92)
Il presente regolamento lascia impregiudicati gli obblighi dei datori di lavoro di informare o di informare e consultare i lavoratori o i loro rappresentanti a norma del diritto e delle prassi dell'Unione o nazionali, compresa la direttiva 2002/14/CE del Parlamento europeo e del Consiglio (39), in merito alle decisioni di mettere in servizio o utilizzare sistemi di IA. Rimane necessario garantire che i lavoratori e i loro rappresentanti siano informati in merito alla diffusione programmata dei sistemi di IA ad alto rischio sul luogo di lavoro, qualora non siano soddisfatte le condizioni per tali obblighi di informazione o di informazione e consultazione previsti da altri strumenti giuridici. Inoltre, tale diritto di informazione è accessorio e necessario rispetto all'obiettivo di tutelare i diritti fondamentali alla base del presente regolamento. È pertanto opportuno prevedere nel presente regolamento un obbligo di informazione con tale finalità, lasciando impregiudicati i diritti esistenti dei lavoratori.
(93)
Рисковете, свързани със системите с ИИ, могат да произтичат от начина, по който са проектирани тези системи, но могат да се дължат и на начина, по който се използват тези системи с ИИ. По тази причина внедрителите на високорискова система с ИИ имат решаващо значение за гарантиране на защитата на основните права, като допълват задълженията на доставчика при разработването на системата с ИИ. Внедрителите могат най-добре да разберат как конкретно ще бъде използвана високорисковата система с ИИ и следователно могат да установят потенциални значителни рискове, които не са били предвидени на етапа на разработване, тъй като разполагат с по-точни знания за контекста на използване и лицата или групите лица, които има вероятност да бъдат засегнати, включително уязвимите групи. Внедрителите на високорискови системи с ИИ, изброени в приложение към настоящия регламент, също имат решаващо значение за информирането на физическите лица и следва, когато вземат решения или подпомагат вземането на решения, свързани с физическите лица, когато е приложимо, да ги информират, че спрямо тях се използва високорискова система с ИИ. Тази информация следва да включва предназначението и вида на решенията, които се вземат. Внедрителят следва също така да информира физическите лица за правото им да получат обяснение, предвидено в настоящия регламент. По отношение на високорисковите системи с ИИ, използвани за правоохранителни цели, това задължение следва да се прилага в съответствие с член 13 от Директива (ЕС) 2016/680.
(93)
Se da un lato i rischi legati ai sistemi di IA possono risultare dal modo in cui tali sistemi sono progettati, dall'altro essi possono derivare anche dal modo in cui tali sistemi di IA sono utilizzati. I deployer di sistemi di IA ad alto rischio svolgono pertanto un ruolo fondamentale nel garantire la tutela dei diritti fondamentali, integrando gli obblighi del fornitore nello sviluppo del sistema di IA. I deployer sono nella posizione migliore per comprendere come il sistema di IA ad alto rischio sarà utilizzato concretamente e possono pertanto individuare potenziali rischi significativi non previsti nella fase di sviluppo, in ragione di una conoscenza più puntuale del contesto di utilizzo e delle persone o dei gruppi di persone che potrebbero essere interessati, compresi i gruppi vulnerabili. I deployer dei sistemi di IA ad alto rischio elencati in un allegato del presente regolamento svolgono inoltre un ruolo cruciale per informare le persone fisiche e, quando adottano decisioni o assistono nell'adozione di decisioni che riguardano persone fisiche, dovrebbero informare, se del caso, queste ultime che sono soggette all'uso del sistema di IA ad alto rischio. Tale informazione dovrebbe includere la finalità prevista e il tipo di decisioni adottate. Il deployer dovrebbe informare inoltre le persone fisiche del loro diritto a una spiegazione previsto dal presente regolamento. Per quanto riguarda i sistemi di IA ad alto rischio utilizzati a fini di attività di contrasto, tale obbligo dovrebbe essere attuato conformemente all'articolo 13 della direttiva (UE) 2016/680.
(94)
Всяко обработване на биометрични данни, свързано с използването на системи с ИИ за биометрична идентификация за правоохранителни цели, трябва да бъде в съответствие с член 10 от Директива (ЕС) 2016/680, който позволява такова обработване само когато това е строго необходимо, при спазване на подходящи гаранции за правата и свободите на субекта на данните, и когато това е разрешено от правото на Съюза или правото на държава членка. При такова разрешено използване трябва също така да се спазват принципите, установени в член 4, параграф 1 от Директива (ЕС) 2016/680, включително законосъобразност, добросъвестност и прозрачност, ограничаване в рамките на целта, точност и ограничаване на съхранението.
(94)
Qualsiasi trattamento di dati biometrici interessati dall'uso di sistemi di IA a fini di identificazione biometrica a scopo di contrasto deve essere conforme all'articolo 10 della direttiva (UE) 2016/680, che consente tale trattamento solo se strettamente necessario, fatte salve le tutele adeguate per i diritti e le libertà dell'interessato, e se autorizzato dal diritto dell'Unione o degli Stati membri. Tale uso, se autorizzato, deve inoltre rispettare i principi di cui all'articolo 4, paragrafo 1, della direttiva (UE) 2016/680, tra cui liceità, correttezza e trasparenza, determinazione delle finalità, esattezza e limitazione della conservazione.
(95)
Без да се засяга приложимото право на Съюза, по-специално Регламент (ЕС) 2016/679 и Директива (ЕС) 2016/680, като се има предвид инвазивният характер на системите за последваща дистанционна биометрична идентификация, използването на тези системи следва да е придружено с гаранции. Системите за последваща дистанционна биометрична идентификация следва винаги да се използват по начин, който е пропорционален, законосъобразен и строго необходим, и следователно конкретизиран, по отношение на лицата, които трябва да бъдат идентифицирани, местоположението и времевия обхват, и въз основа на затворен набор от данни от законно придобити видеозаписи. Във всеки случай системите за последваща дистанционна биометрична идентификация не следва да се използват в правоохранителен контекст с цел неизбирателно наблюдение. Условията за последващата дистанционна биометрична идентификация не следва в никакъв случай да предоставят основание за заобикаляне на условията на забраната и строгите изключения по отношение на дистанционната биометрична идентификация в реално време.
(95)
Fatto salvo il diritto dell'Unione applicabile, in particolare il regolamento (UE) 2016/679 e la direttiva (UE) 2016/680, tenendo in considerazione la natura invasiva dei sistemi di identificazione biometrica remota a posteriori, l'uso di tali sistemi dovrebbe essere soggetto a tutele. I sistemi di identificazione biometrica remota a posteriori dovrebbero sempre essere utilizzati in modo proporzionato, legittimo e strettamente necessario e quindi mirato, per quanto riguarda le persone da identificare, il luogo e l'ambito temporale e sulla base di un set di dati chiuso di filmati acquisiti legalmente. In ogni caso, i sistemi di identificazione biometrica remota a posteriori non dovrebbero essere utilizzati nel quadro delle attività di contrasto per condurre una sorveglianza indiscriminata. Le condizioni per l'identificazione biometrica remota a posteriori non dovrebbero, in ogni caso, fornire una base per eludere le condizioni del divieto e le rigorose eccezioni per l'identificazione biometrica remota «in tempo reale».
(96)
За да се гарантира по ефективен начин защитата на основните права, внедрителите на високорискови системи с ИИ, които са публични органи, или частните субекти, предоставящи публични услуги, както и внедрителите на някои високорискови системи с ИИ, изброени в приложение към настоящия регламент, като например банкови институции или застрахователи, следва да извършват оценка на въздействието върху основните права преди пускането в действие. Услуги от обществен характер, които са от значение за физическите лица, могат да се предоставят и от частни субекти. Частните субекти, предоставящи такива публични услуги, са свързани с изпълнението на задачи от обществен интерес, например в областите на образованието, здравеопазването, социалните услуги, жилищното настаняване и правораздаването. Целта на оценката на въздействието върху основните права е внедрителят да установи конкретните рискове за правата на лицата или групите лица, които е вероятно да бъдат засегнати, и да набележи мерките, които да бъдат предприети при настъпване на тези рискове. Оценката на въздействието следва да се извърши преди внедряването на високорисковата система с ИИ и следва да се актуализира, когато внедрителят счете, че някой от съответните фактори се е променил. В оценката на въздействието следва да се определят съответните процеси на внедрителя, в рамките на които високорисковата система с ИИ ще бъде използвана в съответствие с нейното предназначение, и следва да се посочи срокът, в който системата е предназначена да се използва, и честотата, с която тя е предназначена да се използва, както и конкретните категории физически лица и групи, които е вероятно да бъдат засегнати в конкретния контекст на използване. Оценката следва да включва и установяването на конкретните рискове от настъпване на вреди, които е вероятно да окажат въздействие върху основните права на тези лица или групи. При извършването на тази оценка внедрителят следва да вземе предвид информацията, която е от значение за правилната оценка на въздействието, включително, но не само, информацията, предоставена от доставчика на високорисковата система с ИИ в инструкциите за употреба. С оглед на установените рискове внедрителите следва да определят мерките, които да бъдат предприети при настъпване на тези рискове, включително например правила за управление в този конкретен контекст на използване, като например механизми за човешки контрол в съответствие с инструкциите за употреба или процедури за разглеждане на жалби и правна защита, тъй като те биха могли да бъдат от основно значение за ограничаване на рисковете за основните права в конкретни случаи на използване. След извършването на тази оценка на въздействието внедрителят следва да уведоми съответния орган за надзор на пазара. Когато е целесъобразно, за да се събере съответната информация, необходима за извършване на оценката на въздействието, внедрителите на високорискова система с ИИ, по-специално когато системите с ИИ се използват в публичния сектор, биха могли да включат съответните заинтересовани страни, включително представители на групи лица, които е вероятно да бъдат засегнати от системата с ИИ, независими експерти и организации на гражданското общество, в извършването на такива оценки на въздействието и разработването на мерки, които да бъдат предприети в случай на настъпване на рисковете. Европейската служба по изкуствен интелект (наричана по-долу „Службата по ИИ“) следва да разработи образец на въпросник, за да се улесни спазването на изискванията и да се намали административната тежест за внедрителите.
(96)
Al fine di garantire in modo efficiente la tutela dei diritti fondamentali, i deployer di sistemi di IA ad alto rischio che sono organismi di diritto pubblico o enti privati che forniscono servizi pubblici e deployer di taluni sistemi di IA ad alto rischio elencati nell'allegato del presente regolamento, come i soggetti bancari o assicurativi, dovrebbero svolgere una valutazione d'impatto sui diritti fondamentali prima di metterli in uso. I servizi importanti di natura pubblica per le persone possono essere forniti anche da soggetti privati. Gli enti privati che forniscono tali servizi pubblici sono legati a compiti di interesse pubblico, ad esempio nei settori dell'istruzione, dell'assistenza sanitaria, dei servizi sociali, degli alloggi e dell'amministrazione della giustizia. L'obiettivo della valutazione d'impatto sui diritti fondamentali è consentire al deployer di individuare i rischi specifici per i diritti delle persone o dei gruppi di persone che potrebbero essere interessati e di individuare le misure da adottare al concretizzarsi di tali rischi. La valutazione d'impatto dovrebbe essere svolta prima del primo impiego del sistema di IA ad alto rischio e dovrebbe essere aggiornata quando il deployer ritiene che uno qualsiasi dei fattori pertinenti sia cambiato. La valutazione d'impatto dovrebbe individuare i processi pertinenti del deployer in cui il sistema di IA ad alto rischio sarà utilizzato in linea con la sua finalità prevista e dovrebbe includere una descrizione del periodo di tempo in cui il sistema è destinato a essere usato e della relativa frequenza, nonché delle categorie specifiche di persone fisiche e gruppi che potrebbero essere interessati nel contesto specifico di utilizzo. La valutazione dovrebbe altresì comprendere l'individuazione di rischi specifici di danno che possono incidere sui diritti fondamentali di tali persone o gruppi. Nell'effettuare tale valutazione, il deployer dovrebbe tenere conto delle informazioni pertinenti per un'adeguata valutazione dell'impatto, comprese, tra l'altro, le informazioni trasmesse dal fornitore del sistema di IA ad alto rischio nelle istruzioni per l'uso. Alla luce dei rischi individuati, i deployer dovrebbero stabilire le misure da adottare al concretizzarsi di tali rischi, compresi, ad esempio, i meccanismi di governance in tale contesto specifico di utilizzo, quali le modalità di sorveglianza umana secondo le istruzioni per l'uso, o le procedure di gestione dei reclami e di ricorso, dato che potrebbero essere determinanti nell'attenuare i rischi per i diritti fondamentali in casi d'uso concreti. Dopo aver effettuato tale valutazione d'impatto, il deployer dovrebbe darne notifica alla pertinente autorità di vigilanza del mercato. Se del caso, per raccogliere le informazioni pertinenti necessarie a effettuare la valutazione d'impatto, i deployer di sistemi di IA ad alto rischio, in particolare quando i sistemi di IA sono utilizzati nel settore pubblico, potrebbero coinvolgere i portatori di interessi pertinenti, compresi i rappresentanti di gruppi di persone che potrebbero essere interessati dal sistema di IA, gli esperti indipendenti e le organizzazioni della società civile nello svolgimento di tali valutazioni d'impatto e nella progettazione delle misure da adottare al concretizzarsi dei rischi. L'ufficio europeo per l'IA («ufficio per l'IA») dovrebbe elaborare un modello di questionario al fine di agevolare la conformità e ridurre gli oneri amministrativi per i deployer.
(97)
Понятието „модели на ИИ с общо предназначение“ следва да бъде ясно определено и разграничено от понятието „системи с ИИ“, за да се гарантира правна сигурност. Определението следва да се основава на ключовите функционални характеристики на модел на ИИ с общо предназначение, по-специално общ характер и способност за компетентно изпълнение на широк набор от отделни задачи. Тези модели обикновено се обучават въз основа на голямо количество данни чрез различни методи, като например обучение (самообучение) със и без надзор и обучение с утвърждение. Моделите на ИИ с общо предназначение могат да бъдат пускани на пазара по различни начини, включително чрез библиотеки, приложно-програмни интерфейси (API), за директно изтегляне или с физическо копие. Тези модели могат да бъдат допълнително изменени или усъвършенствани в нови модели. Въпреки че моделите на ИИ са основни компоненти на системите с ИИ, сами по себе си те не представляват системи с ИИ. Моделите на ИИ изискват добавянето на допълнителни компоненти, като например потребителски интерфейс, за да се превърнат в системи с ИИ. Моделите на ИИ обикновено са интегрирани в системите с ИИ и са част от тях. В настоящия регламент се предвиждат специални правила за моделите на ИИ с общо предназначение и за моделите на ИИ с общо предназначение, пораждащи системни рискове, които следва да се прилагат и когато тези модели са интегрирани в система с ИИ или са част от нея. Приема се, че задълженията на доставчиците на модели на ИИ с общо предназначение следва да се прилагат след пускането на тези модели на пазара. Когато доставчикът на модел на ИИ с общо предназначение интегрира собствен модел в своя собствена система с ИИ, която се предоставя на пазара или се пуска в действие, този модел следва да се счита за пуснат на пазара и поради това задълженията, установени в настоящия регламент по отношение на моделите, следва да продължат да се прилагат в допълнение към задълженията за системите с ИИ. Задълженията, установени за моделите, във всички случаи не следва да се прилагат, когато собствен модел се използва за чисто вътрешни процеси, които не са от съществено значение за предоставянето на продукт или услуга на трети лица, и когато правата на физическите лица не са засегнати. Като се има предвид възможното им значително отрицателно въздействие, за моделите на ИИ с общо предназначение, пораждащи системен риск, следва винаги да се прилагат съответните задължения съгласно настоящия регламент. Определението не следва да обхваща модели на ИИ, използвани преди пускането им на пазара единствено с цел научноизследователска и развойна дейност и дейности по създаване на прототипи. Това не засяга задължението за спазване на настоящия регламент, когато след такива дейности на пазара се пуска модел.
(97)
La nozione di modelli di IA per finalità generali dovrebbe essere chiaramente definita e distinta dalla nozione di sistemi di IA per consentire la certezza del diritto. La definizione dovrebbe basarsi sulle principali caratteristiche funzionali di un modello di IA per finalità generali, in particolare la generalità e la capacità di svolgere con competenza un'ampia gamma di compiti distinti. Questi modelli sono solitamente addestrati su grandi quantità di dati con diversi metodi, come l'apprendimento autosupervisionato, non supervisionato o per rinforzo. I modelli di IA per finalità generali possono essere immessi sul mercato in vari modi, tra cui biblioteche, interfacce di programmazione delle applicazioni (API), download diretto o copia fisica. Tali modelli possono essere ulteriormente modificati o perfezionati con nuovi modelli. Sebbene i modelli di IA siano componenti essenziali dei sistemi di IA, essi non costituiscono di per sé sistemi di IA. I modelli di IA necessitano dell'aggiunta di altri componenti, ad esempio un'interfaccia utente, per diventare sistemi di IA. I modelli di IA sono generalmente integrati nei sistemi di IA e ne fanno parte. Il presente regolamento stabilisce norme specifiche per i modelli di IA per finalità generali e per i modelli di IA per finalità generali che presentano rischi sistemici, le quali dovrebbero applicarsi anche quando tali modelli sono integrati o fanno parte di un sistema di IA. Resta inteso che gli obblighi per i fornitori di modelli di IA per finalità generali dovrebbero applicarsi una volta che i modelli di IA per finalità generali sono immessi sul mercato. Quando il fornitore di un modello di IA per finalità generali integra un modello proprio nel suo sistema di IA messo a disposizione sul mercato o messo in servizio, tale modello dovrebbe essere considerato immesso sul mercato e, pertanto, gli obblighi di cui al presente regolamento per i modelli dovrebbero continuare ad applicarsi in aggiunta a quelli per i sistemi di IA. Gli obblighi previsti per i modelli non dovrebbero in ogni caso applicarsi quando un modello proprio è utilizzato per processi puramente interni che non sono essenziali per fornire un prodotto o un servizio a terzi e i diritti delle persone fisiche restano impregiudicati. Considerati i loro potenziali effetti negativi significativi, i modelli di IA per finalità generali con rischio sistemico dovrebbero sempre essere soggetti ai pertinenti obblighi a norma del presente regolamento. La definizione non dovrebbe includere i modelli di IA utilizzati prima della loro immissione sul mercato solo a scopo di ricerca, sviluppo e prototipazione. Ciò non pregiudica l'obbligo di conformarsi al presente regolamento quando, in seguito a tali attività, un modello è immesso sul mercato.
(98)
Въпреки че общият характер на даден модел би могъл, наред с другото, да се определя и от редица параметри, следва да се счита, че модели с поне един милиард параметри, обучени с голямо количество данни и проявяващи в голяма степен самонадзор, се отличават със значителна степен на общ характер и компетентно изпълняват широк набор от отделни задачи.
(98)
Mentre la generalità di un modello potrebbe, tra gli altri criteri, essere determinata anche da una serie di parametri, i modelli con almeno un miliardo di parametri e addestrati con grandi quantità di dati utilizzando l'autosupervisione su larga scala dovrebbero ritenersi caratterizzati da una generalità significativa e in grado di svolgere con competenza un'ampia gamma di compiti distinti.
(99)
Големите генеративни модели на ИИ са типичен пример за модел на ИИ с общо предназначение, като се има предвид, че те дават възможност за гъвкаво генериране на съдържание, например под формата на текст, аудиоматериали, изображения или видеоматериали, което лесно може да покрие широк спектър от отделни задачи.
(99)
I grandi modelli di IA generativi sono un tipico esempio di modello di IA per finalità generali, dato che consentono una generazione flessibile di contenuti, ad esempio sotto forma di testo, audio, immagini o video, che possono prontamente rispondere a un'ampia gamma di compiti distinti.
(100)
Когато модел на ИИ с общо предназначение е интегриран в система с ИИ или е част от нея, тази система следва да се счита за система с ИИ с общо предназначение, когато поради тази интеграция системата е в състояние да обслужва най-различни цели. Системата с ИИ с общо предназначение може да бъде използвана пряко или може да бъде интегрирана в други системи с ИИ.
(100)
Quando un modello di IA per finalità generali è integrato in un sistema di IA o ne fa parte, tale sistema dovrebbe essere considerato un sistema di IA per finalità generali qualora, a causa di tale integrazione, il sistema abbia la capacità di perseguire varie finalità. Un sistema di IA per finalità generali può essere utilizzato direttamente o può essere integrato in altri sistemi di IA.
(101)
Доставчиците на модели на ИИ с общо предназначение имат особено значение и отговорност по веригата за създаване на стойност в областта на ИИ, тъй като моделите, които предоставят, могат да бъдат основа за набор от системи надолу по веригата, често предоставяни от доставчици надолу по веригата, които трябва добре да разбират моделите и техните способности, както за да могат да интегрират такива модели в своите продукти, така и за да изпълняват задълженията си съгласно настоящия или други регламенти. Поради това следва да се определят пропорционални мерки за прозрачност, включително изготвяне и актуализиране на документацията и предоставяне на информация относно модела на ИИ с общо предназначение за използването му от доставчиците надолу по веригата. Техническата документация следва да се изготвя и актуализира от доставчика на модели на ИИ с общо предназначение с цел предоставянето ѝ при поискване на Службата по ИИ и на националните компетентни органи. Минималният набор от елементи, които трябва да бъдат включени в тази документация, следва да бъде посочен в конкретни приложения към настоящия регламент. На Комисията следва да бъде предоставено правомощието да изменя тези приложения чрез делегирани актове с оглед на технологичното развитие.
(101)
I fornitori di modelli di IA per finalità generali hanno un ruolo e una responsabilità particolari lungo la catena del valore dell'IA, poiché i modelli che forniscono possono costituire la base per una serie di sistemi a valle, spesso forniti da fornitori a valle che richiedono una buona comprensione dei modelli e delle loro capacità, sia per consentire l'integrazione di tali modelli nei loro prodotti, sia per adempiere i rispettivi obblighi a norma del presente regolamento o di altri regolamenti. È pertanto opportuno prevedere misure di trasparenza proporzionate, tra cui la redazione e l'aggiornamento della documentazione e la fornitura di informazioni sul modello di IA per finalità generali ai fini del suo utilizzo da parte dei fornitori a valle. La documentazione tecnica dovrebbe essere preparata e tenuta aggiornata dal fornitore del modello di IA per finalità generali allo scopo di metterla a disposizione, su richiesta, dell'ufficio per l'IA e delle autorità nazionali competenti. La serie minima di elementi da includere in tale documentazione dovrebbe essere stabilita in specifici allegati del presente regolamento. Alla Commissione dovrebbe essere conferito il potere di modificare tali allegati mediante atti delegati alla luce degli sviluppi tecnologici in evoluzione.
(102)
Софтуер и данни, включително модели, предоставени с безплатен лиценз с отворен код, който им позволява да бъдат споделяни свободно и чрез който ползвателите могат свободно да ги достъпват, използват, променят и разпространяват в променен или непроменен вид, могат да допринесат за научните изследвания и иновациите на пазара и да осигурят значителни възможности за растеж на икономиката на Съюза. Следва да се обмисли използването на модели на ИИ с общо предназначение, представени с безплатни лицензи с отворен код, за да се гарантират високи равнища на прозрачност и отвореност, ако техните параметри, включително теглата, информацията за архитектурата на модела и информацията за използването на модела са публично достъпни. Лицензът следва да се счита за безплатен и с отворен код и когато дава възможност на ползвателите да използват, копират, разпространяват, изучават, променят и подобряват софтуер и данни, включително модели, при условие че се посочва първоначалният доставчик на модела и се спазват еднакви или сходни условия на разпространение.
(102)
I software e i dati, compresi i modelli, rilasciati con licenza libera e open source che consentano loro di essere condivisi apertamente e che gli utenti possano liberamente consultare, utilizzare, modificare e ridistribuire, comprese le loro versioni modificate, possono contribuire alla ricerca e all'innovazione nel mercato e possono offrire notevoli opportunità di crescita per l'economia dell'Unione. I modelli di IA per finalità generali rilasciati con licenza libera e open source dovrebbero essere presi in considerazione per garantire elevati livelli di trasparenza e apertura, se i loro parametri, compresi i pesi, le informazioni sull'architettura del modello e le informazioni sull'uso del modello, sono resi pubblici. La licenza dovrebbe essere considerata libera e open source anche quando consente agli utenti di eseguire, copiare, distribuire, studiare, modificare e migliorare i software e i dati, compresi i modelli, purché il modello sia attribuito al fornitore originario e siano rispettate condizioni di distribuzione identiche o comparabili.
(103)
Безплатните компоненти с ИИ с отворен код обхващат софтуера и данните, включително модели и модели, инструменти, услуги или процеси с ИИ с общо предназначение на дадена система с ИИ. Безплатните компоненти с ИИ с отворен код могат да бъдат предоставяни по различни начини, включително чрез разработването им в хранилища със свободен достъп. За целите на настоящия регламент компонентите с ИИ, които се предоставят срещу заплащане или се възмездяват по друг начин, включително чрез предоставянето на техническа поддръжка или други услуги, включително чрез софтуерна платформа, свързани с компонента с ИИ, или използването на лични данни по причини, различни от изключителната цел за подобряване на сигурността, съвместимостта или оперативната съвместимост на софтуера, с изключение на сделките между микропредприятия, не следва да се ползват от изключенията, предвидени за безплатните компоненти с ИИ с отворен код. Предоставянето на компоненти с ИИ чрез хранилища със свободен достъп не следва само по себе си да представлява възмездяване.
(103)
I componenti di IA liberi e open source comprendono i software e i dati, compresi i modelli e i modelli di IA per finalità generali, gli strumenti, i servizi o i processi di un sistema di IA. I componenti di IA liberi e open source possono essere forniti attraverso diversi canali e possono inoltre essere sviluppati su archivi aperti. Ai fini del presente regolamento, i componenti di IA forniti a pagamento o altrimenti monetizzati, anche tramite la fornitura di assistenza tecnica o altri servizi, ad esempio attraverso una piattaforma software, in relazione al componente di IA, o l'utilizzo di dati personali per motivi diversi dal solo miglioramento della sicurezza, della compatibilità o dell'interoperabilità del software, ad eccezione delle transazioni tra microimprese, non dovrebbero beneficiare delle eccezioni previste per i componenti di IA liberi e open source. La messa a disposizione di componenti di IA tramite archivi aperti non dovrebbe, di per sé, costituire monetizzazione.
(104)
За доставчиците на модели на ИИ с общо предназначение, които са предоставени с безплатен лиценз с отворен код и чиито параметри, включително теглата, информацията за архитектурата на модела и информацията за използването на модела, са публично достъпни, следва да се прилагат изключения по отношение на свързаните с прозрачността изисквания, наложени на моделите на ИИ с общо предназначение, освен когато може да се счита, че те пораждат системен риск, като в този случай обстоятелството, че моделът е прозрачен и придружен от лиценз с отворен код, не следва да се счита за достатъчна причина за изключване на спазването на задълженията съгласно настоящия регламент. Във всеки случай, като се има предвид, че предоставянето на модели на ИИ с общо предназначение с безплатен лиценз с отворен код не разкрива непременно съществена информация относно набора от данни, използван за обучението или финото регулиране на модела, и относно това как по този начин се гарантира спазването на авторското право, предвиденото за моделите на ИИ с общо предназначение изключение от съответствието с изискванията, свързани с прозрачността, не следва да се отнася до задължението за изготвяне на обобщение на съдържанието, използвано за обучение на модели, и задължението за въвеждане на политика за спазване на правото на Съюза в областта на авторското право, по-специално за установяване и съблюдаване на запазването на права съгласно член 4, параграф 3 от Директива (ЕС) 2019/790 на Европейския парламент и на Съвета (40).
(104)
I fornitori di modelli di IA per finalità generali che sono rilasciati con licenza libera e open source e i cui parametri, compresi i pesi, le informazioni sull'architettura del modello e le informazioni sull'uso del modello, sono messi pubblicamente a disposizione dovrebbero essere soggetti ad eccezioni per quanto riguarda i requisiti relativi alla trasparenza imposti ai modelli di IA per finalità generali, a meno che non si possa ritenere che presentino un rischio sistemico, nel qual caso la circostanza che il modello sia trasparente e corredato di una licenza open source non dovrebbe ritenersi un motivo sufficiente per escludere la conformità agli obblighi di cui al presente regolamento. In ogni caso, dato che il rilascio di modelli di IA per finalità generali con licenza libera e open source non rivela necessariamente informazioni sostanziali sul set di dati utilizzato per l'addestramento o il perfezionamento del modello e sulla modalità con cui è stata in tal modo garantita la conformità al diritto d'autore, l'eccezione prevista per i modelli di IA per finalità generali concernente il rispetto dei requisiti relativi alla trasparenza non dovrebbe riguardare l'obbligo di produrre una sintesi del contenuto utilizzato per l'addestramento dei modelli e l'obbligo di attuare una politica volta ad adempiere la normativa europea in materia di diritto d'autore, in particolare di individuare e rispettare la riserva dei diritti a norma dell'articolo 4, paragrafo 3, della direttiva (UE) 2019/790 del Parlamento europeo e del Consiglio (40).
(105)
Моделите на ИИ с общо предназначение, по-специално големите генеративни модели на ИИ, способни да генерират текст, изображения и друго съдържание, представляват уникални възможности за иновации, но също така са свързани и с трудности за хората на изкуството, авторите и другите творци, както и за начина, по който тяхното творческо съдържание се създава, разпространява, използва и потребява. Разработването и обучението на такива модели изисква достъп до големи количества текст, изображения, видеоматериали и други данни. Техниките за извличане на информация от текст и данни могат да се използват широко в този контекст за извличане и анализ на такова съдържание, което може да бъде защитено с авторско право и сродните му права. Всяко използване на защитено с авторско право съдържание изисква разрешение от съответните носители на права, освен ако не се прилагат съответните изключения и ограничения, свързани с авторското право. С Директива (ЕС) 2019/790 бяха въведени изключения и ограничения, които позволяват възпроизвеждането и извличането на откъси от произведения или други обекти за целите на извличането на информация от текст и данни при определени условия. Съгласно тези правила носителите на права могат да изберат да запазят правата си върху своите произведения или други обекти, за да предотвратят извличането на информация от текст и данни, освен ако това не се извършва за целите на научни изследвания. Когато правото на отказ е изрично запазено по подходящ начин, доставчиците на модели на ИИ с общо предназначение трябва да получат разрешение от носителите на права, ако желаят да извършват извличане на информация от текст и данни за такива произведения.
(105)
I modelli di IA per finalità generali, in particolare i grandi modelli di IA generativa, in grado di generare testo, immagini e altri contenuti, presentano opportunità di innovazione uniche, ma anche sfide per artisti, autori e altri creatori e per le modalità con cui i loro contenuti creativi sono creati, distribuiti, utilizzati e fruiti. Lo sviluppo e l'addestramento di tali modelli richiedono l'accesso a grandi quantità di testo, immagini, video e altri dati. Le tecniche di estrazione di testo e di dati possono essere ampiamente utilizzate in tale contesto per il reperimento e l'analisi di tali contenuti, che possono essere protetti da diritto d'autore e da diritti connessi. Qualsiasi utilizzo di contenuti protetti da diritto d'autore richiede l'autorizzazione del titolare dei diritti interessato, salvo se si applicano eccezioni e limitazioni pertinenti al diritto d'autore. La direttiva (UE) 2019/790 ha introdotto eccezioni e limitazioni che consentono, a determinate condizioni, riproduzioni ed estrazioni effettuate da opere o altri materiali ai fini dell'estrazione di testo e di dati. In base a tali norme, i titolari dei diritti hanno la facoltà di scegliere che l'utilizzo delle loro opere e di altri materiali sia da essi riservato per evitare l'estrazione di testo e di dati, salvo a fini di ricerca scientifica. Qualora il diritto di sottrarsi sia stato espressamente riservato in modo appropriato, i fornitori di modelli di IA per finalità generali devono ottenere un'autorizzazione dai titolari dei diritti, qualora intendano compiere l'estrazione di testo e di dati su tali opere.
(106)
Доставчиците, които пускат на пазара на Съюза модели на ИИ с общо предназначение, следва да гарантират спазването на съответните задължения, установени в настоящия регламент. За тази цел доставчиците на модели на ИИ с общо предназначение следва да въведат политика за спазване на правото на Съюза в областта на авторското право и сродните му права, по-специално за установяване и съблюдаване на запазването на права, изразено от носителите на права съгласно член 4, параграф 3 от Директива (ЕС) 2019/790. Всеки доставчик, който пуска на пазара на Съюза модел на ИИ с общо предназначение, следва да спазва това задължение, независимо от юрисдикцията, в която се извършват действията, свързани с авторското право, които са в основата на обучението на тези модели на ИИ с общо предназначение. Това е необходимо, за да се гарантира равнопоставеност на доставчиците на модели на ИИ с общо предназначение, при което нито един доставчик не следва да може да получи конкурентно предимство на пазара на Съюза чрез прилагане на по-ниски стандарти в областта на авторското право от предвидените в Съюза.
(106)
I fornitori che immettono modelli di IA per finalità generali sul mercato dell'Unione dovrebbero garantire la conformità ai pertinenti obblighi del presente regolamento. A tal fine, i fornitori di modelli di IA per finalità generali dovrebbero mettere in atto una politica volta a rispettare il diritto dell'Unione in materia di diritto d'autore e diritti connessi, in particolare per individuare e rispettare la riserva dei diritti espresse dai titolari dei diritti a norma dell'articolo 4, paragrafo 3, della direttiva (UE) 2019/790. Qualsiasi fornitore che immetta sul mercato dell'Unione un modello di IA per finalità generali dovrebbe rispettare tale obbligo, indipendentemente dalla giurisdizione in cui hanno luogo gli atti pertinenti in materia di diritto d'autore alla base dell'addestramento di tali modelli di IA per finalità generali. Ciò è necessario per garantire condizioni di parità tra i fornitori di modelli di IA per finalità generali, dato che nessun fornitore dovrebbe essere in grado di ottenere un vantaggio competitivo nel mercato dell'Unione applicando norme in materia di diritto d'autore meno rigorose di quelle previste nell'Unione.
(107)
За да се повиши прозрачността по отношение на данните, които се използват при предварителното обучение и обучението на модели на ИИ с общо предназначение, включително текст и данни, защитени от правото в областта на авторското право, е целесъобразно доставчиците на такива модели да изготвят и оповестяват публично достатъчно подробно обобщение на съдържанието, използвано за обучение на модела на ИИ с общо предназначение. Като се отчита надлежно необходимостта от защита на търговските тайни и поверителната търговска информация, това обобщение следва като цяло да бъде изчерпателно по своя обхват, а не технически подробно, за да улесни лицата със законни интереси, включително носителите на авторски права, да упражняват и прилагат правата си съгласно правото на Съюза, например чрез изброяване на основните събрани данни или набори от данни, които са използвани при обучението по модела, като например големи частни или публични бази данни или архиви с данни, и чрез предоставяне на описателно разяснение за други използвани източници на данни. Целесъобразно е Службата по ИИ да осигури образец на обобщението, който следва да бъде опростен, ефективен и да позволява на доставчика да предостави изискваното обобщение в описателна форма.
(107)
Al fine di aumentare la trasparenza sui dati utilizzati nelle fasi di pre-addestramento e addestramento dei modelli di IA per finalità generali, compresi testo e dati protetti dalla normativa sul diritto d'autore, è opportuno che i fornitori di tali modelli elaborino e mettano a disposizione del pubblico una sintesi sufficientemente dettagliata dei contenuti utilizzati per l'addestramento del modello di IA per finalità generali. Pur tenendo debitamente conto della necessità di proteggere i segreti commerciali e le informazioni commerciali riservate, la presente sintesi dovrebbe essere di respiro ampio e generale, anziché dettagliata sotto il profilo tecnico, al fine di agevolare le parti con interessi legittimi, compresi i titolari dei diritti d'autore, nell'esercitare e far rispettare i loro diritti ai sensi del diritto dell'Unione, ad esempio elencando le principali raccolte o serie di dati che sono state inserite nell'addestramento del modello, quali grandi banche dati o archivi di dati privati o pubblici, e fornendo una descrizione delle altre fonti di dati utilizzate. È opportuno che l'ufficio per l'IA fornisca un modello per la sintesi, che dovrebbe essere semplice ed efficace nonché consentire al fornitore di fornire la sintesi richiesta in forma descrittiva.
(108)
По отношение на задълженията, наложени на доставчиците на модели на ИИ с общо предназначение, да въведат политика за спазване на правото на Съюза в областта на авторското право и да оповестят публично обобщение на съдържанието, използвано за обучението, Службата по ИИ следва да следи дали доставчикът е изпълнил тези задължения, без да проверява или да извършва оценка на обучителните данни за всяко отделно произведение от гледна точка на спазването на авторското право. Настоящият регламент не засяга прилагането на правилата в областта на авторското право, предвидени в правото на Съюза.
(108)
In merito agli obblighi imposti ai fornitori di modelli di IA per finalità generali per quanto riguarda l'attuazione di una politica volta a rispettare la normativa dell'Unione in materia di diritto d'autore e a mettere pubblicamente a disposizione una sintesi dei contenuti utilizzati per l'addestramento, l'ufficio per l'IA dovrebbe controllare se il fornitore ha adempiuto tali obblighi senza verificare o procedere a una valutazione puntuale dei dati di addestramento in termini di conformità al diritto d'autore. Il presente regolamento non pregiudica l'applicazione delle norme sul diritto d'autore previste dal diritto dell'Unione.
(109)
Спазването на задълженията, приложими за доставчиците на модели на ИИ с общо предназначение, следва да бъде съизмеримо и пропорционално на вида доставчик на модели, като се изключва необходимостта от спазването им за лицата, които разработват или използват модели за непрофесионални или научноизследователски цели, които въпреки това следва да бъдат насърчавани да спазват тези изисквания на доброволна основа. Без да се засяга правото на Съюза в областта на авторското право, спазването на тези задължения следва да е надлежно съобразено с размера на доставчика и да дава възможност за опростени начини за постигане на съответствие за МСП, включително новосъздадени предприятия, които не следва да представляват прекомерни разходи и да не възпират използването на такива модели. В случай на изменение или фино регулиране на даден модел задълженията на доставчиците на модели на ИИ с общо предназначение следва да бъдат ограничени до това изменение или фино регулиране, например чрез допълване на вече съществуващата техническа документация с информация за измененията, включително нови източници на обучителни данни, като начин да се гарантира спазването на задълженията по веригата за създаване на стойност, предвидени в настоящия регламент.
(109)
Il rispetto degli obblighi applicabili ai fornitori di modelli di IA per finalità generali dovrebbe essere commisurato e proporzionato al tipo di fornitore del modello, escludendo la necessità di adempimento per le persone che sviluppano o utilizzano modelli per finalità non professionali o di ricerca scientifica, le quali dovrebbero tuttavia essere incoraggiate a rispettare volontariamente tali obblighi. Fatta salva la normativa dell'Unione in materia di diritto d'autore, il rispetto di tali obblighi dovrebbe tenere debitamente conto delle dimensioni del fornitore e consentire modalità semplificate di adempimento per le PMI, comprese le start-up, che non dovrebbero comportare costi eccessivi né scoraggiare l'uso di tali modelli. In caso di modifica o perfezionamento di un modello, gli obblighi per i fornitori di modelli di IA per finalità generali dovrebbero essere limitati a tale modifica o perfezionamento, ad esempio integrando la documentazione tecnica già esistente con informazioni sulle modifiche, comprese nuove fonti di dati di addestramento, quale mezzo per adempiere gli obblighi della catena del valore di cui al presente regolamento.
(110)
Моделите на ИИ с общо предназначение биха могли да породят системни рискове, които включват, но не се ограничават до действителни или разумно предвидими отрицателни последици във връзка с големи аварии, смущения в критични сектори и сериозни последици за общественото здраве и безопасност; действителни или разумно предвидими отрицателни последици за демократичните процеси, обществената и икономическата сигурност; разпространението на незаконно, невярно или дискриминационно съдържание. Следва да се приеме, че системните рискове нарастват заедно със способностите и обхвата на модела, могат да възникнат по време на целия жизнен цикъл на модела и се влияят от условията на неправилна експлоатация, надеждността, добросъвестността и сигурността на модела, степента на автономност на модела, неговия достъп до инструменти, новите или комбинираните условия, стратегиите за предоставяне и разпространение, възможността за премахване на предпазните механизми и други фактори. По-специално, досега международните подходи са установили необходимостта да се обърне внимание на рисковете, произтичащи от възможна умишлена неправилна експлоатация или непреднамерени проблеми с контрола, свързан с привеждането в съответствие с човешките намерения; химичните, биологичните, радиологичните и ядрените рискове, като например начините, по които могат да бъдат намалени пречките за достъп, включително за разработване, придобиване на дизайн или използване на оръжия; офанзивните киберспособности, като например средствата, позволяващи откриване, експлоатация или оперативно използване на уязвими места; последиците от взаимодействието и използването на инструменти, включително например капацитета за контрол на физическите системи и за намеса в критичната инфраструктура; рисковете, свързани с възможността моделите да изготвят свои собствени копия, да се самовъзпроизвеждат или да обучават други модели; начините, по които моделите могат да доведат до вредна предубеденост и дискриминация с рискове за физически лица, общности или общества; улесняването на дезинформацията или накърняването на неприкосновеността на личния живот чрез заплахи за демократичните ценности и правата на човека; риска дадено събитие да доведе до верижна реакция със значителни отрицателни последици, които биха могли да засегнат цял град, цяла област на дейност или цяла общност.
(110)
I modelli di IA per finalità generali potrebbero comportare rischi sistemici che includono, tra l'altro, qualsiasi effetto negativo effettivo o ragionevolmente prevedibile in relazione a incidenti gravi, perturbazioni di settori critici e serie conseguenze per la salute e la sicurezza pubbliche; eventuali effetti negativi, effettivi o ragionevolmente prevedibili, sui processi democratici e sulla sicurezza pubblica ed economica; la diffusione di contenuti illegali, mendaci o discriminatori. I rischi sistemici sono da intendersi in aumento con le capacità e la portata del modello, possono emergere durante l'intero ciclo di vita del modello e sono influenzati da condizioni di uso improprio, affidabilità, equità e sicurezza del modello, il livello di autonomia del modello, dal suo accesso agli strumenti, dalle sue modalità nuove o combinate, dalle strategie di rilascio e distribuzione, dal potenziale di rimozione delle misure protettive e da altri fattori. In particolare, gli approcci internazionali hanno finora rilevato la necessità di prestare attenzione ai rischi derivanti da potenziali usi impropri intenzionali o da involontari problemi di controllo relativi all'allineamento con l'intento umano; ai rischi chimici, biologici, radiologici e nucleari, come le modalità con cui ridurre gli ostacoli all'accesso, anche per quanto riguarda lo sviluppo e l'uso di armi o la relativa acquisizione di progetti; alle capacità informatiche offensive, come le modalità per consentire la scoperta, lo sfruttamento o l'uso operativo delle vulnerabilità; agli effetti dell'interazione e dell'uso di strumenti, compresa, ad esempio, la capacità di controllare i sistemi fisici e di interferire con infrastrutture critiche; ai rischi derivanti da modelli che realizzano copie di sé stessi o «autoreplicanti» o che addestrano altri modelli; alle modalità con cui i modelli possono dar luogo a dannosi pregiudizi e discriminazioni con rischi per gli individui, le comunità o le società; all'agevolazione della disinformazione o alla violazione della vita privata con minacce ai valori democratici e ai diritti umani; al rischio che un particolare evento possa provocare una reazione a catena con notevoli effetti negativi che potrebbero interessare fino a un'intera città, un intero settore o un'intera comunità.
(111)
Целесъобразно е да се създаде методика за класифициране на моделите на ИИ с общо предназначение като модели на ИИ с общо предназначение, пораждащи системен риск. Тъй като системните рискове произтичат от особено големи способности, следва да се счита, че моделът на ИИ с общо предназначение поражда системни рискове, ако има способности с висока степен на въздействие, оценени въз основа на подходящи технически инструменти и методики, или значително въздействие върху вътрешния пазар поради своя обхват. Способностите с висока степен на въздействие при моделите на ИИ с общо предназначение означава способности, които съответстват на или надхвърлят способностите, регистрирани в най-напредналите модели на ИИ с общо предназначение. Пълният набор от способности на даден модел би могъл да бъде по-добре разбран след пускането му на пазара или при взаимодействието на внедрителите с модела. В зависимост от съвременните технически постижения към момента на влизане в сила на настоящия регламент общото количество изчисления, използвани за обучението на модела на ИИ с общо предназначение, измерено при операции с плаваща запетая, е една от значимите приблизителни стойности за способностите на модела. Общото количество изчисления, използвано за обучение, включва изчисленията, използвани за всички дейности и методи, които са предназначени да подобрят способностите на модела преди внедряването, като например предварително обучение, генериране на синтетични данни и фино регулиране. Поради това следва да се определи първоначален праг за операции с плаваща запетая, който, ако бъде достигнат от даден модел на ИИ с общо предназначение, води до презумпцията, че това е модел на ИИ с общо предназначение, пораждащ системен риск. Този праг следва да бъде коригиран с течение на времето, за да отразява технологичните и промишлените промени, като например подобрения в алгоритмите или повишена ефективност на хардуера, и следва да бъде допълван с референтни стойности и показатели за способностите на модела. За тази цел Службата по ИИ следва да работи с научната общност, стопанския сектор, гражданското общество и други експерти. Праговете, както и инструментите и референтните показатели за оценка на способностите с висока степен на въздействие следва да бъдат добри прогнозни фактори за общия характер, способностите и свързания системен риск на моделите на ИИ с общо предназначение и биха могли да вземат предвид начина, по който моделът ще бъде пуснат на пазара, или броя на ползвателите, които той може да засегне. За да се допълни тази система, Комисията следва да има възможност да взема индивидуални решения за определяне на модел на ИИ с общо предназначение като модел на ИИ с общо предназначение, пораждащ системен риск, ако се установи, че този модел има способности или въздействие, равностойни на тези, обхванати от определения праг. Това решение следва да се вземе въз основа на цялостна оценка на критериите за определяне на модели на ИИ с общо предназначение, пораждащи системен риск, посочени в приложение към настоящия регламент, като например качество или размер на набора от обучителни данни, брой на бизнес ползвателите и крайните ползватели, свързаните с него условия за входящи данни и резултати, степен на автономност и възможности за увеличаване на мащаба или инструментите, до които той има достъп. При обосновано искане от доставчик, чийто модел е определен като модел на ИИ с общо предназначение, пораждащ системен риск, Комисията следва да вземе предвид искането и може да реши да направи нова преценка дали все още може да се счита, че моделът на ИИ с общо предназначение поражда системни рискове.
(111)
È opportuno stabilire una metodologia per la classificazione dei modelli di IA per finalità generali come modelli di IA per finalità generali con rischi sistemici. Poiché i rischi sistemici derivano da capacità particolarmente elevate, si dovrebbe considerare che un modello di IA per finalità generali presenti rischi sistemici se ha capacità di impatto elevato, valutate sulla base di metodologie e strumenti tecnici adeguati, o se ha un impatto significativo sul mercato interno a causa della sua portata. Per capacità di impatto elevato nei modelli di IA per finalità generali si intendono capacità che corrispondono o superano le capacità registrate nei modelli di IA per finalità generali più avanzati. L'intera gamma di capacità di un modello potrebbe essere meglio compresa dopo la sua immissione sul mercato o quando i deployer interagiscono con il modello. In base allo stato dell'arte al momento dell'entrata in vigore del presente regolamento, l'importo cumulativo del calcolo utilizzato per l'addestramento del modello di IA per finalità generali misurato in operazioni in virgola mobile è una delle approssimazioni pertinenti per le capacità del modello. L'importo cumulativo del calcolo utilizzato per l'addestramento comprende il calcolo utilizzato nelle attività e nei metodi tesi a migliorare le capacità del modello prima della diffusione, quali il pre-addestramento, la generazione di dati sintetici e il perfezionamento. È pertanto opportuno fissare una soglia iniziale di operazioni in virgola mobile che, se raggiunta da un modello di IA per finalità generali, porta a presumere che il modello sia un modello di IA per finalità generali con rischi sistemici. Tale soglia dovrebbe essere adeguata nel tempo per riflettere i cambiamenti tecnologici e industriali, quali miglioramenti algoritmici o una maggiore efficienza dell'hardware, e dovrebbe essere integrata da parametri di riferimento e indicatori per la capacità del modello. A tal fine, l'ufficio per l'IA dovrebbe dialogare con la comunità scientifica, l'industria, la società civile e altri esperti. Le soglie, nonché gli strumenti e i parametri di riferimento per la valutazione delle capacità di impatto elevato, dovrebbero essere solidi indicatori della generalità, delle capacità e del connesso rischio sistemico dei modelli di IA per finalità generali e potrebbero tenere conto delle modalità con cui il modello sarà immesso sul mercato o del numero di utenti che potrebbero esserne interessati. A integrazione di tale sistema, la Commissione dovrebbe avere la possibilità di adottare decisioni individuali per designare un modello di IA per finalità generali come modello di IA per finalità generali con rischio sistemico, qualora si accerti che tale modello abbia capacità o un impatto equivalenti a quelli rilevati dalla soglia fissata. Tale decisione dovrebbe essere adottata in base a una valutazione globale dei criteri per la designazione di un modello di IA per finalità generali con rischio sistemico di cui all'allegato del presente regolamento, come la qualità o le dimensioni del set di dati di addestramento, il numero di utenti commerciali e finali, le sue modalità di input e output, il suo livello di autonomia e scalabilità o gli strumenti a cui ha accesso. Su richiesta motivata di un fornitore il cui modello è stato designato come modello di IA per finalità generali con rischio sistemico, la Commissione dovrebbe tenere conto della richiesta e può decidere di rivalutare se si possa ancora ritenere che il modello di IA per finalità generali presenti rischi sistemici.
(112)
Необходимо е също така да се изясни процедурата за класифициране на модел на ИИ с общо предназначение, пораждащ системен риск. Модел на ИИ с общо предназначение, който отговаря на приложимия праг за способности с висока степен на въздействие, следва да се счита за модел на ИИ с общо предназначение, пораждащ системен риск. Доставчикът следва да уведоми Службата по ИИ най-късно две седмици след като бъдат изпълнени изискванията или стане известно, че даден модел на ИИ с общо предназначение ще отговаря на изискванията, свързани с презумпцията. Това е от особено значение във връзка с прага на операции с плаваща запетая, тъй като обучението на модели на ИИ с общо предназначение преминава през значително планиране, което включва предварително разпределяне на изчислителните ресурси, и следователно доставчиците на модели на ИИ с общо предназначение са в състояние да знаят дали техният модел би достигнал прага преди завършване на обучението. В контекста на това уведомяване доставчикът следва да може да докаже, че поради конкретните си характеристики даден модел на ИИ с общо предназначение по изключение не поражда системни рискове и че поради това не следва да бъде класифициран като модел на ИИ с общо предназначение, пораждащ системен риск. Тази информация е ценна, за да даде възможност на Службата по ИИ да предвиди пускането на пазара на модели на ИИ с общо предназначение, пораждащи системен риск, а на доставчиците да могат да започнат работа със Службата по ИИ на ранен етап. Информацията е особено важна по отношение на модели на ИИ с общо предназначение, за които се планира да бъдат пуснати с отворен код, като се има предвид, че след пускането на модел с отворен код може да е по-трудно да се приложат необходимите мерки за гарантиране на спазването на задълженията съгласно настоящия регламент.
(112)
È altresì opportuno specificare una procedura per la classificazione di un modello di IA per finalità generali con rischi sistemici. Si dovrebbe presumere che un modello di IA per finalità generali che raggiunge la soglia applicabile per le capacità di impatto elevato sia un modello di IA per finalità generali con rischio sistemico. Il fornitore dovrebbe informare l'ufficio per l'IA al più tardi due settimane dopo che i requisiti sono soddisfatti o quando viene a conoscenza del fatto che un modello di IA per finalità generali soddisferà i requisiti che portano alla suddetta presunzione. Questo assume particolare rilevanza in relazione alla soglia di operazioni in virgola mobile, dato che l'addestramento dei modelli di IA per finalità generali richiede una pianificazione considerevole, comprensiva dell'assegnazione anticipata delle risorse di calcolo, cosicché i fornitori di modelli di IA per finalità generali siano in grado di sapere se il loro modello può raggiungere la soglia prima della conclusione dell'addestramento. Nel contesto di tale notifica, il fornitore dovrebbe essere in grado di dimostrare che, a causa delle sue caratteristiche specifiche, un modello di IA per finalità generali non presenta eccezionalmente rischi sistemici e che, pertanto, non dovrebbe essere classificato come modello di IA per finalità generali con rischi sistemici. Si tratta di informazioni utili all'ufficio per l'IA per anticipare l'immissione sul mercato di modelli di IA per finalità generali con rischi sistemici e i fornitori possono iniziare a dialogare con l'ufficio per l'IA sin dalle prime fasi. Tali informazioni sono particolarmente importanti per quanto riguarda i modelli di IA per finalità generali che si pianifica di rilasciare come open source, dato che, dopo il rilascio del modello open source, è possibile che sia più difficile attuare le misure necessarie a garantire il rispetto degli obblighi di cui al presente regolamento.
(113)
Ако на Комисията стане известен фактът, че даден модел на ИИ с общо предназначение отговаря на изискванията за класифициране като модел ИИ с общо предназначение, пораждащ системен риск, който преди това не е бил известен или за който съответният доставчик не е уведомил Комисията, на Комисията следва да бъде предоставено правомощието да го определи като такъв. Системата за приоритетни сигнали следва да гарантира, че Службата по ИИ е информирана от експертната група за модели на ИИ с общо предназначение, които евентуално следва да бъдат класифицирани като модели на ИИ с общо предназначение, пораждащи системен риск, в допълнение към дейностите по мониторинг на Службата по ИИ.
(113)
La Commissione dovrebbe avere il potere di designare un modello di IA per finalità generali come modello di IA per finalità generali con rischio sistemico, se viene a conoscenza del fatto che il modello in questione soddisfa i requisiti per tale designazione e in precedenza tale fatto non era noto o il pertinente fornitore aveva omesso di notificarlo alla Commissione. Un sistema di segnalazioni qualificate dovrebbe garantire che l'ufficio per l'IA sia informato dal gruppo scientifico dei modelli di IA per finalità generali che potrebbero dover essere classificati come modelli di IA per finalità generali con rischio sistemico, in aggiunta alle attività di monitoraggio dell'ufficio per l'IA.
(114)
За доставчиците на модели на ИИ с общо предназначение, пораждащи системни рискове, следва да се прилагат, в допълнение към задълженията, предвидени за доставчиците на модели на ИИ с общо предназначение, задължения, насочени към установяване и ограничаване на тези рискове и осигуряване на подходящо равнище на защита на киберсигурността, независимо дали тези модели се предоставят като самостоятелни модели, или са вградени в система с ИИ или продукт. За постигането на тези цели настоящият регламент следва да изисква от доставчиците да извършват необходимите оценки на модела, по-специално преди първото му пускане на пазара, включително провеждане и документиране на конкурентно изпитване на модели, когато е целесъобразно и чрез вътрешни или независими външни изпитвания. Освен това доставчиците на модели на ИИ с общо предназначение, пораждащи системен риск, следва непрекъснато да оценяват и ограничават системните рискове, включително например чрез въвеждане на политики за управление на риска, като например процеси на отчетност и администриране, проследяване след пускането на пазара, предприемане на подходящи мерки през целия жизнен цикъл на модела и сътрудничество със съответните участници по веригата за създаване на стойност в областта на ИИ.
(114)
I fornitori di modelli di IA per finalità generali che presentano rischi sistemici dovrebbero essere soggetti, oltre agli obblighi previsti per i fornitori di modelli di IA per finalità generali, agli obblighi volti a individuare e attenuare tali rischi e a garantire un livello adeguato di protezione della cibersicurezza, a prescindere dal fatto che il modello sia fornito come modello autonomo o integrato in un sistema di IA o in un prodotto. Per conseguire tali obiettivi, il presente regolamento dovrebbe imporre ai fornitori di effettuare le necessarie valutazioni dei modelli, in particolare prima della sua prima immissione sul mercato, compreso lo svolgimento e la documentazione del test contraddittorio (adversarial testing) dei modelli, anche, se del caso, mediante prove interne o esterne indipendenti. Inoltre, i fornitori di modelli di IA per finalità generali con rischi sistemici dovrebbero valutare e attenuare continuamente i rischi sistemici, ad esempio attuando politiche di gestione dei rischi, quali processi di responsabilità e governance, svolgendo il monitoraggio successivo all'immissione sul mercato, adottando misure adeguate lungo l'intero ciclo di vita del modello e cooperando con gli attori pertinenti lungo la catena del valore dell'IA.
(115)
Доставчиците на модели на ИИ с общо предназначение, пораждащи системен риск, следва да оценяват и ограничават възможните системни рискове. Ако въпреки усилията за установяване и предотвратяване на рискове, свързани с модел на ИИ с общо предназначение, който може да поражда системни рискове, разработването или използването на модела причини сериозен инцидент, доставчикът на модел на ИИ с общо предназначение следва без ненужно забавяне да проследи инцидента и да докладва на Комисията и на националните компетентни органи за всяка съответна информация и възможни коригиращи действия. Освен това доставчиците следва да гарантират подходящо равнище на защита на киберсигурността на модела и неговата физическа инфраструктура, ако е целесъобразно, през целия жизнен цикъл на модела. Защитата на киберсигурността от системни рискове, свързани с недобросъвестно използване или атаки, следва надлежно да отчита случайни фактори като изтичане на модел, неразрешено предоставяне, заобикаляне на мерките за безопасност и защита срещу кибератаки, неразрешен достъп или кражба на модел. Тази защита може да бъде улеснена чрез осигуряване на тегла на моделите, алгоритми, сървъри и набори от данни, например чрез оперативни мерки за информационна сигурност, специфични политики за киберсигурност, подходящи технически и изпитани решения и контрол на кибердостъпа и физическия достъп, съобразени със съответните обстоятелства и рискове.
(115)
I fornitori di modelli di IA per finalità generali con rischi sistemici dovrebbero valutare e attenuare i possibili rischi sistemici. Se lo sviluppo o l'utilizzo di un modello di IA per finalità generali che potrebbe presentare rischi sistemici causa un incidente grave, nonostante gli sforzi volti a individuare e prevenire i rischi connessi a tale modello, il fornitore del modello di IA per finalità generali dovrebbe, senza indebito ritardo, tenere traccia dell'incidente e riferire alla Commissione e alle autorità nazionali competenti le informazioni pertinenti e le eventuali misure correttive. Inoltre, i fornitori dovrebbero garantire un livello adeguato di protezione della cibersicurezza per il modello e la sua infrastruttura fisica, se del caso, lungo l'intero ciclo di vita del modello. La protezione della cibersicurezza connessa ai rischi sistemici associati a uso doloso o attacchi dovrebbe tenere debitamente in considerazione model leakage accidentali, rilasci non autorizzati, elusioni delle misure di sicurezza, nonché la difesa contro gli attacchi informatici, l'accesso non autorizzato o il furto di modelli. Tale protezione potrebbe essere facilitata mettendo al sicuro pesi, algoritmi, server e set di dati relativi al modello, ad esempio attraverso misure di sicurezza operativa per la sicurezza delle informazioni, politiche specifiche in materia di cibersicurezza, soluzioni tecniche e consolidate appropriate e controlli dell'accesso informatico e fisico, che siano adeguati alle circostanze pertinenti e ai rischi connessi.
(116)
Службата по ИИ следва да насърчава и улеснява изготвянето, прегледа и адаптирането на кодекси за добри практики, като взема предвид международните подходи. Всички доставчици на модели на ИИ с общо предназначение биха могли да бъдат поканени да участват. За да се гарантира, че кодексите за добри практики отразяват съвременните технически постижения и са надлежно съобразени с набор от различни гледни точки, Службата по ИИ следва да си сътрудничи със съответните национални компетентни органи и би могла, когато е целесъобразно, да се консултира с организации на гражданското общество и други съответни заинтересовани страни и експерти, включително експертната група, за изготвянето на такива кодекси. Кодексите за добри практики следва да включват задълженията на доставчиците на модели на ИИ с общо предназначение и на модели на ИИ с общо предназначение, пораждащи системен риск. Освен това, по отношение на системните рискове, кодексите за добри практики следва да спомогнат за установяването на таксономия на вида и естеството на системните рискове на равнището на Съюза, включително техните източници. Кодексите за добри практики следва също така да бъдат съсредоточени върху конкретни мерки за оценка и ограничаване на риска.
(116)
L'ufficio per l'IA dovrebbe incoraggiare e agevolare l'elaborazione, il riesame e l'adeguamento dei codici di buone pratiche, tenendo conto degli approcci internazionali. Tutti i fornitori di modelli di IA per finalità generali potrebbero essere invitati a partecipare. Per garantire che i codici di buone pratiche riflettano lo stato dell'arte e tengano debitamente conto di una serie diversificata di prospettive, l'ufficio per l'IA dovrebbe collaborare con le pertinenti autorità nazionali competenti e potrebbe, se del caso, consultare le organizzazioni della società civile e altri portatori di interessi ed esperti pertinenti, compreso il gruppo di esperti scientifici, ai fini dell'elaborazione di tali codici. I codici di buone pratiche dovrebbero disciplinare gli obblighi per i fornitori di modelli di IA per finalità generali e per i fornitori di modelli di IA per finalità generali che presentano rischi sistemici. Inoltre, quanto ai rischi sistemici, i codici di buone pratiche dovrebbero contribuire a stabilire una tassonomia del tipo e della natura dei rischi sistemici a livello dell'Unione, comprese le loro fonti. I codici di buone pratiche dovrebbero inoltre concentrarsi su misure specifiche di valutazione e attenuazione dei rischi.
(117)
Кодексите за добри практики следва да представляват основен инструмент за правилното спазване на задълженията, предвидени в настоящия регламент за доставчиците на модели на ИИ с общо предназначение. Доставчиците следва да могат да се основават на кодекси за добри практики, за да докажат спазването на задълженията. Комисията може да реши да одобри чрез акт за изпълнение кодекс за добри практики и да осигури общата му приложимост в рамките на Съюза или, като друга възможност, да предвиди общи правила за изпълнението на съответните задължения, ако до началото на прилагането на настоящия регламент даден кодекс за добри практики не може да бъде подготвен или не се счита за подходящ от Службата по ИИ. След като даден хармонизиран стандарт бъде публикуван и оценен като подходящ за покриване на съответните задължения от Службата по ИИ, съответствието с европейски хармонизиран стандарт следва да дава на доставчиците презумпция за съответствие. Освен това доставчиците на модели на ИИ с общо предназначение следва да могат да докажат съответствие, като използват други подходящи средства, ако няма кодекси за добри практики или хармонизирани стандарти или ако решат да не разчитат на тях.
(117)
I codici di buone pratiche dovrebbero rappresentare uno strumento essenziale per i fornitori di modelli di IA per finalità generali ai fini di un'adeguata conformità agli obblighi previsti dal presente regolamento. I fornitori dovrebbero poter fare affidamento su codici di buone pratiche per dimostrare la conformità agli obblighi. Mediante atti di esecuzione, la Commissione può decidere di approvare un codice di buone pratiche e conferire ad esso una validità generale all'interno dell'Unione o, in alternativa, di stabilire norme comuni per l'attuazione dei pertinenti obblighi, qualora un codice di buone pratiche non possa essere portato a termine o ritenuto adeguato da parte dell'ufficio per l'IA entro la data di applicazione del presente regolamento. Quando una norma armonizzata è pubblicata e ritenuta idonea a disciplinare i pertinenti obblighi da parte dell'ufficio per l'IA, la conformità a una norma armonizzata europea dovrebbe conferire ai fornitori la presunzione di conformità. I fornitori di modelli di IA per finalità generali dovrebbero inoltre essere in grado di dimostrare la conformità utilizzando mezzi adeguati alternativi, se non sono disponibili codici di buone pratiche o norme armonizzate, oppure se tali fornitori scelgono di non fare affidamento su tali codici e norme.
(118)
С настоящия регламент се уреждат системите с ИИ и моделите на ИИ, като се налагат определени изисквания и задължения за съответните пазарни участници, които ги пускат на пазара, пускат в действие или използват в Съюза, като по този начин се допълват задълженията на доставчиците на посреднически услуги, които интегрират такива системи или модели в своите услуги, които се уреждат от Регламент (ЕС) 2022/2065. Доколкото тези системи или модели са вградени в определени много големи онлайн платформи или много големи онлайн търсачки, за тях се прилага рамката за управление на риска, предвидена в Регламент (ЕС) 2022/2065. Следователно съответните задължения съгласно настоящия регламент следва да се считат за изпълнени, освен ако в такива модели не възникнат и се установят значителни системни рискове, които не са обхванати от Регламент (ЕС) 2022/2065. В тази контекст от доставчиците на много големи онлайн платформи и много големи онлайн търсачки се изисква да оценяват потенциалните системни рискове, произтичащи от проектирането, функционирането и използването на техните услуги, включително начина, по който проектирането на алгоритмични системи, използвани в услугата, може да допринесе за появата на такива рискове, както и системните рискове, произтичащи от еветуална неправилна експлоатация. Тези доставчици са длъжни също така да предприемат подходящи мерки за ограничаване при спазване на основните права.
(118)
Il presente regolamento disciplina i sistemi di IA e i modelli di IA imponendo determinati requisiti e obblighi agli operatori del mercato pertinenti che li immettono sul mercato, li mettono in servizio o li utilizzano nell'Unione, integrando in tal modo gli obblighi per i prestatori di servizi intermediari che incorporano tali sistemi o modelli nei loro servizi disciplinati dal regolamento (UE) 2022/2065. Nella misura in cui sono integrati in piattaforme online di dimensioni molto grandi designate o motori di ricerca online di dimensioni molto grandi designati, tali sistemi o modelli sono soggetti al quadro di gestione dei rischi di cui al regolamento (UE) 2022/2065. Di conseguenza, si dovrebbe ritenere che gli obblighi corrispondenti del presente regolamento siano adempiuti, salvo se emergono e sono individuati in tali modelli dei rischi sistemici significativi non disciplinati dal regolamento (UE) 2022/2065. In tale quadro, i prestatori di piattaforme online di dimensioni molto grandi e motori di ricerca online di dimensioni molto grandi sono tenuti a valutare i potenziali rischi sistemici derivanti dalla progettazione, dal funzionamento e dall'utilizzo dei rispettivi servizi, comprese le modalità con cui la progettazione dei sistemi algoritmici impiegati nel servizio possono contribuire a tali rischi, nonché i rischi sistemici derivanti da potenziali usi impropri. Tali prestatori sono altresì tenuti ad adottare misure di attenuazione adeguate nel rispetto dei diritti fondamentali.
(119)
Предвид бързия темп на иновациите и технологичното развитие на цифровите услуги, попадащи в обхвата на различните инструменти на правото на Съюза, по-специално като се има предвид използването и възприемането им от страна на техните получатели, системите с ИИ, които са предмет на настоящия регламент, могат да бъдат предоставяни като посреднически услуги или части от тях по смисъла на Регламент (ЕС) 2022/2065, който следва да се тълкува по технологично неутрален начин. Например системите с ИИ могат да се използват за предоставяне на онлайн търсачки, по-специално доколкото дадена система с ИИ, като например онлайн чатбот, извършва търсене по принцип на всички уебсайтове, след това интегрира резултатите в съществуващите си знания и използва актуализираните знания, за да генерира единен резултат, който съчетава различни източници на информация.
(119)
Considerando la rapidità dell'innovazione e dell'evoluzione tecnologica dei servizi digitali che rientrano nell'ambito di applicazione dei diversi strumenti previsti dal diritto dell'Unione, in particolare tenendo presente l'uso e la percezione dei loro destinatari, i sistemi di IA soggetti al presente regolamento possono essere forniti come servizi intermediari o parti di essi ai sensi del regolamento (UE) 2022/2065, da interpretarsi in modo tecnologicamente neutro. Ad esempio, i sistemi di IA possono essere utilizzati per fornire motori di ricerca online, in particolare nella misura in cui un sistema di IA, come un chatbot online, effettua ricerche, in linea di principio, su tutti i siti web, incorpora i risultati nelle sue conoscenze esistenti e si avvale delle conoscenze aggiornate per generare un unico output che combina diverse fonti di informazione.
(120)
Освен това задълженията, наложени с настоящия регламент на доставчиците и внедрителите на някои системи с ИИ с цел откриване и оповестяване, че резултатите от тези системи са изкуствено генерирани или обработени, са от особено значение с оглед на ефективното прилагане на Регламент (ЕС) 2022/2065. Това се отнася по-специално за задълженията на доставчиците на много големи онлайн платформи или много големи онлайн търсачки да установяват и ограничават системните рискове, които могат да възникнат поради разпространението на съдържание, което е било изкуствено генерирано или обработено, и по-специално риска от действителни или предвидими отрицателни последици за демократичните процеси, гражданския дебат и изборните процеси, включително чрез дезинформация.
(120)
Inoltre, gli obblighi imposti dal presente regolamento ai fornitori e ai deployer di taluni sistemi di IA, volti a consentire il rilevamento e la divulgazione del fatto che gli output di tali sistemi siano generati o manipolati artificialmente, sono molto importanti per contribuire all'efficace attuazione del regolamento (UE) 2022/2065. Ciò si applica specialmente agli obblighi per i fornitori di piattaforme online di dimensioni molto grandi o motori di ricerca online di dimensioni molto grandi di individuare e attenuare i rischi sistemici che possono derivare dalla diffusione di contenuti generati o manipolati artificialmente, in particolare il rischio di impatti negativi effettivi o prevedibili sui processi democratici, sul dibattito civico e sui processi elettorali, anche mediante la disinformazione.
(121)
Стандартизацията следва да заема ключово място за осигуряването на технически решения на доставчиците, за да се гарантира спазването на настоящия регламент, съобразно съвременните технически постижения, с цел да се насърчат иновациите, както и конкурентоспособността и растежът на единния пазар. Съответствието с хармонизираните стандарти по смисъла на определението в член 2, точка 1, буква в) от Регламент (ЕС) № 1025/2012 на Европейския парламент и на Съвета (41), които обикновено се очаква да отразяват съвременните технически постижения, следва да бъде средство за доказване на спазването на изискванията на настоящия регламент от доставчиците. Поради това следва да се насърчава балансирано представителство на интереси с участието в разработването на стандарти на всички съответни заинтересовани страни, по-специално МСП, организации на потребители и представляващите екологични и социални интереси заинтересовани страни в съответствие с членове 5 и 6 от Регламент (ЕС) № 1025/2012. За да се улесни съответствието, исканията за стандартизация следва да се отправят от Комисията без ненужно забавяне. При изготвянето на искането за стандартизация Комисията следва да се консултира с консултативния форум и със Съвета по ИИ, за да събере съответния експертен опит. При липсата на съответни позовавания на хармонизирани стандарти обаче Комисията следва да може да установява, чрез актове за изпълнение и след консултация с консултативния форум, общи спецификации за някои изисквания съгласно настоящия регламент. Общата спецификация следва да бъде извънредно алтернативно решение, за да се улесни изпълнението на задължението на доставчика да спазва изискванията на настоящия регламент, когато искането за стандартизация не е било прието от някоя от европейските организации за стандартизация или когато съответните хармонизирани стандарти не отразяват в достатъчна степен опасенията, свързани с основните права, или когато хармонизираните стандарти не отговарят на искането, или когато има забавяне в приемането на подходящ хармонизиран стандарт. Когато това забавяне в приемането на хармонизиран стандарт се дължи на техническата сложност на стандарта, това следва да се вземе предвид от Комисията, преди да се разгледа възможността за установяване на общи спецификации. При разработването на общи спецификации Комисията се насърчава да си сътрудничи с международни партньори и международни органи за стандартизация.
(121)
La normazione dovrebbe svolgere un ruolo fondamentale nel fornire soluzioni tecniche ai fornitori per garantire la conformità al presente regolamento, in linea con lo stato dell'arte, e promuovere l'innovazione, la competitività e la crescita nel mercato unico. La conformità alle norme armonizzate quali definite all'articolo 2, punto 1, lettera c), del regolamento (UE) n, 1025/2012 del Parlamento europeo e del Consiglio (41), le quali normalmente dovrebbero rispecchiare lo stato dell'arte, dovrebbe essere un modo per i fornitori di dimostrare la conformità ai requisiti del presente regolamento. È pertanto opportuno incoraggiare una rappresentanza equilibrata degli interessi che coinvolga tutti i portatori di interessi pertinenti nell'elaborazione delle norme, in particolare le PMI, le organizzazioni dei consumatori e i portatori di interessi in materia sociale e ambientale conformemente agli articoli 5 e 6 del regolamento (UE) n, 1025/2012. Al fine di agevolare l'adempimento, le richieste di normazione dovrebbero essere presentate dalla Commissione senza indebito ritardo. In sede di elaborazione della richiesta di normazione, la Commissione dovrebbe consultare il forum consultivo e il consiglio per l'IA al fine di ottenere le competenze pertinenti. Tuttavia, in assenza di riferimenti pertinenti a norme armonizzate, la Commissione dovrebbe poter stabilire, mediante atti di esecuzione e previa consultazione del forum consultivo, specifiche comuni per determinati requisiti previsti del presente regolamento. La specifica comune dovrebbe costituire una soluzione eccezionale di ripiego per agevolare l'obbligo del fornitore di conformarsi ai requisiti del presente regolamento, quando la richiesta di normazione non è stata accettata da alcuna delle organizzazioni europee di normazione, quando le pertinenti norme armonizzate non tengono sufficientemente conto delle preoccupazioni in materia di diritti fondamentali, quando le norme armonizzate non sono conformi alla richiesta o quando vi sono ritardi nell'adozione di una norma armonizzata appropriata. Qualora tale ritardo nell'adozione di una norma armonizzata sia dovuto alla complessità tecnica di tale norma, la Commissione dovrebbe tenerne conto prima di prendere in considerazione la definizione di specifiche comuni. Nell'elaborare specifiche comuni, la Commissione è incoraggiata a cooperare con i partner internazionali e gli organismi internazionali di normazione.
(122)
Без да се засяга използването на хармонизирани стандарти и общи спецификации, е целесъобразно да се счита, че доставчиците на високорискова система с ИИ, която е била обучена и изпитана въз основа на данни, отразяващи конкретната географска, контекстуална, поведенческа или функционална среда, в която системата с ИИ е предназначена да бъде използвана, съответстват на съответната мярка, предвидена съгласно изискването за администриране на данни, определено в настоящия регламент. Без да се засягат изискванията, свързани с надеждността и точността, установени в настоящия регламент, в съответствие с член 54, параграф 3 от Регламент (ЕС) 2019/881 високорисковите системи с ИИ, които са сертифицирани или за които е издадена декларация за съответствие по схема за киберсигурност съгласно посочения регламент и данните за които са били публикувани в Официален вестник на Европейския съюз, следва да се считат за съответстващи на изискването за киберсигурност съгласно настоящия регламент, доколкото сертификатът за киберсигурност или декларацията за съответствие, или части от тях включват изискването за киберсигурност съгласно настоящия регламент. Това не засяга доброволния характер на тази схема за киберсигурност.
(122)
È opportuno che, fatto salvo il ricorso a norme armonizzate e specifiche comuni, i fornitori di un sistema di IA ad alto rischio che è stato addestrato e sottoposto a prova con dati che rispecchiano il contesto geografico, comportamentale, contestuale o funzionale specifico all'interno del quale il sistema di IA è destinato a essere usato si presumano conformi alla misura pertinente prevista dal requisito in materia di governance dei dati di cui al presente regolamento. Fatti salvi i requisiti relativi alla robustezza e all'accuratezza di cui al presente regolamento, conformemente all'articolo 54, paragrafo 3, del regolamento (UE) 2019/881, i sistemi di IA ad alto rischio certificati o per i quali è stata rilasciata una dichiarazione di conformità nell'ambito di un sistema di cibersicurezza a norma di tale regolamento e i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea dovrebbero essere considerati conformi al requisito di cibersicurezza di cui al presente regolamento nella misura in cui il certificato di cibersicurezza o la dichiarazione di conformità o parti di essi contemplino il requisito di cibersicurezza di cui al presente regolamento. Ciò lascia impregiudicata la natura volontaria di tale sistema di cibersicurezza.
(123)
За да се гарантира високо ниво на надеждност на високорисковите системи с ИИ, те следва да подлежат на оценяване на съответствието преди пускането им на пазара или пускането им в действие.
(123)
Al fine di garantire un elevato livello di affidabilità dei sistemi di IA ad alto rischio, è opportuno sottoporre tali sistemi a una valutazione della conformità prima della loro immissione sul mercato o messa in servizio.
(124)
За да се сведе до минимум тежестта за операторите и да се избегне всякакво възможно дублиране, за високорисковите системи с ИИ, свързани с продукти, които са обхванати от съществуващото законодателство на Съюза за хармонизация въз основа на новата законодателна рамка, е целесъобразно съответствието на тези системи с ИИ с изискванията на настоящия регламент да се оценява като част от оценяването на съответствието, което вече е предвидено съгласно посоченото право. Следователно приложимостта на изискванията на настоящия регламент не следва да засяга специфичната логика, методика или обща структура за оценяване на съответствието съгласно съответното законодателство на Съюза за хармонизация.
(124)
Al fine di ridurre al minimo l'onere per gli operatori ed evitare eventuali duplicazioni, la conformità ai requisiti del presente regolamento dei sistemi di IA ad alto rischio collegati a prodotti disciplinati dalla vigente normativa di armonizzazione dell'Unione basata sul nuovo quadro legislativo dovrebbe essere valutata nell'ambito della valutazione della conformità già prevista da tale normativa. L'applicabilità dei requisiti del presente regolamento non dovrebbe pertanto incidere sulla logica, la metodologia o la struttura generale specifiche della valutazione della conformità a norma della pertinente normativa di armonizzazione dell'Unione.
(125)
С оглед на сложността на високорисковите системи с ИИ и свързаните с тях рискове, е важно да се разработи подходяща процедура за оценяване на съответствието за високорискови системи с ИИ, включваща нотифицирани органи, т.нар. оценяване на съответствието от трето лице. Като се има предвид обаче настоящият опит в областта на безопасността на продуктите на професионалните сертифициращи органи преди пускането на пазара, както и различното естество на свързаните с тези продукти рискове, е целесъобразно да се ограничи, поне в началната фаза на прилагане на настоящия регламент, приложното поле на оценяването на съответствието от трето лице за високорисковите системи с ИИ, различни от свързаните с продукти. Поради това оценяването на съответствието на такива системи следва като общо правило да се извършва от доставчика на негова отговорност, като единствено изключение са системите с ИИ, предназначени да се използват за биометрични цели.
(125)
Data la complessità dei sistemi di IA ad alto rischio e i rischi ad essi associati, è importante sviluppare un’adeguata procedura di valutazione della conformità per quanto riguarda i sistemi di IA ad alto rischio che coinvolgono organismi notificati, la cosiddetta valutazione della conformità da parte di terzi. Tuttavia, in considerazione dell'attuale esperienza dei certificatori professionali pre-commercializzazione nel settore della sicurezza dei prodotti e della diversa natura dei rischi connessi, è opportuno limitare, almeno in una fase iniziale di applicazione del presente regolamento, l'ambito di applicazione della valutazione della conformità da parte di terzi ai sistemi di IA ad alto rischio diversi da quelli collegati ai prodotti. È pertanto opportuno che la valutazione della conformità di tali sistemi sia generalmente effettuata dal fornitore sotto la propria responsabilità, con la sola eccezione dei sistemi di IA destinati a essere utilizzati per la biometrica.
(126)
С цел извършване на оценяване на съответствието от трето лице, когато това се изисква, националните компетентни органи следва да нотифицират съгласно настоящия регламент нотифицираните органи, при условие че последните отговарят на набор от изисквания, по-специално относно независимостта, компетентността и отсъствието на конфликти на интереси и на подходящи изисквания за киберсигурност. Националните компетентни органи следва да изпращат нотификацията за тези органи до Комисията и другите държави членки чрез средството за електронно нотифициране, разработено и управлявано от Комисията съгласно член R23 от приложение I към Решение № 768/2008/ЕО.
(126)
Ai fini delle valutazioni della conformità da parte di terzi, laddove richieste, è opportuno che le autorità nazionali competenti notifichino gli organismi notificati a norma del presente regolamento, a condizione che tali organismi soddisfino una serie di requisiti, in particolare in materia di indipendenza, competenza, assenza di conflitti di interesse e requisiti idonei di cibersicurezza. La notifica di tali organismi dovrebbe essere trasmessa dalle autorità nazionali competenti alla Commissione e agli altri Stati membri mediante lo strumento elettronico di notifica elaborato e gestito dalla Commissione a norma dell'allegato I, articolo R23, della decisione n, 768/2008/CE.
(127)
В съответствие с ангажиментите на Съюза съгласно Споразумението на Световната търговска организация за техническите пречки пред търговията е целесъобразно да се улесни взаимното признаване на резултатите от оценяването на съответствието, получени от компетентни органи за оценяване на съответствието, независимо от територията, на която са създадени, при условие че тези органи за оценяване на съответствието, създадени съгласно правото на трета държава, отговарят на приложимите изисквания на настоящия регламент и че Съюзът е сключил споразумение в това отношение. В този контекст Комисията следва активно да проучи възможните международни инструменти за тази цел и по-специално да се стреми към сключване на споразумения за взаимно признаване с трети държави.
(127)
In linea con gli impegni assunti dall'Unione nell'ambito dell'accordo dell'Organizzazione mondiale del commercio sugli ostacoli tecnici agli scambi, è opportuno agevolare il riconoscimento reciproco dei risultati della valutazione della conformità prodotti da organismi di valutazione della conformità competenti, indipendentemente dal luogo in cui siano stabiliti, purché tali organismi di valutazione della conformità istituiti a norma del diritto di un paese terzo soddisfino i requisiti applicabili del presente regolamento e l'Unione abbia concluso un accordo in tal senso. In questo contesto, la Commissione dovrebbe esplorare attivamente possibili strumenti internazionali a tale scopo e, in particolare, perseguire la conclusione di accordi di riconoscimento reciproco con i paesi terzi.
(128)
В съответствие с общоприетото понятие за съществено изменение за продукти, регулирани от законодателството на Съюза за хармонизация, е целесъобразно дадена система с ИИ да се счита за нова система с ИИ, която следва да бъде подложена на ново оценяване на съответствието всеки път, когато настъпи промяна, която може да засегне съответствието на високорискова система с ИИ с настоящия регламент (например промяна на операционната система или на софтуерната архитектура), или когато предназначението на системата се промени. Въпреки това промените на алгоритъма или на действието на системи с ИИ, които продължават да се обучават след пускането им на пазара или пускането им в действие, а именно автоматично адаптират начина, по който се изпълняват функциите, не следва да се смятат за съществено изменение, при условие че тези промени са били предварително определени от доставчика и оценени към момента на оценяването на съответствието.
(128)
In linea con la nozione generalmente riconosciuta di modifica sostanziale dei prodotti disciplinati dalla normativa di armonizzazione dell'Unione, è opportuno che ogniqualvolta intervenga una modifica che possa incidere sulla conformità del sistema di IA ad alto rischio al presente regolamento (ad esempio, la modifica del sistema operativo o dell'architettura del software), oppure quando viene modificata la finalità prevista del sistema, tale sistema di IA sia considerato un nuovo sistema di IA che dovrebbe essere sottoposto a una nuova valutazione della conformità. Tuttavia, le modifiche apportate all'algoritmo e alle prestazioni dei sistemi di IA che proseguono il loro «apprendimento» dopo essere stati immessi sul mercato o messi in servizio, in particolare adattando automaticamente le modalità di svolgimento delle funzioni, non dovrebbero costituire una modifica sostanziale, a condizione che tali modifiche siano state predeterminate dal fornitore e valutate al momento della valutazione della conformità.
(129)
Високорисковите системи с ИИ следва да носят маркировката „СЕ“, указваща тяхното съответствие с настоящия регламент с цел свободно движение в рамките на вътрешния пазар. За високорисковите системи с ИИ, вградени в продукт, следва да се постави физическа маркировка „СЕ“, която може да бъде допълнена с цифрова маркировка „СЕ“. За високорисковите системи с ИИ, предоставяни само в цифров вид, следва да се използва цифрова маркировка „CE“. Държавите членки не следва да създават необосновани пречки пред пускането на пазара или пускането в действие на високорискови системи с ИИ, които съответстват на изискванията, предвидени в настоящия регламент, и носят маркировката „СЕ“.
(129)
I sistemi di IA ad alto rischio dovrebbero recare la marcatura CE per indicare la loro conformità al presente regolamento, in modo da poter circolare liberamente nel mercato interno. Per i sistemi di IA ad alto rischio integrati in un prodotto, dovrebbe essere apposta una marcatura CE fisica, integrabile con una marcatura CE digitale. Per i sistemi di IA ad alto rischio forniti solo digitalmente, dovrebbe essere utilizzata una marcatura CE digitale. Gli Stati membri non dovrebbero ostacolare in maniera ingiustificata l'immissione sul mercato o la messa in servizio di sistemi di IA ad alto rischio che soddisfano i requisiti stabiliti nel presente regolamento e recano la marcatura CE.
(130)
При определени условия бързото осигуряване на иновативни технологии може да бъде от решаващо значение за здравето и безопасността на хората, опазването на околната среда и изменението на климата, както и за обществото като цяло. Поради това е целесъобразно по извънредни причини, свързани с обществената сигурност или защитата на живота и здравето на физическите лица, опазването на околната среда и защитата на ключови промишлени и инфраструктурни активи, органите за надзор на пазара да могат да разрешават пускането на пазара или пускането в действие на системи с ИИ, които не са преминали оценяване на съответствието. В надлежно обосновани случаи, предвидени в настоящия регламент, правоохранителните органи или органите за гражданска защита могат да пуснат в действие конкретна високорискова система с ИИ без разрешението на органа за надзор на пазара, при условие че такова разрешение е поискано без ненужно забавяне по време на използването или след него.
(130)
La disponibilità in tempi rapidi di tecnologie innovative può, a determinate condizioni, essere fondamentale per la salute e la sicurezza delle persone, per la tutela dell'ambiente e la protezione dai cambiamenti climatici e per la società nel suo insieme. È pertanto opportuno che, per motivi eccezionali di pubblica sicurezza o di tutela della vita e della salute delle persone fisiche, di tutela dell'ambiente nonché di protezione dei principali beni industriali e infrastrutturali, le autorità di vigilanza del mercato possano autorizzare l'immissione sul mercato o la messa in servizio di sistemi di IA che non sono stati sottoposti a una valutazione della conformità. In situazioni debitamente giustificate come previsto dal presente regolamento, le autorità di contrasto o le autorità di protezione civile possono mettere in servizio uno specifico sistema di IA ad alto rischio senza l'autorizzazione dell'autorità di vigilanza del mercato, a condizione che tale autorizzazione sia richiesta durante o dopo l'uso senza indebito ritardo.
(131)
С цел да се улесни работата на Комисията и на държавите членки в областта на ИИ, както и за да се повиши прозрачността пред обществеността, от доставчиците на високорискови системи с ИИ, различни от свързаните с продукти, попадащи в обхвата на съответното действащо законодателство на Съюза за хармонизация, както и от доставчиците, които считат, че дадена система с ИИ, включена в случаите на високорискова употреба, посочени в приложение към настоящия регламент, не е високорискова въз основа на дерогация, следва да се изисква да се регистрират и да впишат информацията за своята система с ИИ в база данни на ЕС, която да бъде създадена и управлявана от Комисията. Преди да използват такава система с ИИ, включена в случаите на високорискова употреба в приложение към настоящия регламент, внедрителите на високорискови системи с ИИ, които са публични органи, агенции или структури, следва да се регистрират в тази база данни и да изберат системата, която възнамеряват да използват. Останалите внедрители следва да имат право да направят това на доброволна основа. Този раздел на базата данни на ЕС следва да бъде публично достъпен, безплатен, а информацията следва да бъде лесна за навигация, разбираема и машинночетима. Базата данни на ЕС следва също така да бъде лесна за ползване, например като осигурява функции за търсене, включително чрез ключови думи, за да се даде възможност на широката общественост да намери съответната информация, която трябва да бъде предоставена при регистрацията на високорискови системи с ИИ, както и информация за случаите на употреба на високорисковите системи с ИИ, посочени в приложение към настоящия регламент, на които отговарят високорисковите системи с ИИ. Всяко съществено изменение на високорискови системи с ИИ също следва да се регистрира в базата данни на ЕС. За високорисковите системи с ИИ в правоохранителната област и в областта на управлението на миграцията, убежището и граничния контрол задълженията за регистрация следва да се изпълняват в защитен непубличен раздел на базата данни на ЕС. Достъпът до защитения непубличен раздел следва да бъде строго ограничен до Комисията, както и до органите за надзор на пазара по отношение на техния национален раздел на тази база данни. Високорисковите системи с ИИ в областта на критичната инфраструктура следва да се регистрират само на национално равнище. Комисията следва да бъде администратор на базата данни на ЕС в съответствие с Регламент (ЕС) 2018/1725. За да се гарантира цялостна готовност на базата данни при нейното въвеждане, процедурата по създаване на базата данни на ЕС следва да включва разработването на функционални спецификации от Комисията и независим одитен доклад. Комисията следва да вземе предвид рисковете, свързани с киберсигурността, когато изпълнява задачите си като администратор на данни по отношение на базата данни на ЕС. За да се увеличи максимално достъпността и използването на базата данни на ЕС от обществеността, базата данни на ЕС, включително информацията, предоставяна чрез нея, следва да отговаря на изискванията на Директива (ЕС) 2019/882.
(131)
Al fine di agevolare il lavoro della Commissione e degli Stati membri nel settore dell'IA e di aumentare la trasparenza nei confronti del pubblico, è opportuno che i fornitori di sistemi di IA ad alto rischio diversi da quelli collegati a prodotti che rientrano nell'ambito di applicazione della pertinente normativa di armonizzazione dell'Unione vigente, nonché i fornitori che ritengono che, in base a una deroga, il sistema di IA elencato tra i casi ad alto rischio nell'allegato del presente regolamento non sia ad alto rischio, siano tenuti a registrarsi e a registrare informazioni sul loro sistema di IA in una banca dati dell'UE, che sarà istituita e gestita dalla Commissione. Prima di utilizzare un sistema di IA elencato tra i casi ad alto rischio nell'allegato del presente regolamento, i deployer di sistemi di IA ad alto rischio che sono autorità, agenzie o organismi pubblici dovrebbero registrarsi in tale banca dati e selezionare il sistema che intendono utilizzare. Gli altri deployer dovrebbero essere autorizzati a farlo su base volontaria. Questa sezione della banca dati dell’UE dovrebbe essere accessibile al pubblico gratuitamente e le informazioni dovrebbero essere di facile consultazione, comprensibili e leggibili meccanicamente. La banca dati dell’UE dovrebbe inoltre essere di facile utilizzo, ad esempio tramite la fornitura di funzionalità di ricerca, anche attraverso parole chiave, che consentano al pubblico di reperire informazioni pertinenti da presentare al momento della registrazione dei sistemi di IA ad alto rischio e riguardanti l’uso di sistemi di IA ad alto rischio, elencati in allegato al presente regolamento, a cui corrispondono i sistemi di IA ad alto rischio. Qualsiasi modifica sostanziale dei sistemi di IA ad alto rischio dovrebbe essere registrata anche nella banca dati dell’UE. Per i sistemi di IA ad alto rischio nei settori delle attività di contrasto, della migrazione, dell’asilo e della gestione del controllo delle frontiere, gli obblighi di registrazione dovrebbero essere adempiuti in una sezione non pubblica sicura della banca dati dell’UE. L’accesso alla sezione non pubblica sicura dovrebbe essere strettamente limitato alla Commissione e alle autorità di vigilanza del mercato per quanto riguarda la rispettiva sezione nazionale di tale banca dati. I sistemi di IA ad alto rischio nel settore delle infrastrutture critiche dovrebbero essere registrati solo a livello nazionale. È opportuno che la Commissione sia la titolare del trattamento di tale banca dati dell’UE conformemente al regolamento (UE) 2018/1725. Al fine di garantire la piena funzionalità della banca dati dell’UE, è opportuno che, al momento dell’attivazione, la procedura per l’istituzione della banca dati preveda l’elaborazione di specifiche funzionali da parte della Commissione e una relazione di audit indipendente. Nello svolgimento dei suoi compiti di titolare del trattamento dei dati nella banca dati dell’UE, la Commissione dovrebbe tenere conto dei rischi legati alla cibersicurezza. Onde massimizzare la disponibilità e l'uso della banca dati dell’UE da parte del pubblico, la banca dati dell’UE, comprese le informazioni ivi messe a disposizione, dovrebbe essere conforme ai requisiti di cui alla direttiva (UE) 2019/882.
(132)
Някои системи с ИИ, предназначени да взаимодействат с физически лица или да генерират съдържание, могат да породят особени рискове от измама на основата на прилика или заблуда, независимо дали отговарят на критериите за високорискови системи, или не. Поради това при определени обстоятелства при използването на тези системи следва да се прилагат специални задължения за прозрачност, без да се засягат изискванията и задълженията за високорискови системи с ИИ и при прилагане на целеви изключения с цел да се вземат предвид особените правоохранителни нужди. По-специално, физическите лица следва да бъдат уведомявани, че взаимодействат със система с ИИ, освен ако това не е очевидно от гледна точка на физическо лице, което е в разумни граници осведомено, наблюдателно и съобразително предвид обстоятелствата и контекста на използване. При изпълнението на това задължение следва да се вземат предвид характеристиките на физическите лица, принадлежащи към уязвими групи поради своята възраст или увреждане, доколкото системата с ИИ е предназначена да взаимодейства и с тези групи. Наред с това, физическите лица следва да бъдат уведомявани, когато са изложени на системи с ИИ, които чрез обработване на биометричните им данни могат да определят или да направят изводи за емоциите или намеренията на тези лица или да ги отнесат към конкретни категории. Подобни конкретни категории може да са свързани с аспекти като пол, възраст, цвят на косата, цвят на очите, татуировки, личностни черти, етнически произход, лични предпочитания и интереси. Тази информация и уведомленията следва да се предоставят в достъпни формати за хората с увреждания.
(132)
Alcuni sistemi di IA destinati all'interazione con persone fisiche o alla generazione di contenuti possono comportare rischi specifici di impersonificazione o inganno, a prescindere dal fatto che siano considerati ad alto rischio o no. L'uso di tali sistemi dovrebbe pertanto essere, in determinate circostanze, soggetto a specifici obblighi di trasparenza, fatti salvi i requisiti e gli obblighi per i sistemi di IA ad alto rischio, e soggetto ad eccezioni mirate per tenere conto delle particolari esigenze delle attività di contrasto. Le persone fisiche dovrebbero in particolare ricevere una notifica nel momento in cui interagiscono con un sistema di IA, a meno che tale interazione non risulti evidente dal punto di vista di una persona fisica ragionevolmente informata, attenta e avveduta, tenendo conto delle circostanze e del contesto di utilizzo. Nell'attuare tale obbligo, le caratteristiche delle persone fisiche appartenenti a gruppi vulnerabili a causa della loro età o disabilità dovrebbero essere prese in considerazione nella misura in cui il sistema di IA sia destinato a interagire anche con tali gruppi. È inoltre opportuno che le persone fisiche ricevano una notifica quando sono esposte a sistemi di IA che, nel trattamento dei loro dati biometrici, possono identificare o inferire le emozioni o intenzioni di tali persone o assegnarle a categorie specifiche. Tali categorie specifiche possono riguardare aspetti quali il sesso, l’età, il colore dei capelli, il colore degli occhi, i tatuaggi, i tratti personali, l’origine etnica, le preferenze e gli interessi personali. Tali informazioni e notifiche dovrebbero essere fornite in formati accessibili alle persone con disabilità.
(133)
Различни системи с ИИ могат да генерират големи количества синтетично съдържание, което хората все по-трудно могат да разграничават от генерирано от човека и автентично съдържание. Широката наличност и нарастващият капацитет на тези системи оказват значително влияние върху почтеността и доверието в информационната екосистема, което поражда нови рискове от масивно навлизане на невярна информация и манипулиране, измами на основата на прилика и заблуда на потребителите. С оглед на това въздействие, бързия темп на развитие на технологиите и необходимостта от нови методи и техники за проследяване на произхода на информацията е целесъобразно да се изисква от доставчиците на тези системи да вграждат технически решения, позволяващи маркиране в машинночетим формат и разпознаване, че резултатът е генериран или обработен от система с ИИ, а не от човек. Тези техники и методи следва да бъдат достатъчно надеждни, оперативно съвместими, ефективни и сигурни, доколкото това е технически осъществимо, и да се основават на наличните техники или на комбинация от такива техники, например водни знаци, идентифициране на метаданни, криптографски методи за доказване на произхода и автентичността на съдържанието, методи за регистриране, пръстови отпечатъци или други техники, в зависимост от случая. При изпълнението на това задължение доставчиците следва също така да отчитат особеностите и ограниченията на различните видове съдържание и технологичното и пазарното развитие в тази област, които намират отражение в общопризнатото най-съвременно равнище на технологиите. Тези техники и методи могат да бъдат приложени на равнището на системата с ИИ или на равнището на модела на ИИ, включително при модели на ИИ с общо предназначение, генериращи съдържание, като по този начин се улеснява изпълнението на това задължение от доставчика надолу по веригата на системата с ИИ. За да бъде пропорционално това задължение за маркиране, е целесъобразно да се предвиди то да няма приложение при системи с ИИ, изпълняващи предимно помощна функция при стандартно редактиране, или за системи с ИИ, които не променят съществено входящите данни, въведени от внедрителя, или тяхната семантика.
(133)
Diversi sistemi di IA possono generare grandi quantità di contenuti sintetici, che per gli esseri umani è divenuto sempre più difficile distinguere dai contenuti autentici e generati da esseri umani. L’ampia disponibilità e l’aumento delle capacità di tali sistemi hanno un impatto significativo sull’integrità e sulla fiducia nell’ecosistema dell’informazione, aumentando i nuovi rischi di cattiva informazione e manipolazione su vasta scala, frode, impersonificazione e inganno dei consumatori. Alla luce di tali impatti, della rapida evoluzione tecnologica e della necessità di nuovi metodi e tecniche per risalire all’origine delle informazioni, è opportuno imporre ai fornitori di tali sistemi di integrare soluzioni tecniche che consentano agli output di essere marcati in un formato leggibile meccanicamente e di essere rilevabili come generati o manipolati da un sistema di IA e non da esseri umani. Tali tecniche e metodi dovrebbero essere sufficientemente affidabili, interoperabili, efficaci e solidi nella misura in cui ciò sia tecnicamente possibile, tenendo conto delle tecniche disponibili o di una combinazione di tali tecniche, quali filigrane, identificazioni di metadati, metodi crittografici per dimostrare la provenienza e l’autenticità dei contenuti, metodi di registrazione, impronte digitali o altre tecniche, a seconda dei casi. Nell’attuare tale obbligo, i fornitori dovrebbero tenere conto anche delle specificità e dei limiti dei diversi tipi di contenuti e dei pertinenti sviluppi tecnologici e di mercato nel settore, come rispecchia lo stato dell’arte generalmente riconosciuto. Tali tecniche e metodi possono essere attuati a livello di sistema di IA o a livello di modello di IA, compresi i modelli di IA per finalità generali che generano contenuti, facilitando in tal modo l’adempimento di tale obbligo da parte del fornitore a valle del sistema di IA. Per continuare a essere proporzionato, è opportuno prevedere che tale obbligo di marcatura non debba riguardare i sistemi di IA che svolgono principalmente una funzione di assistenza per l’editing standard o i sistemi di IA che non modificano in modo sostanziale i dati di input forniti dal deployer o la rispettiva semantica.
(134)
Освен техническите решения, приложени от доставчиците на системата с ИИ, и внедрителите, които използват система с ИИ за генериране или обработване на изображения, аудио или видео съдържание, наподобяващи до голяма степен съществуващи лица, предмети, места, субекти или събития, които е вероятно някой да приеме за истински или достоверни (т.нар. „убедителни фалшификати“), следва също по ясен и разпознаваем начин да оповестят обстоятелството, че съдържанието е било изкуствено генерирано или обработено, като обозначат по подходящ начин продукта от работата на ИИ и разкрият неговия изкуствен произход. Спазването на това задължение за прозрачност не следва да се тълкува в смисъл, че използването на системата с ИИ или резултатите от нея възпрепятства правото на свобода на изразяване на мнение и правото на свобода на изкуствата и науките, гарантирани от Хартата, по-специално когато съдържанието е част от произведение или програма, които имат очевиден творчески, сатиричен, артистичен, художествен или подобен характер, при прилагане на подходящи гаранции за правата и свободите на трети лица. В тези случаи задължението за прозрачност по отношение на убедителните фалшификати, предвидено в настоящия регламент, се ограничава до оповестяване на наличието на такова генерирано или обработено съдържание по подходящ начин, който не възпрепятства показването или използването на произведението, включително нормалната му експлоатация и употреба, като същевременно се запазват полезността и качеството на произведението. Освен това е целесъобразно да се предвиди подобно задължение за оповестяване във връзка с текст, който е генериран или обработен от ИИ, доколкото той е публикуван с цел информиране на обществеността по въпроси от обществен интерес, освен ако генерираното от ИИ съдържание не е преминало преглед от човек или подложено на редакторски контрол и редакционната отговорност за публикуването му се носи от физическо или юридическо лице.
(134)
Oltre alle soluzioni tecniche utilizzate dai fornitori del sistema di IA, i deployer che utilizzano un sistema di IA per generare o manipolare immagini o contenuti audio o video che assomigliano notevolmente a persone, oggetti, luoghi, entità o eventi esistenti e che potrebbero apparire falsamente autentici o veritieri a una persona (deep fake), dovrebbero anche rendere noto in modo chiaro e distinto che il contenuto è stato creato o manipolato artificialmente etichettando di conseguenza gli output dell’IA e rivelandone l'origine artificiale. L'adempimento di tale obbligo di trasparenza non dovrebbe essere interpretato nel senso che l'uso del sistema di IA o dei suoi output ostacola il diritto alla libertà di espressione e il diritto alla libertà delle arti e delle scienze garantito dalla Carta, in particolare quando il contenuto fa parte di un'opera o di un programma manifestamente creativo, satirico, artistico, fittizio, o analogo fatte salve le tutele adeguate per i diritti e le libertà dei terzi. In tali casi, l'obbligo di trasparenza per i deep fake di cui al presente regolamento si limita alla rivelazione dell'esistenza di tali contenuti generati o manipolati in modo adeguato che non ostacoli l'esposizione o il godimento dell'opera, compresi il suo normale sfruttamento e utilizzo, mantenendo nel contempo l'utilità e la qualità dell'opera. È inoltre opportuno prevedere un obbligo di divulgazione analogo in relazione al testo generato o manipolato dall'IA nella misura in cui è pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico, a meno che il contenuto generato dall'IA sia stato sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o giuridica abbia la responsabilità editoriale della pubblicazione del contenuto.
(135)
Без да се засягат задължителният характер и пълната приложимост на задълженията за прозрачност, Комисията може също да насърчава и улеснява изготвянето на кодекси за добри практики на равнището на Съюза с цел да се допринесе за ефективното изпълнение на задълженията за откриване и обозначаване на изкуствено генерирано или обработено съдържание, включително да се съдейства във връзка с практически правила, които да осигурят при необходимост достъпност на механизмите за откриване и да подпомагат сътрудничеството с други участници по веригата за създаване на стойност, разпространение на съдържание или проверка на неговата автентичност и произход, за да се даде възможност на обществеността действително да разпознава генерираното от ИИ съдържание.
(135)
Fatta salva la natura obbligatoria e la piena applicabilità degli obblighi di trasparenza, la Commissione può altresì incoraggiare e agevolare l'elaborazione di codici di buone pratiche a livello dell'Unione per facilitare l'efficace attuazione degli obblighi in materia di rilevazione ed etichettatura dei contenuti generati o manipolati artificialmente, anche per sostenere modalità pratiche per rendere accessibili, se del caso, i meccanismi di rilevazione e favorire la cooperazione con altri attori lungo la catena del valore, diffondere contenuti o verificarne l'autenticità e la provenienza onde consentire al pubblico di distinguere efficacemente i contenuti generati dall'IA.
(136)
Задълженията, наложени в настоящия регламент на доставчиците и внедрителите на някои системи с ИИ с цел откриване и обозначаване, че резултатите от тези системи са изкуствено генерирани или обработени, са от особено значение с оглед на ефективното прилагане на Регламент (ЕС) 2022/2065. Това се отнася по-специално за задълженията на доставчиците на много големи онлайн платформи или много големи онлайн търсачки да установяват и ограничават системните рискове, които могат да възникнат поради разпространението на съдържание, което е било изкуствено генерирано или обработено, и по-специално риска от действителни или предвидими отрицателни последици за демократичните процеси, гражданския дебат и изборните процеси, включително чрез дезинформация. Изискването съгласно настоящия регламент за обозначаване на съдържание, генерирано от системи с ИИ, не засяга задължението по член 16, параграф 6 от Регламент (ЕС) 2022/2065 на доставчиците на хостинг услуги да обработват уведомления за незаконно съдържание, получени съгласно член 16, параграф 1 от посочения регламент, и не следва да влияе на оценката и решението относно незаконния характер на конкретното съдържание. Тази преценка следва да се извършва единствено с оглед на правилата, уреждащи законосъобразността на съдържанието.
(136)
Gli obblighi imposti dal presente regolamento ai fornitori e ai deployer di taluni sistemi di IA, volti a consentire il rilevamento e la divulgazione del fatto che gli output di tali sistemi siano generati o manipolati artificialmente, sono molto importanti per contribuire all'efficace attuazione del regolamento (UE) 2022/2065. Ciò si applica specialmente agli obblighi per i fornitori di piattaforme online di dimensioni molto grandi o motori di ricerca online di dimensioni molto grandi di individuare e attenuare i rischi sistemici che possono derivare dalla diffusione di contenuti generati o manipolati artificialmente, in particolare il rischio di impatti negativi effettivi o prevedibili sui processi democratici, sul dibattito civico e sui processi elettorali, anche mediante la disinformazione. L'obbligo di etichettare i contenuti generati dai sistemi di IA a norma del presente regolamento lascia impregiudicato l'obbligo di cui all'articolo 16, paragrafo 6, del regolamento (UE) 2022/2065 per i prestatori di servizi di memorizzazione di informazioni di trattare le segnalazioni di contenuti illegali ricevute a norma dell'articolo 16, paragrafo 1, di tale regolamento e non dovrebbe influenzare la valutazione e la decisione in merito all'illegalità del contenuto specifico. Tale valutazione dovrebbe essere effettuata solo con riferimento alle norme che disciplinano la legalità dei contenuti.
(137)
Спазването на задълженията за прозрачност относно системите с ИИ, обхванати от настоящия регламент, не следва да се тълкува като знак, че използването на системата с ИИ или на резултатите от нея е законосъобразно съгласно настоящия регламент или друго законодателство на Съюза и на държава членка, и не следва да засяга други задължения за прозрачност за внедрители на системи с ИИ, предвидени в правото на Съюза или в националното право.
(137)
La conformità agli obblighi di trasparenza per i sistemi di IA disciplinati dal presente regolamento non dovrebbe essere interpretata nel senso che l'uso del sistema di IA o dei suoi output è lecito ai sensi del presente regolamento o di altre disposizioni del diritto dell'Unione e degli Stati membri e dovrebbe lasciare impregiudicati gli altri obblighi di trasparenza per i deployer dei sistemi di IA stabiliti dal diritto dell'Unione o nazionale.
(138)
ИИ е бързо развиваща се съвкупност от технологии, която изисква регулаторен надзор и безопасно и контролирано пространство за експериментиране, като същевременно се гарантира отговорното новаторство и интегрирането на подходящи предпазни мерки и мерки за ограничаване на риска. За да се гарантира благоприятна за иновациите, ориентирана към бъдещето и устойчива на смущения правна рамка, държавите членки следва да гарантират, че националните им компетентни органи създават най-малко една регулаторна лаборатория в областта на ИИ на национално равнище, за да се улесни разработването и изпитването на иновативни системи с ИИ под строг регулаторен надзор, преди тези системи да бъдат пуснати на пазара или пуснати в действие по друг начин. Държавите членки биха могли да изпълнят това задължение и чрез участие във вече съществуващи регулаторни лаборатории или съвместно създаване на лаборатория с компетентните органи на една или повече държави членки, доколкото това участие осигурява равностойно национално покритие за участващите държави членки. Регулаторните лаборатории в областта на ИИ могат да бъдат създадени във физическа, цифрова или хибридна форма и да включват както физически, така и цифрови продукти. Създаващите ги органи следва също така да гарантират, че регулаторните лаборатории в областта на ИИ разполагат с подходящи ресурси за функционирането си, включително финансови и човешки ресурси.
(138)
L'IA è una famiglia di tecnologie in rapida evoluzione che richiede sorveglianza regolamentare e uno spazio sicuro e controllato per la sperimentazione, garantendo nel contempo un'innovazione responsabile e l'integrazione di tutele adeguate e di misure di attenuazione dei rischi. Al fine di garantire un quadro giuridico che promuova l'innovazione, sia adeguato alle esigenze future e resiliente alle perturbazioni, gli Stati membri dovrebbero garantire che le rispettive autorità nazionali competenti istituiscano almeno uno spazio di sperimentazione normativa in materia di IA a livello nazionale per agevolare lo sviluppo e le prove di sistemi di IA innovativi, sotto una rigorosa sorveglianza regolamentare, prima che tali sistemi siano immessi sul mercato o altrimenti messi in servizio. Gli Stati membri potrebbero inoltre adempiere tale obbligo partecipando a spazi di sperimentazione normativa già esistenti o istituendo congiuntamente uno spazio di sperimentazione con le autorità competenti di uno o più Stati membri, nella misura in cui tale partecipazione fornisca un livello equivalente di copertura nazionale per gli Stati membri partecipanti. Gli spazi di sperimentazione normativa per l’IA potrebbero essere istituiti in forma fisica, digitale o ibrida e potrebbero accogliere prodotti sia fisici che digitali. Le autorità costituenti dovrebbero altresì garantire che gli spazi di sperimentazione normativa per l’IA dispongano delle risorse adeguate per il loro funzionamento, comprese risorse finanziarie e umane.
(139)
Целите на регулаторните лаборатории в областта на ИИ следва да бъдат: насърчаване на иновациите в областта на ИИ чрез създаване на контролирана среда за експериментиране и изпитване във фазата на разработване и преди пускането на пазара с цел да се гарантира съответствието на иновативните системи с ИИ с настоящия регламент и друго съответно право на Съюза и национално право. В допълнение регулаторните лаборатории в областта на ИИ следва да имат за цел подобряване на правната сигурност за новаторите и надзора и разбирането от страна на компетентните органи на възможностите, нововъзникващите рискове и въздействието на използването на ИИ, улесняване на натрупването на регулаторен опит от страна на органите и предприятията, включително с оглед на бъдещи изменения на правната рамка, подкрепа за сътрудничеството и обмена на най-добри практики с органите, участващи в регулаторната лаборатория в областта на ИИ, както и ускоряване на достъпа до пазарите, включително чрез премахване на пречките пред МСП, включително новосъздадените предприятия. Следва да се предостави широк достъп до регулаторните лаборатории в областта на ИИ на територията на Съюза, като се обърне специално внимание на достъпността им за МСП, включително новосъздадените предприятия. Участието в регулаторните лаборатории в областта на ИИ следва да е насочено към въпроси, които пораждат правна несигурност за доставчиците и потенциалните доставчици при въвеждането на иновации и експериментирането с ИИ в Съюза и да допринася за основан на факти регулаторен опит. Поради това надзорът върху системите с ИИ в регулаторните лаборатории в областта на ИИ следва да обхваща тяхното разработване, обучение, изпитване и валидиране, преди системите да бъдат пуснати на пазара или пуснати в действие, както и концепцията за и настъпването на съществено изменение, което може да изисква провеждането на нова процедура за оценяване на съответствието. Всички значителни рискове, установени по време на разработването и изпитването на такива системи с ИИ, следва да водят до адекватни ограничителни мерки, а при липса на такива — до спиране на процеса на разработване и изпитване. Когато е целесъобразно, националните компетентни органи, които създават регулаторни лаборатории в областта на ИИ, следва да си сътрудничат с други съответни органи, включително упражняващите надзор върху защитата на основните права, и биха могли да позволят привличането на други участници в екосистемата на ИИ, като например национални или европейски организации за стандартизация, нотифицирани органи, структури за изпитване и експериментиране, лаборатории за научни изследвания и експерименти, европейски цифрови иновационни центрове и съответни заинтересовани страни и организации на гражданското общество. За да се гарантират еднакво прилагане в целия Съюз и икономии на мащаба, е целесъобразно да се установят общи правила за създаването на регулаторните лаборатории в областта на ИИ и рамка за сътрудничество между съответните органи, участващи в надзора на лабораториите. Регулаторните лаборатории в областта на ИИ, създадени съгласно настоящия регламент, не следва да засягат друго право, допускащо създаването на други лаборатории и чиято цел е да се гарантира спазването на правни норми извън настоящия регламент. Когато е целесъобразно, съответните компетентни органи, които отговарят за други регулаторни лаборатории, следва да преценят доколко би било полезно използването им и с цел осигуряване на съответствието на системите с ИИ с настоящия регламент. По споразумение между националните компетентни органи и участниците в регулаторната лаборатория в областта на ИИ в такава лаборатория също така може да се извършва изпитване в реални условия и върху него да се осъществява надзор.
(139)
Gli obiettivi degli spazi di sperimentazione normativa per l'IA dovrebbero essere la promozione dell'innovazione in materia di IA, mediante la creazione di un ambiente controllato di sperimentazione e prova nella fase di sviluppo e pre-commercializzazione al fine di garantire la conformità dei sistemi di IA innovativi al presente regolamento e ad altre pertinenti disposizioni di diritto dell'Unione e nazionale. Inoltre, gli spazi di sperimentazione normativa per l’IA dovrebbero avere come obiettivo il rafforzamento della certezza del diritto per gli innovatori e della sorveglianza e della comprensione da parte delle autorità competenti delle opportunità, dei rischi emergenti e degli impatti dell'uso dell'IA, l'agevolazione dell'apprendimento normativo per le autorità e le imprese, anche in vista del futuro adeguamento del quadro giuridico, il sostegno alla cooperazione e la condivisione delle migliori pratiche con le autorità coinvolte nello spazio di sperimentazione normativa per l'IA, nonché l'accelerazione dell'accesso ai mercati, anche mediante l'eliminazione degli ostacoli per le PMI, comprese le start-up. Gli spazi di sperimentazione normativa per l’IA dovrebbero essere ampiamente disponibili in tutta l'Unione e si dovrebbe prestare particolare attenzione alla loro accessibilità per le PMI, comprese le start-up. La partecipazione allo spazio di sperimentazione normativa per l'IA dovrebbe concentrarsi su questioni che creano incertezza giuridica rendendo difficoltoso per i fornitori e i potenziali fornitori innovare, sperimentare l'IA nell'Unione e contribuire all'apprendimento normativo basato su dati concreti. La supervisione dei sistemi di IA nello spazio di sperimentazione normativa per l'IA dovrebbe pertanto riguardare il relativo sviluppo, addestramento, prova e convalida prima che i sistemi siano immessi sul mercato o messi in servizio, nonché la nozione e il verificarsi di modifiche sostanziali che possono richiedere una nuova procedura di valutazione della conformità. Qualsiasi rischio significativo individuato durante lo sviluppo e le prove di tali sistemi di IA dovrebbe comportare l'adozione di adeguate misure di attenuazione e, in mancanza di ciò, la sospensione del processo di sviluppo e di prova. Se del caso, le autorità nazionali competenti che istituiscono spazi di sperimentazione normativa per l'IA dovrebbero cooperare con altre autorità pertinenti, comprese quelle che vigilano sulla protezione dei diritti fondamentali, e potrebbero consentire il coinvolgimento di altri attori all'interno dell'ecosistema dell'IA, quali organizzazioni di normazione nazionali o europee, organismi notificati, impianti di prova e sperimentazione, laboratori di ricerca e sperimentazione, poli europei dell'innovazione digitale e pertinenti portatori di interessi e organizzazioni della società civile. Al fine di garantire un'attuazione uniforme in tutta l'Unione e le economie di scala, è opportuno stabilire regole comuni per l'attuazione degli spazi di sperimentazione normativa per l'IA e un quadro per la cooperazione tra le autorità competenti coinvolte nel controllo degli spazi di sperimentazione. Gli spazi di sperimentazione normativa per l'IA istituiti a norma del presente regolamento non dovrebbero pregiudicare altre disposizioni che consentono la creazione di altri spazi di sperimentazione volti a garantire la conformità a disposizioni del diritto diverse dal presente regolamento. Se del caso, le pertinenti autorità competenti responsabili di tali altri spazi di sperimentazione normativa dovrebbero considerare i vantaggi derivanti dall'utilizzo di tali spazi di sperimentazione anche al fine di garantire la conformità dei sistemi di IA al presente regolamento. Previo accordo tra le autorità nazionali competenti e i partecipanti allo spazio di sperimentazione normativa per l'IA, anche le prove in condizioni reali possono essere gestite e supervisionate nel quadro dello spazio di sperimentazione normativa per l'IA.
(140)
В съответствие с член 6, параграф 4 и член 9, параграф 2, буква ж) от Регламент (ЕС) 2016/679 и членове 5, 6 и 10 от Регламент (ЕС) 2018/1725 и без да се засягат член 4, параграф 2 и член 10 от Директива (ЕС) 2016/680, настоящият регламент следва да предостави на доставчиците и потенциалните доставчици в регулаторните лаборатории в областта на ИИ правното основание за използването, само при определени условия, на лични данни, събирани за други цели, с оглед на разработването на определени системи с ИИ в обществен интерес в рамките на регулаторната лаборатория в областта на ИИ. Всички други задължения на администраторите на данни и правата на субектите на данни съгласно регламенти (ЕС) 2016/679 и (ЕС) 2018/1725 и Директива (ЕС) 2016/680 остават приложими. По-специално настоящият регламент не следва да предоставя правно основание по смисъла на член 22, параграф 2, буква б) от Регламент (ЕС) 2016/679 и член 24, параграф 2, буква б) от Регламент (ЕС) 2018/1725. Доставчиците и потенциалните доставчици в регулаторната лаборатория в областта на ИИ следва да осигурят подходящи гаранции и да си сътрудничат с компетентните органи, включително като следват техните насоки и действат бързо и добросъвестно, за да ограничат по подходящ начин всички установени значителни рискове за безопасността, здравето и основните права, които могат да се проявят по време на разработването, изпитването и експериментирането в лабораторията.
(140)
Il presente regolamento dovrebbe fornire la base giuridica ai fornitori e ai potenziali fornitori nello spazio di sperimentazione normativa per l'IA per utilizzare i dati personali raccolti per altre finalità ai fini dello sviluppo di determinati sistemi di IA di interesse pubblico nell'ambito dello spazio di sperimentazione normativa per l'IA, solo a specifiche condizioni, conformemente all'articolo 6, paragrafo 4, e all'articolo 9, paragrafo 2, lettera g), del regolamento (UE) 2016/679, e agli articoli 5, 6 e 10 del regolamento (UE) 2018/1725, e fatti salvi l'articolo 4, paragrafo 2, e l'articolo 10 della direttiva (UE) 2016/680. Tutti gli altri obblighi dei titolari del trattamento e i diritti degli interessati ai sensi del regolamento (UE) 2016/679, del regolamento (UE) 2018/1725 e della direttiva (UE) 2016/680 restano applicabili. In particolare, il presente regolamento non dovrebbe costituire una base giuridica ai sensi dell'articolo 22, paragrafo 2, lettera b), del regolamento (UE) 2016/679 e dell'articolo 24, paragrafo 2, lettera b), del regolamento (UE) 2018/1725. I fornitori e i potenziali fornitori nello spazio di sperimentazione normativa per l'IA dovrebbero fornire garanzie adeguate e cooperare con le autorità competenti, anche seguendo i loro orientamenti e agendo rapidamente e in buona fede per attenuare adeguatamente eventuali rischi significativi individuati per la sicurezza, la salute e i diritti fondamentali che possono emergere durante lo sviluppo, le prove e la sperimentazione in tale spazio.
(141)
За да се ускори процесът на разработване и пускане на пазара на високорисковите системи с ИИ, чийто списък се съдържа в приложение към настоящия регламент, е важно доставчиците или потенциалните доставчици на такива системи да могат да ползват специален режим за изпитване на тези системи в реални условия и без да участват в регулаторна лаборатория в областта на ИИ. В такива случаи обаче, предвид евентуалните последици, които това изпитване може да има върху хората, следва да се гарантира, че настоящият регламент въвежда подходящи и достатъчни гаранции и условия по отношение на доставчиците или потенциалните доставчици. Тези гаранции следва да включват, наред с другото, искането на информирано съгласие от физическите лица за участие в изпитвания в реални условия, освен в правоохранителната област, когато искането на информирано съгласие би попречило на изпитването на системата с ИИ. Съгласието на субектите на данни да участват в такива изпитвания в съответствие с настоящия регламент е различно от съгласието на субектите на данни личните им данни да бъдат обработвани съгласно съответното законодателство за защита на данните и не засяга това съгласие. Важно е също така рисковете да бъдат сведени до минимум и компетентните органи да могат да упражняват надзор, във връзка с което да се въведат изисквания потенциалните доставчици да представят на компетентния орган за надзор на пазара план за изпитване в реални условия, да регистрират изпитването в специални раздели на базата данни на ЕС с ограничен брой изключения, да определят ограничения на срока, в който може да се извърши изпитването, както и да се изискват допълнителни гаранции за лица, принадлежащи към определени уязвими групи, и писмено споразумение, в което се установяват функциите и отговорностите на потенциалните доставчици и внедрителите и ефективен надзор от страна на компетентния персонал, участващ в изпитванията в реални условия. Освен това е целесъобразно да се предвидят допълнителни гаранции, за да се гарантира, че прогнозите, препоръките или решенията на дадена система с ИИ могат ефективно да се отменят и пренебрегнат, както и че личните данни са защитени и се заличават, след като субектите в изпитването са оттеглили съгласието си за участие в изпитването, без да се засягат правата им като субекти на данни съгласно правото на Съюза в областта на защитата на данните. По отношение на предаването на данни е целесъобразно също така да се предвиди, че данните, събирани и обработвани за целите на изпитването в реални условия, следва да се предават на трети държави само при прилагане на подходящи и приложими гаранции съгласно правото на Съюза, по-специално в съответствие с основанията за предаване на лични данни съгласно правото на Съюза относно защитата на данните, докато по отношение на неличните данни се прилагат подходящи гаранции в съответствие с правото на Съюза, като например регламенти (ЕС) 2022/868 (42) и (ЕС) 2023/2854 (43) на Европейския парламент и на Съвета.
(141)
Al fine di accelerare il processo di sviluppo e immissione sul mercato dei sistemi di IA ad alto rischio elencati in un allegato del presente regolamento, è importante che anche i fornitori o i potenziali fornitori di tali sistemi possano beneficiare di un regime specifico per sottoporre a prova tali sistemi in condizioni reali, senza partecipare a uno spazio di sperimentazione normativa per l'IA. Tuttavia, in tali casi, e tenendo conto delle possibili conseguenze di tali prove sulle persone, è opportuno garantire che il presente regolamento introduca garanzie e condizioni adeguate e sufficienti per i fornitori o potenziali fornitori. Tali garanzie dovrebbero includere, tra l'altro, la richiesta del consenso informato delle persone fisiche a partecipare a prove in condizioni reali, ad eccezione delle autorità di contrasto quando la richiesta di consenso informato impedirebbe di sottoporre a prova il sistema di IA. Il consenso dei soggetti a partecipare a tali prove a norma del presente regolamento è distinto e non pregiudica il consenso degli interessati al trattamento dei loro dati personali ai sensi della pertinente normativa in materia di protezione dei dati. È inoltre importante ridurre al minimo i rischi e consentire la sorveglianza da parte delle autorità competenti e richiedere pertanto ai potenziali fornitori di disporre di un piano di prova in condizioni reali presentato all'autorità di vigilanza del mercato competente, di registrare le prove in sezioni dedicate della banca dati dell'UE, fatte salve alcune limitate eccezioni, di fissare limiti al periodo nel quale possono essere effettuate le prove e di richiedere tutele aggiuntive per le persone appartenenti a certi gruppi vulnerabili, nonché un accordo scritto che definisca i ruoli e le responsabilità dei potenziali fornitori e dei deployer e una sorveglianza efficace da parte del personale competente coinvolto nelle prove in condizioni reali. È inoltre opportuno prevedere tutele aggiuntive per garantire che le previsioni, le raccomandazioni o le decisioni del sistema di IA possano essere efficacemente ribaltate e ignorate e che i dati personali siano protetti e cancellati quando i soggetti hanno revocato il loro consenso a partecipare alle prove, fatti salvi i loro diritti in qualità di interessati ai sensi della normativa dell'Unione in materia di protezione dei dati. Per quanto riguarda il trasferimento dei dati, è inoltre opportuno prevedere che i dati raccolti e trattati ai fini delle prove in condizioni reali siano trasferiti a paesi terzi solo se sono attuate tutele adeguate e applicabili ai sensi del diritto dell'Unione, in particolare conformemente alle basi per il trasferimento di dati personali ai sensi del diritto dell'Unione in materia di protezione dei dati, mentre per i dati non personali sono poste in essere tutele adeguate conformemente al diritto dell'Unione, quali il regolamento (UE) 2022/868 (42) e il regolamento (UE) 2023/2854 (43) del Parlamento europeo e del Consiglio.
(142)
За да се гарантира, че ИИ води до благоприятни за обществото и околната среда резултати, държавите членки се насърчават да подкрепят и поощряват научните изследвания и разработването на решения в областта на ИИ, способстващи за постигането на такива резултати — например основани на ИИ решения за увеличаване на достъпността за хората с увреждания, противодействие на социално-икономическите неравенства или постигане на екологичните цели, чрез разпределяне на достатъчно ресурси, включително публично финансиране и финансиране от Съюза, и когато е целесъобразно и при условие че са изпълнени критериите за допустимост и подбор, разглеждане на проекти, които преследват тези цели. Такива проекти следва да се основават на принципа на интердисциплинарното сътрудничество между разработчици на ИИ, експерти по въпросите на неравенството и недискриминацията, достъпността, правата на потребителите, правата, свързани с околната среда, и цифровите права, както и академичните среди.
(142)
Per garantire che l'IA porti a risultati vantaggiosi sul piano sociale e ambientale, gli Stati membri sono incoraggiati a sostenere e promuovere la ricerca e lo sviluppo di soluzioni di IA a sostegno di risultati vantaggiosi dal punto di vista sociale e ambientale, come le soluzioni basate sull'IA per aumentare l'accessibilità per le persone con disabilità, affrontare le disuguaglianze socioeconomiche o conseguire obiettivi in materia di ambiente, assegnando risorse sufficienti, compresi i finanziamenti pubblici e dell'Unione, e, se del caso e a condizione che siano soddisfatti i criteri di ammissibilità e selezione, prendendo in considerazione soprattutto i progetti che perseguono tali obiettivi. Tali progetti dovrebbero basarsi sul principio della cooperazione interdisciplinare tra sviluppatori dell'IA, esperti in materia di disuguaglianza e non discriminazione, accessibilità e diritti ambientali, digitali e dei consumatori, nonché personalità accademiche.
(143)
С цел насърчаване и защита на иновациите е важно да се обърне специално внимание на интересите на МСП, включително новосъздадените предприятия, които са доставчици или внедрители на системи с ИИ. За тази цел държавите членки следва да разработят инициативи, насочени към тези оператори, включително за повишаване на осведомеността и съобщаването на информация. Държавите членки следва да осигуряват на МСП, включително новосъздадените предприятия, които имат седалище или клон в Съюза, приоритетен достъп до регулаторните лаборатории в областта на ИИ, при условие че те отговарят на условията за допустимост и на критериите за подбор, без да се възпрепятства достъпът на други доставчици и потенциални доставчици до лабораториите, при условие че са изпълнени същите условия и критерии. Държавите членки следва да използват наличните, а когато е целесъобразно - да създават нови, специални канали за комуникация с МСП, новосъздадени предприятия, внедрители, други новатори и - в зависимост от случая - органи на местна власт, с цел да подпомагат МСП по пътя им на развитие чрез даване на насоки и отговаряне на запитвания във връзка с прилагането на настоящия регламент. Когато е целесъобразно, тези канали следва да работят заедно, за да се създадат полезни взаимодействия и да се гарантира еднообразност на насоките за МСП, включително новосъздадените предприятия, и внедрителите. Наред с това държавите членки следва да улесняват участието на МСП и на други заинтересовани страни в процесите на разработване на стандарти. Освен това, при определянето на таксите за оценяване на съответствието нотифицираните органи следва да вземат предвид особените интереси и нужди на доставчиците, които са МСП, включително новосъздадени предприятия. Комисията следва да оценява редовно разходите на МСП, включително новосъздадените предприятия, за сертифициране и привеждане в съответствие чрез прозрачни консултации и следва да работи с държавите членки за понижаването на тези разходи. Така например разходите за превод, свързани със задължителната документация и комуникацията с органите, могат да представляват значителни разходи за доставчиците и другите оператори, по-специално за по-малките. Държавите членки следва по възможност да гарантират, че един от езиците, определени и приети от тях за съответната документация на доставчиците и за комуникация с операторите, е език, които в значителна степен се разбира от възможно най-голям брой трансгранични внедрители. За да се отговори на специфичните нужди на МСП, включително новосъздадените предприятия, Комисията следва да осигури стандартизирани образци за областите, обхванати от настоящия регламент, по искане на Съвета по ИИ. Освен това Комисията следва да допълни усилията на държавите членки, като осигури единна информационна платформа с лесна за ползване информация относно настоящия регламент, предназначена за всички доставчици и внедрители, като организира подходящи комуникационни кампании за повишаване на осведомеността относно задълженията, произтичащи от настоящия регламент, и като оценява и насърчава сближаването на най-добрите практики, прилагани в рамките на процедурите за възлагане на обществени поръчки във връзка със системите с ИИ. Средните предприятия, които доскоро са съответствали на критериите за малки предприятия по смисъла на приложението към Препоръка 2003/361/ЕО на Комисията (44), следва да имат достъп до тези мерки за подкрепа, тъй като е възможно тези нови средни предприятия да не разполагат с правните ресурси и обучението, необходими, за да се гарантира правилното разбиране и спазване на настоящия регламент.
(143)
Al fine di promuovere e proteggere l'innovazione, è importante che siano tenuti in particolare considerazione gli interessi delle PMI, comprese le start-up, che sono fornitrici o deployer di sistemi di IA. È a tal fine opportuno che gli Stati membri sviluppino iniziative destinate a tali operatori, anche in materia di sensibilizzazione e comunicazione delle informazioni. Gli Stati membri dovrebbero fornire alle PMI, comprese le start-up, con sede legale o una filiale nell'Unione, un accesso prioritario agli spazi di sperimentazione normativa per l'IA, purché soddisfino le condizioni di ammissibilità e i criteri di selezione e senza precludere ad altri fornitori e potenziali fornitori l'accesso agli spazi di sperimentazione, a condizione che siano soddisfatti gli stessi criteri e le stesse condizioni. Gli Stati membri dovrebbero utilizzare i canali esistenti e, ove opportuno, istituiscono nuovi canali dedicati per la comunicazione con le PMI, comprese le start-up, i deployer, altri innovatori e, se del caso, le autorità pubbliche locali, al fine di sostenere le PMI nel loro percorso di sviluppo fornendo orientamenti e rispondendo alle domande sull'attuazione del presente regolamento. Se del caso, tali canali dovrebbero collaborare per creare sinergie e garantire l'omogeneità dei loro orientamenti per le PMI, comprese le start-up, e i deployer. Inoltre, gli Stati membri dovrebbero agevolare la partecipazione delle PMI e di altri portatori di interessi pertinenti ai processi di sviluppo della normazione. Gli organismi notificati, nel fissare le tariffe per la valutazione della conformità, dovrebbero tenere in considerazione gli interessi e le esigenze specifici dei fornitori che sono PMI, comprese le start-up. La Commissione dovrebbe valutare periodicamente i costi di certificazione e di conformità per le PMI, comprese le start-up, attraverso consultazioni trasparenti e dovrebbe collaborare con gli Stati membri per ridurre tali costi. Ad esempio, le spese di traduzione connesse alla documentazione obbligatoria e alla comunicazione con le autorità possono rappresentare un costo significativo per i fornitori e gli altri operatori, in particolare quelli di dimensioni ridotte. Gli Stati membri dovrebbero garantire, se possibile, che una delle lingue da essi indicate e accettate per la documentazione dei fornitori pertinenti e per la comunicazione con gli operatori sia una lingua ampiamente compresa dal maggior numero possibile di deployer transfrontalieri. Al fine di rispondere alle esigenze specifiche delle PMI, comprese le start-up, la Commissione dovrebbe fornire modelli standardizzati per i settori disciplinati dal presente regolamento, su richiesta del consiglio per l'IA. Inoltre, la Commissione dovrebbe integrare gli sforzi degli Stati membri fornendo a tutti i fornitori e i deployer una piattaforma unica di informazioni di facile utilizzo in relazione al presente regolamento, organizzando adeguate campagne di comunicazione per sensibilizzare in merito agli obblighi derivanti dal presente regolamento e valutando e promuovendo la convergenza delle migliori pratiche nelle procedure di appalto pubblico in relazione ai sistemi di IA. Le imprese che di recente sono passate dalla categoria delle piccole imprese a quella delle medie imprese ai sensi dell'allegato della raccomandazione 2003/361/CE (44) della Commissione dovrebbero avere accesso a tali misure di sostegno, in quanto queste nuove imprese di medie dimensioni possono talvolta non disporre delle risorse giuridiche e della formazione necessarie per garantire una corretta comprensione del presente regolamento e la conformità ad esso.
(144)
С цел насърчаване и защита на иновациите платформата за ИИ по заявка, всички съответни програми и проекти на Съюза за финансиране, като например програмите „Цифрова Европа“ и „Хоризонт Европа“, изпълнявани от Комисията и държавите членки на национално равнище или на равнището на Съюза, следва, когато е целесъобразно, да допринасят за постигането на целите на настоящия регламент.
(144)
Al fine di promuovere e proteggere l'innovazione, la piattaforma di IA on demand e tutti i pertinenti programmi e progetti di finanziamento dell'Unione, quali il programma Europa digitale e Orizzonte Europa, attuati dalla Commissione e dagli Stati membri a livello dell'Unione o nazionale, a seconda dei casi, dovrebbero contribuire al conseguimento degli obiettivi del presente regolamento.
(145)
За да се сведат до минимум рисковете за правоприлагането, произтичащи от липсата на знания и експертен опит на пазара, както и за да се улесни спазването на задълженията по настоящия регламент от страна на доставчиците, по-специално МСП, включително новосъздадените предприятия, и нотифицираните органи, платформата за ИИ по заявка, европейските цифрови иновационни центрове и структурите за изпитване и експериментиране, създадени от Комисията и държавите членки на национално равнище или на равнището на Съюза, следва да допринасят за прилагането на настоящия регламент. В рамките на своята мисия и области на компетентност платформата за ИИ по заявка, европейските цифрови иновационни центрове и структурите за изпитване и експериментиране могат да предоставят по-специално техническа и научна подкрепа на доставчиците и нотифицираните органи.
(145)
Al fine di ridurre al minimo i rischi per l'attuazione derivanti dalla mancanza di conoscenze e competenze sul mercato, nonché per agevolare il rispetto, da parte dei fornitori, in particolare le PMI, comprese le start-up, e degli organismi notificati, degli obblighi loro imposti dal presente regolamento, è opportuno che la piattaforma di IA on demand, i poli europei dell'innovazione digitale e gli impianti di prova e sperimentazione istituiti dalla Commissione e dagli Stati membri a livello dell'Unione o nazionale contribuiscano all'attuazione del presente regolamento. Nell'ambito delle rispettive missioni e dei rispettivi settori di competenza, la piattaforma di IA on demand, i poli europei dell'innovazione digitale e gli impianti di prova e sperimentazione sono in grado di fornire, in particolare, sostegno tecnico e scientifico ai fornitori e agli organismi notificati.
(146)
Освен това, предвид твърде малкия размер на някои оператори и с цел да се гарантира пропорционалност по отношение на разходите за иновации, е целесъобразно да се даде възможност на микропредприятията да изпълнят едно от най-скъпо струващите задължения, а именно създаването на система за управление на качеството, по опростен начин, което би намалило административната тежест и разходите за тези предприятия, без да се засягат равнището на защита и необходимостта от съответствие с изискванията за високорисковите системи с ИИ. Комисията следва да разработи насоки с цел да се определят елементите на системата за управление на качеството, които трябва да бъдат изпълнени по този опростен начин от микропредприятията.
(146)
Inoltre, alla luce delle dimensioni molto ridotte di alcuni operatori e al fine di garantire la proporzionalità rispetto ai costi dell'innovazione, è opportuno consentire alle microimprese di adempiere a uno degli obblighi più dispendiosi, vale a dire l'istituzione di un sistema di gestione della qualità, in un modo semplificato che ridurrebbe gli oneri amministrativi e i costi a carico di tali imprese senza incidere sul livello di protezione e sulla necessità di rispettare i requisiti per i sistemi di IA ad alto rischio. La Commissione dovrebbe elaborare orientamenti per specificare gli elementi del sistema di gestione della qualità che le microimprese devono soddisfare in tale modo semplificato.
(147)
Целесъобразно е Комисията да улеснява, доколкото е възможно, достъпа до структури за изпитване и експериментиране на органи, групи или лаборатории, създадени или акредитирани съгласно съответното законодателство на Съюза за хармонизация, които изпълняват задачи в контекста на оценяването на съответствието на продукти или изделия, попадащи в обхвата на посоченото законодателство на Съюза за хармонизация. Такъв е по-специално случаят с експертните групи, специализираните лаборатории и референтните лаборатории в областта на медицинските изделия съгласно регламенти (ЕС) 2017/745 и (ЕС) 2017/746.
(147)
È opportuno che la Commissione agevoli, nella misura del possibile, l'accesso agli impianti di prova e sperimentazione di organismi, gruppi o laboratori istituiti o accreditati a norma di qualsiasi pertinente normativa di armonizzazione dell'Unione che assolvono compiti nel contesto della valutazione della conformità di prodotti o dispositivi contemplati da tale normativa di armonizzazione dell'Unione. Ciò vale in particolare per quanto riguarda i gruppi di esperti, i laboratori specializzati e i laboratori di riferimento nel settore dei dispositivi medici a norma dei regolamenti (UE) 2017/745 e (UE) 2017/746.
(148)
С настоящия регламент следва да се създаде рамка за управление, която да позволява координация и подкрепа при прилагането на настоящия регламент на национално равнище, както и изграждане на капацитет на равнището на Съюза и включване на заинтересованите страни в областта на изкуствения интелект. Ефективното изпълнение и прилагане на настоящия регламент изискват рамка за управление, която да дава възможност за координация и изграждане на експертен опит на централно ниво, на равнището на Съюза. Службата по ИИ беше създадена с решение на Комисията (45) с мисията да развива експертния опит и способностите на Съюза в областта на ИИ и да допринася за прилагането на правото на Съюза в областта на ИИ. Държавите членки следва да улесняват изпълнението на задачите на Службата по ИИ с цел да се подпомогне развитието на експертния опит на Съюза и на способностите на равнището на Съюза и да се укрепи функционирането на цифровия единен пазар. Наред с това следва да бъдат създадени Съвет по ИИ, съставен от представители на държавите членки, експертна група, с която да се привлече научната общност, и консултативен форум, чрез който заинтересованите страни да допринасят за прилагането на настоящия регламент както на национално равнище, така и на равнището на Съюза. Развитието на експертния опит и способностите на Съюза следва да включва също така използването на съществуващите ресурси и експертен опит, по-специално чрез полезни взаимодействия със структури, изградени в контекста на прилагането в рамките на Съюза на друго законодателство, както и полезни взаимодействия със свързани инициативи на равнището на Съюза, например Съвместното предприятие за европейски високопроизводителни изчисления (EuroHPC) и съоръженията за изпитване и експериментиране с ИИ в рамките на програмата „Цифрова Европа“.
(148)
Il presente regolamento dovrebbe istituire un quadro di governance che consenta di coordinare e sostenere l'applicazione dello stesso a livello nazionale, nonché di sviluppare capacità a livello dell'Unione e integrare i portatori di interessi nel settore dell'IA. L'attuazione e l'esecuzione efficaci del presente regolamento richiedono un quadro di governance che consenta di coordinare e sviluppare competenze centrali a livello dell'Unione. L'ufficio per l'IA è stato istituito con decisione della Commissione (45) e ha la missione di sviluppare competenze e capacità dell'Unione nel settore dell'IA e di contribuire all'attuazione del diritto dell'Unione in materia di IA. Gli Stati membri dovrebbero facilitare i compiti dell'ufficio per l'IA al fine di sostenere lo sviluppo di competenze e capacità dell'Unione a livello dell'Unione e di rafforzare il funzionamento del mercato unico digitale. È inoltre opportuno istituire un consiglio per l'IA composto da rappresentanti degli Stati membri, un gruppo di esperti scientifici volto a integrare la comunità scientifica e un forum consultivo per raccogliere il contributo dei portatori di interessi all'attuazione del presente regolamento, a livello dell'Unione e nazionale. Lo sviluppo delle competenze e delle capacità dell'Unione dovrebbe includere anche l'utilizzo delle risorse e delle competenze esistenti, in particolare grazie a sinergie con le strutture create nel contesto dell'esecuzione a livello dell'Unione di altre disposizioni e a sinergie con le iniziative correlate a livello dell'Unione, quali l'impresa comune EuroHPC e gli impianti di prova e sperimentazione dell'IA nell'ambito del programma Europa digitale.
(149)
С цел подпомагане на безпрепятственото, ефективно и хармонизирано прилагане на настоящия регламент следва да бъде създаден Съвет по ИИ. Той следва да отразява различните интереси в рамките на екосистемата на ИИ и да се състои от представители на държавите членки. Съветът по ИИ следва да отговаря за изпълнението на редица консултативни задачи, включително да приема становища, препоръки, съвети или да допринася за приемането на насоки по въпроси, свързани с изпълнението на настоящия регламент, включително по въпроси на прилагането, техническите спецификации или съществуващите стандарти във връзка с изискванията, установени в настоящия регламент, и да консултира Комисията и държавите членки и техните национални компетентни органи по конкретни въпроси, свързани с ИИ. За да се осигури известна гъвкавост за държавите членки при определянето на техните представители в Съвета по ИИ, представители могат да бъдат всички лица, принадлежащи към публични субекти, които следва да разполагат със съответните компетентност и правомощия да улесняват координацията на национално равнище и да допринасят за изпълнението на задачите на Съвета по ИИ. Съветът по ИИ следва да създаде две постоянни подгрупи, които да осигуряват платформа за сътрудничество и обмен между органите за надзор на пазара и нотифициращите органи по въпроси, свързани съответно с надзора на пазара и нотифицираните органи. Постоянната подгрупа за надзор на пазара следва да действа като група за административно сътрудничество (ADCO група) за настоящия регламент по смисъла на член 30 от Регламент (ЕС) 2019/1020. В съответствие с член 33 от същия регламент Комисията следва да подпомага дейностите на постоянната подгрупа за надзор на пазара чрез извършване на оценки или проучвания на пазара, по-специално с цел да се установят аспекти на настоящия регламент, изискващи специфична и спешна координация между органите за надзор на пазара. Съветът по ИИ може да създаде други постоянни или временни подгрупи, когато това е целесъобразно за разглеждането на конкретни въпроси. Съветът по ИИ следва също така да си сътрудничи, когато е целесъобразно, със съответните органи, експертни групи и мрежи на Съюза, извършващи дейност в контекста на съответното право на Съюза, включително по-специално извършващите дейност съгласно правото на Съюза в областта на данните и цифровите продукти и услуги.
(149)
Al fine di facilitare un'attuazione agevole, efficace e armonizzata del presente regolamento, è opportuno istituire un consiglio per l'IA. Il consiglio per l'IA dovrebbe riflettere i vari interessi dell'ecosistema dell'IA ed essere composto da rappresentanti degli Stati membri. Il consiglio per l'IA dovrebbe essere responsabile di una serie di compiti consultivi, tra cui l'emanazione di pareri, raccomandazioni, consulenze o il contributo all'emanazione di orientamenti su questioni relative all'attuazione del presente regolamento, comprese le questioni relative all'esecuzione, le specifiche tecniche o le norme esistenti per quanto riguarda i requisiti stabiliti nel presente regolamento, e la fornitura di consulenza alla Commissione, agli Stati membri e alle rispettive autorità nazionali competenti su questioni specifiche connesse all'IA. Al fine di offrire una certa flessibilità agli Stati membri nella designazione dei loro rappresentanti all'interno del consiglio per l'IA, tali rappresentanti possono essere persone appartenenti a entità pubbliche dotate delle competenze e dei poteri pertinenti per facilitare il coordinamento a livello nazionale e contribuire all'adempimento dei compiti del consiglio per l'IA. Il consiglio per l'IA dovrebbe istituire due sottogruppi permanenti al fine di fornire una piattaforma di cooperazione e scambio tra le autorità di vigilanza del mercato e le autorità di notifica su questioni relative, rispettivamente, alla vigilanza del mercato e agli organismi notificati. Il sottogruppo permanente per la vigilanza del mercato dovrebbe fungere da gruppo di cooperazione amministrativa (ADCO) per il presente regolamento ai sensi dell'articolo 30 del regolamento (UE) 2019/1020. In conformità dell'articolo 33 di tale regolamento, la Commissione dovrebbe sostenere le attività del sottogruppo permanente per la vigilanza del mercato effettuando valutazioni o studi di mercato, in particolare al fine di individuare gli aspetti del presente regolamento che richiedono un coordinamento specifico e urgente tra le autorità di vigilanza del mercato. Il consiglio per l'IA può istituire altri sottogruppi permanenti o temporanei, se del caso, ai fini dell'esame di questioni specifiche. Il consiglio per l'IA dovrebbe inoltre cooperare, se del caso, con i pertinenti organismi, gruppi di esperti e reti dell'Unione attivi nel contesto del pertinente diritto dell'Unione, compresi in particolare quelli attivi a norma del pertinente diritto dell'Unione sui dati, i prodotti e i servizi digitali.
(150)
За да се гарантира участието на заинтересованите страни в изпълнението и прилагането на настоящия регламент, следва да се създаде консултативен форум, който да консултира и да предоставя технически експертни становища на Съвета по ИИ и на Комисията. За да се гарантира разнообразно и балансирано представителство на заинтересованите страни, свързани с търговски и нетърговски интереси и, в рамките на категорията на търговските интереси, на МСП и други предприятия, консултативният форум следва да включва, наред с другото, стопанския сектор, новосъздадените предприятия, МСП, академичните среди, гражданското общество, включително социалните партньори, както и Агенцията за основните права, ENISA, Европейския комитет по стандартизация (CEN), Европейския комитет за стандартизация в електротехниката (CENELEC) и Европейския институт за стандарти в далекосъобщенията (ETSI).
(150)
Al fine di garantire il coinvolgimento dei portatori di interessi nell'attuazione e nell'applicazione del presente regolamento, è opportuno istituire un forum consultivo per fornire consulenza e competenze tecniche al consiglio per l'IA e alla Commissione. Al fine di garantire una rappresentanza diversificata ed equilibrata dei portatori di interessi che tenga conto di interessi commerciali e non commerciali e, all'interno della categoria degli interessi commerciali, con riferimento alle PMI e alle altre imprese, il forum consultivo dovrebbe comprendere, tra l'altro, l'industria, le start-up, le PMI, il mondo accademico, la società civile, comprese le parti sociali, nonché l'Agenzia per i diritti fondamentali, l'ENISA, il Comitato europeo di normazione (CEN), il Comitato europeo di normazione elettrotecnica (CENELEC) e l'Istituto europeo delle norme di telecomunicazione (ETSI).
(151)
За да се подпомогне изпълнението и прилагането на настоящия регламент, и по-специално дейностите по мониторинг на Службата по ИИ по отношение на моделите на ИИ с общо предназначение, следва да се създаде експертна група, съставена от независими експерти. Независимите експерти, които влизат в състава на експертната група, следва да бъдат подбрани въз основа на актуални научни или технически експертни познания в областта на ИИ, да изпълняват задачите си безпристрастно и обективно и да гарантират поверителността на информацията и данните, получени при изпълнението на задачите и дейностите си. За да се даде възможност за укрепване на националния капацитет, необходим за ефективното прилагане на настоящия регламент, държавите членки следва да могат да искат съдействие от експертите, влизащи в състава на експертната група, във връзка с дейностите си по прилагане на регламента.
(151)
Al fine di sostenere l'attuazione e l'esecuzione del presente regolamento, in particolare le attività di monitoraggio dell'ufficio per l'IA per quanto riguarda i modelli di IA per finalità generali, è opportuno istituire un gruppo di esperti scientifici indipendenti. Gli esperti indipendenti che costituiscono il gruppo dovrebbero essere selezionati sulla base di competenze scientifiche o tecniche aggiornate nel settore dell'IA e dovrebbero svolgere i loro compiti con imparzialità e obiettività e garantire la riservatezza delle informazioni e dei dati ottenuti nello svolgimento dei loro compiti e delle loro attività. Per consentire il potenziamento delle capacità nazionali necessarie per l'efficace esecuzione del presente regolamento, gli Stati membri dovrebbero essere in grado di chiedere il sostegno della riserva di esperti che costituisce il gruppo di esperti scientifici per le loro attività di esecuzione.
(152)
С цел да се допринесе за адекватното правоприлагане по отношение на системите с ИИ и да се укрепи капацитетът на държавите членки, следва да се създадат структури на Съюза за подкрепа на изпитванията в областта на ИИ, които да бъдат на разположение на държавите членки.
(152)
Al fine di sostenere un'esecuzione adeguata per quanto riguarda i sistemi di IA e rafforzare le capacità degli Stati membri, è opportuno istituire e mettere a disposizione degli Stati membri strutture di sostegno dell'Unione per la prova dell'IA.
(153)
Държавите членки заемат ключово място в прилагането и изпълнението на настоящия регламент. Във връзка с това всяка държава членка следва да определи най-малко един нотифициращ орган и най-малко един орган за надзор на пазара в качеството им на национални компетентни органи за целите на надзора върху прилагането и изпълнението на настоящия регламент. Държавите членки могат да решат да определят всякакъв вид публичен субект да изпълнява задачите на националните компетентни органи по смисъла на настоящия регламент, в съответствие със своите конкретни национални организационни характеристики и нужди. С цел да се повиши ефективността на организацията от страна на държавите членки и да се създаде единно звено за контакт с обществеността и други партньори на равнището на държавите членки и на Съюза, всяка държава членка следва да определи орган за надзор на пазара, който да изпълнява функциите на единно звено за контакт.
(153)
Gli Stati membri svolgono un ruolo chiave nell'applicare ed eseguire il presente regolamento. A tale riguardo, è opportuno che ciascuno Stato membro designi almeno una autorità di notifica e almeno una autorità di vigilanza del mercato come autorità nazionali competenti al fine di controllare l'applicazione e l'attuazione del presente regolamento. Gli Stati membri possono decidere di nominare qualsiasi tipo di entità pubblica per svolgere i compiti delle autorità nazionali competenti ai sensi del presente regolamento, conformemente alle loro specifiche caratteristiche ed esigenze organizzative nazionali. Al fine di incrementare l'efficienza organizzativa da parte degli Stati membri e di istituire un punto di contatto unico nei confronti del pubblico e di altre controparti sia a livello di Stati membri sia a livello di Unione, è opportuno che ciascuno Stato membro designi un'autorità di vigilanza del mercato come punto di contatto unico.
(154)
Националните компетентни органи следва да упражняват правомощията си независимо, безпристрастно и непредубедено, за да бъдат спазени принципите за обективност в дейностите и задачите им и да се гарантира прилагането и изпълнението на настоящия регламент. Членовете на тези органи следва да се въздържат от всякакви действия, несъвместими с техните задължения, и да спазват правилата за поверителност съгласно настоящия регламент.
(154)
Le autorità nazionali competenti dovrebbero esercitare i loro poteri in modo indipendente, imparziale e senza pregiudizi, in modo da salvaguardare i principi di obiettività delle loro attività e dei loro compiti e garantire l'applicazione e l'attuazione del presente regolamento. I membri di tali autorità dovrebbero astenersi da qualsiasi atto incompatibile con le loro funzioni e dovrebbero essere soggetti alle norme in materia di riservatezza ai sensi del presente regolamento.
(155)
За да се гарантира, че доставчиците на високорискови системи с ИИ могат да вземат предвид опита от използването на високорискови системи с ИИ с цел да подобряват своите системи и процеса на проектиране и разработване, или че могат своевременно да предприемат евентуални коригиращи действия, всички доставчици следва да разполагат със система за мониторинг след пускането на пазара. Когато е целесъобразно, мониторингът след пускането на пазара следва да включва анализ на взаимодействието с други системи с ИИ, включително други устройства и софтуер. Мониторингът след пускането на пазара не следва да обхваща чувствителни оперативни данни на внедрители, които са правоохранителни органи. Тази система е от ключово значение и с оглед на това да се гарантира, че възможните рискове, произтичащи от системите с ИИ, които продължават да се обучават след пускането им на пазара или пускането им в действие, могат да бъдат преодолени по-ефикасно и своевременно. В този контекст от доставчиците следва също да се изисква да разполагат със система за докладване до съответните органи за всякакви сериозни инциденти, които произтичат от използването на техните системи с ИИ и представляват инцидент или неизправност, водещ(а) до смърт или сериозно увреждане на здравето, сериозно и необратимо нарушаване на управлението и експлоатацията на критична инфраструктура, нарушения на задължения съгласно правото на Съюза, имащо за цел да защитава основните права, или сериозно увреждане на имущество или на околната среда.
(155)
Al fine di garantire che i fornitori di sistemi di IA ad alto rischio possano tenere in considerazione l'esperienza sull'uso di sistemi di IA ad alto rischio per migliorare i loro sistemi e il processo di progettazione e sviluppo o possano adottare tempestivamente eventuali misure correttive, è opportuno che tutti i fornitori dispongano di un sistema di monitoraggio successivo all'immissione sul mercato. Se del caso, il monitoraggio successivo all'immissione sul mercato dovrebbe includere un'analisi dell'interazione con altri sistemi di IA, compresi altri dispositivi e software. Il monitoraggio successivo all'immissione sul mercato non dovrebbe riguardare i dati operativi sensibili dei deployer che sono autorità di contrasto. Tale sistema è altresì fondamentale per garantire che i possibili rischi derivanti dai sistemi di IA che proseguono il loro «apprendimento» dopo essere stati immessi sul mercato o messi in servizio possano essere affrontati in modo più efficiente e tempestivo. I fornitori dovrebbero anche essere tenuti, in tale contesto, a predisporre un sistema per segnalare alle autorità competenti eventuali incidenti gravi derivanti dall'uso dei loro sistemi di IA, vale a dire incidenti o malfunzionamenti che comportano il decesso o gravi danni alla salute, perturbazioni gravi e irreversibili della gestione o del funzionamento delle infrastrutture critiche, violazioni degli obblighi ai sensi del diritto dell'Unione intesi a proteggere i diritti fondamentali o gravi danni alle cose o all'ambiente.
(156)
С оглед да се гарантира подходящо и ефективно прилагане на изискванията и задълженията, установени с настоящия регламент, който е част от законодателството на Съюза за хармонизация, системата за надзор на пазара и съответствие на продуктите, установена с Регламент (ЕС) 2019/1020, следва да се прилага в своята цялост. Органите за надзор на пазара, определени съгласно настоящия регламент, следва да разполагат с всички правомощия за осигуряване на спазването, установени съгласно настоящия регламент и Регламент (ЕС) 2019/1020, и следва да упражняват своите правомощия и да изпълняват своите задължения независимо, безпристрастно и непредубедено. Въпреки че за по-голямата част от системите с ИИ не се прилагат специални изисквания и задължения съгласно настоящия регламент, органите за надзор на пазара могат да предприемат мерки по отношение на всички системи с ИИ, когато те представляват риск в съответствие с настоящия регламент. Поради особеното естество на институциите, агенциите и органите на Съюза, попадащи в обхвата на настоящия регламент, е целесъобразно Европейският надзорен орган по защита на данните да бъде определен за компетентен орган за надзор на пазара по отношение на тях. Това не следва да засяга определянето на национални компетентни органи от държавите членки. Дейностите по надзор на пазара не следва да засягат способността на поднадзорните субекти да изпълняват задачите си по независим начин, когато тази независимост се изисква от правото на Съюза.
(156)
Al fine di garantire un'esecuzione adeguata ed efficace dei requisiti e degli obblighi stabiliti dal presente regolamento, che costituisce la normativa di armonizzazione dell'Unione, è opportuno che si applichi nella sua interezza il sistema di vigilanza del mercato e di conformità dei prodotti istituito dal regolamento (UE) 2019/1020. Le autorità di vigilanza del mercato designate a norma del presente regolamento dovrebbero disporre di tutti i poteri di esecuzione di cui al presente regolamento e al regolamento (UE) 2019/1020 e dovrebbero esercitare i loro poteri e svolgere le loro funzioni in modo indipendente, imparziale e senza pregiudizi. Sebbene la maggior parte dei sistemi di IA non sia soggetta a requisiti e obblighi specifici a norma del presente regolamento, le autorità di vigilanza del mercato possono adottare misure in relazione a tutti i sistemi di IA che presentino un rischio conformemente al presente regolamento. Data la natura specifica delle istituzioni, degli organi e degli organismi dell'Unione che rientrano nell'ambito di applicazione del presente regolamento, è opportuno designare il Garante europeo della protezione dei dati quale autorità di vigilanza del mercato per essi competente. Ciò non dovrebbe pregiudicare la designazione di autorità nazionali competenti da parte degli Stati membri. Le attività di vigilanza del mercato non dovrebbero pregiudicare la capacità delle entità sottoposte a vigilanza di svolgere i loro compiti in modo indipendente, qualora tale indipendenza sia richiesta dal diritto dell'Unione.
(157)
Настоящият регламент не засяга компетентността, задачите, правомощията и независимостта на съответните национални публични органи или структури, които упражняват надзор върху прилагането на правото на Съюза за защита на основните права, включително органите по въпросите на равенството и органите за защита на данните. Когато това е необходимо за упражняването на техните правомощия, тези национални публични органи или структури следва също така да имат достъп до всяка документация, изготвена съгласно настоящия регламент. Следва да се установи специална предпазна процедура, за да се гарантира адекватното и навременно осигуряване на спазването по отношение на системите с ИИ, които представляват риск за здравето, безопасността и основните права. Процедурата за такива системи с ИИ, представляващи риск, следва да се прилага за високорисковите системи с ИИ, представляващи риск, забранените системи, които са били пуснати на пазара, пуснати в действие или използвани в нарушение на определените в настоящия регламент забранени практики, и системите с ИИ, които са били предоставени в нарушение на установените в настоящия регламент изисквания за прозрачност и представляващи риск.
(157)
Il presente regolamento non pregiudica le competenze, i compiti, i poteri e l'indipendenza delle autorità o degli organismi pubblici nazionali competenti che controllano l'applicazione del diritto dell'Unione che tutela i diritti fondamentali, compresi gli organismi per la parità e le autorità per la protezione dei dati. Ove necessario per il loro mandato, è opportuno che tali autorità od organismi pubblici nazionali abbiano altresì accesso alla documentazione creata a norma del presente regolamento. È opportuno istituire una procedura di salvaguardia specifica per garantire un'esecuzione adeguata e tempestiva rispetto ai sistemi di IA che presentano un rischio per la salute, la sicurezza e i diritti fondamentali. La procedura per siffatti sistemi di IA che presentano un rischio dovrebbe essere applicata ai sistemi di IA ad alto rischio che presentano un rischio, ai sistemi vietati che sono stati immessi sul mercato, messi in servizio o utilizzati in violazione dei divieti riguardanti le pratiche di cui al presente regolamento e ai sistemi di IA che sono stati messi a disposizione in violazione dei requisiti di trasparenza di cui al presente regolamento e che presentano un rischio.
(158)
Правото на Съюза в областта на финансовите услуги включва правила и изисквания за вътрешно управление и управление на риска, които са приложими за регулираните финансови институции в процеса на предоставяне на тези услуги, включително когато те използват системи с ИИ. За да се гарантира съгласувано изпълнение и прилагане на задълженията по настоящия регламент и на съответните правила и изисквания съгласно правните актове на Съюза в областта на финансовите услуги, органите, компетентни за надзора и прилагането съгласно тези правни актове, и по-специално компетентните органи по смисъла на Регламент (ЕС) 575/2013 на Европейския парламент и на Съвета (46) и директиви 2008/48/ЕО (47), 2009/138/ЕО (48), 2013/36/ЕС (49), 2014/17/ЕС (50) и (ЕС) 2016/97 (51) на Европейския парламент и на Съвета, следва да бъдат определени, в рамките на съответната им компетентност, за компетентни органи за целите на надзора на прилагането на настоящия регламент, включително за дейностите по надзор на пазара по отношение на системите с ИИ, предоставяни или използвани от регулирани и поднадзорни финансови институции, освен ако държавите членки не решат да определят друг орган, който да изпълнява тези задачи по надзор на пазара. Тези компетентни органи следва да разполагат с всички правомощия съгласно настоящия регламент и Регламент (ЕС) 2019/1020 за налагане на изпълнението на изискванията и задълженията по настоящия регламент, включително правомощия за извършване на дейности по надзор след пускане на пазара, които могат да бъдат включени, когато е целесъобразно, в техните налични надзорни механизми и процедури съгласно съответното право на Съюза в областта на финансовите услуги. Целесъобразно е да се предвиди, че когато действат като органи за надзор на пазара съгласно настоящия регламент, националните органи, отговорни за надзора над кредитните институции, регулирани съгласно Директива 2013/36/ЕС, които участват в единния надзорен механизъм, създаден с Регламент (ЕС) № 1024/2013 на Съвета (52), следва незабавно да докладват на Европейската централна банка всяка информация, установена в хода на дейностите им по надзор на пазара, която може да представлява потенциален интерес във връзка със задачите на Европейската централна банка по упражняване на пруденциален надзор, определени в посочения регламент. За да се подобри още повече съгласуваността между настоящия регламент и правилата, приложими за кредитните институции, регулирани съгласно Директива 2013/36/ЕС, е целесъобразно също така някои от процедурните задължения на доставчиците във връзка с управлението на риска, мониторинга след пускането на пазара и документирането да бъдат включени в съществуващите задължения и процедури съгласно Директива 2013/36/ЕС. За да се избегне припокриване, следва да се предвидят и ограничени дерогации във връзка със системата за управление на качеството на доставчиците и задължението за мониторинг, наложено на внедрителите на високорискови системи с ИИ, доколкото те се прилагат за кредитни институции, регулирани с Директива 2013/36/ЕС. Същият режим следва да се прилага за застрахователните и презастрахователните предприятия и застрахователните холдинги съгласно Директива 2009/138/ЕО и за застрахователните посредници съгласно Директива (ЕС) 2016/97, както и за други видове финансови институции, за които се прилагат изискванията по отношение на вътрешното управление, механизмите или процесите, установени съгласно съответното право на Съюза в областта на финансовите услуги, с цел да се гарантира последователност и равно третиране във финансовия сектор.
(158)
Il diritto dell'Unione in materia di servizi finanziari comprende regole e requisiti in materia di governance interna e di gestione dei rischi che sono applicabili agli istituti finanziari regolamentati durante la fornitura di tali servizi, anche quando si avvalgono di sistemi di IA. Al fine di garantire la coerenza dell'applicazione e dell'esecuzione degli obblighi previsti dal presente regolamento e delle regole e dei requisiti pertinenti degli atti giuridici dell'Unione in materia di servizi finanziari, è opportuno che le autorità competenti del controllo e dell'esecuzione di tali atti giuridici, in particolare le autorità competenti quali definite al regolamento (UE) n, 575/2013 del Parlamento europeo e del Consiglio (46) e alle direttive 2008/48/CE (47), 2009/138/CE (48), 2013/36/UE (49), 2014/17/UE (50) e (UE) 2016/97 (51) del Parlamento europeo e del Consiglio, siano designate, nell'ambito delle rispettive competenze, quali autorità competenti ai fini del controllo dell'attuazione del presente regolamento, anche in relazione alle attività di vigilanza del mercato, per quanto riguarda i sistemi di IA forniti o utilizzati da istituti finanziari regolamentati e sottoposti a vigilanza, a meno che gli Stati membri non decidano di designare un'altra autorità per svolgere tali compiti di vigilanza del mercato. Tali autorità competenti dovrebbero disporre di tutti i poteri a norma del presente regolamento e del regolamento (UE) 2019/1020 per far rispettare i requisiti e gli obblighi del presente regolamento, compresi i poteri per svolgere attività di vigilanza del mercato ex post che possono essere integrate, se del caso, nei rispettivi meccanismi e nelle rispettive procedure di vigilanza esistenti a norma del pertinente diritto dell'Unione in materia di servizi finanziari. È opportuno prevedere che, quando agiscono in qualità di autorità di vigilanza del mercato a norma del presente regolamento, le autorità nazionali responsabili della vigilanza degli enti creditizi disciplinati nel quadro della direttiva 2013/36/UE, che partecipano al meccanismo di vigilanza unico istituito dal regolamento (UE) n, 1024/2013 del Consiglio (52), comunichino senza ritardo alla Banca centrale europea qualsiasi informazione individuata nel corso delle attività di vigilanza del mercato che possa essere di potenziale interesse per i compiti in materia di vigilanza prudenziale della Banca centrale europea specificati in tale regolamento. Per migliorare ulteriormente la coerenza tra il presente regolamento e le regole applicabili agli enti creditizi disciplinati dalla direttiva 2013/36/UE, è altresì opportuno integrare negli obblighi e nelle procedure esistenti a norma di tale direttiva alcuni degli obblighi procedurali dei fornitori in materia di gestione dei rischi, monitoraggio successivo all'immissione sul mercato e documentazione. Al fine di evitare sovrapposizioni, è opportuno prevedere deroghe limitate anche in relazione al sistema di gestione della qualità dei fornitori e all'obbligo di monitoraggio imposto ai deployer dei sistemi di IA ad alto rischio nella misura in cui si applicano agli enti creditizi disciplinati dalla direttiva 2013/36/UE. Lo stesso regime dovrebbe applicarsi alle imprese di assicurazione e di riassicurazione e alle società di partecipazione assicurativa ai sensi della direttiva 2009/138/CE nonché agli intermediari assicurativi ai sensi della direttiva (UE) 2016/97 e ad altri tipi di istituti finanziari soggetti a requisiti in materia di governance, dispositivi o processi interni stabiliti a norma del pertinente diritto dell'Unione in materia di servizi finanziari per garantire coerenza e parità di trattamento nel settore finanziario.
(159)
Всеки орган за надзор на пазара на високорисковите системи с ИИ в областта на биометричните данни, чийто списък се съдържа в приложение към настоящия регламент — доколкото системите се използват за правоохранителни цели или за целите на миграцията, убежището, управлението на граничния контрол или правораздаването и демократичните процеси — следва да разполага с ефективни правомощия за разследване и с коригиращи правомощия, включително най-малко правомощието да получава достъп до всички лични данни, които се обработват, и до цялата информация, необходима за изпълнението на неговите задачи. Органите за надзор на пазара следва да могат да упражняват правомощията си, като действат напълно независимо. Ограниченията на достъпа им до чувствителни оперативни данни съгласно настоящия регламент не следва да засягат правомощията, предоставени им с Директива (ЕС) 2016/680. Случаите, в които се изключва разкриването на данни пред националните органи за защита на данните съгласно настоящия регламент, не следва да засягат настоящите или бъдещите правомощия на тези органи извън обхвата на настоящия регламент.
(159)
Ciascuna autorità di vigilanza del mercato per i sistemi di IA ad alto rischio nel settore della biometria elencati in un allegato del presente regolamento nella misura in cui tali sistemi siano utilizzati a fini di contrasto, migrazione, asilo e gestione del controllo delle frontiere, o per l'amministrazione della giustizia e dei processi democratici, dovrebbe disporre di poteri di indagine e correttivi efficaci, tra cui almeno il potere di ottenere l'accesso a tutti i dati personali trattati e a tutte le informazioni necessarie per lo svolgimento dei suoi compiti. Le autorità di vigilanza del mercato dovrebbero poter esercitare i loro poteri agendo in piena indipendenza. Qualsiasi limitazione del loro accesso ai dati operativi sensibili a norma del presente regolamento dovrebbe lasciare impregiudicati i poteri loro conferiti dalla direttiva (UE) 2016/680. Nessuna esclusione relativa alla divulgazione dei dati alle autorità nazionali per la protezione dei dati a norma del presente regolamento dovrebbe incidere sui poteri attuali o futuri di tali autorità al di là dell'ambito di applicazione del presente regolamento.
(160)
Органите за надзор на пазара и Комисията следва да могат да предлагат съвместни дейности, включително съвместни разследвания, които да се провеждат от органите за надзор на пазара или от органите за надзор на пазара съвместно с Комисията, и да имат за цел насърчаване на постигането на съответствие, установяване на несъответствие, повишаване на осведомеността и осигуряване на насоки във връзка с настоящия регламент по отношение на конкретни категории високорискови системи с ИИ, за които е установено, че представляват сериозен риск в две или повече държави членки. Съвместни дейности за насърчаване на постигането на съответствие следва да се извършват съгласно член 9 от Регламент (ЕС) 2019/1020. Службата по ИИ следва да предоставя координационна подкрепа за съвместни разследвания.
(160)
Le autorità di vigilanza del mercato e la Commissione dovrebbero poter proporre attività congiunte, comprese indagini congiunte, che dovrebbero essere condotte dalle autorità di vigilanza del mercato o dalle autorità di vigilanza del mercato di concerto con la Commissione, al fine di promuovere la conformità, individuare casi di non conformità, sensibilizzare e fornire orientamenti in relazione al presente regolamento riguardo a specifiche categorie di sistemi di IA ad alto rischio che si rileva presentino un rischio grave in due o più Stati membri. Le attività congiunte volte a promuovere la conformità dovrebbero essere svolte conformemente all'articolo 9 del regolamento (UE) 2019/1020. L'ufficio per l'IA dovrebbe fornire sostegno di coordinamento per le indagini congiunte.
(161)
Необходимо е да се изяснят отговорностите и компетентността на равнището на Съюза и на национално равнище по отношение на системите с ИИ, изградени въз основа на модели на ИИ с общо предназначение. За да се избегне припокриването на компетентност, когато дадена система с ИИ се основава на модел на ИИ с общо предназначение и моделът и системата се предоставят от един и същи доставчик, надзорът следва да се извършва на равнището на Съюза чрез Службата по ИИ, която следва да разполага с правомощията на орган за надзор на пазара по смисъла на Регламент (ЕС) 2019/1020 за тази цел. Във всички останали случаи националните органи за надзор на пазара продължават да носят отговорност за надзора на системите с ИИ. За системите с ИИ с общо предназначение обаче, които могат да се използват пряко от внедрителите с най-малко едно предназначение, класифицирано като високорисково, органите за надзор на пазара следва да си сътрудничат със Службата по ИИ, за да извършат оценки на съответствието, и да информират съответно Съвета по ИИ и другите органи за надзор на пазара. Освен това органите за надзор на пазара следва да могат да искат съдействие от Службата по ИИ, когато органът за надзор на пазара не е в състояние да приключи дадено разследване на високорискова система с ИИ поради невъзможност да получи достъп до определена информация, свързана с модела на ИИ с общо предназначение, въз основа на който е изградена високорисковата система с ИИ. В такива случаи следва да се прилага mutatis mutandis процедурата за трансгранична взаимопомощ, предвидена в глава VI от Регламент (ЕС) 2019/1020.
(161)
È necessario chiarire le responsabilità e le competenze a livello dell'Unione e nazionale per quanto riguarda i sistemi di IA basati su modelli di IA per finalità generali. Per evitare sovrapposizioni di competenze, qualora un sistema di IA si basi su un modello di IA per finalità generali e il modello e il sistema siano forniti dallo stesso fornitore, la supervisione dovrebbe avere luogo a livello dell'Unione attraverso l'ufficio per l'IA, che dovrebbe disporre a tal fine dei poteri di un'autorità di vigilanza del mercato ai sensi del regolamento (UE) 2019/1020. In tutti gli altri casi, le autorità nazionali di vigilanza del mercato restano responsabili della supervisione dei sistemi di IA. Tuttavia, per i sistemi di IA per finalità generali che possono essere utilizzati direttamente dai deployer per almeno una finalità classificata come ad alto rischio, le autorità di vigilanza del mercato dovrebbero cooperare con l'ufficio per l'IA per effettuare valutazioni della conformità e informare di conseguenza il consiglio per l'IA e le altre autorità di vigilanza del mercato. Inoltre, qualsiasi autorità di vigilanza del mercato dovrebbero poter chiedere assistenza all'ufficio per l'IA qualora non sia in grado di concludere un'indagine su un sistema di IA ad alto rischio perché non può accedere a determinate informazioni relative al modello di IA per finalità generali su cui è costruito il sistema di IA ad alto rischio. In tali casi, dovrebbe applicarsi mutatis mutandis la procedura relativa all'assistenza reciproca nei casi transfrontalieri di cui al capo VI del regolamento (UE) 2019/1020.
(162)
За да се използват по най-добрия начин централизираният експертен опит на Съюза и полезните взаимодействия на равнището на Съюза, правомощията за надзор и осигуряване на спазване по отношение на задълженията на доставчиците на модели на ИИ с общо предназначение следва да бъдат от компетентността на Комисията. Службата по ИИ следва да може да извършва всички необходими действия за мониторинг на ефективното прилагане на настоящия регламент по отношение на моделите на ИИ с общо предназначение. Тя следва да може да разследва евентуални нарушения на правилата относно доставчиците на модели на ИИ с общо предназначение както по собствена инициатива, на основание на резултатите от своите дейности по мониторинг, така и по искане на органите за надзор на пазара, в съответствие с условията, установени в настоящия регламент. За да се допринесе за извършването на ефективен мониторинг от страна на Службата по ИИ, следва да се предвиди възможността доставчиците надолу по веригата да подават жалби във връзка с евентуални нарушения на правилата относно доставчиците на модели на ИИ с общо предназначение и системи с ИИ с общо предназначение.
(162)
Per sfruttare al meglio le competenze centralizzate dell'Unione e le sinergie a livello dell'Unione, i poteri di controllo ed esecuzione degli obblighi dei fornitori di modelli di IA per finalità generali dovrebbero essere di competenza della Commissione. L'ufficio per l'IA dovrebbe essere in grado di svolgere tutte le attività necessarie per monitorare l'efficace attuazione del presente regolamento per quanto riguarda i modelli di IA per finalità generali. Dovrebbe essere in grado di svolgere indagini su eventuali violazioni delle norme applicabili ai fornitori di modelli di IA per finalità generali sia di propria iniziativa, a seguito dei risultati delle sue attività di monitoraggio, sia su richiesta delle autorità di vigilanza del mercato in linea con le condizioni stabilite nel presente regolamento. Per sostenere un monitoraggio efficace dell'ufficio per l'IA, esso dovrebbe prevedere la possibilità che i fornitori a valle presentino reclami in merito a possibili violazioni delle norme applicabili ai fornitori di modelli e sistemi di IA per finalità generali.
(163)
С цел допълване на системите за управление на моделите на ИИ с общо предназначение, експертната група следва да подпомага дейностите по мониторинг на Службата по ИИ и да може в определени случаи да отправя приоритетни сигнали до Службата по ИИ, които да водят до последващи действия, например разследвания. Такъв следва да бъде случаят, когато експертната група има основания да предполага, че даден модел на ИИ с общо предназначение представлява конкретен и установим риск на равнището на Съюза. Освен това такъв следва да бъде случаят, когато експертната група има основания да предполага, че даден модел на ИИ с общо предназначение отговаря на критериите, които биха довели до класифицирането му като модел на ИИ с общо предназначение, пораждащ системен риск. За да може експертната група да разполага с информацията, необходима за изпълнението на тези задачи, следва да има механизъм, чрез който експертната група да може да отправи искане към Комисията с цел да бъде изискана документация или информация от даден доставчик.
(163)
Al fine di integrare i sistemi di governance per i modelli di IA per finalità generali, il gruppo di esperti scientifici dovrebbe sostenere le attività di monitoraggio dell'ufficio per l'IA e può, in alcuni casi, fornire segnalazioni qualificate all'ufficio per l'IA che avviano attività di follow-up quali indagini. Ciò dovrebbe valere quando il gruppo di esperti scientifici ha motivo di sospettare che un modello di IA per finalità generali rappresenti un rischio concreto e identificabile a livello dell'Unione. Inoltre, ciò dovrebbe verificarsi nel caso in cui il gruppo di esperti scientifici abbia motivo di sospettare che un modello di IA per finalità generali soddisfa i criteri che comporterebbero una classificazione come modello di IA per finalità generali con rischio sistemico. Per dotare il gruppo di esperti scientifici delle informazioni necessarie per lo svolgimento di tali compiti, è opportuno prevedere un meccanismo in base al quale il gruppo di esperti scientifici può chiedere alla Commissione di esigere da un fornitore documentazione o informazioni.
(164)
Службата по ИИ следва да може да предприема необходимите действия за мониторинг на ефективното изпълнение и спазване на установените в настоящия регламент задължения на доставчиците на модели на ИИ с общо предназначение. Службата за ИИ следва да може да разследва евентуални нарушения в съответствие с правомощията, предвидени в настоящия регламент, включително като изисква документация и информация, като извършва оценки, както и като изисква предприемането на мерки от доставчиците на модели на ИИ с общо предназначение. При извършването на оценките, с цел да използва независим експертен опит, Службата по ИИ следва да може да привлича независими експерти, които да извършват оценките от нейно име. Спазването на задълженията следва да бъде осигурено, наред с другото, чрез искания за предприемане на подходящи мерки, включително мерки за ограничаване на риска в случай на установени системни рискове, както и чрез ограничаване на предоставянето на пазара на даден модел, неговото изтегляне или изземване. Като гаранция в случай на необходимост, освен процесуалните права, предвидени в настоящия регламент, доставчиците на модели на ИИ с общо предназначение следва да разполагат с процесуалните права съгласно член 18 от Регламент (ЕС) 2019/1020, които следва да се прилагат, mutatis mutandis, без да се засягат специалните процесуални права, предвидени в настоящия регламент.
(164)
L'ufficio per l'IA dovrebbe essere in grado di adottare le misure necessarie per monitorare l'efficace attuazione e il rispetto degli obblighi dei fornitori di modelli di IA per finalità generali di cui al presente regolamento. L'ufficio per l'IA dovrebbe essere in grado di svolgere indagini su possibili violazioni conformemente ai poteri previsti dal presente regolamento, anche richiedendo documentazione e informazioni, effettuando valutazioni ed esigendo l'adozione di misure da parte dei fornitori di modelli di IA per finalità generali. Nell'effettuare le valutazioni, al fine di avvalersi di competenze indipendenti, l'ufficio per l'IA dovrebbe potersi rivolgere a esperti indipendenti che svolgano le valutazioni per suo conto. Il rispetto degli obblighi dovrebbe essere reso esecutivo, tra l'altro, mediante richieste di adottare misure adeguate, comprese misure di attenuazione dei rischi nel caso di rischi sistemici individuati, nonché limitando la messa a disposizione sul mercato, ritirando o richiamando il modello. A titolo di salvaguardia, ove ciò sia necessario al di là dei diritti procedurali di cui al presente regolamento, i fornitori di modelli di IA per finalità generali dovrebbero godere dei diritti procedurali di cui all'articolo 18 del regolamento (UE) 2019/1020, che dovrebbero applicarsi mutatis mutandis, fatti salvi i diritti procedurali più specifici previsti dal presente regolamento.
(165)
Разработването на системи с ИИ, различни от високорискови системи с ИИ, в съответствие с изискванията на настоящия регламент може да доведе до по-широко внедряване на етичен и надежден ИИ в Съюза. Доставчиците на системи с ИИ, които не са високорискови, следва да бъдат насърчавани да изготвят кодекси за поведение, включително свързани с тях управленски механизми, предназначени да поощряват прилагането на доброволна основа на някои или на всички задължителни изисквания, приложими за високорисковите системи с ИИ и адаптирани с оглед на предназначението на системите и по-ниския риск, като вземат предвид наличните технически решения и най-добрите практики в сектора, например карти за модели и данни. Доставчиците и, когато е целесъобразно, внедрителите на всички системи с ИИ — високорискови или не, както и на всички модели с ИИ, следва също да бъдат насърчавани да прилагат на доброволна основа допълнителни изисквания, свързани например с елементи на Насоките на Съюза относно етичните аспекти за надежден ИИ, екологичната устойчивост, мерките относно грамотността в областта на ИИ, приобщаващия характер и многообразието при проектирането и разработването на системи с ИИ, включително повишеното внимание към уязвимите лица и достъпността за хора с увреждания, участието на заинтересованите страни чрез привличане, когато е целесъобразно, на заинтересовани страни като професионални организации и организации на гражданското общество, академични среди, научноизследователски организации, синдикати и организации за защита на потребителите, в проектирането и разработването на системи с ИИ, както и многообразието на екипите от разработчици, включително баланса между половете. За да се гарантира, че незадължителните кодекси за поведение са ефективни, те следва да се основават на ясни цели и ключови показатели за ефективност, за да може да бъде оценено постигането на тези цели. Те следва също така да бъдат разработени по приобщаващ начин, когато е целесъобразно - с участието на съответните заинтересовани страни, като професионални организации и организации на гражданското общество, академични среди, научноизследователски организации, синдикати и организации за защита на потребителите. Комисията може да разработва инициативи, включително от секторен характер, за да улесни преодоляването на техническите пречки пред трансграничния обмен на данни за разработването на ИИ, включително свързаните с инфраструктурата за достъп до данни и семантичната и техническата оперативна съвместимост на различните видове данни.
(165)
Lo sviluppo di sistemi di IA diversi dai sistemi di IA ad alto rischio in conformità dei requisiti del presente regolamento può portare a una più ampia adozione nell'Unione di un'IA etica e affidabile. I fornitori di sistemi di IA non ad alto rischio dovrebbero essere incoraggiati a creare codici di condotta, che includano meccanismi di governance connessi, volti a promuovere l'applicazione volontaria di alcuni o tutti i requisiti obbligatori applicabili ai sistemi di IA ad alto rischio, adattati in funzione della finalità prevista dei sistemi e del minor rischio connesso e tenendo conto delle soluzioni tecniche disponibili e delle migliori pratiche del settore, come modelli e schede dati. I fornitori e, se del caso, i deployer di tutti i sistemi di IA, ad alto rischio o meno, e modelli di IA dovrebbero inoltre essere incoraggiati ad applicare su base volontaria requisiti supplementari relativi, ad esempio, agli elementi degli orientamenti etici dell'Unione per un'IA affidabile, alla sostenibilità ambientale, alle misure di alfabetizzazione in materia di IA, alla progettazione e allo sviluppo inclusivi e diversificati dei sistemi di IA, anche prestando attenzione alle persone vulnerabili e all'accessibilità per le persone con disabilità, la partecipazione dei portatori di interessi, con il coinvolgimento, se del caso, dei portatori di interessi pertinenti quali le organizzazioni imprenditoriali e della società civile, il mondo accademico, le organizzazioni di ricerca, i sindacati e le organizzazioni per la tutela dei consumatori nella progettazione e nello sviluppo dei sistemi di IA, e alla diversità dei gruppi di sviluppo, compreso l'equilibrio di genere. Per essere efficaci, i codici di condotta volontari dovrebbero basarsi su obiettivi chiari e indicatori chiave di prestazione che consentano di misurare il conseguimento di tali obiettivi. Essi dovrebbero inoltre essere elaborati in modo inclusivo, se del caso, con il coinvolgimento dei portatori di interessi pertinenti, quali le organizzazioni imprenditoriali e della società civile, il mondo accademico, le organizzazioni di ricerca, i sindacati e le organizzazioni per la tutela dei consumatori. La Commissione può elaborare iniziative, anche di natura settoriale, per agevolare la riduzione degli ostacoli tecnici che ostruiscono lo scambio transfrontaliero di dati per lo sviluppo dell'IA, anche per quanto riguarda l'infrastruttura di accesso ai dati e l'interoperabilità semantica e tecnica dei diversi tipi di dati.
(166)
Важно е системите с ИИ, свързани с продукти, които не са високорискови в съответствие с настоящия регламент и поради това не е задължително да отговарят на изискванията, установени за високорисковите системи с ИИ, да бъдат въпреки това безопасни при пускането им на пазара или пускането им в действие. За да се допринесе за постигането на тази цел, допълнителна гаранция ще представлява възможността за прилагане на Регламент (ЕС) 2023/988 на Европейския парламент и на Съвета (53).
(166)
È importante che i sistemi di IA collegati a prodotti che non sono ad alto rischio in conformità del presente regolamento e che pertanto non sono tenuti a rispettare i requisiti stabiliti per i sistemi di IA ad alto rischio siano comunque sicuri al momento dell'immissione sul mercato o della messa in servizio. Per contribuire a tale obiettivo, sarebbe opportuno applicare come rete di sicurezza il regolamento (UE) 2023/988 del Parlamento europeo e del Consiglio (53).
(167)
За да се гарантира надеждно и конструктивно сътрудничество между компетентните органи на равнището на Съюза и на национално равнище, всички страни, участващи в прилагането на настоящия регламент, следва да зачитат поверителността на информацията и данните, получавани при изпълнението на техните задачи, в съответствие с правото на Съюза и националното право. Те следва да изпълняват задачите и дейностите си по такъв начин, че да закрилят по-специално правата върху интелектуалната собственост, поверителната търговска информация и търговските тайни, ефективното прилагане на настоящия регламент, обществените интереси и националната сигурност, независимостта на наказателните или административните производства и неприкосновеността на класифицираната информация.
(167)
Al fine di garantire una cooperazione affidabile e costruttiva delle autorità competenti a livello dell'Unione e nazionale, è opportuno che tutte le parti coinvolte nell'applicazione del presente regolamento rispettino la riservatezza delle informazioni e dei dati ottenuti nell'assolvimento dei loro compiti, in conformità del diritto dell'Unione o nazionale. Dovrebbero svolgere i loro compiti e le loro attività in modo da proteggere, in particolare, i diritti di proprietà intellettuale, le informazioni commerciali riservate e i segreti commerciali, l'efficace attuazione del presente regolamento, gli interessi pubblici e di sicurezza nazionale, l'integrità del procedimento penale o amministrativo e l'integrità delle informazioni classificate.
(168)
Спазването на настоящия регламент следва да може да се гарантира чрез налагането на санкции и други мерки за изпълнение. Държавите членки следва да предприемат всички необходими мерки, за да гарантират прилагането на разпоредбите на настоящия регламент, включително чрез установяването на ефективни, пропорционални и възпиращи санкции за тяхното нарушаване, за да осигурят зачитането на принципа non bis in idem. С цел подсилване и хармонизиране на административните санкции за нарушения на настоящия регламент, следва да се установят горните граници за определяне на административните глоби и имуществени санкции за някои конкретни нарушения. При определянето на размера на глобите и имуществените санкции държавите членки следва във всеки отделен случай да вземат предвид всички обстоятелства на конкретния случай, като надлежно отчитат по-специално естеството, тежестта и продължителността на нарушението и неговите последици, както и размера на доставчика, по-специално ако доставчикът е МСП, включително новосъздадено предприятие. Европейският надзорен орган по защита на данните следва да има правомощията да налага глоби на институциите, агенциите и органите на Съюза, попадащи в обхвата на настоящия регламент.
(168)
Il rispetto del presente regolamento dovrebbe essere reso esecutivo mediante l'imposizione di sanzioni e di altre misure di esecuzione. Gli Stati membri dovrebbero adottare tutte le misure necessarie per assicurare l'attuazione delle disposizioni di cui al presente regolamento, anche stabilendo sanzioni effettive, proporzionate e dissuasive in caso di violazione, anche nel rispetto del principio ne bis in idem. Al fine di rafforzare e armonizzare le sanzioni amministrative in caso di violazione del presente regolamento, è opportuno stabilire limiti massimi per la fissazione delle sanzioni amministrative pecuniarie per talune violazioni specifiche. Nel valutare l'importo delle sanzioni amministrative pecuniarie, gli Stati membri dovrebbero, in ogni singolo caso, tenere conto di tutte le circostanze pertinenti della situazione specifica, in particolare, della natura, della gravità e della durata della violazione e delle sue conseguenze e delle dimensioni del fornitore, in particolare se si tratta di una PMI, compresa una start-up. Il Garante europeo della protezione dei dati dovrebbe disporre del potere di infliggere sanzioni pecuniarie alle istituzioni, alle agenzie e agli organismi dell'Unione che rientrano nell'ambito di applicazione del presente regolamento.
(169)
Спазването на задълженията на доставчиците на модели на ИИ с общо предназначение, наложени с настоящия регламент, следва да може да се гарантира, наред с другото, чрез глоби. За тази цел следва да се определят и подходящи размери на глобите за нарушение на тези задължения, включително неизпълнението на мерките, изисквани от Комисията в съответствие с настоящия регламент, при прилагане на подходящи давностни срокове в съответствие с принципа на пропорционалност. Всички решения, приемани от Комисията съгласно настоящия регламент, подлежат на контрол от Съда на Европейския съюз в съответствие с ДФЕС, включително на пълната юрисдикция на Съда във връзка със санкциите съгласно член 261 ДФЕС.
(169)
Il rispetto degli obblighi imposti ai fornitori di modelli di IA per finalità generali a norma del presente regolamento dovrebbe essere reso esecutivo, tra l'altro, mediante sanzioni pecuniarie. A tal fine è opportuno stabilire livelli adeguati di sanzioni pecuniarie anche in caso di violazione di tali obblighi, tra cui il mancato rispetto delle misure richieste dalla Commissione a norma del presente regolamento, fatti salvi adeguati termini di prescrizione conformemente al principio di proporzionalità. Tutte le decisioni prese dalla Commissione a norma del presente regolamento sono soggette al controllo della Corte di giustizia dell'Unione europea conformemente al TFUE, compresa la giurisdizione, anche di merito, della Corte di giustizia riguardo alle sanzioni ai sensi dell'articolo 261 TFUE
(170)
В правото на Съюза и националното право вече са предвидени ефективни правни средства за защита на физическите и юридическите лица, чиито права и свободи са неблагоприятно засегнати от използването на системи с ИИ. Без да се засягат тези правни средства за защита, всяко физическо или юридическо лице, което има основания да счита, че е налице нарушение на настоящия регламент, следва да има правото да подаде жалба до съответния орган за надзор на пазара.
(170)
Il diritto dell'Unione e nazionale prevedono già mezzi di ricorso efficaci per le persone fisiche e giuridiche sui cui diritti e sulle cui libertà incide negativamente l'uso dei sistemi di IA. Fatti salvi tali mezzi di ricorso, qualsiasi persona fisica o giuridica che abbia motivo di ritenere che vi sia stata una violazione del presente regolamento dovrebbe avere il diritto di presentare un reclamo alla pertinente autorità di vigilanza del mercato.
(171)
Засегнатите лица следва да имат правото да получат обяснение, в случай че дадено решение, взето от внедрител преди всичко въз основа на резултата от работата на определени високорискови системи с ИИ, попадащи в обхвата на настоящия регламент, поражда правни последици за тях или по сходен начин ги засяга в значителна степен по начин, който според тях оказва неблагоприятно въздействие върху тяхното здраве, безопасност или основни права. Това обяснение следва да бъде ясно и изчерпателно и да дава основание на засегнатите лица да упражнят правата си. Правото на получаване на обяснение не следва да се прилага относно използването на системи с ИИ, по отношение на които от правото на Съюза или от националното право произтичат изключения или ограничения, и следва да се прилага само доколкото това право все още не е предвидено в законодателството на Съюза.
(171)
Le persone interessate dovrebbero avere il diritto di ottenere una spiegazione qualora la decisione di un deployer si basi principalmente sugli output di determinati sistemi di IA ad alto rischio che rientrano nell'ambito di applicazione del presente regolamento e qualora tale decisione produca effetti giuridici o in modo analogo incida significativamente su tali persone in un modo che esse ritengano avere un impatto negativo sulla loro salute, sicurezza o sui loro diritti fondamentali. Tale spiegazione dovrebbe essere chiara e significativa e fornire una base su cui le persone interessate possano esercitare i loro diritti. Il diritto di ottenere una spiegazione non dovrebbe applicarsi all'uso di sistemi di IA per i quali il diritto dell'Unione o nazionale prevede eccezioni o restrizioni e dovrebbe applicarsi solo nella misura in cui tale diritto non sia già previsto dal diritto dell'Unione.
(172)
Лица, сигнализиращи за нередности във връзка с нарушения на настоящия регламент, следва да бъдат защитени в съответствие с правото на Съюза. Поради това по отношение на подаването на сигнали за нарушения на настоящия регламент и защитата на лицата, които подават сигнали за такива нарушения, следва да се прилага Директива (ЕС) 2019/1937 на Европейския парламент и на Съвета (54).
(172)
Le persone che agiscono in qualità di informatori in merito alle violazioni del presente regolamento dovrebbero essere protette a norma del diritto dell'Unione. La direttiva (UE) 2019/1937 del Parlamento europeo e del Consiglio (54) dovrebbe pertanto applicarsi alla segnalazione di violazioni del presente regolamento e alla protezione delle persone che segnalano tali violazioni.
(173)
С цел да се гарантира, че регулаторната рамка може да бъде адаптирана при необходимост, на Комисията следва да бъде делегирано правомощието да приема актове в съответствие с член 290 ДФЕС за изменение на условията, при които дадена система с ИИ не се смята за високорискова, списъка на високорисковите системи с ИИ, разпоредбите относно техническата документация, съдържанието на ЕС декларацията за съответствие, разпоредбите относно процедурите за оценяване на съответствието, разпоредбите за определяне на високорисковите системи с ИИ, за които се прилага процедурата за оценяване на съответствието въз основа на оценката на системата за управление на качеството и оценката на техническата документация, праговете, референтните стойности и показателите, включително чрез допълване на тези референтни стойности и показатели, в правилата за класифициране на моделите на ИИ с общо предназначение, пораждащи системен риск, критериите за определяне на моделите на ИИ с общо предназначение, пораждащи системен риск, техническата документация за доставчиците на модели на ИИ с общо предназначение и информацията с цел прозрачност за доставчиците на модели на ИИ с общо предназначение. От особена важност е по време на подготвителната си работа Комисията да проведе подходящи консултации, включително на експертно равнище, и тези консултации да бъдат проведени в съответствие с принципите, заложени в Междуинституционалното споразумение от 13 април 2016 г. за по-добро законотворчество (55). По-специално, с цел осигуряване на равно участие при подготовката на делегираните актове, Европейският парламент и Съветът получават всички документи едновременно с експертите от държавите членки, като техните експерти получават систематично достъп до заседанията на експертните групи на Комисията, занимаващи се с подготовката на делегираните актове.
(173)
Al fine di garantire che il quadro normativo possa essere adeguato ove necessario, è opportuno delegare alla Commissione il potere di adottare atti conformemente all'articolo 290 TFUE per modificare le condizioni alle quali un sistema di IA non dovrebbe essere considerato ad alto rischio, l'elenco dei sistemi di IA ad alto rischio, le disposizioni relative alla documentazione tecnica, il contenuto della dichiarazione di conformità UE, le disposizioni relative alle procedure di valutazione della conformità, le disposizioni che stabiliscono i sistemi di IA ad alto rischio cui dovrebbe applicarsi la procedura di valutazione della conformità sulla base della valutazione del sistema di gestione della qualità e della valutazione della documentazione tecnica, la soglia, i parametri di riferimento e gli indicatori, anche integrando tali parametri di riferimento e indicatori, nelle regole per la classificazione di un modello di IA per finalità generali con rischio sistemico, i criteri per la designazione dei modelli di IA per finalità generali con rischio sistemico, la documentazione tecnica per i fornitori di modelli di IA per finalità generali e le informazioni sulla trasparenza per i fornitori di modelli di IA per finalità generali. È di particolare importanza che durante i lavori preparatori la Commissione svolga adeguate consultazioni, anche a livello di esperti, nel rispetto dei principi stabiliti nell'accordo interistituzionale «Legiferare meglio» del 13 aprile 2016 (55). In particolare, al fine di garantire la parità di partecipazione alla preparazione degli atti delegati, il Parlamento europeo e il Consiglio ricevono tutti i documenti contemporaneamente agli esperti degli Stati membri, e i loro esperti hanno sistematicamente accesso alle riunioni dei gruppi di esperti della Commissione incaricati della preparazione di tali atti delegati.
(174)
Предвид бързото технологично развитие и техническия експертен опит, необходим за ефективното прилагане на настоящия регламент, Комисията следва да направи оценка и преглед на настоящия регламент до 2 август 2029 г. и на всеки четири години след това, и да докладва на Европейския парламент и на Съвета. Освен това, с оглед на последиците за обхвата на настоящия регламент, Комисията следва веднъж годишно да прави оценка на необходимостта от изменение на списъка на високорисковите системи с ИИ и на списъка на забранените практики. Наред с това, до 2 август 2028 г. и на всеки четири години след това Комисията следва да оценява и да докладва на Европейския парламент и на Съвета за необходимостта от изменение на наименованията на високорисковите области в приложението към настоящия регламент, системите с ИИ, попадащи в обхвата на задълженията за прозрачност, ефективността на системата за надзор и управление и напредъка по разработването на стандартизационни документи за енергийно ефективно разработване на модели на ИИ с общо предназначение, включително за необходимостта от допълнителни мерки или действия. И на последно място, до 2 август 2028 г. и на всеки три години след това Комисията следва да оценява въздействието и ефективността на незадължителните кодекси за поведение с цел да се насърчи прилагането на изискванията, предвидени за високорисковите системи с ИИ, по отношение на системи, различни от високорискови системи с ИИ, и евентуално на други допълнителни изисквания за такива системи с ИИ.
(174)
Dati i rapidi sviluppi tecnologici e le competenze tecniche necessarie per l'efficace applicazione del presente regolamento, la Commissione dovrebbe valutare e riesaminare il presente regolamento entro il 2 agosto 2029 e successivamente ogni quattro anni e presentare una relazione al Parlamento europeo e al Consiglio. Inoltre, tenuto conto delle implicazioni per l'ambito di applicazione del presente regolamento, la Commissione dovrebbe effettuare, una volta all'anno, una valutazione della necessità di modificare l'elenco dei sistemi di IA ad alto rischio e l'elenco delle pratiche vietate. Inoltre, entro il 2 agosto 2028 e successivamente ogni quattro anni, la Commissione dovrebbe valutare la necessità di modificare l'elenco delle rubriche dei settori ad alto rischio di cui all'allegato del presente regolamento, i sistemi di IA che rientrano nell'ambito di applicazione degli obblighi di trasparenza, l'efficacia del sistema di supervisione e governance e i progressi compiuti riguardo allo sviluppo di prodotti della normazione relativi allo sviluppo efficiente sotto il profilo energetico di modelli di IA per finalità generali, compresa la necessità di ulteriori misure o azioni, e riferire al Parlamento europeo e al Consiglio in merito. Entro il 2 agosto 2028 e successivamente ogni tre anni la Commissione dovrebbe valutare l'impatto e l'efficacia dei codici di condotta volontari per la promozione dell'applicazione dei requisiti previsti per i sistemi di IA ad alto rischio nel caso di sistemi di IA diversi dai sistemi di IA ad alto rischio ed eventualmente di altri requisiti supplementari per tali sistemi di IA.
(175)
За да се гарантират еднакви условия за изпълнение на настоящия регламент, на Комисията следва да бъдат предоставени изпълнителни правомощия. Тези правомощия следва да бъдат упражнявани в съответствие с Регламент (ЕС) № 182/2011 на Европейския парламент и на Съвета (56).
(175)
È opportuno attribuire alla Commissione competenze di esecuzione al fine di garantire condizioni uniformi di esecuzione del presente regolamento. È altresì opportuno che tali competenze siano esercitate conformemente al regolamento (UE) n, 182/2011 del Parlamento europeo e del Consiglio (56).
(176)
Доколкото целта на настоящия регламент, а именно да се подобри функционирането на вътрешния пазар и да се насърчи навлизането на ориентиран към човека и надежден ИИ, като същевременно се гарантира високо равнище на защита на здравето, безопасността, основните права, залегнали в Хартата, включително демокрацията, принципите на правовата държава и опазването на околната среда, срещу вредното въздействие на системите с ИИ в Съюза и да се подкрепят иновациите, не може да бъде постигната в достатъчна степен от държавите членки, а поради мащаба или последиците на действието може да бъде по-добре постигната на равнището на Съюза, Съюзът може да приеме мерки в съответствие с принципа на субсидиарност, уреден в член 5 от Договора за Европейския съюз. В съответствие с принципа на пропорционалност, уреден в същия член, настоящият регламент не надхвърля необходимото за постигането на тази цел.
(176)
Poiché l'obiettivo del presente regolamento, vale a dire migliorare il funzionamento del mercato interno e promuovere la diffusione di un'IA antropocentrica e affidabile, garantendo nel contempo un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta, compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, contro gli effetti nocivi dei sistemi di IA nell'Unione e promuovendo l'innovazione, non può essere conseguito in misura sufficiente dagli Stati membri ma, a motivo della portata o degli effetti dell'azione, può essere conseguito meglio a livello di Unione, quest'ultima può intervenire in base al principio di sussidiarietà sancito dall'articolo 5 TUE. Il presente regolamento si limita a quanto è necessario per conseguire tale obiettivo in ottemperanza al principio di proporzionalità enunciato nello stesso articolo.
(177)
С цел да се гарантира правна сигурност, да се осигури подходящ срок за адаптация за операторите и да се избегнат смущения на пазара, включително чрез осигуряване на непрекъснатост в използването на системите с ИИ, е целесъобразно настоящият регламент да се прилага за високорисковите системи с ИИ, които са били пуснати на пазара или пуснати в действие преди общата начална дата на прилагането му, само в случай че след тази дата бъдат извършени значителни промени в проекта или предназначението на тези системи. Следва да се поясни, че в този контекст понятието „значителна промяна“ следва да се разбира като равностойно по същество на понятието „съществено изменение“, което се използва само по отношение на високорисковите системи с ИИ съгласно определението в настоящия регламент. По изключение и с оглед на публичната отчетност операторите на системи с ИИ, които са компоненти на широкомащабните информационни системи, създадени с правните актове, чийто списък е приложен към настоящия регламент, и операторите на високорискови системи с ИИ, предназначени да бъдат използвани от публични органи, следва да предприемат мерките, необходими, за да се съобразят с изискванията на настоящия регламент, съответно до края на 2030 г. и в срок до 2 август 2030 г.
(177)
Al fine di garantire la certezza del diritto, assicurare un adeguato periodo di adattamento per gli operatori ed evitare perturbazioni del mercato, anche garantendo la continuità dell'uso dei sistemi di IA, è opportuno che il presente regolamento si applichi ai sistemi di IA ad alto rischio che sono stati immessi sul mercato o messi in servizio prima della data generale di applicazione dello stesso, solo se, a decorrere da tale data, tali sistemi sono soggetti a modifiche significative della loro progettazione o finalità prevista. È opportuno precisare che, a tale riguardo, il concetto di modifica significativa dovrebbe essere inteso come equivalente nella sostanza alla nozione di modifica sostanziale, utilizzata solo per i sistemi di IA ad alto rischio a norma del presente regolamento. In via eccezionale e alla luce della responsabilità pubblica, gli operatori di sistemi di IA che sono componenti di sistemi IT su larga scala istituiti dagli atti giuridici elencati in un allegato del presente regolamento e gli operatori di sistemi di IA ad alto rischio destinati a essere utilizzati dalle autorità pubbliche dovrebbero adottare le misure necessarie per conformarsi ai requisiti del presente regolamento, rispettivamente, entro la fine del 2030 ed entro il 2 agosto 2030.
(178)
Доставчиците на високорискови системи с ИИ се насърчават да започнат да спазват на доброволна основа съответните задължения, предвидени съгласно настоящия регламент, още по време на преходния период.
(178)
I fornitori di sistemi di IA ad alto rischio sono incoraggiati a iniziare a rispettare, su base volontaria, i pertinenti obblighi del presente regolamento già durante il periodo transitorio.
(179)
Настоящият регламент следва да се прилага от 2 август 2026 г. Същевременно, като се има предвид неприемливият риск, свързан с използването на ИИ по определени начини, забраните, както и общите разпоредби на настоящия регламент следва да се прилагат още от 2 февруари 2025 г. Въпреки че тези забрани ще влязат напълно в действие, след като бъде установено управлението и прилагането на настоящия регламент, предварителното им прилагане е важно с оглед да се вземе предвид неприемливият риск и да се въздейства върху други процедури, например в гражданското право. Наред с това, инфраструктурата, свързана с управлението и системата за оценяване на съответствието, следва да започне да функционира преди 2 август 2026 г., поради което разпоредбите относно нотифицираните органи и структурата на управление следва да се прилагат от 2 август 2025 г. Като се има предвид бързият темп на технологичния напредък и възприемането на модели на ИИ с общо предназначение, задълженията на доставчиците на модели на ИИ с общо предназначение следва да се прилагат от 2 август 2025 г. Кодексите за добри практики следва да бъдат готови в срок до 2 май 2025 г., за да се даде възможност на доставчиците своевременно да докажат спазването им. Службата по ИИ следва да гарантира, че правилата и процедурите за класифициране са актуални с оглед на технологичното развитие. Освен това държавите членки следва да установят и изпратят до Комисията правилата относно санкциите, включително административните глоби и имуществени санкции, и да гарантират, че те се прилагат правилно и ефективно към началната дата на прилагане на настоящия регламент. Поради това разпоредбите относно санкциите следва да се прилагат от 2 август 2025 г.
(179)
Il presente regolamento si dovrebbe applicare a decorrere dal 2 agosto 2026. Tuttavia, tenuto conto del rischio inaccettabile associato all'uso dell'IA in determinati modi, i divieti nonché le disposizioni generali del presente regolamento dovrebbero applicarsi già a decorrere dal 2 febbraio 2025. Sebbene la piena efficacia di tali divieti discenda dall'istituzione della governance e dall'esecuzione del presente regolamento, è importante anticipare l'applicazione di detti divieti per tenere conto dei rischi inaccettabili e avere un effetto su altre procedure, ad esempio nel diritto civile. È inoltre opportuno che l'infrastruttura relativa alla governance e al sistema di valutazione della conformità sia operativa prima del 2 agosto 2026, pertanto le disposizioni sugli organismi notificati e sulla struttura di governance dovrebbero applicarsi a decorrere dal 2 agosto 2025. In considerazione del rapido ritmo dello sviluppo tecnologico e dell'adozione di modelli di IA per finalità generali, gli obblighi per i fornitori di modelli di IA per finalità generali dovrebbero applicarsi a decorrere dal 2 agosto 2025. I codici di buone pratiche dovrebbero essere pronti entro 2 agosto 2025 al fine d consentire ai fornitori di dimostrare la conformità «in tempo utile». L'ufficio per l'IA dovrebbe garantire che le norme e le procedure di classificazione siano aggiornate alla luce degli sviluppi tecnologici. Gli Stati membri dovrebbero inoltre stabilire e notificare alla Commissione la normativa relativa alle sanzioni, comprese le sanzioni amministrative pecuniarie, e garantire che essa sia attuata in modo corretto ed efficace entro la data di applicazione del presente regolamento. Le disposizioni relative alle sanzioni dovrebbero pertanto applicarsi a decorrere dal 2 agosto 2025.
(180)
В съответствие с член 42, параграфи 1 и 2 от Регламент (ЕС) 2018/1725 беше проведена консултация с Европейския надзорен орган по защита на данните и Европейския комитет по защита на данните, които представиха съвместното си становище на 18 юни 2021 г.,
(180)
Conformemente all'articolo 42, paragrafi 1 e 2, del regolamento (UE) 2018/1725, il Garante europeo della protezione dei dati e il comitato europeo per la protezione dei dati sono stati consultati e hanno formulato il loro parere congiunto il 18 giugno 2021,
ПРИЕХА НАСТОЯЩИЯ РЕГЛАМЕНТ:
HANNO ADOTTATO IL PRESENTE REGOLAMENTO:
1. Настоящият регламент се прилага по отношение на:
1. Il presente regolamento si applica:
a)
доставчици, които пускат на пазара или пускат в действие системи с ИИ или пускат на пазара модели на ИИ с общо предназначение в Съюза, независимо дали тези доставчици са установени или се намират на територията на Съюза или в трета държава;
a)
ai fornitori che immettono sul mercato o mettono in servizio sistemi di IA o immettono sul mercato modelli di IA per finalità generali nell'Unione, indipendentemente dal fatto che siano stabiliti o ubicati nell'Unione o in un paese terzo;
б)
внедрители на системи с ИИ, чието място на установяване е на територията на Съюза или които се намират на територията на Съюза;
b)
ai deployer dei sistemi di IA che hanno il loro luogo di stabilimento o sono situati all'interno dell'Unione;
в)
доставчици и внедрители на системи с ИИ, чието място на установяване е в трета държава или които се намират в трета държава, когато резултатът, получен от системата с ИИ, се използва в Съюза;
c)
ai fornitori e ai deployer di sistemi di IA che hanno il loro luogo di stabilimento o sono situati in un paese terzo, laddove l'output prodotto dal sistema di IA sia utilizzato nell'Unione;
г)
вносители и дистрибутори на системи с ИИ;
d)
agli importatori e ai distributori di sistemi di IA;
д)
производители на продукти, които пускат на пазара или пускат в действие система с ИИ заедно със своя продукт и със своето име или търговска марка;
e)
ai fabbricanti di prodotti che immettono sul mercato o mettono in servizio un sistema di IA insieme al loro prodotto e con il loro nome o marchio;
е)
упълномощени представители на доставчици, които не са установени в Съюза;
f)
ai rappresentanti autorizzati di fornitori, non stabiliti nell'Unione;
ж)
засегнати лица, които се намират в Съюза.
g)
alle persone interessate che si trovano nell'Unione.
2. За системи с ИИ, които са класифицирани като високорискови системи с ИИ в съответствие с член 6, параграф 1, които са свързани с продукти, обхванати от законодателството на Съюза за хармонизация, посочено в раздел Б от приложение I, се прилагат само член 6, параграф 1 и членове 102 – 109 и 112. Член 57 се прилага само доколкото изискванията за високорисковите системи с ИИ съгласно настоящия регламент са били включени в това законодателство на Съюза за хармонизация.
2. Ai sistemi di IA classificati come ad alto rischio ai sensi dell'articolo 6, paragrafo 1, relativo a prodotti disciplinati dalla normativa di armonizzazione dell'Unione elencata nell'allegato I, sezione B, si applicano unicamente l’articolo 6, paragrafo 1, gli articoli da 102 a 109 e l'articolo 112. L'articolo 57 si applica solo nella misura in cui i requisiti per i sistemi di IA ad alto rischio a norma del presente regolamento siano stati integrati in tale normativa di armonizzazione dell'Unione.
3. Настоящият регламент не се прилага в области извън обхвата на правото на Съюза и не засяга компетентността на държавите членки по отношение на националната сигурност, независимо от вида на субекта, на който държавите членки са възложили изпълнението на задачите във връзка с тази компетентност.
3. Il presente regolamento non si applica a settori che non rientrano nell'ambito di applicazione del diritto dell'Unione e, in ogni caso, non pregiudica le competenze degli Stati membri in materia di sicurezza nazionale, indipendentemente dal tipo di entità incaricata dagli Stati membri di svolgere compiti in relazione a tali competenze.
Настоящият регламент не се прилага за системи с ИИ, ако и доколкото те са пуснати на пазара, пуснати в действие или използвани със или без изменение на тези системи изключително за военни цели и цели, свързани с отбраната или националната сигурност, независимо от вида на субекта, който извършва тези дейности.
Il presente regolamento non si applica ai sistemi di IA se e nella misura in cui sono immessi sul mercato, messi in servizio o utilizzati con o senza modifiche esclusivamente per scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività.
Настоящият регламент не се прилага за системи с ИИ, които не са пуснати на пазара или пуснати в действие в Съюза, когато резултатите се използват в Съюза изключително за военни цели и цели, свързани с отбраната или националната сигурност, независимо от вида на субекта, който извършва тези дейности.
Il presente regolamento non si applica ai sistemi di IA che non sono immessi sul mercato o messi in servizio nell'Unione, qualora l'output sia utilizzato nell'Unione esclusivamente per scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività.
4. Настоящият регламент не се прилага за публични органи в трета държава, нито за международни организации, попадащи в обхвата на настоящия регламент съгласно параграф 1, когато тези органи или организации използват системи с ИИ в рамките на международно сътрудничество или споразумения за правоприлагане и съдебно сътрудничество със Съюза или с една или повече държави членки, при условие че тази трета държава или международна организация осигурява подходящи гаранции по отношение на защитата на основните права и свободи на физическите лица.
4. Il presente regolamento non si applica alle autorità pubbliche di un paese terzo né alle organizzazioni internazionali che rientrano nell'ambito di applicazione del presente regolamento a norma del paragrafo 1, laddove tali autorità o organizzazioni utilizzino i sistemi di IA nel quadro della cooperazione o di accordi internazionali per la cooperazione delle autorità di contrasto e giudiziarie con l'Unione o con uno o più Stati membri, a condizione che tale paese terzo o organizzazione internazionale fornisca garanzie adeguate per quanto riguarda la protezione dei diritti e delle libertà fondamentali delle persone.
5. Настоящият регламент не засяга прилагането на разпоредбите относно отговорността на доставчиците на посреднически услуги, установени в глава II от Регламент (ЕС) 2022/2065.
5. Il presente regolamento non pregiudica l'applicazione delle disposizioni sulla responsabilità dei prestatori di servizi intermediari di cui al capo II del regolamento (UE) 2022/2065.
6. Настоящият регламент не се прилага за системите с ИИ или моделите на ИИ, които са специално разработени и пуснати в действие единствено с цел научноизследователска и развойна дейност, включително за техните резултати.
6. Il presente regolamento non si applica ai sistemi di IA o modelli di IA, ivi compresi i loro output, specificamente sviluppati e messi in servizio al solo scopo di ricerca e sviluppo scientifici.
7. Правото на Съюза относно защитата на личните данни, неприкосновеността на личния живот и поверителността на съобщенията се прилага за личните данни, обработвани във връзка с правата и задълженията, предвидени в настоящия регламент. Настоящият регламент не засяга регламенти (ЕС) 2016/679 и (ЕС) 2018/1725, нито директиви 2002/58/ЕО и (ЕС) 2016/680, без да се засягат член 10, параграф 5 и член 59 от настоящия регламент.
7. Il diritto dell'Unione in materia di protezione dei dati personali, della vita privata e della riservatezza delle comunicazioni si applica ai dati personali trattati in relazione ai diritti e agli obblighi stabiliti dal presente regolamento. Il presente regolamento lascia impregiudicati il regolamento (UE) 2016/679 o (UE) 2018/1725 o la direttiva 2002/58/CE o (UE) 2016/680, fatti salvi l'articolo 10, paragrafo 5, e l'articolo 59 del presente regolamento.
8. Настоящият регламент не се прилага за научноизследователски дейности, изпитвания или развойни дейности по отношение на системи с ИИ или модели на ИИ преди пускането на пазара или пускането в действие на тези системи или модели. Тези дейности се извършват в съответствие с приложимото право на Съюза. Изпитването в реални условия не попада в обхвата на това изключение.
8. Il presente regolamento non si applica alle attività di ricerca, prova o sviluppo relative a sistemi di IA o modelli di IA prima della loro immissione sul mercato o messa in servizio. Tali attività sono svolte in conformità del diritto dell'Unione applicabile. Le prove in condizioni reali non rientrano in tale esclusione.
9. Настоящият регламент не засяга правилата, установени в други правни актове на Съюза, свързани със защитата на потребителите и безопасността на продуктите.
9. Il presente regolamento lascia impregiudicate le norme stabilite da altri atti giuridici dell'Unione in materia di protezione dei consumatori e di sicurezza dei prodotti.
10. Настоящият регламент не се прилага за задълженията на внедрители, които са физически лица, използващи системи с ИИ в рамките на изцяло лична непрофесионална дейност.
10. Il presente regolamento non si applica agli obblighi dei deployer che sono persone fisiche che utilizzano sistemi di IA nel corso di un'attività non professionale puramente personale.
11. Настоящият регламент не e пречка Съюзът или държавите членки да запазят или въведат законови, подзаконови или административни разпоредби, които са по-благоприятни за работниците по отношение на защитата на правата им във връзка с използването от работодателите на системи с ИИ, нито да насърчават или разрешават прилагането на колективни трудови договори, които са по-благоприятни за работниците.
11. Il presente regolamento non osta a che l'Unione o gli Stati membri mantengano o introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai lavoratori in termini di tutela dei loro diritti in relazione all'uso dei sistemi di IA da parte dei datori di lavoro, o incoraggino o consentano l'applicazione di contratti collettivi più favorevoli ai lavoratori.
12. Настоящият регламент не се прилага за системи с ИИ, предоставени с безплатен лиценз с отворен код, освен ако не са пуснати на пазара или пуснати в действие като високорискови системи с ИИ или като система с ИИ, попадаща в обхвата на член 5 или 50.
12. Il presente regolamento non si applica ai sistemi di IA rilasciati con licenza libera e open source, a meno che non siano immessi sul mercato o messi in servizio come sistemi di IA ad alto rischio o come sistema di IA rientrante nell'ambito di applicazione dell'articolo 5 o 50.
Забранени практики в областта на ИИ
1. Забраняват се следните практики в областта на ИИ:
1. Sono vietate le pratiche di IA seguenti:
a)
пускането на пазара, пускането в действие или използването на система с ИИ, която си служи със техники, действащи на подсъзнанието и отвъд рамките на съзнаваното от човека, или с умишлено манипулативни или измамни техники, с цел или последици, изразяващи се в съществено изменение на поведението на дадено лице или група лица чрез значително нарушаване на способността за вземане на информирано решение, като по този начин се подтиква да вземе решение, което в противен случай не би взело, по начин, който причинява или има разумна вероятност да причини значителни вреди на същото или на друго лице, или на група лица;
a)
l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole o tecniche volutamente manipolative o ingannevoli aventi lo scopo o l'effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone, pregiudicando in modo considerevole la loro capacità di prendere una decisione informata, inducendole pertanto a prendere una decisione che non avrebbero altrimenti preso, in un modo che provochi o possa ragionevolmente provocare a tale persona, a un'altra persona o a un gruppo di persone un danno significativo;
б)
пускането на пазара, пускането в действие или използването на система с ИИ, която използва някое от уязвимите места на дадено физическо лице или на конкретна група лица, дължащи се на възраст, увреждане или конкретно социално или икономическо положение, с цел или последици, изразяващи се в съществено изменение на поведението на това лице или на лице, спадащо към тази група, по начин, който причинява или има разумна вероятност да причини значителни вреди на същото или на друго лице;
b)
l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che sfrutta le vulnerabilità di una persona fisica o di uno specifico gruppo di persone, dovute all'età, alla disabilità o a una specifica situazione sociale o economica, con l'obiettivo o l'effetto di distorcere materialmente il comportamento di tale persona o di una persona che appartiene a tale gruppo in un modo che provochi o possa ragionevolmente provocare a tale persona o a un'altra persona un danno significativo;
в)
пускането на пазара, пускането в действие или използването на системи с ИИ с цел оценка или класифициране на физически лица или групи от лица през определен период от време въз основа на тяхното социално поведение или известни, изведени или предполагаеми лични или личностни характеристики, като социалната класация води до едната или и до двете посочени по-долу последици:
c)
l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IAper la valutazione o la classificazione delle persone fisiche o di gruppi di persone per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note, inferite o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di uno o di entrambi gli scenari seguenti:
i)
увреждащо или неблагоприятно третиране на определени физически лица или на групи лица в социален контекст, който няма връзка с контекста, в който първоначално са били генерирани или събрани данните;
i)
un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti;
ii)
увреждащо или неблагоприятно третиране на определени физически лица или на групи лица, което е неоправдано или непропорционално с оглед на тяхното социално поведение или на тежестта, която му се отдава;
ii)
un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità;
г)
пускането на пазара, пускането в действие с това конкретно предназначение или използването на система с ИИ за извършване на оценки на риска по отношение на физически лица с цел да се прецени или предвиди вероятността дадено физическо лице да извърши престъпление, въз основа единствено на профилирането на дадено физическо лице или на оценката на личностните му черти и характеристики; тази забрана не се прилага за системи с ИИ, използвани за подпомагане на извършването от човек на оценка на участието на дадено лице в престъпна дейност, която вече е изградена на основата на обективни и проверими факти, пряко свързани с престъпна дейност;
d)
l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di un sistema di IA per effettuare valutazioni del rischio relative a persone fisiche al fine di valutare o prevedere il rischio che una persona fisica commetta un reato, unicamente sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità; tale divieto non si applica ai sistemi di IA utilizzati a sostegno della valutazione umana del coinvolgimento di una persona in un'attività criminosa, che si basa già su fatti oggettivi e verificabili direttamente connessi a un'attività criminosa;
д)
пускането на пазара, пускането в действие с това конкретно предназначение или използването на системи с ИИ, които създават или разширяват бази данни за разпознаване на лица чрез нецеленасочено извличане на лицеви изображения от интернет или записи от видеонаблюдение;
e)
l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di IA che creano o ampliano le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso;
е)
пускането на пазара, пускането в действие с това конкретно предназначение или използването на системи с ИИ с цел да се направят заключения за емоциите на дадено физическо лице на работното място или в образователните институции, освен в случаите, когато системата с ИИ е предназначена да бъде внедрена или пусната на пазара по медицински съображения или съображения, свързани с безопасността;
f)
l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di IA per inferire le emozioni di una persona fisica nell'ambito del luogo di lavoro e degli istituti di istruzione, tranne laddove l'uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza;
ж)
пускането на пазара, пускането в действие с това конкретно предназначение или използването на системи за биометрично категоризиране, които категоризират по индивидуализиран начин физическите лица въз основа на техните биометрични данни с цел да се направят заключения или логически изводи за тяхната раса, политически възгледи, членство в синдикални организации, религиозни или философски убеждения, сексуален живот или сексуална ориентация; тази забрана не обхваща обозначаването или филтрирането на законно придобити набори от биометрични данни, например основани на биометрични данни изображения, или категоризиране на биометрични данни в правоохранителната област;
g)
l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di categorizzazione biometrica che classificano individualmente le persone fisiche sulla base dei loro dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale; tale divieto non riguarda l'etichettatura o il filtraggio di set di dati biometrici acquisiti legalmente, come le immagini, sulla base di dati biometrici o della categorizzazione di dati biometrici nel settore delle attività di contrasto;
з)
използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели, освен ако и доколкото такова използване е строго необходимо за една от следните цели:
h)
l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrastoa meno che, e nella misura in cui, tale uso sia strettamente necessario per uno degli obiettivi seguenti:
i)
целево издирване на конкретни жертви на отвличане, трафик на хора и сексуална експлоатация на хора, както и издирване на изчезнали лица;
i)
la ricerca mirata di specifichevittime di sottrazione, tratta di esseri umani o sfruttamento sessuale di esseri umani, nonché la ricerca di persone scomparse;
ii)
предотвратяване на конкретна, значителна и непосредствена заплаха за живота или физическата безопасност на физически лица или на действителна и настояща или действителна и предвидима заплаха от терористично нападение;
ii)
la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone fisiche o di una minaccia reale e attuale o reale e prevedibile di un attacco terroristico;
iii)
установяване на местонахождението или самоличността на лице, заподозряно в извършването на престъпление, за целите на провеждането на разследване или наказателно преследване или на изпълнението на наказание за престъпления, посочени в приложение II и наказуеми в съответната държава членка с лишаване от свобода или мярка за задържане с максимален срок не по-малко от четири години.
iii)
lalocalizzazione o l'identificazione di una persona sospettata di aver commesso un reato, ai fini dello svolgimento di un'indagine penale, o dell'esercizio di un'azione penale o dell'esecuzione di una sanzione penale per i reati di cui all'allegato II, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno quattro anni.
Първа алинея, буква з) не засяга член 9 от Регламент (ЕС) 2016/679 за обработването на биометрични данни за цели, различни от правоохранителни цели.
La lettera h) del primo comma lascia impregiudicato l'articolo 9 del regolamento (UE) 2016/679 per quanto riguarda il trattamento dei dati biometrici a fini diversi dall'attività di contrasto.
2. Използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели за която и да е от целите, посочени в параграф 1, първа алинея, буква з), се извършва за целите, посочени в същата буква, само с оглед на потвърждаването на самоличността на конкретно лице и при отчитане на следните елементи:
2. L'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto per uno qualsiasi degli obiettivi di cui al paragrafo 1, primo comma, lettera h), è applicato ai fini di cui a tale lettera, solo per confermare l'identità della persona specificamente interessata e tiene conto degli elementi seguenti:
a)
естеството на ситуацията, която води до евентуалното използване, и по-специално тежестта, вероятността от настъпването и мащабът на вредата, която би била причинена, ако системата не се използва;
a)
la natura della situazione che dà luogo al possibile uso, in particolare la gravità, la probabilità e l'entità del danno che sarebbe causato in caso di mancato uso del sistema;
б)
последиците от използването на системата за правата и свободите на всички засегнати лица, и по-специално тежестта, вероятността от настъпването и мащабът на тези последици.
b)
le conseguenze dell'uso del sistema per i diritti e le libertà di tutte le persone interessate, in particolare la gravità, la probabilità e l'entità di tali conseguenze.
Освен това използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели за някоя от целите, посочени в параграф 1, първа алинея, буква з) от настоящия член, трябва да съответства на необходимите и пропорционални гаранции и условия за използване в съответствие с националното право, което допуска такова използване, и по-специално по отношение на времевите, териториалните ограничения и ограниченията по отношение на лицата. Използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места се разрешава само ако правоохранителният орган е извършил оценката на въздействието върху основните права, посочена в член 27, и е регистрирал системата в базата данни на ЕС в съответствие с член 49. В надлежно обосновани спешни случаи обаче използването на тези системи може да започне без регистрация в базата данни на ЕС, при условие че регистрацията бъде извършена без ненужно забавяне.
L'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto per uno qualsiasi degli obiettivi di cui al paragrafo 1, primo comma, lettera h), del presente articolo rispetta inoltre le tutele e le condizioni necessarie e proporzionate in relazione all'uso, conformemente al diritto nazionale che autorizza tale uso, in particolare per quanto riguarda le limitazioni temporali, geografiche e personali. L'uso del sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico è autorizzato solo se l'autorità di contrasto ha completato una valutazione d'impatto sui diritti fondamentali come previsto all'articolo 27 e ha registrato il sistema nella banca dati UE conformemente all'articolo 49. Tuttavia, in situazioni di urgenza debitamente giustificate, è possibile iniziare a usare tali sistemi senza la registrazione nella banca dati dell'UE, a condizione che tale registrazione sia completata senza indebito ritardo.
3. За целите на параграф 1, първа алинея, буква з) и параграф 2, за всяко използване за правоохранителни цели на система за дистанционна биометрична идентификация в реално време на обществено достъпни места се изисква предварително разрешение, което се издава от съдебен орган или от независим административен орган, чието решение е задължително, на държавата членка, в която ще се осъществи използването, след получаване на мотивирано искане и в съответствие с подробните правила на националното право, посочени в параграф 5. В надлежно обосновани спешни случаи обаче използването на системата може да започне без разрешение, при условие че такова разрешение се поиска без ненужно забавяне, най-късно в рамките на 24 часа. Ако искането за разрешение бъде отхвърлено, използването се прекратява незабавно и всички данни, както и резултатите от това използване, незабавно се премахват и заличават.
3. Ai fini del paragrafo 1, primo comma, lettera h), e del paragrafo 2, ogniuso di un sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto è subordinato a un'autorizzazione preventiva rilasciata da un'autorità giudiziaria oda un'autorità amministrativa indipendente, la cui decisione è vincolante, dello Stato membro in cui deve avvenire l'uso, rilasciata su richiesta motivata e in conformità delle regole dettagliate del diritto nazionale di cui al paragrafo 5. Tuttavia, in una situazione di urgenza debitamente giustificata, è possibile iniziare a usare il sistema senza autorizzazione a condizione che tale autorizzazione sia richiesta senza indebito ritardo, al più tardi entro 24 ore. Se tale autorizzazione è respinta, l'uso è interrotto con effetto immediato e tutti i dati nonché i risultati e gli output di tale uso sono immediatamente eliminati e cancellati.
Компетентният съдебен орган или независим административен орган, чието решение е задължително, издава разрешението само ако въз основа на обективни доказателства или данни за ясни признаци, които са му представени, се убеди, че използването на въпросната система за дистанционна биометрична идентификация в реално време е необходимо и пропорционално за постигането на една от целите, посочени в параграф 1, първа алинея, буква з), която се посочва в искането, и по-специално се ограничава до строго необходимото по отношение на времевия и териториалния обхват и обхвата по отношение на лицата. Когато взема решение по искането, този орган взема предвид елементите, посочени в параграф 2. Не може да бъде взето решение, пораждащо неблагоприятни правни последици за дадено лице, единствено въз основа на резултата от системата за дистанционна биометрична идентификация в реално време.
L'autorità giudiziaria competente o un'autorità amministrativa indipendente la cui decisione è vincolante rilascia l'autorizzazione solo se ha accertato, sulla base di prove oggettive o indicazioni chiare che le sono state presentate, che l'uso del sistema di identificazione biometrica remota «in tempo reale» in questione è necessario e proporzionato al conseguimento di uno degli obiettivi di cui al paragrafo 1, primo comma, lettera h), come indicato nella richiesta e, in particolare, rimane limitato a quanto strettamente necessario per quanto riguarda il periodo di tempo e l'ambito geografico e personale. Nel decidere in merito alla richiesta, tale autorità tiene conto degli elementi di cui al paragrafo 2. Nessuna decisione che produca effetti giuridici negativi su una persona può essere presa unicamente sulla base dell'output del sistema di identificazione biometrica remota «in tempo reale».
4. Без да се засяга параграф 3, за всяко използване на система за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели се уведомяват съответният орган за надзор на пазара и националният орган за защита на данните в съответствие с националните правила, посочени в параграф 5. Уведомлението съдържа най-малко информацията, посочена в параграф 6, и не включва чувствителни оперативни данни.
4. Fatto salvo il paragrafo 3, ogni uso di un sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto è notificato alla pertinente autorità di vigilanza del mercato e all'autorità nazionale per la protezione dei dati conformemente alle regole nazionali di cui al paragrafo 5. La notifica contiene almeno le informazioni di cui al paragrafo 6 e non include dati operativi sensibili.
5. Държава членка може да реши да предвиди възможността за пълно или частично разрешаване на използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели в рамките на ограниченията и при условията, изброени в параграф 1, първа алинея, буква з) и в параграфи 2 и 3. Съответните държави членки установяват в националното си право необходимите подробни правила за подаване на искания за разрешенията, посочени в параграф 3, за тяхното издаване и изпълнение, както и за надзора и докладването по отношение на тях. В тези правила се конкретизира също така по отношение на кои от целите, посочени в параграф 1, първа алинея, буква з), включително по отношение на кои престъпления, посочени в буква з), точка iii) от същата разпоредба, на компетентните органи може да бъде разрешено да използват тези системи за правоохранителни цели. Държавите членки съобщават на Комисията тези правила най-късно 30 дни след приемането им. Държавите членки могат да въведат, в съответствие с правото на Съюза, по-ограничителни законови разпоредби относно използването на системи за дистанционна биометрична идентификация.
5. Uno Stato membro può decidere di prevedere la possibilità di autorizzare in tutto o in parte l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto, entro i limiti e alle condizioni di cui al paragrafo 1, primo comma, lettera h), e ai paragrafi 2 e 3. Gli Stati membri interessati stabiliscono nel proprio diritto nazionale le necessarie regole dettagliate per la richiesta, il rilascio, l'esercizio delle autorizzazioni di cui al paragrafo 3, nonché per le attività di controllo e comunicazione ad esse relative. Tali regole specificano inoltre per quali degli obiettivi elencati al paragrafo 1, primo comma, lettera h), compresi i reati di cui alla lettera h), punto iii), le autorità competenti possono essere autorizzate ad utilizzare tali sistemi a fini di attività di contrasto. Gli Stati membri notificano tali regole alla Commissione al più tardi 30 giorni dopo la loro adozione. Gli Stati membri possono introdurre, in conformità del diritto dell'Unione, disposizioni più restrittive sull'uso dei sistemi di identificazione biometrica remota.
6. Националните органи за надзор на пазара и националните органи за защита на данните на държавите членки, които са били уведомени за използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели съгласно параграф 4, представят на Комисията годишни доклади относно това използване. За тази цел Комисията осигурява на държавите членки и на националните органи за надзор на пазара и за защита на данните образец, включващ информация за броя на решенията, взети от компетентните съдебни органи или от независим административен орган, чието решение е задължително, по отношение на искания за разрешения в съответствие с параграф 3 и за резултатите от тях.
6. Le autorità nazionali di vigilanza del mercato e le autorità nazionali per la protezione dei dati degli Stati membri cui è stato notificato l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto a norma del paragrafo 4, presentano alla Commissione relazioni annuali su tale uso. A tal fine, la Commissione fornisce agli Stati membri e alle autorità nazionali di vigilanza del mercato e di protezione dei dati un modello comprendente informazioni sul numero di decisioni che le autorità giudiziarie competenti, o un'autorità amministrativa indipendente la cui decisione è vincolante, hanno adottato in risposta alle richieste di autorizzazione a norma del paragrafo 3 e il loro esito.
7. Комисията публикува годишни доклади относно използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели на базата на обобщени данни в държавите членки, основани на посочените в параграф 6 годишни доклади. Тези годишни доклади не съдържат чувствителни оперативни данни от съответните правоохранителни дейности.
7. La Commissione pubblica relazioni annuali sull'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto, fondate sui dati aggregati negli Stati membri sulla base delle relazioni annuali di cui al paragrafo 6. Tali relazioni annuali non includono dati operativi sensibili delle relative attività di contrasto.
8. Настоящият член не засяга забраните, които се прилагат, когато дадена практика в областта на ИИ нарушава друго право на Съюза.
8. Il presente articolo lascia impregiudicati i divieti che si applicano qualora una pratica di IA violi altre disposizioni di diritto dell'Unione.
Правила за класифициране на системи с ИИ като високорискови
Regole di classificazione per i sistemi di IA ad alto rischio
1. Без оглед на това дали дадена система с ИИ се пуска на пазара или се пуска в действие независимо от продуктите, посочени в букви а) и б), тази система с ИИ се счита за високорискова, когато са изпълнени следните две условия:
1. A prescindere dal fatto che sia immesso sul mercato o messo in servizio indipendentemente dai prodotti di cui alle lettere a) e b), un sistema di IA è considerato ad alto rischio se sono soddisfatte entrambe le condizioni seguenti:
a)
системата с ИИ е предназначена да се използва като защѝтен елемент на продукт или самата система с ИИ е продукт, попадащ в обхвата на законодателството на Съюза за хармонизация, посочено в приложение I;
a)
il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o il sistema di IA è esso stesso un prodotto, disciplinato dalla normativa di armonizzazione dell'Unione elencata nell'allegato I;
б)
продуктът, чийто защѝтен елемент съгласно буква а) е системата с ИИ, или самата система с ИИ като продукт трябва да премине оценяване на съответствието от трето лице с оглед на пускането на пазара или пускането в действие на посочения продукт в съответствие със законодателството на Съюза за хармонизация, посочено в приложение I.
b)
il prodotto, il cui componente di sicurezza a norma della lettera a) è il sistema di IA, o il sistema di IA stesso in quanto prodotto, è soggetto a una valutazione della conformità da parte di terzi ai fini dell'immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell'Unione elencata nell'allegato I.
2. В допълнение към високорисковите системи с ИИ, посочени в параграф 1, за високорискови се считат и системите с ИИ, посочени в приложение III.
2. Oltre ai sistemi di IA ad alto rischio di cui al paragrafo 1, sono considerati ad alto rischio anche i sistemi di IA di cui all'allegato III.
3. Чрез дерогация от параграф 2, система с ИИ, посочена в приложение III, не се счита за високорискова, ако не представлява значителен риск от увреждане на здравето, безопасността или основните права на физическите лица, включително като не оказва съществено влияние върху резултата от вземането на решения.
3. In deroga al paragrafo 2, un sistema di IA di cui all’allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale.
Първа алинея се прилага, когато е изпълнено някое от следните условия:
Il primo comma si applica quando è soddisfatta almeno una qualsiasi delle condizioni seguenti:
a)
системата с ИИ е предназначена да изпълнява точно формулирана процедурна задача;
a)
il sistema di IA è destinato a eseguire un compito procedurale limitato;
б)
системата с ИИ е предназначена да подобри резултата от извършена преди това човешка дейност;
b)
il sistema di IA è destinato a migliorare il risultato di un'attività umana precedentemente completata;
в)
системата с ИИ е предназначена да открива модели за вземане на решения или отклонения от предходни модели за вземане на решения и не е предназначена да замени или повлияе на направената преди това човешка оценка, без да бъде извършен подходящ преглед от човек; или
c)
il sistema di IA è destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non è finalizzato a sostituire o influenzare la valutazione umana precedentemente completata senza un'adeguata revisione umana; o
г)
системата с ИИ е предназначена да изпълнява подготвителна задача с оглед на извършването на оценка, която е от значение за целите на случаите на използване, посочени в приложение III.
d)
il sistema di IA è destinato a eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d'uso elencati nell'allegato III.
Независимо от първа алинея, система с ИИ, посочена в приложение III, винаги се счита за високорискова, когато извършва профилиране на физически лица.
Fatto salvo il primo comma, un sistema di IA di cui all'allegato III è sempre considerato ad alto rischio qualora esso effettui profilazione di persone fisiche.
4. Доставчик, който счита, че дадена система с ИИ, посочена в приложение III, не е високорискова, документира своята оценка, преди тази система да бъде пусната на пазара или пусната в действие. За такъм доставчик се прилага задължението за регистрация, установено в член 49, параграф 2. При поискване от националните компетентни органи доставчикът предоставя документацията за оценката.
4. Un fornitore che ritiene che un sistema di IA di cui all'allegato III non sia ad alto rischio ne documenta la valutazione prima che tale sistema sia immesso sul mercato oppure messo in servizio. Tale fornitore è soggetto all'obbligo di registrazione di cui all'articolo 49, paragrafo 2. Su richiesta delle autorità nazionali competenti, il fornitore mette a disposizione la documentazione relativa alla valutazione.
5. Комисията, след консултация с Европейския съвет по изкуствен интелект (наричан по-долу „Съветът по ИИ“) и не по-късно от 2 февруари 2026 г., дава насоки, с които конкретизира практическото прилагане на настоящия член в съответствие с член 96, заедно с изчерпателен списък с практически примери за случаи на употреба на системи с ИИ, които са високорискови, и такива, които не са високорискови.
5. Dopo aver consultato il consiglio europeo per l'intelligenza artificiale («consiglio per l'IA»), ed entro il 2 febbraio 2026, la Commissione fornisce orientamenti che specificano l'attuazione pratica del presente articolo in linea con l'articolo 96, insieme a un elenco esaustivo di esempi pratici di casi d'uso di sistemi di IA ad alto rischio e non ad alto rischio.
6. На Комисията се предоставя правомощието да приема делегирани актове в съответствие с член 97 за изменение на параграф 3, втора алинея от настоящия член чрез добавяне на нови условия към установените в посочената разпоредба или за изменението им, когато има конкретни и достоверни доказателства за наличието на системи с ИИ, които попадат в обхвата на приложение III, но не пораждат значителен риск от увреждане на здравето, безопасността или основните права на физическите лица.
6. Alla Commissione è conferito il potere di adottare atti delegati in conformità dell'articolo 97 al fine di modificare il paragrafo 3, secondo comma, del presente articolo aggiungendo nuove condizioni a quelle ivi stabilite, oppure modificandole, qualora vi siano prove concrete e affidabili dell'esistenza di sistemi di IA che rientrano nell'ambito di applicazione dell'allegato III ma non presentano un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche.
7. Комисията приема делегирани актове в съответствие с член 97 за изменение на параграф 3, втора алинея от настоящия член чрез заличаване на някое от условията, установени в посочената разпоредба, когато има конкретни и достоверни доказателства, че това е необходимо за поддържането на равнището на защита на здравето, безопасността и основните права, предвидено в настоящия регламент.
7. La Commissione adotta atti delegati in conformità dell'articolo 97 al fine di modificare il paragrafo 3, secondo comma, del presente articolo sopprimendo qualsiasi condizione ivi stabilita, qualora vi siano prove concrete e affidabili che è necessario al fine di mantenere il livello di protezione della salute, della sicurezza e dei diritti fondamentali previsto dal presente regolamento.
8. Приетите в съответствие с параграфи 6 и 7 от настоящия член изменения на условията, установени в параграф 3, втора алинея, не може да намаляват общото равнище на защита на здравето, безопасността и основните права, предвидено в настоящия регламент, трябва да осигуряват съгласуваност с делегираните актове, приети съгласно член 7, параграф 1, и да са съобразени с пазарното и технологичното развитие.
8. Eventuali modifiche alle condizioni di cui al paragrafo 3, secondo comma, adottate in conformità dei paragrafi 6 e 7 del presente articolo non riducono il livello globale di protezione della salute, della sicurezza e dei diritti fondamentali nell'Unione previsto dal presente regolamento e garantiscono la coerenza con gli atti delegati adottati a norma dell'articolo 7, paragrafo 1, e tengono conto degli sviluppi tecnologici e del mercato.
Съответствие с изискванията
1. Високорисковите системи с ИИ трябва да съответстват на изискванията, установени в настоящия раздел, като се взема предвид тяхното предназначение, както и общоприетите съвременни технически постижения в областта на ИИ и свързаните с ИИ технологии. При осигуряването на съответствие с тези изисквания се взема предвид системата за управление на риска, посочена в член 9.
1. I sistemi di IA ad alto rischio rispettano i requisiti stabiliti nella presente sezione, tenendo conto delle loro previste finalità nonché dello stato dell'arte generalmente riconosciuto in materia di IA e di tecnologie correlate all'IA. Nel garantire conformità a tali requisiti si tiene conto del sistema di gestione dei rischi di cui all'articolo 9.
2. Когато даден продукт съдържа система с ИИ, за която се прилагат изискванията на настоящия регламент, както и изискванията на законодателството на Съюза за хармонизация, посочено в раздел А от приложение I, доставчиците носят отговорност за осигуряване на пълното съответствие на продукта с всички приложими изисквания съгласно приложимото законодателство на Съюза за хармонизация. С оглед на осигуряване на съответствието на високорисковите системи с ИИ, посочени в параграф 1, с изискванията, установени в настоящия раздел, и с цел да се осигури съгласуваност, да се избегне дублиране и да се сведе до минимум допълнителната тежест, доставчиците могат да изберат да включат, когато е целесъобразно, необходимите процеси на изпитване и докладване, информация и документация, които предоставят за своя продукт, във вече съществуваща документация и процедури, изисквани съгласно законодателството на Съюза за хармонизация, посочено в раздел А от приложение I.
2. Se un prodotto contiene un sistema di IA cui si applicano i requisiti del presente regolamento e i requisiti della normativa di armonizzazione dell'Unione elencata nell'allegato I, sezione A, i fornitori sono responsabili di garantire che il loro prodotto sia pienamente conforme a tutti i requisiti applicabili previsti dalla normativa di armonizzazione dell'Unione applicabile. Nel garantire la conformità dei sistemi di IA ad alto rischio di cui al paragrafo 1 ai requisiti di cui alla presente sezione e al fine di garantire la coerenza, evitare duplicazioni e ridurre al minimo gli oneri aggiuntivi, i fornitori possono scegliere di integrare, se del caso, i necessari processi di prova e di comunicazione nonché le informazioni e la documentazione che forniscono relativamente al loro prodotto nella documentazione e nelle procedure esistenti e richieste in conformità della normativa di armonizzazione dell'Unione elencata nell'allegato I, sezione A.
Система за управление на риска
Sistema di gestione dei rischi
1. Във връзка с високорисковите системи с ИИ се създава, прилага, документира и поддържа система за управление на риска.
1. In relazione ai sistemi di IA ad alto rischio è istituito, attuato, documentato e mantenuto un sistema di gestione dei rischi.
2. Системата за управление на риска се разбира като непрекъснат цикличен процес, планиран и протичащ през целия жизнен цикъл на високорисковата система с ИИ и изискващ редовен и систематичен преглед и актуализиране. Тя включва следните стъпки:
2. Il sistema di gestione dei rischi è inteso come un processo iterativo continuo pianificato ed eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un riesame e un aggiornamento costanti e sistematici. Esso comprende le fasi seguenti:
a)
установяване и анализ на известните и разумно предвидимите рискове, които високорисковата система с ИИ може да породи по отношение на здравето, безопасността и основните права, когато високорисковата система с ИИ се използва в съответствие с предназначението си;
a)
identificazione e analisi dei rischi noti e ragionevolmente prevedibili che il sistema di IA ad alto rischio può porre per la salute, la sicurezza e i diritti fondamentali quando il sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista;
б)
прогноза и оценка на рисковете, които могат да възникнат, когато високорисковата система с ИИ се използва в съответствие с предназначението си и в условия на разумно предвидима неправилна експлоатация;
b)
stima e valutazione dei rischi che possono emergere quando il sistema di IA ad alto rischio è usato conformemente alla sua finalità prevista e in condizioni di uso improprio ragionevolmente prevedibile;
в)
оценка на други евентуално възникващи рискове въз основа на анализ на данните, събрани от системата за мониторинг след пускането на пазара, посочена в член 72;
c)
valutazione di altri eventuali rischi derivanti dall'analisi dei dati raccolti dal sistema di monitoraggio successivo all'immissione sul mercato di cui all'articolo 72;
г)
приемане на подходящи и целенасочени мерки за управление на риска, разработени с цел преодоляване на рисковете, установени съгласно буква а).
d)
adozione di misure di gestione dei rischi opportune e mirate intese ad affrontare i rischi individuati ai sensi della lettera a).
3. Рисковете, посочени в настоящия член, се отнасят само до тези, които могат да бъдат разумно ограничени или отстранени при разработването или проектирането на високорисковата система с ИИ или чрез предоставянето на подходяща техническа информация.
3. I rischi di cui al presente articolo riguardano solo quelli che possono essere ragionevolmente attenuati o eliminati attraverso lo sviluppo o la progettazione del sistema di IA ad alto rischio o la fornitura di informazioni tecniche adeguate.
4. Мерките за управление на риска, посочени в параграф 2, буква г), трябва да са надлежно съобразени с последиците и възможното взаимодействие в резултат на съчетаното прилагане на изискванията, установени в настоящия раздел, с цел по-ефективното свеждане до минимум на рисковете, като същевременно се постигне подходящ баланс при прилагането на мерките за изпълнение на тези изисквания.
4. Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), tengono in debita considerazione gli effetti e la possibile interazione derivanti dall'applicazione combinata dei requisiti di cui alla presente sezione, al fine di ridurre al minimo i rischi con maggiore efficacia e raggiungere nel contempo un equilibrio adeguato nell'attuazione delle misure volte a soddisfare tali requisiti.
5. Мерките за управление на риска, посочени в параграф 2, буква г), трябва да са такива, че съответният остатъчен риск, свързан с всяка опасност, както и общият остатъчен риск на високорисковите системи с ИИ, да се считат за приемливи.
5. Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), sono tali che i pertinenti rischi residui associati a ciascun pericolo nonché il rischio residuo complessivo dei sistemi di IA ad alto rischio sono considerati accettabili.
При определянето на най-подходящите мерки за управление на риска се гарантира следното:
Nell'individuare le misure di gestione dei rischi più appropriate, occorre garantire quanto segue:
a)
отстраняване или намаляване на рисковете, установени и оценени съгласно параграф 2, доколкото е технически осъществимо, чрез адекватно проектиране и разработване на високорисковата система с ИИ;
a)
l'eliminazione o la riduzione dei rischi individuati e valutati a norma del paragrafo 2, per quanto possibile dal punto di vista tecnico attraverso un'adeguata progettazione e fabbricazione del sistema di IA ad alto rischio;
б)
когато е целесъобразно, прилагане на адекватни мерки за ограничаване и контрол по отношение на рисковете, които не могат да бъдат отстранени;
b)
ove opportuno, l'attuazione di adeguate misure di attenuazione e di controllo nell'affrontare i rischi che non possono essere eliminati;
в)
предоставяне на необходимата информация съгласно член 13 и, където е целесъобразно, обучение на внедрителите.
c)
la fornitura delle informazioni richieste a norma dell'articolo 13 e, ove opportuno, la formazione dei deployer.
С оглед на отстраняването или намаляването на рисковете, свързани с използването на високорисковата система с ИИ, се отчитат надлежно техническите познания, опитът, образованието и обучението, които се очакват от внедрителя, и предполагаемият контекст, в който системата е предназначена да се използва.
Al fine di eliminare o ridurre i rischi connessi all'uso del sistema di IA ad alto rischio, si tengono debitamente in considerazione le conoscenze tecniche, l'esperienza, l'istruzione e la formazione che ci si può aspettare dal deployer e il contesto presumibile in cui il sistema è destinato ad essere usato.
6. Високорисковите системи с ИИ се изпитват с цел набелязване на най-подходящите и целенасочени мерки за управление на риска. Изпитванията трябва да гарантират, че високорисковите системи с ИИ функционират стабилно с оглед на предназначението си и че са в съответствие с изискванията, установени в настоящия раздел.
6. I sistemi di IA ad alto rischio sono sottoposti a prova al fine di individuare le misure di gestione dei rischi più appropriate e mirate. Le prove garantiscono che i sistemi di IA ad alto rischio funzionino in modo coerente per la finalità prevista e che siano conformi ai requisiti di cui alla presente sezione.
7. Процедурите за изпитване може да включват изпитване в реални условия в съответствие с член 60.
7. Le procedure di prova possono comprendere prove in condizioni reali conformemente all'articolo 60.
8. Изпитването на високорисковите системи с ИИ се извършва, когато е целесъобразно, във всеки момент от процеса на разработване и — при всички случаи — преди пускането им на пазара или пускането им в действие. Изпитването се извършва спрямо предварително определени показатели и вероятностни прагове, които са подходящи с оглед на предназначението на високорисковата система с ИИ.
8. Le prove dei sistemi di IA ad alto rischio sono effettuate, a seconda dei casi, in un qualsiasi momento dell'intero processo di sviluppo e, in ogni caso, prima della loro immissione sul mercato o messa in servizio. Le prove sono effettuate sulla base di metriche e soglie probabilistiche definite precedentemente e adeguate alla finalità prevista perseguita dal sistema di IA ad alto rischio.
9. При прилагането на системата за управление на риска, предвидена в параграфи 1—7, доставчиците разглеждат въпроса дали, с оглед на предназначението на високорисковата система с ИИ, е вероятно тя да окаже неблагоприятно въздействие върху ненавършили 18 години лица и, в зависимост от случая, върху други уязвими групи.
9. Nell'attuare il sistema di gestione dei rischi di cui ai paragrafi da 1 a 7, i fornitori prestano attenzione, nell'ottica della sua finalità prevista, all'eventualità che il sistema di IA ad alto rischio possa avere un impatto negativo sulle persone di età inferiore a 18 anni o, a seconda dei casi, su altri gruppi vulnerabili.
10. За доставчиците на високорискови системи с ИИ, спрямо които се прилагат изисквания по отношение на вътрешните процеси за управление на риска съгласно други относими разпоредби на правото на Съюза, аспектите, предвидени в параграфи 1—9, могат да бъдат част от процедурите за управление на риска, установени съгласно това право, или да се съчетават с тях.
10. Per i fornitori di sistemi di IA ad alto rischio soggetti ai requisiti relativi ai processi interni di gestione dei rischi a norma di altre disposizioni pertinenti del diritto dell'Unione, gli aspetti di cui ai paragrafi da 1 a 9 possono far parte delle procedure di gestione dei rischi stabilite a norma di tale diritto oppure essere combinati con le stesse.
Данни и администриране на данните
Dati e governance dei dati
1. Високорисковите системи с ИИ, при които се използват техники, свързани с обучение с данни на модели с ИИ, се разработват въз основа на набори от обучителни, валидационни и изпитвателни данни, които отговарят на критериите за качество, посочени в параграфи 2—5, когато се използват такива набори от данни.
1. I sistemi di IA ad alto rischio che utilizzano tecniche che prevedono l'uso di dati per l'addestramento di modelli di IA sono sviluppati sulla base di set di dati di addestramento, convalida e prova che soddisfano i criteri di qualità di cui ai paragrafi da 2 a 5 ogniqualvolta siano utilizzati tali set di dati.
2. По отношение на наборите от обучителни, валидационни и изпитвателни данни се прилагат практики за администриране и управление на данните, подходящи с оглед на предназначението на системата с ИИ. Тези практики се отнасят по-специално до:
2. I set di dati di addestramento, convalida e prova sono soggetti a pratiche di governance e gestione dei dati adeguate alla finalità prevista del sistema di IA ad alto rischio. Tali pratiche riguardano in particolare:
a)
съответните проектантски решения;
a)
le scelte progettuali pertinenti;
б)
процесите на събиране на данни и произхода на данните и в случай на лични данни — първоначалната цел на събирането на данните;
b)
i processi di raccolta dei dati e l'origine dei dati, nonché la finalità originaria della raccolta nel caso di dati personali;
в)
съответните операции по подготовка на данните, като анотиране, обозначаване, изчистване, актуализиране, обогатяване и агрегиране;
c)
le operazioni di trattamento pertinenti ai fini della preparazione dei dati, quali annotazione, etichettatura, pulizia, aggiornamento, arricchimento e aggregazione;
г)
формулирането на допускания, по-специално по отношение на информацията, която данните следва да измерват и представят;
d)
la formulazione di ipotesi, in particolare per quanto riguarda le informazioni che si presume che i dati misurino e rappresentino;
д)
оценка на наличието, количеството и годността на необходимите набори от данни;
e)
una valutazione della disponibilità, della quantità e dell'adeguatezza dei set di dati necessari;
е)
преглед с оглед на евентуална предубеденост, която има вероятност да засегне здравето и безопасността на хората, да окаже отрицателно въздействие върху основните права или да доведе до дискриминация, забранена съгласно правото на Съюза, по-специално когато резултатите от данните оказват влияние върху входящите данни за бъдещи операции;
f)
un esame atto a valutare le possibili distorsioni suscettibili di incidere sulla salute e sulla sicurezza delle persone, di avere un impatto negativo sui diritti fondamentali o di comportare discriminazioni vietate dal diritto dell'Unione, specie laddove gli output di dati influenzano gli input per operazioni future;
ж)
подходящи мерки за откриване, предотвратяване и смекчаване на евентуална предубеденост, установена съгласно буква е);
g)
le misure adeguate per individuare, prevenire e attenuare le possibili distorsioni individuate conformemente alla lettera f);
з)
откриване на съответни пропуски или недостатъци в данните, които възпрепятстват съответствието с настоящия регламент, и на начините за отстраняване на тези пропуски и недостатъци.
h)
l'individuazione di lacune o carenze pertinenti nei dati tali da pregiudicare il rispetto del presente regolamento e il modo in cui tali lacune e carenze possono essere colmate.
3. Наборите от обучителни, валидационни и изпитвателни данни трябва да са подходящи, достатъчно представителни и във възможно най-голяма степен без грешки и пълни с оглед на предназначението на системата. Те трябва да притежават подходящите статистически свойства, включително, когато е приложимо, по отношение на лицата или групите лица, по отношение на които високорисковата система с ИИ е предназначена да се използва. Тези характеристики на наборите от данни могат да са налични на равнището на отделните набори от данни или по отношение на комбинация от тях.
3. I set di dati di addestramento, convalida e prova sono pertinenti, sufficientemente rappresentativi e, nella misura del possibile, esenti da errori e completi nell'ottica della finalità prevista. Essi possiedono le proprietà statistiche appropriate anche, ove applicabile, per quanto riguarda le persone o i gruppi di persone relativamente ai quali il sistema di IA ad alto rischio è destinato a essere usato. Queste caratteristiche dei set di dati possono essere soddisfatte a livello di singoli set di dati o a livello di una combinazione degli stessi.
4. Наборите от данни трябва да са съобразени — доколкото това е необходимо с оглед на предназначението — с характеристиките или елементите, характерни за конкретната географска, контекстуална, поведенческа или функционална среда, в която високорисковата система с ИИ е предназначена да бъде използвана.
4. I set di dati tengono conto, nella misura necessaria per la finalità prevista, delle caratteristiche o degli elementi particolari dello specifico ambito geografico, contestuale, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere usato.
5. Доколкото това е строго необходимо, за да се гарантира откриване и коригиране на предубеденост във високорисковите системи с ИИ в съответствие с параграф 2, букви е) и ж) от настоящия член, доставчиците на такива системи могат по изключение да обработват специални категории лични данни при спазването на подходящи гаранции за основните права и свободи на физическите лица. Освен разпоредбите, предвидени в регламенти (ЕС) 2016/679 и (ЕС) 2018/1725 и Директива (ЕС) 2016/680, за да може да се извърши такова обработване, трябва да бъдат изпълнени всички посочени по-долу условия:
5. Nella misura in cui ciò sia strettamente necessario al fine di garantireil rilevamento e la correzione delle distorsioni in relazione ai sistemi di IA ad alto rischio in conformità del paragrafo 2, lettere f) e g), del presente articolo, i fornitori di tali sistemi possono eccezionalmente trattare categorie particolari di dati personali, fatte salve le tutele adeguate per i diritti e le libertà fondamentali delle persone fisiche. Oltre alle disposizioni di cui ai regolamenti (UE) 2016/679 e (UE) 2018/1725 e alla direttiva (UE) 2016/680 devono essere soddisfatte, affinché tale trattamento avvenga, tutte le condizioni seguenti:
a)
откриването и коригирането на предубедеността не могат да се осъществят ефективно чрез обработването на други данни, включително синтетични или анонимизирани данни;
a)
il rilevamento e la correzione delle distorsioni non possono essere realizzati efficacemente mediante il trattamento di altri dati, compresi i dati sintetici o anonimizzati;
б)
по отношение на специалните категории лични данни се прилагат технически ограничения, свързани с повторното използване на личните данни, както и най-съвременни мерки за сигурност и опазване на неприкосновеността на личния живот, включително псевдонимизация;
b)
le categorie particolari di dati personali sono soggette a limitazioni tecniche relative al riutilizzo dei dati personali, nonché a misure più avanzate di sicurezza e di tutela della vita privata, compresa la pseudonimizzazione;
в)
по отношение на специалните категории лични данни се прилагат мерки, с които се гарантира, че обработваните лични данни са обезопасени, защитени, спрямо тях се прилагат подходящи гаранции, включително строг контрол и документиране на достъпа, с цел да се избегне злоупотреба и да се гарантира, че само оправомощени лица имат достъп до тези лични данни със съответните задължения за спазване на поверителност;
c)
le categorie particolari di dati personali sono soggette a misure tese a garantire che i dati personali trattati siano resi sicuri e protetti nonché soggetti a garanzie adeguate, ivi compresi controlli e documentazione rigorosi dell'accesso, al fine di evitare abusi e garantire che solo le persone autorizzate e sottostanti a opportuni obblighi di riservatezza abbiano accesso a tali dati personali;
г)
специалните категории лични данни не се предоставят, не се предават, нито достъпват по друг начин от други лица;
d)
le categorie particolari di dati personali non devono essere trasmesse, trasferite o altrimenti consultate da terzi;
д)
специалните категории лични данни се заличават, след като предубедеността бъде коригирана или личните данни достигнат края на срока си на съхранение, като се взема предвид по-рано настъпилото от двете събития;
e)
le categorie particolari di dati personali vengono cancellate dopo che la distorsione è stata corretta oppure i dati personali hanno raggiunto la fine del loro periodo di conservazione, a seconda di quale delle due condizioni si verifica per prima;
е)
записите за дейностите по обработване съгласно регламенти (ЕС) 2016/679 и (ЕС) 2018/1725 и Директива (ЕС) 2016/680 включват причините, поради които обработването на специални категории лични данни е било строго необходимо за откриване и коригиране на предубедеността и не било възможно тази цел да се постигне чрез обработване на други данни.
f)
i registri delle attività di trattamento a norma dei regolamenti (UE) 2016/679 e (UE) 2018/1725 e della direttiva (UE) 2016/680 comprendono i motivi per cui il trattamento delle categorie particolari di dati personali era strettamente necessario per rilevare e correggere distorsioni e i motivi per cui tale obiettivo non poteva essere raggiunto mediante il trattamento di altri dati.
6. При разработването на високорискови системи с ИИ, които не използват техники, включващи обучение на модели с ИИ, параграфи 2—5 се прилагат само за наборите от изпитвателни данни.
6. Per lo sviluppo di sistemi di IA ad alto rischio che non utilizzano tecniche che prevedono l'addestramento di modelli di IA, i paragrafi da 2 a 5 si applicano solo ai set di dati di prova.
1. Техническата документация на дадена високорискова система с ИИ се изготвя, преди тя да бъде пусната на пазара или пусната в действие, и се поддържа актуална.
1. La documentazione tecnica di un sistema di IA ad alto rischio è redatta prima dell'immissione sul mercato o della messa in servizio di tale sistema ed è tenuta aggiornata.
Техническата документация се изготвя по такъв начин, че да показва, че високорисковата система с ИИ съответства на изискванията, установени в настоящия раздел, и да предоставя на националните компетентни органи и нотифицираните органи цялата необходима информация в ясна и разбираема форма с цел оценяване на съответствието на системата с ИИ с посочените изисквания. Тя съдържа най-малко елементите, установени в приложение IV. МСП, включително новосъздадените предприятия, могат да предоставят по опростен начин елементите на техническата документация, посочени в приложение IV. За тази цел Комисията създава опростен формуляр за техническа документация, съобразен с нуждите на малките предприятия и микропредприятията. Когато МСП, включително новосъздадените предприятия, изберат да предоставят по опростен начин информацията, изисквана съгласно приложение IV, те използват формуляра, посочен в настоящия параграф. Нотифицираните органи приемат формуляра за целите на оценяването на съответствието.
La documentazione tecnica è redatta in modo da dimostrare che il sistema di IA ad alto rischio è conforme ai requisiti di cui alla presente sezione e da fornire alle autorità nazionali competenti e agli organismi notificati, in forma chiara e comprensibile, le informazioni necessarie per valutare la conformità del sistema di IA a tali requisiti. Essa contiene almeno gli elementi di cui all'allegato IV. Le PMI, comprese le start-up, possono fornire in modo semplificato gli elementi della documentazione tecnica specificati nell'allegato IV. A tal fine la Commissione definisce un modulo di documentazione tecnica semplificata che risponda alle esigenze delle piccole imprese e delle microimprese. Qualora una PMI, compresa una start-up, decida di fornire in modo semplificato le informazioni richieste nell'allegato IV, utilizza il modulo di cui al presente paragrafo. Gli organismi notificati accettano il modulo ai fini della valutazione della conformità.
2. Когато се пуска на пазара или пуска в действие високорискова система с ИИ, свързана с продукт, обхванат от законодателството на Съюза за хармонизация, посочено в раздел А от приложение I, се изготвя един набор от техническа документация, съдържаща цялата посочена в параграф 1 информация, както и информацията, изисквана съгласно тези правни актове.
2. Se è immesso sul mercato o messo in servizio un sistema di IA ad alto rischio connesso a un prodotto contemplato dalla normativa di armonizzazione dell'Unione elencata nell'allegato I, sezione A, si redige un'unica documentazione tecnica contenente tutte le informazioni di cui al paragrafo 1 e le informazioni necessarie a norma di tali atti giuridici.
3. На Комисията се предоставя правомощието да приема делегирани актове в съответствие с член 97 за изменение на приложение IV, когато това е необходимо, за да се гарантира, че предвид техническия напредък техническата документация предоставя цялата информация, необходима за оценяване на съответствието на системата с установените в настоящия раздел изисквания.
3. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 97 al fine di modificare l'allegato IV ove necessario per garantire che, alla luce del progresso tecnico, la documentazione tecnica fornisca tutte le informazioni necessarie per valutare la conformità del sistema ai requisiti di cui alla presente sezione.
Прозрачност и предоставяне на информация на внедрителите
Trasparenza e fornitura di informazioni ai deployer
1. Високорисковите системи с ИИ се проектират и разработват така, че да се гарантира, че функционирането им е достатъчно прозрачно, за да позволи на внедрителите да тълкуват резултатите, получени от системата, и да ги използват по подходящ начин. Осигурява се подходящ вид и степен на прозрачност с оглед изпълнение на приложимите задължения на доставчика и внедрителя, установени в раздел 3.
1. I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire ai deployer di interpretare l'output del sistema e utilizzarlo adeguatamente. Sono garantiti un tipo e un livello di trasparenza adeguati, che consentano di conseguire il rispetto dei pertinenti obblighi del fornitore e del deployer di cui alla sezione 3.
2. Високорисковите системи с ИИ се придружават от инструкции за употреба в подходящ цифров или друг формат, които включват кратка, пълна, вярна и ясна информация, която е относима, достъпна и разбираема за внедрителите.
2. I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l'uso, in un formato appropriato digitale o non digitale, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per i deployer.
3. Инструкциите за употреба съдържат най-малко следната информация:
3. Le istruzioni per l'uso contengono almeno le informazioni seguenti:
a)
идентификационните данни и данните за връзка с доставчика и когато е приложимо, същите данни за неговия упълномощен представител;
a)
l'identità e i dati di contatto del fornitore e, ove applicabile, del suo rappresentante autorizzato;
б)
характеристиките, способностите и ограниченията в действието на високорисковата система с ИИ, включително:
b)
le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui:
i)
нейното предназначение;
ii)
нивото на точност, включително използваните за него показатели, на надеждност и на киберсигурност, посочено в член 15, спрямо което е изпитана и валидирана високорисковата система с ИИ и което може да се очаква, както и всички известни или предвидими обстоятелства, които могат да окажат въздействие върху очакваното ниво на точност, надеждност и киберсигурност;
ii)
il livello di accuratezza che ci si può attendere, comprese le metriche, di robustezza e cibersicurezza di cui all'articolo 15 rispetto al quale il sistema di IA ad alto rischio è stato sottoposto a prova e convalidato, e qualsiasi circostanza nota e prevedibile che possa avere un impatto sul livello atteso di accuratezza, robustezza e cibersicurezza;
iii)
всички известни или предвидими обстоятелства, свързани с използването на високорисковата система с ИИ в съответствие с предназначението ѝ или в условия на разумно предвидима неправилна експлоатация, които могат да доведат до рискове за здравето и безопасността или за основните права, посочени в член 9, параграф 2;
iii)
qualsiasi circostanza nota o prevedibile connessa all'uso del sistema di IA ad alto rischio in conformità della sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile che possa comportare rischi per la salute e la sicurezza o per i diritti fondamentali di cui all'articolo 9, paragrafo 2;
iv)
когато е приложимо, техническите способности и характеристики на високорисковата система с ИИ за предоставяне на информация, която е от значение, за да се обяснят резултатите от системата;
iv)
se del caso, le capacità e caratteristiche tecniche del sistema di IA ad alto rischio connesse alla fornitura di informazioni pertinenti per spiegarne l'output;
v)
когато е целесъобразно, действието ѝ по отношение на конкретни лица или групи лица, спрямо които системата е предназначена да се използва;
v)
ove opportuno, le sue prestazioni per quanto riguarda le persone o i gruppi di persone specifici sui quali il sistema è destinato a essere utilizzato;
vi)
когато е целесъобразно, спецификациите на входящите данни или всякаква друга относима информация по отношение на използваните набори от обучителни, валидационни и изпитвателни данни, като се отчита предназначението на високорисковата система с ИИ;
vi)
ove opportuno, le specifiche per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova, tenendo conto della finalità prevista del sistema di IA ad alto rischio;
vii)
когато е приложимо, информация, която да позволи на внедрителите да тълкуват резултатите от високорисковата система с ИИ и да ги използват по подходящ начин;
vii)
se del caso, informazioni che consentano ai deployer di interpretare l'output del sistema di IA ad alto rischio e di usarlo in modo opportuno;
в)
промените във високорисковата система с ИИ и в нейното действие, които са били предварително определени от доставчика към момента на първоначалното оценяване на съответствието, ако има такива;
c)
le eventuali modifiche apportate al sistema di IA ad alto rischio e alle sue prestazioni, che sono state predeterminate dal fornitore al momento della valutazione iniziale della conformità;
г)
мерките за упражняване на човешки контрол, посочени в член 14, включително техническите мерки, въведени с цел улесняване на тълкуването от страна на внедрителите на резултатите от високорисковите системи с ИИ;
d)
le misure di sorveglianza umana di cui all'articolo 14, comprese le misure tecniche poste in essere per facilitare l'interpretazione degli output dei sistemi di IA ad alto rischio da parte dei deployer;
д)
необходимите изчислителни и хардуерни ресурси, очаквания срок на експлоатация на високорисковата система с ИИ и евентуалните необходими мерки за поддръжка и обслужване, включително тяхната честота, с цел да се гарантира правилното функциониране на системата с ИИ, включително по отношение на актуализациите на софтуера;
e)
le risorse computazionali e di hardware necessarie, la durata prevista del sistema di IA ad alto rischio e tutte le misure di manutenzione e cura, compresa la relativa frequenza, necessarie per garantire il corretto funzionamento di tale sistema, anche per quanto riguarda gli aggiornamenti software;
е)
когато е приложимо, описание на механизмите, включени във високорисковата система с ИИ, които позволяват на внедрителите правилно да събират, съхраняват и тълкуват записите в съответствие с член 12.
f)
se del caso, una descrizione dei meccanismi inclusi nel sistema di IA ad alto rischio che consente ai deployer di raccogliere, conservare e interpretare correttamente i log in conformità dell'articolo 12.
1. Високорисковите системи с ИИ се проектират и разработват — включително като се предвиждат подходящи инструменти за интерфейса човек–машина в тях — по такъв начин, че върху тях да може да бъде упражняван ефективен контрол от физически лица в периода, през който се използват.
1. I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso.
2. Човешкият контрол има за цел предотвратяването или свеждането до минимум на рисковете за здравето, безопасността или основните права, които могат да възникнат при използването на високорискова система с ИИ в съответствие с нейното предназначение или при условия на разумно предвидима неправилна експлоатация, по-специално когато тези рискове продължават да съществуват, независимо от прилагането на останалите изисквания, установени в настоящия раздел.
2. La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare qualora tali rischi persistano nonostante l'applicazione di altri requisiti di cui alla presente sezione.
3. Мерките за контрол трябва да са съразмерни спрямо рисковете, нивото на автономност и контекста на използване на високорисковата система с ИИ и да се осигуряват чрез единия или двата вида мерки, които са посочени по-долу:
3. Le misure di sorveglianza sono commisurate ai rischi, al livello di autonomia e al contesto di utilizzo del sistema di IA ad alto rischio e sono garantite mediante almeno uno dei tipi di misure seguenti:
a)
мерки, които са набелязани и вградени, когато това е технически осъществимо, във високорисковата система с ИИ от доставчика преди пускането ѝ на пазара или пускането ѝ в действие;
a)
misure individuate e integrate nel sistema di IA ad alto rischio dal fornitore prima della sua immissione sul mercato o messa in servizio, ove tecnicamente possibile;
б)
мерки, които са набелязани от доставчика преди пускането на високорисковата система с ИИ на пазара или пускането ѝ в действие и които са подходящи за прилагане от страна на внедрителя.
b)
misure individuate dal fornitore prima dell'immissione sul mercato o della messa in servizio del sistema di IA ad alto rischio, adatte ad essere attuate dal deployer.
4. За целите на прилагането на параграфи 1, 2 и 3 високорисковата система с ИИ се предоставя на ползвателя по начин, който дава възможност