Notice: This is a Juremy.com rendered version. Only European Union documents published in the Official Journal of the European Union are deemed authentic. Juremy accepts no responsibility or liability whatsoever with regard to the content of this document.
Base data © European Union, 1998-2024. Postprocessed and marked-up data © 2019-2024 Juremy.com, all rights reserved.
Render version: 0.1, render date: 2024-07-24
Il-Ġurnal Uffiċjali
ta'l-Unjoni Ewropea
MT
Gazzetta ufficiale
dell'Unione europea
IT
Is-serje L
Serie L
2024/1689
12.7.2024
2024/1689
12.7.2024
REGOLAMENT (UE) 2024/1689 TAL-PARLAMENT EWROPEW U TAL-KUNSILL
REGOLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO
tat-13 ta’ Ġunju 2024
del 13 giugno 2024
li jistabbilixxi regoli armonizzati dwar l-intelliġenza artifiċjali u li jemenda r-Regolamenti (KE) Nru 300/2008, (UE) Nru 167/2013, (UE) Nru 168/2013, (UE) 2018/858, (UE) 2018/1139 u (UE) 2019/2144 u d-Direttivi 2014/90/UE, (UE) 2016/797 u (UE) 2020/1828 (l-Att dwar l-Intelliġenza Artifiċjali)
che stabilisce regole armonizzate sull'intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull'intelligenza artificiale)
(Test b'rilevanza għaż-ŻEE)
(Testo rilevante ai fini del SEE)
IL-PARLAMENT EWROPEW U L-KUNSILL TAL-UNJONI EWROPEA,
IL PARLAMENTO EUROPEO E IL CONSIGLIO DELL'UNIONE EUROPEA,
Wara li kkunsidraw it-Trattat dwar il-Funzjonament tal-Unjoni Ewropea, u b'mod partikolari l-Artikoli 16 u 114 tiegħu,
visto il trattato sul funzionamento dell'Unione europea, in particolare gli articoli 16 e 114,
Wara li kkunsidraw il-proposta tal-Kummissjoni Ewropea,
vista la proposta della Commissione europea,
Wara li l-abbozz tal-att leġiżlattiv intbagħat lill-parlamenti nazzjonali,
previa trasmissione del progetto di atto legislativo ai parlamenti nazionali,
Wara li kkunsidraw l-opinjoni tal-Kumitat Ekonomiku u Soċjali Ewropew (1),
visto il parere del Comitato economico e sociale europeo (1),
Wara li kkunsidraw l-opinjoni tal-Bank Ċentrali Ewropew (2),
visto il parere della Banca centrale europea (2),
Wara li kkunsidraw l-opinjoni tal-Kumitat tar-Reġjuni (3),
visto il parere del Comitato delle regioni (3),
Filwaqt li jaġixxu f'konformità mal-proċedura leġiżlattiva ordinarja (4),
deliberando secondo la procedura legislativa ordinaria (4),
Billi:
considerando quanto segue:
(1)
L-għan ta' dan ir-Regolament huwa li jtejjeb il-funzjonament tas-suq intern billi jistabbilixxi qafas legali uniformi b'mod partikolari għall-iżvilupp, l-introduzzjoni fis-suq, it-tqegħid fis-servizz u l-użu ta' sistemi ta' intelliġenza artifiċjali (sistemi tal-IA) fl-Unjoni, f'konformità mal-valuri tal-Unjoni, li jippromwovi l-adozzjoni ta' intelliġenza artifiċjali (IA) ċċentrata fuq il-bniedem u affidabbli filwaqt li jiżgura livell għoli ta' protezzjoni tas-saħħa, tas-sikurezza, tad-drittijiet fundamentali kif minquxa fil-Karta tad-Drittijiet Fundamentali tal-Unjoni Ewropea (“il-Karta”), inkluż id-demokrazija, l-istat tad-dritt u l-protezzjoni ambjentali, li jipproteġi kontra l-effetti ta' ħsara tas-sistemi tal-IA fl-Unjoni u li jappoġġa l-innovazzjoni. Dan ir-Regolament jiżgura l-moviment liberu transfruntier tal-oġġetti u s-servizzi bbażati fuq l-IA, u b'hekk jipprevjeni lill-Istati Membri milli jimponu restrizzjonijiet fuq l-iżvilupp, il-kummerċjalizzazzjoni u l-użu ta' sistemi tal-IA, sakemm mhumiex awtorizzati b'mod espliċitu b'dan ir-Regolament.
(1)
Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, l'immissione sul mercato, la messa in servizio e l'uso di sistemi di intelligenza artificiale (sistemi di IA) nell'Unione, in conformità dei valori dell'Unione, promuovere la diffusione di un'intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea («Carta»), compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, proteggere contro gli effetti nocivi dei sistemi di IA nell'Unione, nonché promuovere l'innovazione. Il presente regolamento garantisce la libera circolazione transfrontaliera di beni e servizi basati sull'IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di IA, salvo espressa autorizzazione del presente regolamento.
(2)
Jenħtieġ li dan ir-Regolament jiġi applikat f'konformità mal-valuri tal-Unjoni kif minquxa fil-Karta li jiffaċilitaw il-protezzjoni tal-persuni fiżiċi, tal-impriżi, tad-demokrazija, tal-istat tad-dritt u tal-protezzjoni ambjentali filwaqt li jagħti spinta lill-innovazzjoni u l-impjiegi u jagħmel lill-Unjoni minn ta' quddiem nett fl-adozzjoni ta' IA affidabbli.
(2)
Il presente regolamento dovrebbe essere applicato conformemente ai valori dell'Unione sanciti dalla Carta agevolando la protezione delle persone fisiche, delle imprese, della democrazia e dello Stato di diritto e la protezione dell'ambiente, promuovendo nel contempo l'innovazione e l'occupazione e rendendo l'Unione un leader nell'adozione di un'IA affidabile.
(3)
Is-sistemi tal-IA jistgħu faċilment jiġu implimentati f'varjetà kbira ta' setturi tal-ekonomija u f'ħafna partijiet tas-soċjetà, inkluż b'mod transfruntier, u jistgħu faċilment jiċċirkolaw madwar l-Unjoni. Ċerti Stati Membri diġà esploraw l-adozzjoni ta' regoli nazzjonali biex jiżguraw li l-IA tkun affidabbli u sikura u li tiġi żviluppata u użata f'konformità mal-obbligi tad-drittijiet fundamentali. Regoli nazzjonali diverġenti jistgħu jwasslu għall-frammentazzjoni tas-suq intern u jistgħu jnaqqsu ċ-ċertezza legali tal-operaturi biex jiżviluppaw, jimportaw jew jużaw is-sistemi tal-IA. Għalhekk, jenħtieġ li jkun żgurat livell konsistenti u għoli ta' protezzjoni madwar l-Unjoni kollha sabiex tinkiseb IA affidabbli, filwaqt li jenħtieġ li jiġu evitati d-diverġenzi li jfixklu ċ-ċirkolazzjoni libera, l-innovazzjoni, l-implimentazzjoni u l-adozzjoni tas-sistemi tal-IA u tal-prodotti u tas-servizzi relatati fi ħdan is-suq intern, billi jiġu stabbiliti obbligi uniformi għall-operaturi u tkun żgurata l-protezzjoni uniformi tar-raġunijiet prevalenti ta' interess pubbliku u tad-drittijiet tal-persuni fis-suq intern kollu abbażi tal-Artikolu 114 tat-Trattat dwar il-Funzjonament tal-Unjoni Ewropea (TFUE). Peress li dan ir-Regolament fih regoli speċifiċi dwar il-protezzjoni tal-individwi fir-rigward tal-ipproċessar tad-data personali rigward restrizzjonijiet tal-użu ta' sistemi tal-IA għall-identifikazzjoni bijometrika remota għall-fini tal-infurzar tal-liġi, għall-użu ta' sistemi tal-IA għall-valutazzjonijiet tar-riskju ta' persuni fiżiċi għall-fini tal-infurzar tal-liġi u għall-użu ta' sistemi tal-IA ta' kategorizzazzjoni bijometrika għall-finijiet tal-infurzar tal-liġi, huwa xieraq li dan ir-Regolament, sa fejn huma kkonċernati dawk ir-regoli speċifiċi, jiġi bbażat fuq l-Artikolu 16 TFUE. Fid-dawl ta' dawk ir-regoli speċifiċi u r-rikors għall-Artikolu 16 TFUE, jixraq jiġi kkonsultat il-Bord Ewropew għall-Protezzjoni tad-Data.
(3)
I sistemi di IA possono essere facilmente impiegati in un'ampia gamma di settori dell'economia e in molte parti della società, anche a livello transfrontaliero, e possono facilmente circolare in tutta l'Unione. Alcuni Stati membri hanno già preso in esame l'adozione di regole nazionali per garantire che l'IA sia affidabile e sicura e sia sviluppata e utilizzata nel rispetto degli obblighi in materia di diritti fondamentali. Normative nazionali divergenti possono determinare una frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori che sviluppano, importano o utilizzano sistemi di IA. È pertanto opportuno garantire un livello di protezione costante ed elevato in tutta l'Unione al fine di conseguire un'IA affidabile, mentre dovrebbero essere evitate le divergenze che ostacolano la libera circolazione, l'innovazione, la diffusione e l'adozione dei sistemi di IA e dei relativi prodotti e servizi nel mercato interno, stabilendo obblighi uniformi per gli operatori e garantendo la tutela uniforme dei motivi imperativi di interesse pubblico e dei diritti delle persone in tutto il mercato interno, sulla base dell'articolo 114 del trattato sul funzionamento dell'Unione europea (TFUE). Nella misura in cui il presente regolamento prevede regole specifiche sulla protezione delle persone fisiche con riguardo al trattamento dei dati personali, consistenti in limitazioni dell'uso dei sistemi di IA per l'identificazione biometrica remota a fini di attività di contrasto, dell'uso dei sistemi di IA per le valutazione dei rischi delle persone fisiche a fini di attività di contrasto e dell'uso dei sistemi di IA di categorizzazione biometrica a fini di attività di contrasto, è opportuno basare il presente regolamento, per quanto riguarda tali regole specifiche, sull'articolo 16 TFUE. Alla luce di tali regole specifiche e del ricorso all'articolo 16 TFUE, è opportuno consultare il comitato europeo per la protezione dei dati.
(4)
L-IA hi familja ta' teknoloġiji li qed tevolvi malajr u li tikkontribwixxi għal firxa wiesgħa ta' benefiċċji ekonomiċi, ambjentali u soċjetali fl-ispettru kollu tal-industriji u tal-attivitajiet soċjali. B'titjib fil-previżjoni, b'ottimizzazzjoni tal-operazzjonijiet u l-allokazzjoni tar-riżorsi, u b'personalizzazzjoni tas-soluzzjonijiet diġitali disponibbli għall-individwi u l-organizzazzjonijiet, l-użu tal-IA jista' jipprovdi vantaġġi kompetittivi ewlenin lill-impriżi u jappoġġa eżiti b'benefiċċji soċjali u ambjentali, bħal pereżempju fil-kura tas-saħħa, fl-agrikoltura, fis-sikurezza tal-ikel, fl-edukazzjoni u t-taħriġ, fil-media, fl-isports, fil-kultura, fil-ġestjoni tal-infrastruttura, fl-enerġija, fit-trasport u l-loġistika, fis-servizzi pubbliċi, fis-sigurtà, fil-ġustizzja, fl-effiċjenza tar-riżorsi u enerġetika, fil-monitoraġġ ambjentali, fil-konservazzjoni u r-restawr tal-bijodiversità u l-ekosistemi u fil-mitigazzjoni u l-adattament għat-tibdil fil-klima.
(4)
L'IA consiste in una famiglia di tecnologie in rapida evoluzione che contribuisce al conseguimento di un'ampia gamma di benefici a livello economico, ambientale e sociale nell'intero spettro delle attività industriali e sociali. L'uso dell'IA, garantendo un miglioramento delle previsioni, l'ottimizzazione delle operazioni e dell'assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni, può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale e ambientale, ad esempio in materia di assistenza sanitaria, agricoltura, sicurezza alimentare, istruzione e formazione, media, sport, cultura, gestione delle infrastrutture, energia, trasporti e logistica, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, monitoraggio ambientale, conservazione e ripristino della biodiversità e degli ecosistemi, mitigazione dei cambiamenti climatici e adattamento ad essi.
(5)
Fl-istess ħin, skont iċ-ċirkostanzi fir-rigward tal-applikazzjoni, l-użu u l-livell ta' żvilupp teknoloġiku speċifiċi tagħha, l-IA tista' toħloq riskji u tikkawża ħsara lill-interessi pubbliċi u lid-drittijiet fundamentali li huma protetti bil-liġi tal-Unjoni. Din il-ħsara tista' tkun materjali jew mhux materjali, inkluż ħsara fiżika, psikoloġika, soċjetali jew ekonomika.
(5)
L'IA può nel contempo, a seconda delle circostanze relative alla sua applicazione, al suo utilizzo e al suo livello di sviluppo tecnologico specifici, comportare rischi e pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dal diritto dell'Unione. Tale pregiudizio può essere sia materiale sia immateriale, compreso il pregiudizio fisico, psicologico, sociale o economico.
(6)
Minħabba l-impatt kbir li jista' jkollha l-IA fuq is-soċjetà u l-ħtieġa li tinbena l-fiduċja, huwa essenzjali li l-IA u l-qafas regolatorju tagħha jiġu żviluppati f'konformità mal-valuri tal-Unjoni minquxa fl-Artikolu 2 tat-Trattat dwar l-Unjoni Ewropea (TUE), id-drittijiet u l-libertajiet fundamentali minquxa fit-Trattati u, skont l-Artikolu 6 TUE, fil-Karta. Bħala prerekwiżit, jenħtieġ li l-IA tkun teknoloġija ċċentrata fuq il-bniedem. Jenħtieġ li sservi bħala għodda għan-nies, bl-għan aħħari li jiżdied il-benesseri tal-bniedem.
(6)
In considerazione dell'impatto significativo che l'IA può avere sulla società e della necessità di creare maggiore fiducia, è essenziale che l'IA e il suo quadro normativo siano sviluppati conformemente ai valori dell'Unione sanciti dall'articolo 2 del trattato sull'Unione europea (TUE), ai diritti e alle libertà fondamentali sanciti dai trattati e, conformemente all'articolo 6 TUE, alla Carta. Come prerequisito, l'IA dovrebbe essere una tecnologia antropocentrica. Dovrebbe fungere da strumento per le persone, con il fine ultimo di migliorare il benessere degli esseri umani.
(7)
Biex ikun żgurat livell konsistenti u għoli ta' protezzjoni tal-interessi pubbliċi fir-rigward tas-saħħa, is-sikurezza, u d-drittijiet fundamentali, jenħtieġ li jiġu stabbiliti regoli komuni għas-sistemi tal-IA b'riskju għoli. Jenħtieġ li dawk ir-regoli jkunu konsistenti mal-Karta, nondiskriminatorji u konformi mal-impenji kummerċjali internazzjonali tal-Unjoni. Jenħtieġ li jqisu wkoll id-Dikjarazzjoni Ewropea dwar id-Drittijiet u l-Prinċipji Diġitali għad-Deċennju Diġitali u l-Linji Gwida dwar l-Etika għal IA affidabbli tal-Grupp ta' Esperti ta' Livell Għoli dwar l-Intelliġenza Artifiċjali (AI HLEG).
(7)
Al fine di garantire un livello costante ed elevato di tutela degli interessi pubblici in materia di salute, sicurezza e diritti fondamentali, è opportuno stabilire regole comuni per i sistemi di IA ad alto rischio. Tali regole dovrebbero essere coerenti con la Carta, non discriminatorie e in linea con gli impegni commerciali internazionali dell'Unione. Dovrebbero inoltre tenere conto della dichiarazione europea sui diritti e i principi digitali per il decennio digitale e degli orientamenti etici per un'IA affidabile del gruppo di esperti ad alto livello sull'intelligenza artificiale (AI HLEG).
(8)
Għalhekk, huwa meħtieġ qafas legali tal-Unjoni li jistabbilixxi regoli armonizzati dwar l-IA biex jitrawmu l-iżvilupp, l-użu u l-adozzjoni tal-IA fis-suq intern li fl-istess ħin jissodisfa livell għoli ta' protezzjoni tal-interessi pubbliċi, bħas-saħħa u s-sikurezza, u l-protezzjoni tad-drittijiet fundamentali, inkluż id-demokrazija, l-istat tad-dritt u l-protezzjoni ambjentali kif rikonoxxuti u mħarsa bil-liġi tal-Unjoni. Biex jintlaħaq dak l-objettiv, jenħtieġ jiġu stabbiliti regoli li jirregolaw l-introduzzjoni fis-suq, it-tqegħid fis-servizz u l-użu ta' ċerti sistemi tal-IA, u b'hekk ikun żgurat il-funzjonament bla xkiel tas-suq intern u dawk is-sistemi jkunu jistgħu jibbenefikaw mill-prinċipju tal-moviment liberu tal-prodotti u tas-servizzi. Jenħtieġ li dawk ir-regoli jkunu ċari u robusti fil-protezzjoni tad-drittijiet fundamentali, jappoġġaw soluzzjonijiet innovattivi ġodda, li jippermettu ekosistema Ewropea ta' atturi pubbliċi u privati li joħolqu sistemi tal-IA f'konformità mal-valuri tal-Unjoni u jisfruttaw il-potenzjal tat-trasformazzjoni diġitali fir-reġjuni kollha tal-Unjoni. Billi jistabbilixxi dawk ir-regoli kif ukoll miżuri b'appoġġ għall-innovazzjoni b'enfasi partikolari fuq l-intrapriżi mikro, żgħar u ta' daqs medju (SMEs), inkluż negozji ġodda, dan ir-Regolament jappoġġa l-objettiv li jiġi promoss l-approċċ Ewropew iċċentrat fuq il-bniedem għall-IA u li jkun mexxej globali fl-iżvilupp ta' IA sigura, affidabbli u etika kif iddikjarat mill-Kunsill Ewropew (5), u jiżgura l-protezzjoni tal-prinċipji etiċi, kif mitlub speċifikament mill-Parlament Ewropew (6).
(8)
Si rende pertanto necessario un quadro giuridico dell'Unione che istituisca regole armonizzate in materia di IA per promuovere lo sviluppo, l'uso e l'adozione dell'IA nel mercato interno, garantendo nel contempo un elevato livello di protezione degli interessi pubblici, quali la salute e la sicurezza e la protezione dei diritti fondamentali, compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, come riconosciuti e tutelati dal diritto dell'Unione. Per conseguire tale obiettivo, è opportuno stabilire regole che disciplinino l'immissione sul mercato, la messa in servizio e l'uso di determinati sistemi di IA, garantendo in tal modo il buon funzionamento del mercato interno e consentendo a tali sistemi di beneficiare del principio della libera circolazione di beni e servizi. Tali norme dovrebbero essere chiare e solide nel tutelare i diritti fondamentali, sostenere nuove soluzioni innovative e consentire un ecosistema europeo di attori pubblici e privati che creino sistemi di IA in linea con i valori dell'Unione e sblocchino il potenziale della trasformazione digitale in tutte le regioni dell'Unione. Stabilendo tali regole nonché le misure a sostegno dell'innovazione, con particolare attenzione alle piccole e medie imprese (PMI), comprese le start-up, il presente regolamento contribuisce all'obiettivo di promuovere l'approccio antropocentrico europeo all'IA ed essere un leader mondiale nello sviluppo di un'IA sicura, affidabile ed etica, come affermato dal Consiglio europeo (5), e garantisce la tutela dei principi etici, come specificamente richiesto dal Parlamento europeo (6).
(9)
Jenħtieġ li jiġu stabbiliti regoli armonizzati applikabbli għall-introduzzjoni fis-suq, għat-tqegħid fis-servizz u għall-użu tas-sistemi tal-IA b'riskju għoli b'mod konsistenti mar-Regolament (KE) Nru 765/2008 tal-Parlament Ewropew u tal-Kunsill (7), mad-Deċiżjoni Nru 768/2008/KE tal-Parlament Ewropew u tal-Kunsill (8) u mar-Regolament (UE) 2019/1020 tal-Parlament Ewropew u tal-Kunsill (9) (il-Qafas Leġiżlattiv Ġdid). Jenħtieġ li r-regoli armonizzati stabbiliti f'dan ir-Regolament japplikaw fis-setturi kollha u, f'konformità mal-Qafas Leġiżlattiv Ġdid, jenħtieġ li jkunu mingħajr preġudizzju għal-liġijiet eżistenti tal-Unjoni, b'mod partikolari dwar il-protezzjoni tad-data, il-protezzjoni tal-konsumatur, id-drittijiet fundamentali, l-impjiegi, il-protezzjoni tal-ħaddiema u s-sikurezza tal-prodotti, li dan ir-Regolament huwa komplementari għalihom. B'konsegwenza ta' dan, id-drittijiet u r-rimedji kollha previsti minn tali liġijiet tal-Unjoni għall-konsumaturi, u persuni oħra li fuqhom is-sistemi tal-IA jista' jkollhom impatt negattiv, inkluż fir-rigward tal-kumpens għal danni possibbli skont id-Direttiva tal-Kunsill 85/374/KEE (10) jibqgħu mhux affettwati u applikabbli bis-sħiħ. Barra minn hekk, fil-kuntest tal-impjiegi u l-protezzjoni tal-ħaddiema, jenħtieġ għalhekk li dan ir-Regolament ma jaffettwax il-liġi tal-Unjoni dwar il-politika soċjali u l-liġi nazzjonali tax-xogħol, f'konformità mal-liġi tal-Unjoni, fir-rigward tal-kundizzjonijiet tal-impjieg u tax-xogħol, inkluż is-saħħa u s-sikurezza fuq il-post tax-xogħol u r-relazzjoni bejn l-impjegaturi u l-ħaddiema. Jenħtieġ ukoll li dan ir-Regolament ma jaffettwax l-eżerċizzju tad-drittijiet fundamentali kif rikonoxxuti fl-Istati Membri u fil-livell tal-Unjoni, inkluż id-dritt jew il-libertà tal-istrajkjar jew li tittieħed azzjoni oħra koperta mis-sistemi speċifiċi ta' relazzjonijiet industrijali fl-Istati Membri kif ukoll id-dritt tan-negozjar, il-konklużjoni u l-infurzar ta' ftehimiet kollettivi jew id-dritt li tittieħed azzjoni kollettiva f'konformità mad-dritt nazzjonali. Jenħtieġ li dan ir-Regolament ma jaffettwax id-dispożizzjonijiet li għandhom l-għan li jtejbu l-kundizzjonijiet tax-xogħol fix-xogħol fuq il-pjattaformi stabbiliti f’ Direttiva tal-Parlament Ewropew u tal-Kunsill dwar it-titjib tal-kundizzjonijiet tax-xogħol fix-xogħol fuq il-pjattaformi. Barra minn hekk, dan ir-Regolament għandu l-għan li jsaħħaħ l-effettività ta' dawk id-drittijiet u r-rimedji eżistenti billi jistabbilixxi rekwiżiti u obbligi speċifiċi, inkluż fir-rigward tat-trasparenza, id-dokumentazzjoni teknika u ż-żamma tar-rekords tas-sistemi tal-IA. Jenħtieġ ukoll li l-obbligi imposti fuq diversi operaturi involuti fil-katina tal-valur tal-IA skont dan ir-Regolament japplikaw mingħajr preġudizzju għal-liġi nazzjonali, f'konformità mal-liġi tal-Unjoni, bl-effett li jillimitaw l-użu ta' ċerti sistemi tal-IA meta tali liġi taqa' barra mill-kamp ta' applikazzjoni ta' dan ir-Regolament jew tipprova tilħaq objettivi leġittimi ta' interess pubbliku għajr dawk segwiti minn dan ir-Regolament. Pereżempju, jenħtieġ li l-liġi nazzjonali tax-xogħol u l-liġi dwar il-protezzjoni tal-minorenni, jiġifieri persuni taħt l-età ta' 18-il sena, b'kont meħud tal-Kumment Ġenerali Nru 25 (2021) tal-UNCRC (Konvenzjoni tan-Nazzjonijiet Uniti dwar id-Drittijiet tat-Tfal) dwar id-drittijiet tat-tfal fir-rigward tal-ambjent diġitali, sakemm ma jkunux speċifiċi għas-sistemi tal-IA u jippruvaw jilħqu objettivi leġittimi oħra ta' interess pubbliku, ma jiġux affettwati minn dan ir-Regolament.
(9)
È opportuno che le norme armonizzate applicabili all'immissione sul mercato, alla messa in servizio e all'uso di sistemi di IA ad alto rischio siano stabilite conformemente al regolamento (CE) n, 765/2008 del Parlamento europeo e del Consiglio (7), alla decisione n, 768/2008/CE del Parlamento europeo e del Consiglio (8) e al regolamento (UE) 2019/1020 del Parlamento europeo e del Consiglio (9) («nuovo quadro legislativo»). Le norme armonizzate stabilite nel presente regolamento dovrebbero applicarsi in tutti i settori e, in linea con il nuovo quadro legislativo, non dovrebbero pregiudicare il vigente diritto dell'Unione, in particolare in materia di protezione dei dati, tutela dei consumatori, diritti fondamentali, occupazione e protezione dei lavoratori e sicurezza dei prodotti, al quale il presente regolamento è complementare. Di conseguenza, restano impregiudicati e pienamente applicabili tutti i diritti e i mezzi di ricorso previsti da tali disposizioni di diritto dell'Unione a favore dei consumatori e delle altre persone su cui i sistemi di IA possono avere un impatto negativo, anche in relazione al risarcimento di eventuali danni a norma della direttiva 85/374/CEE del Consiglio (10). Inoltre, nel contesto dell'occupazione e della protezione dei lavoratori, il presente regolamento non dovrebbe pertanto incidere sul diritto dell'Unione in materia di politica sociale né sul diritto del lavoro nazionale, in conformità del diritto dell'Unione, per quanto riguarda le condizioni di impiego e le condizioni di lavoro, comprese la salute e la sicurezza sul luogo di lavoro, e il rapporto tra datori di lavoro e lavoratori. Il presente regolamento non dovrebbe inoltre pregiudicare l'esercizio dei diritti fondamentali riconosciuti dagli Stati membri e a livello di Unione, compresi il diritto o la libertà di sciopero o il diritto o la libertà di intraprendere altre azioni contemplate dalla disciplina delle relazioni industriali negli Stati membri nonché il diritto di negoziare, concludere ed eseguire accordi collettivi, o di intraprendere azioni collettive in conformità del diritto nazionale. Il presente regolamento dovrebbe lasciare impregiudicate le disposizioni volte a migliorare le condizioni di lavoro nel lavoro mediante piattaforme digitali di cui alla direttiva del Parlamento europeo e del Consiglio relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali. Inoltre, il presente regolamento mira a rafforzare l'efficacia di tali diritti e mezzi di ricorso esistenti definendo requisiti e obblighi specifici, anche per quanto riguarda la trasparenza, la documentazione tecnica e la conservazione delle registrazioni dei sistemi di IA. Oltre a ciò, gli obblighi imposti a vari operatori coinvolti nella catena del valore dell'IA a norma del presente regolamento dovrebbero applicarsi senza pregiudizio del diritto nazionale, in conformità del diritto dell'Unione, e avere l'effetto di limitare l'uso di determinati sistemi di IA qualora tale diritto non rientri nell'ambito di applicazione del presente regolamento o persegua obiettivi legittimi di interesse pubblico diversi da quelli perseguiti dal presente regolamento. Ad esempio, il presente regolamento non dovrebbe incidere sulla normativa nazionale in materia di lavoro e sulla normativa in materia di protezione dei minori, ossia le persone di età inferiore ai 18 anni, tenendo conto del commento generale n, 25 della Convenzione sui diritti dell'infanzia e dell'adolescenza (2021) sui diritti dei minori in relazione all'ambiente digitale, nella misura in cui esse non riguardino in modo specifico i sistemi di IA e perseguano altri obiettivi legittimi di interesse pubblico.
(10)
Id-dritt fundamentali għall-protezzjoni tad-data personali huwa salvagwardjat b'mod partikolari mir-Regolamenti (UE) 2016/679 (11) u (UE) 2018/1725 (12) tal-Parlament Ewropew u tal-Kunsill u d-Direttiva (UE) 2016/680 tal-Parlament Ewropew u tal-Kunsill (13). Barra minn hekk, id-Direttiva 2002/58/KE tal-Parlament Ewropew u tal-Kunsill (14) tipproteġi l-ħajja privata u l-kunfidenzjalità tal-komunikazzjoni, inkluż billi tipprovdi kundizzjonijiet għal kwalunkwe ħżin ta' data personali u mhux personali u l-aċċess fi u minn tagħmir terminali. Dawk l-atti legali tal-Unjoni jipprovdu l-bażi għall-ipproċessar tad-data sostenibbli u responsabbli, inkluż fejn is-settijiet ta' data jinkludu taħlita ta' data personali u mhux personali. Dan ir-Regolament ma għandux l-għan li jaffettwa l-applikazzjoni tal-liġijiet eżistenti tal-Unjoni li jirregolaw l-ipproċessar tad-data personali, inkluż il-kompiti u s-setgħat tal-awtoritajiet superviżorji indipendenti kompetenti biex jimmonitorjaw il-konformità ma' dawk l-istrumenti. Lanqas ma jaffettwa l-obbligi tal-fornituri u tal-implimentaturi tas-sistemi tal-IA fir-rwol tagħhom bħala kontrolluri jew proċessuri tad-data li jirriżultaw mil-liġi tal-Unjoni jew dik nazzjonali dwar il-protezzjoni tad-data personali sa fejn it-tfassil, l-iżvilupp jew l-użu tas-sistemi tal-IA jinvolvu l-ipproċessar ta' data personali. Huwa xieraq ukoll li jiġi ċċarat li s-suġġetti tad-data jkomplu jgawdu d-drittijiet u l-garanziji kollha mogħtija lilhom minn tali liġi tal-Unjoni, inkluż id-drittijiet relatati mat-teħid ta' deċiżjonijiet individwali awtomatizzati biss, inkluż it-tfassil tal-profili. Jenħtieġ li r-regoli armonizzati għall-introduzzjoni fis-suq, għat-tqegħid fis-servizz u għall-użu tas-sistemi tal-IA stabbiliti skont dan ir-Regolament jiffaċilitaw l-implimentazzjoni effettiva u jippermettu l-eżerċizzju tad-drittijiet tas-suġġetti tad-data u rimedji oħra garantiti skont il-liġi tal-Unjoni dwar il-protezzjoni tad-data personali u ta' drittijiet fundamentali oħra.
(10)
Il diritto fondamentale alla protezione dei dati personali è garantito in particolare dai regolamenti (UE) 2016/679 (11) e (UE) 2018/1725 (12) del Parlamento europeo e del Consiglio e dalla direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio (13). La direttiva 2002/58/CE del Parlamento europeo e del Consiglio (14) tutela inoltre la vita privata e la riservatezza delle comunicazioni, in particolare stabilendo le condizioni per l'archiviazione di dati personali e non personali e l'accesso ai dati in apparecchi terminali. Tali atti giuridici dell'Unione costituiscono la base per un trattamento sostenibile e responsabile dei dati, anche nei casi in cui gli insiemi di dati comprendono una combinazione di dati personali e non personali. Il presente regolamento non mira a pregiudicare l'applicazione del vigente diritto dell'Unione che disciplina il trattamento dei dati personali, inclusi i compiti e i poteri delle autorità di controllo indipendenti competenti a monitorare la conformità con tali strumenti. Inoltre, lascia impregiudicati gli obblighi dei fornitori e dei deployer dei sistemi di IA nel loro ruolo di titolari del trattamento o responsabili del trattamento derivanti dal diritto dell'Unione o nazionale in materia di protezione dei dati personali, nella misura in cui la progettazione, lo sviluppo o l'uso di sistemi di IA comportino il trattamento di dati personali. È inoltre opportuno chiarire che gli interessati continuano a godere di tutti i diritti e le garanzie loro conferiti da tale diritto dell'Unione, compresi i diritti connessi al processo decisionale esclusivamente automatizzato relativo alle persone fisiche, compresa la profilazione. Norme armonizzate per l'immissione sul mercato, la messa in servizio e l'uso dei sistemi di IA istituiti a norma del presente regolamento dovrebbero facilitare l'efficace attuazione e consentire l'esercizio dei diritti degli interessati e di altri mezzi di ricorso garantiti dal diritto dell'Unione in materia di protezione dei dati personali nonché degli altri diritti fondamentali.
(11)
Jenħtieġ li dan ir-Regolament ikun mingħajr preġudizzju għad-dispożizzjonijiet dwar ir-responsabbiltà tal-fornituri ta’ servizzi intermedjarji kif stipulat fir-Regolament (UE) 2022/2065 tal-Parlament Ewropew u tal-Kunsill (15).
(11)
Il presente regolamento non dovrebbe pregiudicare le disposizioni relative alla responsabilità dei prestatori intermediari di cui al regolamento (UE) 2022/2065 del Parlamento europeo e del Consiglio (15).
(12)
Jenħtieġ li l-kunċett ta' “sistema tal-IA” f'dan ir-Regolament jiġi ddefinit b'mod ċar u jenħtieġ li jiġi allinjat mill-qrib mal-ħidma tal-organizzazzjonijiet internazzjonali li jaħdmu fuq l-IA biex tiġi żgurata ċ-ċertezza legali, tiġi ffaċilitata l-konverġenza internazzjonali u l-aċċettazzjoni wiesgħa, filwaqt li tingħata l-flessibbiltà biex jiġu akkomodati l-iżviluppi teknoloġiċi rapidi f'dan il-qasam. Barra minn hekk, jenħtieġ li d-definizzjoni tkun ibbażata fuq karatteristiċi ewlenin tas-sistemi tal-IA li jiddistingwuh minn sistemi ta' software tjew approċċi ta' programmazzjoni tradizzjonali aktar sempliċi u jenħtieġ li ma jkoprix sistemi li huma bbażati fuq ir-regoli definiti biss minn persuni fiżiċi biex iwettqu operazzjonijiet b'mod awtomatiku. Karatteristika ewlenija tas-sistemi tal-IA hija l-kapaċità tagħhom li jinferixxu. Din il-kapaċità li jinferixxu tirreferi għall-proċess tal-kisba tal-outputs, bħal previżjonijiet, kontenut, rakkomandazzjonijiet, jew deċiżjonijiet, li jistgħu jinfluwenzaw l-ambjenti fiżiċi u virtwali u għal kapaċità tas-sistemi tal-IA li jidderivaw mudelli jew algoritmi, jew it-tnejn, minn inputs jew data. It-tekniki li jippermettu inferenza waqt li tinbena sistema tal-IA jinkludu approċċi ta' tagħlim awtomatiku li jitgħallmu mid-data dwar kif jistgħu jintlaħqu ċerti objettivi, u approċċi bbażati fuq il-loġika u l-għarfien li jinferixxu minn għarfien ikkodifikat jew rappreżentazzjoni simbolika tal-kompitu li għandu jiġi solvut. Il-kapaċità ta' sistema tal-IA li tinferixxi tmur lil hinn mill-ipproċessar bażiku tad-data billi tippermetti l-apprendiment, ir-raġunament jew l-immudellar. It-terminu “bbażati fuq il-magni” jirreferi għall-fatt li s-sistemi tal-IA jaħdmu bil-magni. Ir-referenza għal objettivi espliċiti jew impliċiti tenfasizza li s-sistemi tal-IA jistgħu joperaw skont objettivi espliċiti definiti jew skont objettivi impliċiti. L-objettivi tas-sistema tal-IA jistgħu jkunu differenti mill-għan maħsub tas-sistema tal-IA f'kuntest speċifiku. Għall-finijiet ta' dan ir-Regolament, jenħtieġ li l-ambjenti jinftiehmu bħala l-kuntesti li fihom joperaw is-sistemi tal-IA, filwaqt li l-outputs iġġenerati mis-sistema tal-IA jirriflettu funzjonijiet differenti mwettqa mis-sistemi tal-IA u jinkludu previżjonijiet, kontenut, rakkomandazzjonijiet jew deċiżjonijiet. Is-sistemi tal-IA huma ddisinjati biex joperaw b'livelli varji ta' awtonomija, li jfisser li għandhom ċertu livell ta' indipendenza tal-azzjonijiet mill-involviment tal-bniedem u ta' kapaċitajiet biex joperaw mingħajr intervent mill-bniedem. L-adattabbiltà li sistema tal-IA tista' turi wara l-implimentazzjoni tirreferi għall-kapaċitajiet ta' awtotagħlim, li jippermettu li s-sistema tinbidel waqt li tkun qed tintuża. Is-sistemi tal-IA jistgħu jintużaw b'mod awtonomu jew bħala komponent ta' prodott, irrispettivament minn jekk is-sistema tkunx integrata fiżikament fil-prodott (inkorporata) jew taqdix il-funzjonalità tal-prodott mingħajr ma tkun integrata fih (mhux inkorporata).
(12)
La nozione di «sistema di IA» di cui al presente regolamento dovrebbe essere definita in maniera chiara e dovrebbe essere strettamente allineata al lavoro delle organizzazioni internazionali che si occupano di IA al fine di garantire la certezza del diritto, agevolare la convergenza internazionale e un'ampia accettazione, prevedendo nel contempo la flessibilità necessaria per agevolare i rapidi sviluppi tecnologici in questo ambito. Inoltre, la definizione dovrebbe essere basata sulle principali caratteristiche dei sistemi di IA, che la distinguono dai tradizionali sistemi software o dagli approcci di programmazione più semplici, e non dovrebbe riguardare i sistemi basati sulle regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico. Una caratteristica fondamentale dei sistemi di IA è la loro capacità inferenziale. Tale capacità inferenziale si riferisce al processo di ottenimento degli output, quali previsioni, contenuti, raccomandazioni o decisioni, che possono influenzare gli ambienti fisici e virtuali e alla capacità dei sistemi di IA di ricavare modelli o algoritmi, o entrambi, da input o dati. Le tecniche che consentono l'inferenza nella costruzione di un sistema di IA comprendono approcci di apprendimento automatico che imparano dai dati come conseguire determinati obiettivi e approcci basati sulla logica e sulla conoscenza che traggono inferenze dalla conoscenza codificata o dalla rappresentazione simbolica del compito da risolvere. La capacità inferenziale di un sistema di IA trascende l'elaborazione di base dei dati consentendo l'apprendimento, il ragionamento o la modellizzazione. Il termine «automatizzato» si riferisce al fatto che il funzionamento dei sistemi di IA prevede l'uso di macchine. Il riferimento a obiettivi espliciti o impliciti sottolinea che i sistemi di IA possono operare in base a obiettivi espliciti definiti o a obiettivi impliciti. Gli obiettivi del sistema di IA possono essere diversi dalla finalità prevista del sistema di IA in un contesto specifico. Ai fini del presente regolamento, gli ambienti dovrebbero essere intesi come i contesti in cui operano i sistemi di IA, mentre gli output generati dal sistema di IA riflettono le diverse funzioni svolte dai sistemi di IA e comprendono previsioni, contenuti, raccomandazioni o decisioni. I sistemi di IA sono progettati per funzionare con livelli di autonomia variabili, il che significa che dispongono di un certo grado di autonomia di azione rispetto al coinvolgimento umano e di capacità di funzionare senza l'intervento umano. L'adattabilità che un sistema di IA potrebbe presentare dopo la diffusione si riferisce alle capacità di autoapprendimento, che consentono al sistema di cambiare durante l'uso. I sistemi di IA possono essere utilizzati come elementi indipendenti (stand-alone) o come componenti di un prodotto, a prescindere dal fatto che il sistema sia fisicamente incorporato nel prodotto (integrato) o assista la funzionalità del prodotto senza esservi incorporato (non integrato).
(13)
Jenħtieġ li l-kunċett ta' “implimentatur” imsemmi f'dan ir-Regolament jiġi interpretat bħala kwalunkwe persuna fiżika jew ġuridika, inkluż awtorità pubblika, aġenzija jew korp ieħor, li tuża sistema tal-IA li taħt l-awtorità tagħha, ħlief meta s-sistema tal-IA tintuża matul attività personali mhux professjonali. Skont it-tip ta' sistema tal-IA, l-użu tas-sistema jista' jaffettwa persuni oħra minbarra l-implimentatur.
(13)
La nozione di «deployer» di cui al presente regolamento dovrebbe essere interpretata come qualsiasi persona fisica o giuridica, compresi un'autorità pubblica, un'agenzia o altro organismo, che utilizza un sistema di IA sotto la sua autorità, salvo nel caso in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale. A seconda del tipo di sistema di IA, l'uso del sistema può interessare persone diverse dal deployer.
(14)
Jenħtieġ li l-kunċett ta' “data bijometrika” użat f'dan ir-Regolament jiġi interpretat fid-dawl tal-kunċett ta' data bijometrika kif definit fl-Artikolu 4, il-punt (14) tar-Regolament (UE) 2016/679, l-Artikolu 3, il-punt (18) tar-Regolament (UE) 2018/1725 u l-Artikolu 3, il-punt (13) tad-Direttiva (UE) 2016/680. Id-data bijometrika tista' tippermetti l-awtentikazzjoni, l-identifikazzjoni jew il-kategorizzazzjoni ta' persuni fiżiċi u r-rikonoxximent tal-emozzjonijiet ta' persuni fiżiċi.
(14)
La nozione di «dati biometrici» utilizzata nel presente regolamento dovrebbe essere interpretata alla luce della nozione di dati biometrici di cui all'articolo 4, punto 14, del regolamento (UE) 2016/679, all'articolo 3, punto 18, del regolamento (UE) 2018/172 e all'articolo 3, punto 13, della direttiva (UE) 2016/680. I dati biometrici possono consentire l'autenticazione, l'identificazione o la categorizzazione delle persone fisiche e il riconoscimento delle emozioni delle persone fisiche.
(15)
Jenħtieġ li l-kunċett ta' “identifikazzjoni bijometrika” imsemmi f'dan ir-Regolament jiġi ddefinit bħala r-rikonoxximent awtomatizzat ta' karatteristiċi fiżiċi, fiżjoloġiċi u ta' mġiba tal-bniedem bħall-wiċċ, il-moviment tal-għajnejn, il-forma tal-ġisem, il-vuċi, il-prosodija, il-mixja, il-qagħda, ir-rata tal-qalb, il-pressjoni tad-demm, ir-riħa, karatteristiċi tal-ittastjar, għall-fini li tiġi stabbilita l-identità ta' individwu billi titqabbel id-data bijometrika ta' dak l-individwu mad-data bijometrika ta' individwi maħżuna f'bażi ta' data ta' referenza, irrispettivament minn jekk l-individwu jkunx ta l-kunsens tiegħu jew le. Dan jeskludi sistemi tal-IA maħsuba biex jintużaw għall-verifika bijometrika, li tinkludi l-awtentikazzjoni, li l-iskop uniku tagħha huwa li tikkonferma li persuna fiżika speċifika hija l-persuna li tiddikjara li hija u li tikkonferma l-identità ta' persuna fiżika għall-iskop uniku li jkollha aċċess għal servizz, li tiftaħ apparat jew li jkollha aċċess sigur għall-bini.
(15)
La nozione di «identificazione biometrica» di cui al presente regolamento dovrebbe essere definita come il riconoscimento automatico di caratteristiche fisiche, fisiologiche e comportamentali di una persona, quali il volto, il movimento degli occhi, la forma del corpo, la voce, la prosodia, l'andatura, la postura, la frequenza cardiaca, la pressione sanguigna, l'odore, la pressione esercitata sui tasti, allo scopo di determinare l'identità di una persona confrontando i suoi dati biometrici con quelli di altri individui memorizzati in una banca dati di riferimento, indipendentemente dal fatto che la persona abbia fornito il proprio consenso. Sono esclusi i sistemi di IA destinati a essere utilizzati per la verifica biometrica, che include l'autenticazione, la cui unica finalità è confermare che una determinata persona fisica è la persona che dice di essere e confermare l'identità di una persona fisica al solo scopo di accedere a un servizio, sbloccare un dispositivo o disporre dell'accesso di sicurezza a locali.
(16)
Jenħtieġ li l-kunċett ta' “kategorizzazzjoni bijometrika” msemmi f'dan ir-Regolament jiġi ddefinit bħala l-assenjazzjoni ta' persuni fiżiċi għal kategoriji speċifiċi abbażi tad-data bijometrika tagħhom. Tali kategoriji speċifiċi jistgħu jkunu relatati ma' aspetti bħas-sess, l-età, il-kulur tax-xagħar, il-kulur tal-għajnejn, it-tatwaġġi, il-karatteristiċi tal-imġiba jew tal-personalità, il-lingwa, ir-reliġjon, l-appartenenza għal minoranza nazzjonali, l-orjentazzjoni sesswali jew dik politika. Dan ma jinkludix sistemi ta' kategorizzazzjoni bijometrika li huma karatteristika purament anċillari intrinsikament marbuta ma' servizz kummerċjali ieħor, li jfisser li l-karatteristika ma tistax, għal raġunijiet tekniċi oġġettivi, tintuża mingħajr is-servizz prinċipali, u l-integrazzjoni ta' dik il-karatteristika jew funzjonalità mhijiex mezz biex tiġi evitata l-applikabbiltà tar-regoli ta' dan ir-Regolament. Pereżempju, il-filtri li jikkategorizzaw il-karatteristiċi tal-wiċċ jew tal-ġisem użati fis-swieq online jistgħu jikkostitwixxu karatteristika anċillari bħal din peress li jistgħu jintużaw biss fir-rigward tas-servizz prinċipali li jikkonsisti fil-bejgħ ta' prodott billi jippermettu lill-konsumatur jara minn qabel kif jidher il-prodott fuqu nnifsu u jgħin lill-konsumatur jieħu deċiżjoni dwar ix-xiri. Il-filtri użati fuq servizzi ta' network soċjali online li jikkategorizzaw karatteristiċi tal-wiċċ jew tal-ġisem biex jippermettu lill-utenti jżidu jew jimmodifikaw stampi jew vidjos jistgħu jitqiesu wkoll bħala karatteristika anċillari peress li tali filtru ma jistax jintuża mingħajr is-servizz prinċipali tas-servizzi tan-network soċjali li jikkonsisti fil-kondiviżjoni tal-kontenut online.
(16)
La nozione di «categorizzazione biometrica» di cui al presente regolamento dovrebbe essere definita come l'assegnazione di persone fisiche a categorie specifiche sulla base dei loro dati biometrici. Tali categorie specifiche possono riguardare aspetti quali il sesso, l'età, il colore dei capelli, il colore degli occhi, i tatuaggi, i tratti comportamentali o di personalità, la lingua, la religione, l'appartenenza a una minoranza nazionale, l'orientamento sessuale o politico. Ciò non comprende i sistemi di categorizzazione biometrica che sono una caratteristica puramente accessoria intrinsecamente legata a un altro servizio commerciale, il che significa che l'elemento non può, per ragioni tecniche oggettive, essere utilizzato senza il servizio principale e che l'integrazione di tale caratteristica o funzionalità non rappresenta un mezzo per eludere l'applicabilità delle norme del presente regolamento. Ad esempio, i filtri che classificano le caratteristiche facciali o del corpo utilizzate sui mercati online potrebbero costituire una tale caratteristica accessoria, in quanto possono essere utilizzati solo in relazione al servizio principale che consiste nel vendere un prodotto consentendo al consumatore di visualizzare in anteprima il prodotto su se stesso e aiutarlo a prendere una decisione di acquisto. Anche i filtri utilizzati nei servizi di social network online che classificano le caratteristiche facciali o del corpo per consentire agli utenti di aggiungere o modificare immagini o video potrebbero essere considerati una caratteristica accessoria, in quanto tale filtro non può essere utilizzato senza il servizio principale dei servizi di social network consistente nella condivisione di contenuti online.
(17)
Jenħtieġ li l-kunċett ta' “sistema ta' identifikazzjoni bijometrika remota” msemmi f'dan ir-Regolament jiġi ddefinit b'mod funzjonali, bħala sistema tal-IA maħsuba għall-identifikazzjoni ta' persuni fiżiċi mingħajr l-involviment attiv tagħhom, tipikament mill-bogħod, permezz tat-tqabbil tad-data bijometrika ta' persuna mad-data bijometrika li tinsab f'bażi ta' data ta' referenza, irrispettivament mit-teknoloġija, mill-proċessi jew mit-tipi partikolari ta' data bijometrika użati. Tali sistemi ta’ identifikazzjoni bijometrika remota tipikament jintużaw biex jipperċepixxu diversi persuni jew l-imġiba tagħhom simultanjament sabiex jiffaċilitaw b'mod sinifikanti l-identifikazzjoni ta' persuni fiżiċi mingħajr l-involviment attiv tagħhom. Dan jeskludi sistemi tal-IA maħsuba biex jintużaw għall-verifika bijometrika, li tinkludi l-awtentikazzjoni, li l-iskop uniku tagħha huwa li tikkonferma li persuna fiżika speċifika hija l-persuna li tiddikjara li hija u li tikkonferma l-identità ta' persuna fiżika għall-iskop uniku li jkollha aċċess għal servizz, li tiftaħ apparat jew li jkollha aċċess sigur għall-bini. Dik l-esklużjoni hija ġġustifikata mill-fatt li tali sistemi x'aktarx ikollhom impatt minuri fuq id-drittijiet fundamentali ta' persuni fiżiċi meta mqabbla mas-sistemi ta’ identifikazzjoni bijometrika remota li jistgħu jintużaw għall-ipproċessar tad-data bijometrika ta' għadd kbir ta' persuni mingħajr l-involviment attiv tagħhom. Fil-każ ta' sistemi “fil-ħin reali”, il-qbid tad-data bijometrika, it-tqabbil u l-identifikazzjoni jsiru b'mod istantanju, kważi istantanju jew fi kwalunkwe każ mingħajr dewmien sinifikanti. F'dan ir-rigward, jenħtieġ li ma jkun hemm l-ebda lok li jiġu evitati r-regoli ta' dan ir-Regolament dwar l-użu “fil-ħin reali” tas-sistemi tal-IA kkonċernati billi jiġi previst xi dewmien żgħir. Is-sistemi “fil-ħin reali” jinvolvu l-użu ta' materjal “dirett” jew “kważi dirett”, bħal filmat, iġġenerat minn kamera jew minn apparat ieħor b'funzjonalità simili. Għall-kuntrarju, fil-każ tas-sistemi “f'ħin aktar tard”, id-data bijometrika tkun diġà nkisbet u t-tqabbil u l-identifikazzjoni jsiru biss wara ċertu dewmien sinifikanti. Dan jinvolvi materjal, bħal stampi jew filmati ġġenerati minn kameras tat-televiżjoni b'ċirkwit magħluq jew minn apparati privati, li jkun ġie ġġenerat qabel tkun intużat is-sistema fir-rigward tal-persuni fiżiċi kkonċernati.
(17)
È opportuno definire a livello funzionale la nozione di «sistema di identificazione biometrica remota» di cui al presente regolamento, quale sistema di IA destinato all'identificazione, tipicamente a distanza, di persone fisiche senza il loro coinvolgimento attivo mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento, a prescindere dalla tecnologia, dai processi o dai tipi specifici di dati biometrici utilizzati. Tali sistemi di identificazione biometrica remota sono generalmente utilizzati per percepire più persone o il loro comportamento simultaneamente al fine di facilitare in modo significativo l'identificazione di persone fisiche senza il loro coinvolgimento attivo. Sono esclusi i sistemi di IA destinati a essere utilizzati per la verifica biometrica, che include l'autenticazione, la cui unica finalità è confermare che una determinata persona fisica è la persona che dice di essere e confermare l'identità di una persona fisica al solo scopo di accedere a un servizio, sbloccare un dispositivo o disporre dell'accesso di sicurezza a locali. Tale esclusione è giustificata dal fatto che detti sistemi hanno probabilmente un impatto minore sui diritti fondamentali delle persone fisiche rispetto ai sistemi di identificazione biometrica remota, che possono essere utilizzati per il trattamento dei dati biometrici di un numero elevato di persone senza il loro coinvolgimento attivo. Nel caso dei sistemi «in tempo reale», il rilevamento dei dati biometrici, il confronto e l'identificazione avvengono tutti istantaneamente, quasi istantaneamente o in ogni caso senza ritardi significativi. A tale riguardo è opportuno impedire l'elusione delle regole del presente regolamento per quanto attiene all'uso «in tempo reale» dei sistemi di IA interessati prevedendo ritardi minimi. I sistemi «in tempo reale» comportano l'uso di materiale «dal vivo» o «quasi dal vivo» (ad esempio filmati) generato da una telecamera o da un altro dispositivo con funzionalità analoghe. Nel caso dei sistemi di identificazione a posteriori, invece, i dati biometrici sono già stati rilevati e il confronto e l'identificazione avvengono solo con un ritardo significativo. Si tratta di materiale, come immagini o filmati generati da telecamere a circuito chiuso o da dispositivi privati, che è stato generato prima che il sistema fosse usato in relazione alle persone fisiche interessate.
(18)
Jenħtieġ li l-kunċett ta' “sistema ta' rikonoxximent tal-emozzjonijiet” imsemmi f'dan ir-Regolament jiġi ddefinit bħala sistema tal-IA għall-fini tal-identifikazzjoni jew l-inferenza ta' emozzjonijiet jew intenzjonijiet ta' persuni fiżiċi abbażi tad-data bijometrika tagħhom. Il-kunċett jirreferi għal emozzjonijiet jew intenzjonijiet bħal kuntentizza, diqa, rabja, sorpriża, disgust, imbarazzament, eċċitament, mistħija, disprezz, sodisfazzjon u divertiment. Ma jinkludix stati fiżiċi, bħal uġigħ jew għeja, inkluż, pereżempju, sistemi użati biex jiġi identifikat l-istat tal-għeja tal-bdoti professjonali jew tas-sewwieqa bl-għan li jiġu evitati l-aċċidenti. Dan lanqas ma jinkludi s-sempliċi kxif ta' espressjonijiet, ġesti jew movimenti faċilment apparenti, sakemm ma jintużawx biex jidentifikaw jew jinferixxu emozzjonijiet. Dawk l-espressjonijiet jistgħu jkunu espressjonijiet bażiċi tal-wiċċ bħal ħarsa bl-ikrah jew tbissima, jew ġesti bħall-moviment tal-idejn, dirgħajn jew ras, jew karatteristiċi tal-vuċi ta' persuna, bħal vuċi mgħollija jew minn taħt l-ilsien.
(18)
La nozione di «sistema di riconoscimento delle emozioni» di cui al presente regolamento dovrebbe essere definita come un sistema di IA finalizzato a identificare o inferire emozioni o intenzioni di persone fisiche, sulla base dei loro dati biometrici. La nozione si riferisce a emozioni o intenzioni quali felicità, tristezza, rabbia, sorpresa, disgusto, imbarazzo, eccitazione, vergogna, disprezzo, soddisfazione e divertimento. Non comprende stati fisici, quali dolore o affaticamento, compresi, ad esempio, ai sistemi utilizzati per rilevare lo stato di affaticamento dei piloti o dei conducenti professionisti al fine di prevenire gli incidenti. Non comprende neppure la semplice individuazione di espressioni, gesti o movimenti immediatamente evidenti, a meno che non siano utilizzati per identificare o inferire emozioni. Tali espressioni possono essere espressioni facciali di base quali un aggrottamento delle sopracciglia o un sorriso, gesti quali il movimento di mani, braccia o testa, o caratteristiche della voce di una persona, ad esempio una voce alta o un sussurro.
(19)
Għall-finijiet ta' dan ir-Regolament, jenħtieġ li l-kunċett ta' spazju aċċessibbli għall-pubbliku jinftiehem bħala li jirreferi għal kwalunkwe spazju fiżiku li huwa aċċessibbli għal għadd mhux determinat ta' persuni fiżiċi, u irrispettivament minn jekk l-ispazju inkwistjoni huwiex ta' sjieda privata jew pubblika, irrispettivament mill-attività li għaliha jista' jintuża l-ispazju, bħall-kummerċ, pereżempju, ħwienet, ristoranti, kafetteriji; bħas-servizzi, pereżempju, banek, attivitajiet professjonali, ospitalità; bħas-sport, pereżempju, pixxini, gyms, stadiums; bħat-trasport, pereżempju, stazzjonijiet tal-karozzi tal-linja, tal-metro u tal-ferrovija, ajruporti, mezzi tat-trasport; bħad-divertiment, pereżempju, ċinema, teatri, mużewijiet, swali tal-kunċerti u tal-konferenzi; jew bħar-ikreazzjoni jew mod ieħor, pereżempju, toroq pubbliċi u pjazez, parks, foresti, playgrounds. Jenħtieġ li spazju jiġi kklassifikat bħala aċċessibbli għall-pubbliku anki jekk, irrispettivament mir-restrizzjonijiet potenzjali tal-kapaċità jew tas-sigurtà, l-aċċess ikun soġġett għal ċerti kundizzjonijiet predeterminati li jistgħu jiġu ssodisfati minn għadd mhux determinat ta' persuni, bħax-xiri ta' biljett jew titolu tat-trasport, reġistrazzjoni minn qabel jew li persuna jkollha ċerta età. B'kuntrast ma' dan, jenħtieġ li spazju ma jitqiesx li jkun aċċessibbli għall-pubbliku jekk l-aċċess ikun limitat għal persuni fiżiċi speċifiċi u definiti permezz ta' liġijiet tal-Unjoni jew nazzjonali direttament relatati mas-sikurezza jew is-sigurtà pubblika jew permezz tal-manifestazzjoni ċara tar-rieda mill-persuna li jkollha l-awtorità rilevanti fuq il-post. Il-possibbiltà fattwali ta' aċċess waħedha, bħal bieb mhux imsakkar jew xatba miftuħa f'ċint, ma tfissirx li l-ispazju huwa aċċessibbli għall-pubbliku fil-preżenza ta' indikazzjonijiet jew ċirkostanzi li jissuġġerixxu l-kuntrarju, bħal sinjali li jipprojbixxu jew jirrestrinġu l-aċċess. Il-bini ta' kumpaniji u fabbriki, kif ukoll l-uffiċċji u l-postijiet tax-xogħol li huma maħsuba biex jiġu aċċessati biss mill-impjegati u l-fornituri tas-servizzi rilevanti, huma spazji li mhumiex aċċessibbli għall-pubbliku. Jenħtieġ li l-ispazji aċċessibbli għall-pubbliku ma jinkludux ħabsijiet jew kontroll fil-fruntieri. Xi spazji oħra jistgħu jinkludu spazji mhux aċċessibbli għall-pubbliku kif ukoll spazji aċċessibbli għall-pubbliku, bħall-entrata ta' bini residenzjali privat meħtieġa biex jinkiseb aċċess għal uffiċċju ta' tabib jew ajruport. L-ispazji online ma humiex koperti għax dawn mhumiex spazji fiżiċi. Jekk spazju partikolari jkunx aċċessibbli għall-pubbliku jenħtieġ, madankollu, jiġi determinat abbażi ta' każ b'każ, filwaqt li jitqiesu l-ispeċifiċitajiet tas-sitwazzjoni individwali inkwistjoni.
(19)
Ai fini del presente regolamento la nozione di «spazio accessibile al pubblico» dovrebbe essere intesa come riferita a qualsiasi luogo fisico accessibile a un numero indeterminato di persone fisiche e a prescindere dal fatto che il luogo in questione sia di proprietà pubblica o privata, indipendentemente dall'attività per la quale il luogo può essere utilizzato, quali il commercio (ad esempio negozi, ristoranti, bar), i servizi (ad esempio banche, attività professionali, ospitalità), lo sport (ad esempio piscine, palestre, stadi), i trasporti (ad esempio stazioni di autobus, metropolitane e ferroviarie, aeroporti, mezzi di trasporto), l'intrattenimento (ad esempio cinema, teatri, musei, sale da concerto e sale conferenze), il tempo libero o altro (ad esempio strade e piazze pubbliche, parchi, foreste, parchi giochi). Un luogo dovrebbe essere classificato come accessibile al pubblico anche se, indipendentemente da potenziali restrizioni di capacità o di sicurezza, l'accesso è soggetto a determinate condizioni predeterminate, che possono essere soddisfatte da un numero indeterminato di persone, quali l'acquisto di un biglietto o titolo di trasporto, la registrazione previa o il raggiungimento di una determinata età. Per contro, un luogo non dovrebbe essere considerato accessibile al pubblico se l'accesso è limitato a persone fisiche specifiche e definite attraverso il diritto dell'Unione o nazionale direttamente connesso alla pubblica sicurezza o attraverso la chiara manifestazione di volontà da parte della persona che ha l'autorità pertinente sul luogo. La sola possibilità concreta di accesso (ad esempio una porta sbloccata, un cancello aperto in una recinzione) non implica che il luogo sia accessibile al pubblico in presenza di indicazioni o circostanze che suggeriscono il contrario (ad esempio segnaletica che vieta o limita l'accesso). I locali delle imprese e delle fabbriche, come pure gli uffici e i luoghi di lavoro destinati ad essere accessibili solo dai pertinenti dipendenti e prestatori di servizi, sono luoghi non accessibili al pubblico. Gli spazi accessibili al pubblico non dovrebbero includere le carceri o i controlli di frontiera. Alcune altre zone possono comprendere sia aree non accessibili al pubblico che aree accessibili al pubblico, come l'atrio di un edificio residenziale privato da cui è possibile accedere a uno studio medico o un aeroporto. Non sono del pari contemplati gli spazi online, dato che non sono luoghi fisici. L'accessibilità di un determinato spazio al pubblico dovrebbe tuttavia essere determinata caso per caso, tenendo conto delle specificità della singola situazione presa in esame.
(20)
Biex jinkisbu l-akbar benefiċċji mis-sistemi tal-IA filwaqt li jiġu protetti d-drittijiet fundamentali, is-saħħa u s-sikurezza u biex ikun jista' jsir kontroll demokratiku, jenħtieġ li l-litteriżmu fl-IA jgħammar lill-fornituri, lill-implimentaturi u lill-persuni affettwati bil-kunċetti meħtieġa biex jieħdu deċiżjonijiet infurmati dwar is-sistemi tal-IA. Dawk il-kunċetti jistgħu jvarjaw fir-rigward tal-kuntest rilevanti u jistgħu jinkludu l-fehim tal-applikazzjoni korretta tal-elementi tekniċi matul il-fażi tal-iżvilupp tas-sistema tal-IA, il-miżuri li għandhom jiġu applikati waqt l-użu tagħha, il-modi xierqa li bihom jiġi interpretat l-output tas-sistema tal-IA, u, fil-każ tal-persuni affettwati, l-għarfien meħtieġ biex jifhmu kif id-deċiżjonijiet meħuda bl-assistenza tal-IA ser ikollhom impatt fuqhom. Fil-kuntest tal-applikazzjoni ta' dan ir-Regolament, jenħtieġ li l-litteriżmu fl-IA jipprovdi lill-atturi rilevanti kollha fil-katina tal-valur tal-IA bl-għarfien meħtieġ biex tiġi żgurata l-konformità xierqa u l-infurzar korrett tiegħu. Barra minn hekk, l-implimentazzjoni wiesgħa ta' miżuri ta' litteriżmu fl-IA u l-introduzzjoni ta' azzjonijiet ta' segwitu xierqa jistgħu jikkontribwixxu għat-titjib tal-kundizzjonijiet tax-xogħol u fl-aħħar mill-aħħar isostnu l-konsolidazzjoni, u l-perkors tal-innovazzjoni ta' IA affidabbli fl-Unjoni. Jenħtieġ li l-Bord Ewropew għall-Intelliġenza Artifiċjali (“il-Bord”) jappoġġa lill-Kummissjoni fil-promozzjoni tal-għodod tal-litteriżmu fl-IA, is-sensibilizzazzjoni u l-fehim tal-pubbliku dwar il-benefiċċji, ir-riskji, is-salvagwardji, id-drittijiet u l-obbligi fir-rigward tal-użu ta' sistemi tal-IA. F'kooperazzjoni mal-partijiet ikkonċernati rilevanti, jenħtieġ li l-Kummissjoni u l-Istati Membri jiffaċilitaw it-tfassil ta' kodiċijiet ta' kondotta volontarji biex javvanzaw il-litteriżmu fl-IA fost il-persuni li jittrattaw l-iżvilupp, it-tħaddim u l-użu tal-IA.
(20)
Al fine di ottenere i massimi benefici dai sistemi di IA proteggendo nel contempo i diritti fondamentali, la salute e la sicurezza e di consentire il controllo democratico, l'alfabetizzazione in materia di IA dovrebbe dotare i fornitori, i deployer e le persone interessate delle nozioni necessarie per prendere decisioni informate in merito ai sistemi di IA. Tali nozioni possono variare in relazione al contesto pertinente e possono includere la comprensione della corretta applicazione degli elementi tecnici durante la fase di sviluppo del sistema di IA, le misure da applicare durante il suo utilizzo, le modalità adeguate per interpretare l'output del sistema di IA e, nel caso delle persone interessate, le conoscenze necessarie per comprendere in che modo le decisioni adottate con l'assistenza dell'IA incideranno su di esse. Nel contesto dell'applicazione del presente regolamento, l'alfabetizzazione in materia di IA dovrebbe fornire a tutti i pertinenti attori della catena del valore dell'IA le conoscenze necessarie per garantire l'adeguata conformità e la sua corretta esecuzione. Inoltre, l'ampia attuazione delle misure di alfabetizzazione in materia di IA e l'introduzione di adeguate azioni di follow-up potrebbero contribuire a migliorare le condizioni di lavoro e, in ultima analisi, sostenere il consolidamento e il percorso di innovazione di un'IA affidabile nell'Unione. Il consiglio europeo per l'intelligenza artificiale («consiglio per l'IA») dovrebbe sostenere la Commissione al fine di promuovere gli strumenti di alfabetizzazione in materia di IA, la sensibilizzazione del pubblico e la comprensione dei benefici, dei rischi, delle garanzie, dei diritti e degli obblighi in relazione all'uso dei sistemi di IA. In cooperazione con i pertinenti portatori di interessi, la Commissione e gli Stati membri dovrebbero agevolare l'elaborazione di codici di condotta volontari per migliorare l'alfabetizzazione in materia di IA tra le persone che si occupano di sviluppo, funzionamento e uso dell'IA.
(21)
Biex ikunu żgurati kundizzjonijiet ekwi u protezzjoni effettiva tad-drittijiet u tal-libertajiet tal-individwi madwar l-Unjoni, jenħtieġ li r-regoli stabbiliti b'dan ir-Regolament japplikaw għall-fornituri tas-sistemi tal-IA b'mod mhux diskriminatorju, irrispettivament minn jekk humiex stabbiliti fl-Unjoni jew f'pajjiż terz, u għall-implimentaturi tas-sistemi tal-IA stabbiliti fl-Unjoni.
(21)
Al fine di garantire condizioni di parità e una protezione efficace dei diritti e delle libertà delle persone in tutta l'Unione, è opportuno che le regole stabilite dal presente regolamento si applichino ai fornitori di sistemi di IA in modo non discriminatorio, a prescindere dal fatto che siano stabiliti nell'Unione o in un paese terzo, e ai deployer dei sistemi di IA stabiliti nell'Unione.
(22)
Fid-dawl tan-natura diġitali tagħhom, jenħtieġ li ċerti sistemi tal-IA jkunu fil-kamp ta' applikazzjoni ta' dan ir-Regolament anki meta ma jiġux introdotti fis-suq, ma jitqiegħdux fis-servizz, u ma jintużawx fl-Unjoni. Pereżempju, dan hu l-każ fejn operatur stabbilit fl-Unjoni jikkuntratta ċerti servizzi lil operatur stabbilit f'pajjiż terz fir-rigward ta' attività li tkun ser titwettaq minn sistema tal-IA u li tikkwalifika bħala b'riskju għoli. F'dawk iċ-ċirkostanzi, is-sistema tal-IA użata f'pajjiż terz mill-operatur tista' tipproċessa d-data miġbura legalment fl-Unjoni u trasferita minnha, u tipprovdi lill-operatur kontraenti fl-Unjoni l-output ta' dik is-sistema tal-IA li jirriżulta minn dak l-ipproċessar, mingħajr ma dik is-sistema tal-IA tiġi introdotta fis-suq, titqiegħed fis-servizz jew tintuża fl-Unjoni. Biex tiġi evitata ċ-ċirkumvenzjoni ta' dan ir-Regolament u biex tiġi żgurata protezzjoni effettiva tal-persuni fiżiċi li jinsabu fl-Unjoni, jenħtieġ li dan ir-Regolament japplika wkoll għall-fornituri u għall-implimentaturi tas-sistemi tal-IA li huma stabbiliti f'pajjiż terz, sa fejn l-output prodott minn dawk is-sistemi ikun maħsub biex jintuża fl-Unjoni. Madankollu, biex jitqiesu l-arranġamenti eżistenti u l-ħtiġijiet speċjali għall-kooperazzjoni futura mas-sħab barranin li magħhom jiġu skambjati informazzjoni u evidenza, jenħtieġ li dan ir-Regolament ma japplikax għall-awtoritajiet pubbliċi ta' pajjiż terz u għal organizzazzjonijiet internazzjonali meta jaġixxu fil-qafas ta' kooperazzjoni jew ta' ftehimiet internazzjonali konklużi fil-livell tal-Unjoni jew nazzjonali għall-infurzar tal-liġi u għall-kooperazzjoni ġudizzjarja mal-Unjoni jew mal-Istati Membri, dment li l-pajjiż terz jew l-organizzazzjoni internazzjonali rilevanti jipprovdu salvagwardji adegwati fir-rigward tal-protezzjoni tad-drittijiet u l-libertajiet fundamentali tal-individwi. Fejn rilevanti, dan jista' jkopri attivitajiet ta' entitajiet fdati mill-pajjiżi terzi biex iwettqu kompiti speċifiċi b'appoġġ għal tali infurzar tal-liġi u kooperazzjoni ġudizzjarja. Tali qafas għall-kooperazzjoni jew ftehimiet ġew stabbiliti b'mod bilaterali bejn l-Istati Membri u pajjiżi terzi jew bejn l-Unjoni Ewropea, il-Europol u aġenziji oħra tal-Unjoni u pajjiżi terzi u organizzazzjonijiet internazzjonali. Jenħtieġ li l-awtoritajiet kompetenti għas-superviżjoni tal-awtoritajiet tal-infurzar tal-liġi u dawk ġudizzjarji skont dan ir-Regolament jivvalutaw jekk dawk l-oqfsa għall-kooperazzjoni jew il-ftehimiet internazzjonali jinkludux salvagwardji adegwati fir-rigward tal-protezzjoni tad-drittijiet u l-libertajiet fundamentali tal-individwi. L-awtoritajiet nazzjonali riċevituri u l-istituzzjonijiet, il-korpi, l-uffiċċji u l-aġenziji tal-Unjoni li jagħmlu użu minn tali outputs fl-Unjoni jibqgħu responsabbli biex jiżguraw li l-użu tagħhom jikkonforma mal-liġi tal-Unjoni. Meta dawk il-ftehimiet internazzjonali jiġu riveduti jew jiġu konklużi oħrajn ġodda fil-futur, jenħtieġ li l-partijiet kontraenti jagħmlu l-akbar sforzi possibbli biex jallinjaw dawk il-ftehimiet mar-rekwiżiti ta' dan ir-Regolament.
(22)
Alla luce della loro natura di sistemi digitali, è opportuno che determinati sistemi di IA rientrino nell'ambito di applicazione del presente regolamento anche quando non sono immessi sul mercato, né messi in servizio, né utilizzati nell'Unione. È il caso, ad esempio, di un operatore stabilito nell'Unione che appalta alcuni servizi a un operatore stabilito in un paese terzo in relazione a un'attività che deve essere svolta da un sistema di IA che sarebbe classificato ad alto rischio. In tali circostanze il sistema di IA utilizzato dall'operatore in un paese terzo potrebbe trattare dati raccolti nell'Unione e da lì trasferiti nel rispetto della legge, e fornire all'operatore appaltante nell'Unione l'output di tale sistema di IA risultante da tale trattamento, senza che tale sistema di IA sia immesso sul mercato, messo in servizio o utilizzato nell'Unione. Al fine di impedire l'elusione del presente regolamento e di garantire una protezione efficace delle persone fisiche che si trovano nell'Unione, è opportuno che il presente regolamento si applichi anche ai fornitori e ai deployer di sistemi di IA stabiliti in un paese terzo, nella misura in cui l'output prodotto da tali sistemi è destinato a essere utilizzato nell'Unione. Cionondimeno, per tener conto degli accordi vigenti e delle esigenze particolari per la cooperazione futura con partner stranieri con cui sono scambiate informazioni e elementi probatori, il presente regolamento non dovrebbe applicarsi alle autorità pubbliche di un paese terzo e alle organizzazioni internazionali che agiscono nel quadro della cooperazione o di accordi internazionali conclusi a livello dell'Unione o nazionale per la cooperazione delle autorità giudiziarie e di contrasto con l'Unione o con gli Stati membri, a condizione che il paese terzo o le organizzazioni internazionali pertinenti forniscano garanzie adeguate per quanto riguarda la protezione dei diritti e delle libertà fondamentali delle persone. Se del caso, ciò può riguardare le attività di entità incaricate dai paesi terzi di svolgere compiti specifici a sostegno di tale cooperazione delle autorità giudiziarie e di contrasto. Tali quadri per la cooperazione o accordi sono stati istituiti bilateralmente tra Stati membri e paesi terzi o tra l'Unione europea, Europol e altre agenzie dell'Unione e paesi terzi e organizzazioni internazionali. Le autorità competenti per il controllo delle autorità giudiziarie e di contrasto ai sensi del presente regolamento dovrebbero valutare se tali quadri per la cooperazione o accordi internazionali includano garanzie adeguate per quanto riguarda la protezione dei diritti e delle libertà fondamentali delle persone. Le autorità nazionali destinatarie e le istituzioni, gli organi e gli organismi dell'Unione che si avvalgono di tali output nell'Unione, restano responsabili di garantire che il loro utilizzo sia conforme al diritto dell'Unione. In caso di revisione di tali accordi internazionali o di conclusione di nuovi accordi internazionali in futuro, le parti contraenti dovrebbero adoperarsi quanto più possibile per allineare tali accordi ai requisiti del presente regolamento.
(23)
Jenħtieġ li dan ir-Regolament japplika wkoll għall-istituzzjonijiet, il-korpi, l-uffiċċji u l-aġenziji tal-Unjoni meta dawn jaġixxu bħala fornitur jew implimentatur ta' sistema tal-IA.
(23)
È altresì opportuno che il presente regolamento si applichi alle istituzioni, agli organi e agli organismi dell'Unione quando agiscono in qualità di fornitori o deployer di un sistema di IA.
(24)
Jekk, u sa fejn, is-sistemi tal-IA jiġu introdotti fis-suq, jitqiegħdu fis-servizz, jew jintużaw b'modifika jew mingħajr modifika ta' tali sistemi għal finijiet militari, ta' difiża jew ta' sigurtà nazzjonali, dawk jenħtieġ li jiġu esklużi mill-kamp ta' applikazzjoni ta' dan ir-Regolament irrispettivament minn liema tip ta' entità tkun qed twettaq dawk l-attivitajiet, bħal jekk tkunx entità pubblika jew privata. Fir-rigward ta' finijiet militari u ta' difiża, tali esklużjoni hija ġġustifikata kemm mill-Artikolu 4(2) TUE kif ukoll mill-ispeċifiċitajiet tal-politika ta' difiża komuni tal-Istati Membri u tal-Unjoni koperta mill-Kapitolu 2 tat-Titolu V TUE li huma soġġetti għad-dritt internazzjonali pubbliku, li huwa għalhekk il-qafas legali aktar xieraq għar-regolamentazzjoni tas-sistemi tal-IA fil-kuntest tal-użu ta' forza letali u sistemi oħra tal-IA fil-kuntest ta' attivitajiet militari u ta' difiża. Fir-rigward ta' finijiet ta' sigurtà nazzjonali, l-esklużjoni hija ġġustifikata kemm mill-fatt li s-sigurtà nazzjonali tibqa' r-responsabbiltà unika tal-Istati Membri f'konformità mal-Artikolu 4(2) TUE kif ukoll min-natura speċifika u l-ħtiġijiet operazzjonali tal-attivitajiet ta' sigurtà nazzjonali u regoli nazzjonali speċifiċi applikabbli għal dawk l-attivitajiet. Madankollu, jekk sistema tal-IA żviluppata, introdotta fis-suq, imqiegħda fis-servizz jew użata għal finijiet militari, ta' difiża jew ta' sigurtà nazzjonali tintuża barra minn dawk temporanjament jew b'mod permanenti għal finijiet oħra, pereżempju, għal finijiet ċivili jew umanitarji, għal finijiet ta' infurzar tal-liġi jew ta' sigurtà pubblika, tali sistema taqa' fil-kamp ta' applikazzjoni ta' dan ir-Regolament. F'dak il-każ, jenħtieġ li l-entità li tuża s-sistema tal-IA għal finijiet oħra għajr dawk militari, ta' difiża jew ta' sigurtà nazzjonali tiżgura l-konformità tas-sistema tal-IA ma' dan ir-Regolament, sakemm is-sistema ma tkunx diġà konformi ma' dan ir-Regolament. Is-sistemi tal-IA introdotti fis-suq jew imqiegħda fis-servizz għal skop eskluż, jiġifieri militari, ta' difiża jew ta' sigurtà nazzjonali, u skop wieħed jew aktar mhux esklużi, bħal finijiet ċivili jew infurzar tal-liġi, jaqgħu fil-kamp ta' applikazzjoni ta' dan ir-Regolament u jenħtieġ li l-fornituri ta' dawk is-sistemi jiżguraw il-konformità ma' dan ir-Regolament. F'dawk il-każijiet, jenħtieġ li l-fatt li sistema tal-IA tista' taqa' fil-kamp ta' applikazzjoni ta' dan ir-Regolament ma jaffettwax il-possibbiltà li entitajiet li qed iwettqu attivitajiet nazzjonali ta' sigurtà, ta' difiża u militari, irrispettivament mit-tip ta' entità li twettaq dawk l-attivitajiet, jużaw sistemi tal-IA għal finijiet ta' sigurtà, militari u ta' difiża nazzjonali, li l-użu tagħhom huwa eskluż mill-kamp ta' applikazzjoni ta' dan ir-Regolament. Jenħtieġ li sistema tal-IA introdotta fis-suq għal finijiet ċivili jew ta' infurzar tal-liġi li tintuża b'modifika jew mingħajr modifika għal finijiet militari, ta' difiża jew ta' sigurtà nazzjonali ma taqax fil-kamp ta' applikazzjoni ta' dan ir-Regolament, irrispettivament mit-tip ta' entità li twettaq dawk l-attivitajiet.
(24)
Se, e nella misura in cui, i sistemi di IA sono immessi sul mercato, messi in servizio o utilizzati con o senza modifica di tali sistemi per scopi militari, di difesa o di sicurezza nazionale, essi dovrebbero essere esclusi dall'ambito di applicazione del presente regolamento indipendentemente dal tipo di entità che svolge tali attività, ad esempio se si tratta di un'entità pubblica o privata. Per quanto riguarda gli scopi militari e di difesa, tale esclusione è giustificata sia dall'articolo 4, paragrafo 2, TUE sia dalle specificità della politica di difesa comune degli Stati membri e dell'Unione di cui al titolo V, capo 2, TUE che sono soggette al diritto internazionale pubblico, che costituisce pertanto il quadro giuridico più appropriato per la regolamentazione dei sistemi di IA nel contesto dell'uso letale della forza e di altri sistemi di IA nel contesto delle attività militari e di difesa. Per quanto riguarda le finalità di sicurezza nazionale, l'esclusione è giustificata sia dal fatto che la sicurezza nazionale resta di esclusiva competenza degli Stati membri ai sensi dell'articolo 4, paragrafo 2, TUE, sia dalla natura specifica e dalle esigenze operative delle attività di sicurezza nazionale, nonché dalle specifiche norme nazionali applicabili a tali attività. Tuttavia, se un sistema di IA sviluppato, immesso sul mercato, messo in servizio o utilizzato per scopi militari, di difesa o di sicurezza nazionale è usato al di fuori di tali finalità, in via temporanea o permanente, per altri scopi, ad esempio a fini civili o umanitari, per scopi di attività di contrasto o di sicurezza pubblica, tale sistema rientrerebbe nell'ambito di applicazione del presente regolamento. In tal caso, l'entità che utilizza il sistema di IA per finalità diverse da quelle militari, di difesa o di sicurezza nazionale dovrebbe garantire la conformità del sistema di IA al presente regolamento, a meno che il sistema non sia già conforme al presente regolamento. Rientrano nell'ambito di applicazione del presente regolamento i sistemi di IA immessi sul mercato o messi in servizio per una finalità esclusa, ossia militare, di difesa o di sicurezza nazionale, e per una o più finalità non escluse, ad esempio scopi civili o attività di contrasto, e i fornitori di tali sistemi dovrebbero garantire la conformità al presente regolamento. In tali casi, il fatto che un sistema di IA possa rientrare nell'ambito di applicazione del presente regolamento non dovrebbe incidere sulla possibilità per le entità che svolgono attività militari, di sicurezza nazionale e di difesa, indipendentemente dal tipo di entità che svolge tali attività, di utilizzare sistemi di IA per scopi di sicurezza nazionale, militari e di difesa, l'uso dei quali è escluso dall'ambito di applicazione del presente regolamento. Un sistema di IA immesso sul mercato per scopi civili o di attività di contrasto che è utilizzato con o senza modifiche a fini militari, di difesa o di sicurezza nazionale non dovrebbe rientrare nell'ambito di applicazione del presente regolamento, indipendentemente dal tipo di entità che svolge tali attività.
(25)
Jenħtieġ li dan ir-Regolament jappoġġa l-innovazzjoni, jirrispetta l-libertà tax-xjenza, u ma jdgħajjifx l-attività ta' riċerka u żvilupp. Għalhekk, jeħtieġ li jiġu esklużi mill-kamp ta' applikazzjoni tagħha s-sistemi u l-mudelli tal-IA żviluppati speċifikament u mqiegħda fis-servizz għall-iskop uniku ta' riċerka u żvilupp xjentifiċi. Barra minn hekk, jeħtieġ li jiġi żgurat li dan ir-Regolament ma jaffettwax b'xi mod ieħor l-attività xjentifika ta' riċerka u żvilupp dwar is-sistemi jew il-mudelli tal-IA qabel ma jitqiegħdu fis-suq jew fis-servizz. Fir-rigward tar-riċerka orjentata lejn il-prodott, l-ittestjar u l-attività ta' żvilupp fir-rigward ta' sistemi jew mudelli tal-IA, id-dispożizzjonijiet ta' dan ir-Regolament jenħtieġ li ma japplikawx ukoll qabel ma dawk is-sistemi u l-mudelli jitqiegħdu fis-servizz jew jiġu introdotti fis-suq. Dik l-esklużjoni hija mingħajr preġudizzju għall-obbligu ta' konformità ma' dan ir-Regolament meta sistema tal-IA li taqa' fil-kamp ta' applikazzjoni ta' dan ir-Regolament tiġi introdotta fis-suq jew titqiegħed fis-servizz bħala riżultat ta' tali attività ta' riċerka u żvilupp u għall-applikazzjoni ta' dispożizzjonijiet dwar ambjenti ta' esperimentazzjoni regolatorja għall-IA u ttestjar fil-kundizzjonijiet tad-dinja reali. Barra minn hekk, mingħajr preġudizzju għall-esklużjoni tas-sistemi tal-IA żviluppati speċifikament u mqiegħda fis-servizz għall-iskop uniku ta' riċerka u żvilupp xjentifiku, jenħtieġ li kwalunkwe sistema oħra tal-IA li tista' tintuża għat-twettiq ta' kwalunkwe attività ta' riċerka u żvilupp tibqa' soġġetta għad-dispożizzjonijiet ta' dan ir-Regolament. Fi kwalunkwe każ, jenħtieġ li kwalunkwe attività ta' riċerka u żvilupp titwettaq f'konformità mal-istandards etiċi u professjonali rikonoxxuti għar-riċerka xjentifika u jenħtieġ li titwettaq f'konformità mal-liġi tal-Unjoni applikabbli.
(25)
Il presente regolamento dovrebbe sostenere l'innovazione, rispettare la libertà della scienza e non dovrebbe pregiudicare le attività di ricerca e sviluppo. È pertanto necessario escludere dal suo ambito di applicazione i sistemi e i modelli di IA specificamente sviluppati e messi in servizio al solo scopo di ricerca e sviluppo scientifici. È inoltre necessario garantire che il regolamento non incida altrimenti sulle attività scientifiche di ricerca e sviluppo relative ai sistemi o modelli di IA prima dell'immissione sul mercato o della messa in servizio. Per quanto riguarda le attività di ricerca, prova e sviluppo orientate ai prodotti relative ai sistemi o modelli di IA, le disposizioni del presente regolamento non dovrebbero nemmeno applicarsi prima che tali sistemi e modelli siano messi in servizio o immessi sul mercato. Tale esclusione non pregiudica l'obbligo di conformarsi al presente regolamento qualora un sistema di IA che rientra nell'ambito di applicazione del presente regolamento sia immesso sul mercato o messo in servizio in conseguenza di tale attività di ricerca e sviluppo, così come non pregiudica l'applicazione delle disposizioni sugli spazi di sperimentazione normativa per l’IA e sulle prove in condizioni reali. Inoltre, fatta salva l'esclusione dei sistemi di IA specificamente sviluppati e messi in servizio solo a scopo di ricerca e sviluppo in ambito scientifico, qualsiasi altro sistema di IA che possa essere utilizzato per lo svolgimento di qualsiasi attività di ricerca e sviluppo dovrebbe rimanere soggetto alle disposizioni del presente regolamento. In ogni caso, qualsiasi attività di ricerca e sviluppo dovrebbe essere svolta conformemente alle norme etiche e professionali riconosciute nell'ambito della ricerca scientifica e dovrebbe essere condotta conformemente al diritto dell'Unione applicabile.
(26)
Biex jiddaħħal sett proporzjonat u effettiv ta' regoli vinkolanti għas-sistemi tal-IA, jenħtieġ jitħaddem approċċ definit b'mod ċar u bbażat fuq ir-riskji. Jenħtieġ li dak l-approċċ ifassal it-tip u l-kontenut ta' dawk ir-regoli skont l-intensità u l-ambitu tar-riskji li jistgħu jiġġeneraw is-sistemi tal-IA. Għalhekk, jeħtieġ li jiġu pprojbiti ċerti prattiki mhux aċċettabbli tal-IA, li jiġu stabbiliti rekwiżiti għal sistemi tal-IA b'riskju għoli u obbligi għall-operaturi rilevanti, u li jiġu stabbiliti obbligi tat-trasparenza għal ċerti sistemi tal-IA.
(26)
Al fine di introdurre un insieme proporzionato ed efficace di regole vincolanti per i sistemi di IA è opportuno avvalersi di un approccio basato sul rischio definito in modo chiaro. Tale approccio dovrebbe adattare la tipologia e il contenuto di dette regole all'intensità e alla portata dei rischi che possono essere generati dai sistemi di IA. È pertanto necessario vietare determinate pratiche di IA inaccettabili, stabilire requisiti per i sistemi di IA ad alto rischio e obblighi per gli operatori pertinenti, nonché obblighi di trasparenza per determinati sistemi di IA.
(27)
Filwaqt li l-approċċ ibbażat fuq ir-riskju huwa l-bażi għal sett proporzjonat u effettiv ta' regoli vinkolanti, huwa importanti li jitfakkru l-Linji gwida tal-2019 dwar l-etika għal IA affidabbli żviluppati mill-AI HLEG maħtur mill-Kummissjoni. F'dawk il-linji gwida l-AI HLEG żviluppa seba' prinċipji etiċi mhux vinkolanti għall-IA li huma maħsuba biex jgħinu li jiġi żgurat li l-IA tkun affidabbli u etikament xierqa. Is-seba' prinċipji jinkludu: intervent u sorveljanza mill-bniedem; robustezza u sikurezza teknika; privatezza u governanza tad-data; trasparenza; diversità, nondiskriminazzjoni u ekwità; benesseri tas-soċjetà u tal-ambjent u responsabbiltà. Mingħajr preġudizzju għar-rekwiżiti legalment vinkolanti ta' dan ir-Regolament u kwalunkwe liġi applikabbli oħra tal-Unjoni, dawk il-linji gwida jikkontribwixxu għat-tfassil ta' IA koerenti, affidabbli u ċċentrata fuq il-bniedem, f'konformità mal-Karta u mal-valuri li fuqhom hija msejsa l-Unjoni. Skont il-linji gwida tal-AI HLEG, intervent u sorveljanza mill-bniedem tfisser li s-sistemi tal-IA jiġu żviluppati u użati bħala għodda li taqdi lin-nies, tirrispetta d-dinjità u l-awtonomija personali tal-bniedem, u li tiffunzjona b'mod li jista' jiġi kkontrollat u ssorveljat mill-bniedem kif xieraq. Robustezza u sikurezza teknika tfisser li s-sistemi tal-IA jiġu żviluppati u użati b'mod li jippermetti r-robustezza fil-każ ta' problemi u reżiljenza kontra tentattivi biex jinbidlu l-użu jew il-prestazzjoni tas-sistema tal-IA biex ikun jista' jsir użu illegali minn partijiet terzi, u tiġi minimizzata l-ħsara mhux intenzjonata. Privatezza u governanza tad-data tfisser li s-sistemi tal-IA jiġu żviluppati u użati f'konformità mar-regoli dwar il-privatezza u l-protezzjoni tad-data, filwaqt li tiġi pproċessata data li tissodisfa standards għoljin mil-lat ta' kwalità u integrità. Trasparenza tfisser li s-sistemi tal-IA jiġu żviluppati u użati b'mod li jippermettu traċċabbiltà u spjegabbiltà xierqa, filwaqt li jiżguraw li l-bnedmin ikunu konxji li qed jikkomunikaw jew jinteraġixxu ma' sistema tal-IA kif ukoll jinfurmaw kif xieraq lill-implimentaturi dwar il-kapaċitajiet u l-limitazzjonijiet ta' dik is-sistema tal-IA u lill-persuni affettwati dwar id-drittijiet tagħhom. Diversità, nondiskriminazzjoni u ġustizzja tfisser li s-sistemi tal-IA jiġu żviluppati u użati b'mod li jinkludi atturi differenti u li jippromwovi aċċess ugwali, ugwaljanza bejn il-ġeneri u diversità kulturali filwaqt li jevita impatti diskriminatorji u preġudizzji inġusti li huma pprojbiti mil-liġi tal-Unjoni jew dik nazzjonali. Benesseri tas-soċjetà u tal-ambjent tfisser li s-sistemi tal-IA jiġu żviluppati u użati b'mod sostenibbli u li ma jagħmilx ħsara lill-ambjent kif ukoll b'mod li jkunu ta' benefiċċju għall-bnedmin kollha, filwaqt li jiġu mmonitorjati u vvalutati l-impatti fit-tul fuq l-individwu, is-soċjetà u d-demokrazija. Jenħtieġ li l-applikazzjoni ta' dawk il-prinċipji tiġi riflessa, meta jkun possibbli, fid-disinn u l-użu tal-mudelli tal-IA. Jenħtieġ li fi kwalunkwe każ iservu bħala bażi għall-abbozzar ta' kodiċijiet ta' kondotta skont dan ir-Regolament. Il-partijiet ikkonċernati kollha, inkluż l-industrija, id-dinja akkademika, is-soċjetà ċivili u l-organizzazzjonijiet tal-istandardizzazzjoni, huma mħeġġa jqisu, kif xieraq, il-prinċipji etiċi għall-iżvilupp tal-aħjar prattiki u standards volontarji.
(27)
Sebbene l'approccio basato sul rischio costituisca la base per un insieme proporzionato ed efficace di regole vincolanti, è importante ricordare gli orientamenti etici per un'IA affidabile del 2019 elaborati dall'AI HLEG indipendente nominato dalla Commissione. In tali orientamenti l'AI HLEG ha elaborato sette principi etici non vincolanti per l'IA che sono intesi a contribuire a garantire che l'IA sia affidabile ed eticamente valida. I sette principi comprendono: intervento e sorveglianza umani, robustezza tecnica e sicurezza, vita privata e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale e ambientale e responsabilità. Fatti salvi i requisiti giuridicamente vincolanti del presente regolamento e di qualsiasi altra disposizione di diritto dell'Unione applicabile, tali orientamenti contribuiscono all'elaborazione di un'IA coerente, affidabile e antropocentrica, in linea con la Carta e con i valori su cui si fonda l'Unione. Secondo gli orientamenti dell'AI HLEG con «intervento e sorveglianza umani» si intende che i sistemi di IA sono sviluppati e utilizzati come strumenti al servizio delle persone, nel rispetto della dignità umana e dell'autonomia personale, e funzionano in modo da poter essere adeguatamente controllati e sorvegliati dagli esseri umani. Con «robustezza tecnica e sicurezza» si intende che i sistemi di IA sono sviluppati e utilizzati in modo da consentire la robustezza nel caso di problemi e resilienza contro i tentativi di alterare l'uso o le prestazioni del sistema di IA in modo da consentire l'uso illegale da parte di terzi e ridurre al minimo i danni involontari. Con «vita privata e governance dei dati» si intende che i sistemi di IA sono sviluppati e utilizzati nel rispetto delle norme in materia di vita privata e protezione dei dati, elaborando al contempo dati che soddisfino livelli elevati in termini di qualità e integrità. Con «trasparenza» si intende che i sistemi di IA sono sviluppati e utilizzati in modo da consentire un'adeguata tracciabilità e spiegabilità, rendendo gli esseri umani consapevoli del fatto di comunicare o interagire con un sistema di IA e informando debitamente i deployer delle capacità e dei limiti di tale sistema di IA e le persone interessate dei loro diritti. Con «diversità, non discriminazione ed equità» si intende che i sistemi di IA sono sviluppati e utilizzati in modo da includere soggetti diversi e promuovere la parità di accesso, l'uguaglianza di genere e la diversità culturale, evitando nel contempo effetti discriminatori e pregiudizi ingiusti vietati dal diritto dell'Unione o nazionale. Con «benessere sociale e ambientale» si intende che i sistemi di IA sono sviluppati e utilizzati in modo sostenibile e rispettoso dell'ambiente e in modo da apportare benefici a tutti gli esseri umani, monitorando e valutando gli impatti a lungo termine sull'individuo, sulla società e sulla democrazia. L'applicazione di tali principi dovrebbe essere tradotta, ove possibile, nella progettazione e nell'utilizzo di modelli di IA. Essi dovrebbero in ogni caso fungere da base per l'elaborazione di codici di condotta a norma del presente regolamento. Tutti i portatori di interessi, compresi l'industria, il mondo accademico, la società civile e le organizzazioni di normazione, sono incoraggiati a tenere conto, se del caso, dei principi etici per lo sviluppo delle migliori pratiche e norme volontarie.
(28)
Minbarra l-bosta użi ta' benefiċċju tal-IA, din tista' tintuża ħażin ukoll u tipprovdi għodod ġodda u b'saħħithom għal prattiki manipulattivi, ta' sfruttament u ta' kontroll soċjali. Dawn il-prattiki huma partikolarment ta' ħsara u abbużivi u jenħtieġ li jiġu pprojbiti għax imorru kontra l-valuri tal-Unjoni ta' rispett għad-dinjità umana, libertà, ugwaljanza, demokrazija u l-istat tad-dritt u d-drittijiet fundamentali minquxa fil-Karta, fosthom id-dritt ta' nondiskriminazzjoni, għal protezzjoni tad-data u għal privatezza u d-drittijiet tat-tfal.
(28)
L'IA presenta, accanto a molti utilizzi benefici, la possibilità di essere utilizzata impropriamente e di fornire strumenti nuovi e potenti per pratiche di manipolazione, sfruttamento e controllo sociale. Tali pratiche sono particolarmente dannose e abusive e dovrebbero essere vietate poiché sono contrarie ai valori dell'Unione relativi al rispetto della dignità umana, alla libertà, all'uguaglianza, alla democrazia e allo Stato di diritto e ai diritti fondamentali sanciti dalla Carta, compresi il diritto alla non discriminazione, alla protezione dei dati e alla vita privata e i diritti dei minori.
(29)
Tekniki manipulattivi bbażati fuq l-IA jistgħu jintużaw biex jipperswadu lin-nies jinvolvu ruħhom f'imġiba mhux mixtieqa, jew biex iqarrqu bihom billi jġiegħluhom jieħdu deċiżjonijiet b'mod li jimmina u jfixkel l-awtonomija, it-teħid ta' deċiżjonijiet u l-għażliet liberi tagħhom. L-introduzzjoni fis-suq, it-tqegħid fis-servizz jew l-użu ta' ċerti sistemi tal-IA bl-objettiv jew bl-effett li jfixklu materjalment l-imġiba tal-bniedem, fejn x'aktarx isseħħ ħsara sinifikanti, b'mod partikolari li jkollhom impatti negattivi importanti biżżejjed fuq is-saħħa fiżika, psikoloġika jew fuq l-interessi finanzjarji, ikunu partikolarment perikolużi u għalhekk jenħtieġ li jiġu pprojbiti. Tali sistemi tal-IA jimplimentaw komponenti subliminali bħall-awdjo, immaġni jew vidjo li l-persuni ma jistgħux jipperċepixxu, peress li dawk l-istimuli jmorru lil hinn mill-perċezzjoni tal-bniedem, jew tekniki manipulattivi jew qarrieqa oħra li jdgħajfu jew ifixklu l-awtonomija, it-teħid ta' deċiżjonijiet jew l-għażla libera tal-persuna b'modi li n-nies ma jkunux konxji ta’ dawn it-tekniki jew, fejn ikunu konxji tagħhom, xorta waħda jkunu ingannati jew ma jkunux jistgħu jikkontrollawhom jew jirreżistuhom. Dan jista' jkun iffaċilitat, pereżempju, minn interfaċċi bejn il-moħħ u l-magna jew realtà virtwali peress li jippermettu livell ogħla ta' kontroll ta' liema stimuli jiġu ppreżentati lill-persuni, sa fejn dawn jistgħu jfixklu materjalment l-imġiba tagħhom b'mod li jagħmel ħsara sinifikanti. Barra minn hekk, is-sistemi tal-IA jistgħu jisfruttaw ukoll il-vulnerabbiltajiet ta' persuna jew ta' grupp speċifiku ta' persuni minħabba l-età tagħhom, diżabbiltà skont it-tifsira tad-Direttiva (UE) 2019/882 tal-Parlament Ewropew u tal-Kunsill (16), jew sitwazzjoni soċjali jew ekonomika speċifika li x'aktarx tirrendi lil dawk il-persuni aktar vulnerabbli għal sfruttament bħal persuni li jgħixu f'faqar estrem u minoranzi etniċi jew reliġjużi. Tali sistemi tal-IA jistgħu jiġu introdotti fis-suq, jitqiegħdu fis-servizz jew jintużaw bl-objettiv jew bl-effett li jfixklu materjalment l-imġiba ta' persuna u b'mod li jikkawżaw jew li raġonevolment x'aktarx jikkawżaw ħsara sinifikanti lil dik il-persuna jew lil persuna jew gruppi oħra ta' persuni, inkluż ħsara li tista' takkumula maż-żmien, u għalhekk jenħtieġ li jiġu pprojbiti. Jista' ma jkunx possibbli li wieħed jassumi li hemm intenzjoni ta' tfixkil tal-imġiba meta t-tfixkil jirriżulta minn fatturi esterni għas-sistema tal-IA li huma barra mill-kontroll tal-fornitur jew tal-implimentatur, jiġifieri fatturi li jistgħu ma jkunux raġonevolment prevedibbli u għalhekk mhux possibbli għall-fornitur jew għall-implimentatur tas-sistema tal-IA biex jimmitiga. Fi kwalunkwe każ, ma huwiex meħtieġ li l-fornitur jew l-implimentatur ikollhom l-intenzjoni li jikkawżaw ħsara sinifikanti, dment li tali ħsara ma tirriżultax mill-prattiki manipulattivi jew ta' sfruttament li ġejjin mill-IA. Il-projbizzjonijiet għal tali prattiki tal-IA huma komplementari għad-dispożizzjonijiet li jinsabu fid-Direttiva 2005/29/KE tal-Parlament Ewropew u tal-Kunsill (17), b'mod partikolari prattiki kummerċjali inġusti li jwasslu għal ħsara ekonomika jew finanzjarja għall-konsumaturi huma pprojbiti fiċ-ċirkostanzi kollha, irrispettivament minn jekk jiġux stabbiliti permezz ta' sistemi tal-IA jew b'xi mod ieħor. Jenħtieġ li l-projbizzjonijiet ta' prattiki manipulattivi u ta' sfruttament f'dan ir-Regolament ma jaffettwaw il-prattiki legali fil-kuntest ta' trattament mediku bħat-trattament psikoloġiku ta' marda mentali jew ir-riabilitazzjoni fiżika, meta dawk il-prattiki jitwettqu f'konformità mal-liġi u l-istandards mediċi applikabbli, pereżempju l-kunsens espliċitu tal-individwi jew tar-rappreżentanti legali tagħhom. Barra minn hekk, jenħtieġ li l-prattiki kummerċjali komuni u leġittimi, pereżempju fil-qasam tar-reklamar, li jikkonformaw mal-liġi applikabbli ma jitqisux fihom infushom bħala li jikkostitwixxu prattiki manipulattivi li jagħmlu ħsara li ġejjin mill-IA.
(29)
Le tecniche di manipolazione basate sull'IA possono essere utilizzate per persuadere le persone ad adottare comportamenti indesiderati o per indurle con l'inganno a prendere decisioni in modo da sovvertirne e pregiudicarne l'autonomia, il processo decisionale e la libera scelta. L'immissione sul mercato, la messa in servizio o l'uso di determinati sistemi di IA con l'obiettivo o l'effetto di distorcere materialmente il comportamento umano, con il rischio di causare danni significativi, in particolare aventi effetti negativi sufficientemente importanti sulla salute fisica, psicologica o sugli interessi finanziari, sono particolarmente pericolosi e dovrebbero pertanto essere vietati. Tali sistemi di IA impiegano componenti subliminali quali stimoli audio, grafici e video che le persone non sono in grado di percepire poiché tali stimoli vanno al di là della percezione umana o altre tecniche manipolative o ingannevoli che sovvertono o pregiudicano l'autonomia, il processo decisionale o la libera scelta di una persona senza che sia consapevole di tali tecniche o, se ne è consapevole, senza che sia in grado di controllarle o resistervi o possa evitare l'inganno. Ciò potrebbe essere facilitato, ad esempio, da interfacce cervello-computer o dalla realtà virtuale, in quanto queste consentono un livello più elevato di controllo degli stimoli presentati alle persone, nella misura in cui possono distorcerne materialmente il comportamento in modo significativamente nocivo. In aggiunta, i sistemi di IA possono inoltre sfruttare in altro modo le vulnerabilità di una persona o di uno specifico gruppo di persone dovute all'età, a disabilità ai sensi della direttiva (UE) 2019/882 del Parlamento europeo e del Consiglio (16) o a una specifica situazione sociale o economica che potrebbe rendere tali persone più vulnerabili allo sfruttamento, come le persone che vivono in condizioni di povertà estrema e le minoranze etniche o religiose. Tali sistemi di IA possono essere immessi sul mercato, messi in servizio o utilizzati con l'obiettivo o l'effetto di distorcere materialmente il comportamento di una persona e in un modo che provochi o possa verosimilmente provocare a tale persona o a un'altra persona o gruppo di persone un danno significativo, compresi danni che possono essere accumulati nel tempo, e dovrebbero pertanto essere vietati. Potrebbe non essere possibile presumere che vi sia l'intenzione di distorcere il comportamento qualora la distorsione sia determinata da fattori esterni al sistema di IA, che sfuggono al controllo del fornitore o del deployer, ossia fattori che non possono essere ragionevolmente prevedibili e non possono quindi essere attenuati dal fornitore o dal deployer del sistema di IA. In ogni caso, non è necessario che il fornitore o il deployer abbiano l'intento di provocare un danno significativo, purché tale danno derivi da pratiche manipolative o di sfruttamento consentite dall'IA. Il divieto di tali pratiche di IA è complementare alle disposizioni contenute nella direttiva 2005/29/CE del Parlamento europeo e del Consiglio (17), in particolare le pratiche commerciali sleali che comportano danni economici o finanziari per i consumatori sono vietate in ogni circostanza, indipendentemente dal fatto che siano attuate attraverso sistemi di IA o in altro modo. I divieti di pratiche manipolative e di sfruttamento di cui al presente regolamento non dovrebbero pregiudicare le pratiche lecite nel contesto di trattamenti medici, quali il trattamento psicologico di una malattia mentale o la riabilitazione fisica, quando tali pratiche sono svolte conformemente al diritto applicabile e alle norme in ambito medico, ad esempio il consenso esplicito delle persone fisiche o dei loro rappresentanti legali. Inoltre, le pratiche commerciali comuni e legittime, ad esempio nel settore della pubblicità, che sono conformi alla normativa applicabile non dovrebbero essere considerate di per sé come pratiche consentite dall’IA manipolative o dannose.
(30)
Jenħtieġ li jiġu pprojbiti s-sistemi ta' kategorizzazzjoni bijometrika li huma bbażati fuq id-data bijometrika tal-persuni fiżiċi, bħall-wiċċ jew il-marka tas-swaba' ta' persuna individwali, biex jiddeduċu jew jinferixxu l-opinjonijiet politiċi ta' individwu, is-sħubija fi trade union, it-twemmin reliġjuż jew filosofiku, ir-razza, il-ħajja sesswali jew l-orjentazzjoni sesswali. Jenħtieġ li dik il-projbizzjoni ma tkoprix it-tikkettar, il-filtrazzjoni jew il-kategorizzazzjoni legali ta' settijiet ta' data bijometriċi miksuba f'konformità mal-liġi tal-Unjoni jew dik nazzjonali skont id-data bijometrika, bħall-issortjar ta' immaġnijiet skont il-kulur tax-xagħar jew il-kulur tal-għajnejn, li jistgħu jintużaw pereżempju fil-qasam tal-infurzar tal-liġi.
(30)
Dovrebbero essere vietati i sistemi di categorizzazione biometrica basati sui dati biometrici di persone fisiche, quali il volto o le impronte digitali, per trarre deduzioni o inferenze in merito alle opinioni politiche, all'appartenenza sindacale, alle convinzioni religiose o filosofiche, alla razza, alla vita sessuale o all'orientamento sessuale di una persona. Tale divieto non dovrebbe riguardare l'etichettatura, il filtraggio o la categorizzazione legali dei set di dati biometrici acquisiti in linea con il diritto dell'Unione o nazionale in funzione dei dati biometrici, come la selezione di immagini in base al colore dei capelli o degli occhi, che possono essere utilizzati, ad esempio, nel settore delle attività di contrasto.
(31)
Sistemi tal-IA li jipprovdu punteġġ għaċ-ċittadini minn atturi pubbliċi jew privati fir-rigward ta' persuni fiżiċi jistgħu jwasslu għal eżiti diskriminatorji u għall-esklużjoni ta' ċerti gruppi. Jistgħu jiksru d-dritt għad-dinjità u ta' nondiskriminazzjoni u l-valuri tal-ugwaljanza u tal-ġustizzja. Tali sistemi tal-IA jevalwaw jew jikklassifikaw persuni fiżiċi jew gruppi ta' persuni abbażi ta' diversi punti tad-data relatati mal-imġiba soċjali tagħhom f'kuntesti multipli jew karatteristiċi personali jew tal-personalità magħrufa, inferiti jew imbassrin matul ċerti perjodi ta' żmien. Il-punteġġ għaċ-ċittadini miksub minn dawn is-sistemi tal-IA jista' jwassal għal trattament detrimentali jew mhux favorevoli ta' persuni fiżiċi jew ta' gruppi sħaħ tagħhom f'kuntesti soċjali, li ma jkunux marbuta mal-kuntest li fih kienet oriġinarjament iġġenerata jew inġabret id-data, jew għal trattament detrimentali sproporzjonat jew mhux iġġustifikat għall-gravità tal-imġiba soċjali tagħhom. Għalhekk, jenħtieġ li jiġu pprojbiti s-sistemi tal-IA li jinvolvu prattiki ta' punteġġ inaċċettabbli u li jwasslu għal tali eżiti detrimentali jew mhux favorevoli. Jenħtieġ li dik il-projbizzjoni ma taffettwax il-prattiki ta' evalwazzjoni legali ta' persuni fiżiċi li jitwettqu għal skop speċifiku f'konformità mal-liġi tal-Unjoni u nazzjonali.
(31)
I sistemi di IA che permettono ad attori pubblici o privati di attribuire un punteggio sociale alle persone fisiche possono portare a risultati discriminatori e all'esclusione di determinati gruppi. Possono inoltre ledere il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia. Tali sistemi di IA valutano o classificano le persone fisiche o i gruppi di persone fisiche sulla base di vari punti di dati riguardanti il loro comportamento sociale in molteplici contesti o di caratteristiche personali o della personalità note, inferite o previste nell'arco di determinati periodi di tempo. Il punteggio sociale ottenuto da tali sistemi di IA può determinare un trattamento pregiudizievole o sfavorevole di persone fisiche o di interi gruppi in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti, o a un trattamento pregiudizievole che risulta ingiustificato o sproporzionato rispetto alla gravità del loro comportamento sociale. I sistemi di IA che comportano tali pratiche inaccettabili di punteggio aventi risultati pregiudizievoli o sfavorevoli dovrebbero pertanto essere vietati. Tale divieto non dovrebbe pregiudicare le pratiche lecite di valutazione delle persone fisiche effettuate per uno scopo specifico in conformità del diritto dell'Unione e nazionale.
(32)
L-użu tas-sistemi tal-IA għall-identifikazzjoni bijometrika remota “fil-ħin reali” ta' persuni fiżiċi fi spazji aċċessibbli għall-pubbliku għall-finijiet ta' infurzar tal-liġi huwa partikolarment intrużiv għad-drittijiet u l-libertajiet tal-persuni kkonċernati, peress li dan jista' jaffettwa l-ħajja privata ta' parti kbira tal-popolazzjoni, jevoka sentiment ta' sorveljanza kostanti u indirettament jiddisswadi l-eżerċitar tal-libertà ta' għaqda u ta' drittijiet fundamentali oħra. L-inakkuratezzi tekniċi tas-sistemi tal-IA maħsuba għall-identifikazzjoni bijometrika remota ta' persuni fiżiċi jistgħu jwasslu għal riżultati preġudikati u jħallu effetti diskriminatorji. Tali riżultati preġudikati possibbli u effetti diskriminatorji huma partikolarment rilevanti fir-rigward tal-età, l-etniċità, ir-razza, is-sess jew id-diżabilitajiet. Barra minn hekk, l-immedjatezza tal-impatt u l-opportunitajiet limitati għal aktar kontrolli jew korrezzjonijiet fir-rigward tal-użu ta' dawn is-sistemi li joperaw fil-ħin reali jinvolvu riskji akbar għad-drittijiet u l-libertajiet tal-persuni kkonċernati fil-kuntest ta’, jew l-impatt mill-attivitajiet tal-infurzar tal-liġi.
(32)
L'uso di sistemi di IA di identificazione biometrica remota «in tempo reale» delle persone fisiche in spazi accessibili al pubblico a fini di attività di contrasto è particolarmente invasivo dei diritti e delle libertà delle persone interessate, nella misura in cui potrebbe avere ripercussioni sulla vita privata di un'ampia fetta della popolazione, farla sentire costantemente sotto sorveglianza e scoraggiare in maniera indiretta l'esercizio della libertà di riunione e di altri diritti fondamentali. Le inesattezze di carattere tecnico dei sistemi di IA destinati all'identificazione biometrica remota delle persone fisiche possono determinare risultati distorti e comportare effetti discriminatori. Tali possibili risultati distorti ed effetti discriminatori sono particolarmente importanti per quanto riguarda l'età, l'etnia, la razza, il sesso o le disabilità. L'immediatezza dell'impatto e le limitate opportunità di eseguire ulteriori controlli o apportare correzioni in relazione all'uso di tali sistemi che operano «in tempo reale» comportano inoltre un aumento dei rischi per quanto concerne i diritti e le libertà delle persone interessate nell’ambito delle attività di contrasto, o che sono da queste condizionate.
(33)
Għalhekk, jenħtieġ li l-użu ta' dawk is-sistemi għall-finijiet ta' infurzar tal-liġi jiġi pprojbit, minbarra f'sitwazzjonijiet elenkati b'mod eżawrjenti u definiti b'mod ristrett, meta l-użu hu strettament meħtieġ biex jinkiseb interess pubbliku sostanzjali li l-importanza tiegħu tisboq ir-riskji. Dawk is-sitwazzjonijiet jinvolvu t-tiftix għal ċerti vittmi tal-kriminalità inkluż il-persuni neqsin; ċerti theddidiet għall-ħajja jew għas-sikurezza fiżika ta' persuni fiżiċi jew ta' attakk terroristiku; u l-lokalizzazzjoni jew l-identifikazzjoni ta' awturi jew suspettati tar-reati kriminali elenkati f'anness ta' dan ir-Regolament, fejn dawk ir-reati kriminali jkunu punibbli fl-Istat Membru kkonċernat b'piena li ċċaħħad il-libertà jew b'ordni ta' detenzjoni għal perjodu massimu ta' mill-inqas erba' snin, u kif inhuma definiti fil-liġi ta' dak l-Istat Membru. Tali limitu fil-piena li ċċaħħad il-libertà jew l-ordni ta' detenzjoni f'konformità mal-liġi nazzjonali jikkontribwixxi biex jiġi żgurat li r-reat jenħtieġ li jkun serju biżżejjed biex potenzjalment jiġġustifika l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali”. Barra minn hekk, il-lista ta’ reati kriminali pprovduta f’anness ta’ dan ir-Regolament hija bbażata fuq it-32 reat kriminali elenkati fid-Deċiżjoni Qafas tal-Kunsill 2002/584/ĠAI (18), b'kont meħud li xi wħud minn dawk ir-reati aktarx li fil-prattika jkunu aktar rilevanti minn oħrajn, fis-sens li r-rikors għal identifikazzjoni bijometrika remota “fil-ħin reali” jkun prevedibbilment meħtieġ u proporzjonat sa gradi varji ħafna biex fil-prattika jkun hemm il-lokalizzazzjoni jew l-identifikazzjoni ta' awtur ta' reat kriminali jew ta' persuna suspettata b'reati kriminali differenti elenkati u b'kunsiderazzjoni tad-differenzi li x'aktarx ikun hemm fil-gravità, fil-probabbiltà u fl-iskala tal-ħsara jew tal-konsegwenzi negattivi possibbli. Theddida imminenti għall-ħajja jew għas-sikurezza fiżika ta' persuni fiżiċi tista' tirriżulta wkoll minn tfixkil serju tal-infrastruttura kritika, kif definit fl-Artikolu 2, il-punt (4) tad-Direttiva (UE) 2022/2557 tal-Parlament Ewropew u tal-Kunsill (19), fejn it-tfixkil jew il-qerda ta' tali infrastruttura kritika tirriżulta f'theddida imminenti għall-ħajja jew għas-sikurezza fiżika ta' persuna, inkluż permezz ta' dannu serju għall-forniment ta' provvisti bażiċi lill-popolazzjoni jew għall-eżerċizzju tal-funzjoni ewlenija tal-Istat. Barra minn hekk, jenħtieġ li dan ir-Regolament jippreserva l-kapaċità tal-awtoritajiet tal-infurzar tal-liġi, tal-kontroll fil-fruntieri, tal-immigrazzjoni jew tal-ażil li jwettqu verifiki tal-identità fil-preżenza tal-persuna kkonċernata f'konformità mal-kundizzjonijiet stipulati fil-liġi tal-Unjoni u f'dik nazzjonali għal tali verifiki. B'mod partikolari, jenħtieġ li l-awtoritajiet tal-infurzar tal-liġi, tal-kontroll fil-fruntiera, tal-immigrazzjoni jew tal-ażil ikunu jistgħu jużaw sistemi ta' informazzjoni, f'konformità mal-liġi tal-Unjoni jew dik nazzjonali, biex jidentifikaw persuni li, matul kontroll tal-identità, jew jirrifjutaw li jiġu identifikati jew ma jkunux jistgħu jiddikjaraw jew jagħtu prova tal-identità tagħhom, mingħajr ma tkun meħtieġa minn dan ir-Regolament li tikseb awtorizzazzjoni minn qabel. Din tista' tkun, pereżempju, persuna involuta f'reat, li ma tkunx trid, jew ma tkunx tista', minħabba aċċident jew kundizzjoni medika, tiddivulga l-identità tagħha lill-awtoritajiet tal-infurzar tal-liġi.
(33)
L'uso di tali sistemi a fini di attività di contrasto dovrebbe pertanto essere vietato, eccezion fatta per le situazioni elencate in modo esaustivo e definite rigorosamente, nelle quali l'uso è strettamente necessario per perseguire un interesse pubblico rilevante, la cui importanza prevale sui rischi. Tali situazioni comprendono la ricerca di determinate vittime di reato, comprese le persone scomparse, determinate minacce per la vita o l'incolumità fisica delle persone fisiche o un attacco terroristico nonché la localizzazione o l'identificazione degli autori o dei sospettati di reati elencati nell'allegato del presente regolamento qualora tali reati siano punibili nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà personale della durata massima di almeno quattro anni e sono definiti conformemente al diritto di tale Stato membro. Tale soglia per la pena o la misura di sicurezza privativa della libertà personale in conformità del diritto nazionale contribuisce a garantire che il reato sia sufficientemente grave da giustificare potenzialmente l'uso di sistemi di identificazione biometrica remota «in tempo reale». Inoltre, l’elenco dei reati di cui all’allegato del presente regolamento è basato sui 32 reati elencati nella decisione quadro 2002/584/GAI del Consiglio (18), tenendo conto che alcuni reati risultano più pertinenti di altri, poiché il grado di necessità e proporzionalità del ricorso all'identificazione biometrica remota «in tempo reale» potrebbe essere prevedibilmente molto variabile per quanto concerne il perseguimento pratico della localizzazione o dell'identificazione nei confronti di un autore o un sospettato dei vari reati elencati e con riguardo alle possibili differenze in termini di gravità, probabilità e portata del danno o delle eventuali conseguenze negative. Una minaccia imminente per la vita o l'incolumità fisica delle persone fisiche potrebbe anche derivare da un grave danneggiamento dell'infrastruttura critica quale definita all'articolo 2, punto 4, della direttiva (UE) 2022/2557 del Parlamento europeo e del Consiglio (19), ove il danneggiamento o la distruzione di tale infrastruttura critica possa comportare una minaccia imminente per la vita o l'integrità fisica di una persona, anche in ragione di un grave danno alla fornitura di forniture di base alla popolazione o all'esercizio della funzione essenziale dello Stato. Il presente regolamento dovrebbe altresì preservare la capacità delle autorità competenti in materia di contrasto, di controllo delle frontiere, di immigrazione o di asilo di svolgere controlli d'identità in presenza della persona interessata, conformemente alle condizioni stabilite per tali controlli dal diritto dell'Unione e nazionale. In particolare, le autorità competenti in materia di contrasto, di controllo delle frontiere, di immigrazione o di asilo dovrebbero poter utilizzare i sistemi di informazione, conformemente al diritto dell'Unione o nazionale, per identificare le persone che, durante un controllo d'identità, rifiutano di essere identificate o non sono in grado di dichiarare o dimostrare la loro identità, senza essere tenute, a norma del presente regolamento, a ottenere un'autorizzazione preventiva. Potrebbe trattarsi, ad esempio, di una persona coinvolta in un reato che, a causa di un incidente o di un problema di salute, non vuole rivelare la propria identità alle autorità di contrasto o non è in grado di farlo.
(34)
Biex ikun żgurat li dawk is-sistemi jintużaw b'mod responsabbli u proporzjonat, hu importanti wkoll li jiġi stabbilit li, f'kull waħda minn dawk is-sitwazzjonijiet elenkati b'mod eżawrjenti u definiti b'mod ristrett, jenħtieġ jitqiesu ċerti elementi, b'mod partikolari fir-rigward tan-natura tas-sitwazzjoni li twassal għat-talba u l-konsegwenzi tal-użu għad-drittijiet u għal-libertajiet tal-persuni kollha kkonċernati u s-salvagwardji u l-kundizzjonijiet previsti fl-użu. Barra minn hekk, jenħtieġ li l-użu tas-sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għal finijiet ta' infurzar tal-liġi jiġi implimentat biss biex jikkonferma l-identità tal-individwu fil-mira b'mod speċifiku u jenħtieġ li jkun limitat għal dak li huwa strettament meħtieġ fir-rigward tal-perjodu ta' żmien, kif ukoll il-kamp ta' applikazzjoni ġeografiku u personali, filwaqt li jitqiesu b'mod partikolari l-evidenza jew l-indikazzjonijiet rigward it-theddid, il-vittmi jew l-awtur. Jenħtieġ li l-użu tas-sistema ta’ identifikazzjoni bijometrika remota fil-ħin reali fi spazji aċċessibbli għall-pubbliku jiġi awtorizzat biss jekk l-awtorità rilevanti tal-infurzar tal-liġi tkun lestiet valutazzjoni tal-impatt fuq id-drittijiet fundamentali u, sakemm ma jkunx previst mod ieħor f'dan ir-Regolament, tkun irreġistrat is-sistema fil-bażi tad-data kif stipulat f'dan ir-Regolament. Jenħtieġ li l-bażi ta' data ta' referenza tal-persuni tkun adattata għal kull każ ta' użu f'kull waħda mis-sitwazzjonijiet imsemmija hawn fuq.
(34)
Al fine di garantire che tali sistemi siano utilizzati in modo responsabile e proporzionato, è altresì importante stabilire che, in ciascuna delle situazioni elencate in modo esaustivo e definite rigorosamente, è opportuno tener conto di taluni elementi, in particolare per quanto riguarda la natura della situazione all'origine della richiesta e le conseguenze dell'uso per i diritti e le libertà di tutte le persone interessate, nonché le tutele e le condizioni previste per l'uso. L'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto dovrebbe inoltre essere impiegato solo per confermare l'identità della persona specificamente interessata e dovrebbe essere limitato a quanto strettamente necessario per quanto riguarda il periodo di tempo e l'ambito geografico e personale, con particolare riguardo a indicazioni o elementi probatori relativi a minacce, vittime o autori di reati. L'uso del sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico dovrebbe essere autorizzato solo se l'autorità di contrasto pertinente ha completato una valutazione d'impatto sui diritti fondamentali e, salvo disposizione contraria del presente regolamento, ha registrato il sistema nella banca dati di cui al presente regolamento. La banca dati di riferimento delle persone dovrebbe risultare adeguata per ogni caso d'uso in ciascuna delle situazioni di cui sopra.
(35)
Jenħtieġ li kull użu tas-sistema ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għal finijiet ta' infurzar tal-liġi jkun soġġett għal awtorizzazzjoni espliċita u speċifika minn awtorità ġudizzjarja jew minn awtorità amministrattiva indipendenti ta' Stat Membru li d-deċiżjoni tagħha tkun vinkolanti. Jenħtieġ li tali awtorizzazzjoni fil-prinċipju tinkiseb qabel l-użu tas-sistema tal-IA bil-ħsieb li tiġi identifikata persuna jew persuni. Jenħtieġ li jitħallew isiru eċċezzjonijiet għal dik ir-regola f'sitwazzjonijiet debitament ġustifikati abbażi ta' urġenza, jiġifieri, f'sitwazzjonijiet meta l-ħtieġa li tintuża s-sistema kkonċernata tkun tali li tagħmilha effettivament u oġġettivament impossibbli li tinkiseb awtorizzazzjoni qabel ma jibda l-użu tas-sistema tal-IA. Jenħtieġ li f'sitwazzjonijiet ta' urġenza bħal dawn, l-użu tas-sistema tal-IA jkun ristrett għall-minimu assolut meħtieġ u jenħtieġ li jkun soġġett għal salvagwardji u għal kundizzjonijiet xierqa, kif determinati fil-liġi nazzjonali u speċifikati fil-kuntest ta' kull każ individwali ta' użu urġenti mill-awtorità tal-infurzar tal-liġi nnifisha. Barra minn hekk, jenħtieġ li f'sitwazzjonijiet bħal dawn l-awtorità tal-infurzar tal-liġi titlob tali awtorizzazzjoni filwaqt li tipprovdi r-raġunijiet għaliex ma setgħetx titlobha qabel, mingħajr dewmien żejjed u f'mhux aktar tard minn 24 siegħa. Jekk tali awtorizzazzjoni tiġi rrifjutata, jenħtieġ li l-użu ta' sistemi ta’ identifikazzjoni bijometrika f'ħin reali marbuta ma' dik l-awtorizzazzjoni jitwaqqaf b'effett immedjat u jenħtieġ li d-data kollha relatata ma' dan l-użu titwarrab u titħassar. Din id-data tinkludi data tal-input miksuba direttament minn sistema tal-IA waqt l-użu ta' tali sistema kif ukoll ir-riżultati u l-outputs tal-użu marbut ma' dik l-awtorizzazzjoni. Jenħtieġ li ma tinkludix input li jkun miksub legalment f'konformità ma' liġi tal-Unjoni jew nazzjonali oħra. Fi kwalunkwe każ, jenħtieġ li l-ebda deċiżjoni li tipproduċi effett legali negattiv fuq persuna ma tittieħed biss abbażi tal-output tas-sistema ta’ identifikazzjoni bijometrika remota.
(35)
È opportuno subordinare ogni uso di un sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto a un'autorizzazione esplicita e specifica da parte di un'autorità giudiziaria o di un'autorità amministrativa indipendente di uno Stato membro la cui decisione sia vincolante. Tale autorizzazione dovrebbe, in linea di principio, essere ottenuta prima dell'uso del sistema di IA al fine di identificare una o più persone. Eccezioni a tale regola dovrebbero essere ammesse in situazioni di urgenza debitamente giustificate, vale a dire le situazioni in cui la necessità di utilizzare i sistemi interessati è tale da far sì che sia effettivamente e oggettivamente impossibile ottenere un'autorizzazione prima di iniziare a utilizzare il sistema di IA. In tali situazioni di urgenza, è opportuno limitare l'uso del sistema di IA al minimo indispensabile e subordinarlo a tutele e condizioni adeguate, come stabilito dal diritto nazionale e specificato nel contesto di ogni singolo caso d'uso urgente dall'autorità di contrasto stessa. In tali situazioni, inoltre, l'autorità di contrasto dovrebbe richiedere tale autorizzazione, indicando contestualmente i motivi per cui non ha potuto richiederla prima, senza indebito ritardo e al più tardi entro 24 ore. Se tale autorizzazione è respinta, l'uso dei sistemi di identificazione biometrica «in tempo reale» collegati a tale autorizzazione dovrebbe essere interrotto con effetto immediato e tutti i dati relativi a tale uso dovrebbero essere eliminati e cancellati. Tali dati comprendono i dati di input acquisiti direttamente da un sistema di IA nel corso dell'uso di tale sistema, nonché i risultati e gli output dell'uso connessi a tale autorizzazione. Non dovrebbero includere gli input acquisiti legalmente in conformità di altre disposizioni del diritto dell'Unione o nazionale. In ogni caso, nessuna decisione che produca effetti giuridici negativi su una persona dovrebbe essere presa unicamente sulla base dell'output del sistema di identificazione biometrica remota.
(36)
Sabiex iwettqu l-kompiti tagħhom f'konformità mar-rekwiżiti stipulati f'dan ir-Regolament kif ukoll fir-regoli nazzjonali, jenħtieġ li l-awtorità tas-sorveljanza tas-suq rilevanti u l-awtorità nazzjonali għall-protezzjoni tad-data jiġu nnotifikati b'kull użu tas-sistema ta’ identifikazzjoni bijometrika f'ħin reali. Jenħtieġ li l-awtoritajiet tas-sorveljanza tas-suq u l-awtoritajiet nazzjonali tal-protezzjoni tad-data li jkunu ġew innotifikati jippreżentaw rapport annwali lill-Kummissjoni dwar l-użu tas-sistemi ta’ identifikazzjoni bijometrika f'ħin reali.
(36)
Affinché svolgano i loro compiti conformemente alle prescrizioni del presente regolamento e alle norme nazionali, è opportuno notificare alla pertinente autorità di vigilanza del mercato e all'autorità nazionale per la protezione dei dati ogni uso del sistema di identificazione biometrica «in tempo reale». Le autorità di vigilanza del mercato e le autorità nazionali per la protezione dei dati che sono state notificate dovrebbero presentare alla Commissione una relazione annuale sull'uso dei sistemi di identificazione biometrica «in tempo reale».
(37)
Barra minn hekk, jixraq li, fi ħdan il-qafas eżawrjenti stabbilit b'dan ir-Regolament, jenħtieġ li jkun previst li dan l-użu fit-territorju ta' Stat Membru f'konformità ma' dan ir-Regolament ikun possibbli biss meta u sa fejn l-Istat Membru kkonċernat ikun iddeċieda li jipprevedi b'mod espliċitu l-possibbiltà li jawtorizza dan l-użu fir-regoli dettaljati tiegħu tal-liġi nazzjonali. Għaldaqstant, l-Istati Membri huma liberi skont dan ir-Regolament li ma jipprevedu l-ebda possibbiltà bħal din jew li jipprevedu biss din il-possibbiltà fir-rigward ta' wħud mill-objettivi li jistgħu jiġġustifikaw l-użu awtorizzat identifikat f'dan ir-Regolament. Jenħtieġ li tali regoli nazzjonali jiġu nnotifikati lill-Kummissjoni fi żmien 30 jum mill-adozzjoni tagħhom.
(37)
È altresì opportuno prevedere, nell'ambito del quadro esaustivo stabilito dal presente regolamento, che tale uso nel territorio di uno Stato membro in conformità del presente regolamento sia possibile solo nel caso e nella misura in cui lo Stato membro interessato abbia deciso di prevedere espressamente la possibilità di autorizzare tale uso nelle regole dettagliate del proprio diritto nazionale. Gli Stati membri restano di conseguenza liberi, a norma del presente regolamento, di non prevedere affatto tale possibilità o di prevederla soltanto per alcuni degli obiettivi idonei a giustificare l'uso autorizzato di cui nel presente regolamento. Tali regole nazionali dovrebbero essere notificate alla Commissione entro 30 giorni dalla loro adozione.
(38)
L-użu tas-sistemi tal-IA għall-identifikazzjoni bijometrika remota fil-ħin reali ta' persuni fiżiċi fi spazji aċċessibbli għall-pubbliku għal finijiet ta' infurzar tal-liġi bilfors jinvolvi l-ipproċessar ta' data bijometrika. Ir-regoli ta' dan ir-Regolament li jipprojbixxu dan l-użu, soġġetta għal ċerti eċċezzjonijiet, u li huma bbażati fuq l-Artikolu 16 TFUE, jenħtieġ japplikaw bħala lex specialis fir-rigward tar-regoli dwar l-ipproċessar tad-data bijometrika li jinsabu fl-Artikolu 10 tad-Direttiva (UE) 2016/680, u b'hekk jirregolaw dan l-użu u l-ipproċessar tad-data bijometrika involuta b'mod eżawrjenti. Għalhekk, jenħtieġ li dawn l-użu u l-ipproċessar ikunu possibbli biss sa fejn ikun kompatibbli mal-qafas stabbilit b'dan ir-Regolament, mingħajr ma jkun hemm ambitu, barra minn dak il-qafas, għall-awtoritajiet kompetenti, meta jaġixxu għall-finijiet ta' infurzar tal-liġi, li jużaw dawn is-sistemi u jipproċessaw din id-data b'rabta magħhom abbażi tar-raġunijiet elenkati fl-Artikolu 10 tad-Direttiva (UE) 2016/680. F'dak il-kuntest, dan ir-Regolament mhux maħsub biex jipprovdi l-bażi legali għall-ipproċessar ta' data personali skont l-Artikolu 8 tad-Direttiva (UE) 2016/680. Madankollu, jenħtieġ li l-użu tas-sistemi ta’ identifikazzjoni bijometrika remota fil-ħin reali fi spazji aċċessibbli għall-pubbliku għal finijiet oħra għajr l-infurzar tal-liġi, inkluż minn awtoritajiet kompetenti, ma jkunx kopert mill-qafas speċifiku rigward dan l-użu għall-finijiet ta' infurzar tal-liġi stabbilit b'dan ir-Regolament. Għalhekk, jenħtieġ li dan l-użu għal finijiet oħra għajr l-infurzar tal-liġi ma jkunx soġġett għar-rekwiżit ta' awtorizzazzjoni skont dan ir-Regolament u r-regoli dettaljati applikabbli tal-liġi nazzjonali li jistgħu jagħtu effett lil dik l-awtorizzazzjoni.
(38)
L'uso di sistemi di IA per l'identificazione biometrica remota «in tempo reale» di persone fisiche in spazi accessibili al pubblico a fini di attività di contrasto comporta necessariamente il trattamento di dati biometrici. Le regole del presente regolamento che, fatte salve alcune eccezioni, vietano tale uso, e che sono basate sull'articolo 16 TFUE, dovrebbero applicarsi come lex specialis rispetto alle regole sul trattamento dei dati biometrici di cui all'articolo 10 della direttiva (UE) 2016/680, disciplinando quindi in modo esaustivo tale uso e il trattamento dei dati biometrici interessati. L'uso e il trattamento di cui sopra dovrebbero pertanto essere possibili solo nella misura in cui siano compatibili con il quadro stabilito dal presente regolamento, senza che al di fuori di tale quadro sia prevista la possibilità, per le autorità competenti, quando agiscono a fini di attività di contrasto, di utilizzare tali sistemi e trattare tali dati in connessione con tali attività per i motivi di cui all'articolo 10 della direttiva (UE) 2016/680. In tale contesto, il presente regolamento non è inteso a fornire la base giuridica per il trattamento dei dati personali a norma dell'articolo 8 della direttiva (UE) 2016/680. Tuttavia, l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini diversi dalle attività di contrasto, anche da parte delle autorità competenti, non dovrebbe rientrare nel quadro specifico stabilito dal presente regolamento in relazione a tale uso a fini di attività di contrasto. Tale uso a fini diversi dalle attività di contrasto non dovrebbe pertanto essere subordinato all'obbligo di un'autorizzazione a norma del presente regolamento e delle regole dettagliate applicabili del diritto nazionale che possono dare attuazione a tale autorizzazione.
(39)
Jenħtieġ li kull ipproċessar tad-data bijometrika u ta' data personali oħra involuta fl-użu tas-sistemi tal-IA għall-identifikazzjoni bijometrika, għajr b'rabta mal-użu tas-sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għal finijiet ta' infurzar tal-liġi kif regolat b'dan ir-Regolament, jibqa' jikkonforma mar-rekwiżiti kollha li jirriżultaw mill-Artikolu 10 tad-Direttiva (UE) 2016/680. Għal finijiet għajr l-infurzar tal-liġi, l-Artikolu 9(1) tar-Regolament (UE) 2016/679 u l-Artikolu 10(1) tar-Regolament (UE) 2018/1725 jipprojbixxu l-ipproċessar ta' data bijometrika soġġetta għal eċċezzjonijiet limitati kif previst f'dawk l-Artikoli. Fl-applikazzjoni tal-Artikolu 9(1) tar-Regolament (UE) 2016/679, l-użu tal-identifikazzjoni bijometrika remota għal finijiet oħra għajr l-infurzar tal-liġi diġà kien soġġett għal deċiżjonijiet ta' projbizzjoni mill-awtoritajiet nazzjonali tal-protezzjoni tad-data.
(39)
Qualsiasi trattamento di dati biometrici e di altri dati personali interessati dall'uso di sistemi di IA a fini di identificazione biometrica, diverso da quello connesso all'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto disciplinato dal presente regolamento, dovrebbe continuare a soddisfare tutti i requisiti derivanti dall'articolo 10 della direttiva (UE) 2016/680. Per fini diversi dalle attività di contrasto, l'articolo 9, paragrafo 1, del regolamento (UE) 2016/679 e l'articolo 10, paragrafo 1, del regolamento (UE) 2018/1725 vietano il trattamento di dati biometrici fatte salve limitate eccezioni previste da tali articoli. Nell‘applicazione dell'articolo 9, paragrafo 1, del regolamento (UE) 2016/679, l'uso dell'identificazione biometrica remota a fini diversi dalle attività di contrasto è già stato oggetto di decisioni di divieto da parte delle autorità nazionali per la protezione dei dati.
(40)
F'konformità mal-Artikolu 6a tal-Protokoll Nru 21 dwar il-pożizzjoni tar-Renju Unit u tal-Irlanda fir-rigward tal-ispazju ta' libertà, sigurtà u ġustizzja, kif anness mat-TUE u mat-TFUE, l-Irlanda mhix marbuta bir-regoli stabbiliti fl-Artikolu 5(1), l-ewwel subparagrafu, il-punt (g), sa fejn japplika għall-użu ta' sistemi ta' kategorizzazzjoni bijometrika għal attivitajiet fil-qasam tal-kooperazzjoni tal-pulizija u l-kooperazzjoni ġudizzjarja f'materji kriminali, l-Artikolu 5(1), l-ewwel subparagrafu, il-punt (d), sa fejn japplika għall-użu tas-sistemi tal-IA koperti minn dik id-dispożizzjoni, l-Artikolu 5(1), l-ewwel subparagrafu, il-punt (h), l-Artikolu 5(2) sa (6) u l-Artikolu 26(10) ta' dan ir-Regolament adottat abbażi tal-Artikolu 16 TFUE relatati mal-ipproċessar ta' data personali mill-Istati Membri meta jwettqu attivitajiet li huma fil-kamp ta' applikazzjoni tal-Kapitolu 4 jew tal-Kapitolu 5 tat-Titolu V tal-Parti Tlieta TFUE, meta l-Irlanda mhix marbuta bir-regoli li jirregolaw il-forom ta' kooperazzjoni ġudizzjarja f'materji kriminali jew ta' kooperazzjoni tal-pulizija li jeħtieġu konformità mad-dispożizzjonijiet stabbiliti abbażi tal-Artikolu 16 TFUE.
(40)
A norma dell'articolo 6 bis del protocollo n, 21 sulla posizione del Regno Unito e dell'Irlanda rispetto allo spazio di libertà, sicurezza e giustizia, allegato al TUE e al TFUE, l'Irlanda non è vincolata dalle regole stabilite all'articolo 5, paragrafo 1, primo comma, lettera g), nella misura in cui si applica all'uso di sistemi di categorizzazione biometrica per le attività nel settore della cooperazione di polizia e della cooperazione giudiziaria in materia penale, all'articolo 5, paragrafo 1, primo comma, lettera d), nella misura in cui si applica all'uso dei sistemi di IA contemplati da tale disposizione, all’articolo 5, paragrafo 1, primo comma, lettera h), paragrafi da 2 a 6, e all'articolo 26, paragrafo 10, del presente regolamento, adottate in base all'articolo 16 TFUE, che riguardano il trattamento dei dati personali da parte degli Stati membri nell'esercizio di attività che rientrano nell'ambito di applicazione della parte terza, titolo V, capi 4 o 5, TFUE, laddove l'Irlanda non sia vincolata da regole che disciplinano forme di cooperazione giudiziaria in materia penale o di cooperazione di polizia nell'ambito delle quali devono essere rispettate le disposizioni stabilite in base all'articolo 16 TFUE.
(41)
F'konformità mal-Artikoli 2 u 2a tal-Protokoll Nru 22 dwar il-pożizzjoni tad-Danimarka, kif anness mat-TUE u mat-TFUE, id-Danimarka mhix marbuta bir-regoli stabbiliti fl-Artikolu 5(1), l-ewwel subparagrafu, il-punt (g) sa fejn japplika għall-użu ta' sistemi ta' kategorizzazzjoni bijometrika għal attivitajiet fil-qasam tal-kooperazzjoni tal-pulizija u l-kooperazzjoni ġudizzjarja f'materji kriminali, l-Artikolu 5(1), l-ewwel subparagrafu, il-punt (d), sa fejn japplikaw għall-użu tas-sistemi tal-IA koperti minn dik id-dispożizzjoni, l-Artikolu 5(1), l-ewwel subparagrafu, il-punt (h), (2) sa (6) u l-Artikolu 26(10) ta' dan ir-Regolament adottat abbażi tal-Artikolu 16 TFUE, u lanqas mhi soġġetta għall-applikazzjoni tagħhom, relatati mal-ipproċessar tad-data personali mill-Istati Membri meta jwettqu l-attivitajiet li huma fil-kamp ta' applikazzjoni tal-Kapitolu 4 jew tal-Kapitolu 5 tat-Titolu V tal-Parti Tlieta TFUE.
(41)
A norma degli articoli 2 e 2 bis del protocollo n, 22 sulla posizione della Danimarca, allegato al TUE e al TFUE, la Danimarca non è vincolata dalle regole stabilite all'articolo 5, paragrafo 1, primo comma, lettera g), nella misura in cui si applica all'uso di sistemi di categorizzazione biometrica per le attività nel settore della cooperazione di polizia e della cooperazione giudiziaria in materia penale, all'articolo 5, paragrafo 1, primo comma, lettera d), nella misura in cui si applica all'uso dei sistemi di IA contemplati da tale disposizione, all’articolo 5, paragrafo 1, primo comma, lettera h), paragrafi da 2 a 6, e all'articolo 26, paragrafo 10, del presente regolamento, adottate in base all'articolo 16 TFUE, che riguardano il trattamento dei dati personali da parte degli Stati membri nell'esercizio di attività che rientrano nell'ambito di applicazione della parte terza, titolo V, capi 4 o 5, TFUE, né è soggetta alla loro applicazione.
(42)
Jenħtieġ li f'konformità mal-preżunzjoni tal-innoċenza, il-persuni fiżiċi fl-Unjoni dejjem jiġu ġġudikati fuq l-imġiba reali tagħhom. Jenħtieġ li l-persuni fiżiċi qatt ma jiġu ġġudikati fuq imġiba prevista mill-IA abbażi biss tat-tfassil ta' profili, tal-kwalitajiet u l-karatteristiċi tal-personalità tagħhom, bħan-nazzjonalità, il-post tat-twelid, il-post tar-residenza, l-għadd ta' tfal, il-livell ta' dejn jew it-tip ta' karozza, mingħajr suspett raġonevoli li dik il-persuna tkun involuta f'attività kriminali abbażi ta' fatti verifikabbli oġġettivi u mingħajr il-valutazzjoni ta' tali fatti mill-bniedem. Għalhekk, jenħtieġ li jiġu pprojbiti l-valutazzjonijiet tar-riskju mwettqa fir-rigward ta' persuni fiżiċi sabiex tiġi vvalutata l-probabbiltà li jwettqu offiża jew biex titbassar l-okkorrenza ta' reat kriminali attwali jew potenzjali abbażi biss tat-tfassil ta' profili tagħhom jew tal-valutazzjoni tal-kwalitajiet u l-karatteristiċi tal-personalità tagħhom. Fi kwalunkwe każ, dik il-projbizzjoni ma tirreferix għal u ma ssemmix analitika tar-riskju li mhijiex ibbażata fuq it-tfassil ta' profili ta' individwi jew fuq il-kwalitajiet tal-personalità u l-karatteristiċi ta' individwi, bħal sistemi tal-IA li jużaw analitika tar-riskju biex jivvalutaw l-probabbiltà ta' frodi finanzjarja minn impriżi abbażi ta' tranżazzjonijiet suspettużi jew għodod analitiċi tar-riskju li jipprevedu l-probabbiltà ta' lokalizzazzjoni ta' narkotiċi jew oġġetti illeċiti mill-awtoritajiet doganali, pereżempju abbażi ta' rotot ta' traffikar magħrufa.
(42)
In linea con la presunzione di innocenza, le persone fisiche nell'Unione dovrebbero sempre essere giudicate in base al loro comportamento effettivo. Le persone fisiche non dovrebbero mai essere giudicate sulla base di un comportamento previsto dall'IA basato unicamente sulla profilazione, sui tratti della personalità o su caratteristiche quali la cittadinanza, il luogo di nascita, il luogo di residenza, il numero di figli, il livello di indebitamento o il tipo di automobile, senza che vi sia un ragionevole sospetto che la persona sia coinvolta in un'attività criminosa sulla base di fatti oggettivi verificabili e senza una valutazione umana al riguardo. Pertanto, dovrebbero essere vietate le valutazioni del rischio effettuate in relazione a persone fisiche intese a determinare la probabilità che queste ultime commettano un reato o volte a prevedere il verificarsi di un reato effettivo o potenziale unicamente sulla base della loro profilazione o della valutazione dei loro tratti della personalità e delle loro caratteristiche. In ogni caso, tale divieto non fa riferimento né riguarda l'analisi del rischio che non è basata sulla profilazione delle persone o sui tratti della personalità e sulle caratteristiche delle persone, come i sistemi di IA che utilizzano l'analisi dei rischi per valutare il rischio di frode finanziaria da parte di imprese sulla base di transazioni sospette o di strumenti di analisi del rischio per prevedere la probabilità di localizzazione di stupefacenti o merci illecite da parte delle autorità doganali, ad esempio sulla base di rotte di traffico conosciute.
(43)
Jenħtieġ li l-introduzzjoni fis-suq, it-tqegħid fis-servizz għal dak l-għan speċifiku, jew l-użu ta' sistemi tal-IA li joħolqu jew jespandu bażijiet tad-data tar-rikonoxximent tal-wiċċ permezz ta' scraping mhux immirat tal-immaġnijiet tal-wiċċ mill-internet jew mill-filmati tas-CCTV jiġu pprojbiti, peress li dik il-prattika żżid mas-sens ta' sorveljanza tal-massa u tista' twassal għal ksur serju tad-drittijiet fundamentali, inkluż id-dritt għall-privatezza.
(43)
L'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di IA che creano o ampliano le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso dovrebbero essere vietati, in quanto tale pratica accresce il senso di sorveglianza di massa e può portare a gravi violazioni dei diritti fondamentali, compreso il diritto alla vita privata.
(44)
Hemm tħassib serju dwar il-bażi xjentifika tas-sistemi tal-IA li għandhom l-għan li jidentifikaw jew jinferixxu l-emozzjonijiet, b'mod partikolari peress li l-espressjoni tal-emozzjonijiet tvarja b'mod konsiderevoli bejn il-kulturi u s-sitwazzjonijiet, u anke f'individwu wieħed. Fost in-nuqqasijiet ewlenin ta' sistemi bħal dawn hemm l-affidabbiltà limitata, in-nuqqas ta' speċifiċità u l-ġeneralizzabbiltà limitata. Għalhekk, is-sistemi tal-IA li jidentifikaw jew jinferixxu emozzjonijiet jew intenzjonijiet ta' persuni fiżiċi abbażi tad-data bijometrika tagħhom jistgħu jwasslu għal eżiti diskriminatorji u jistgħu jkunu intrużivi għad-drittijiet u l-libertajiet tal-persuni kkonċernati. Meta jitqies l-iżbilanċ tal-poter fil-kuntest tax-xogħol jew tal-edukazzjoni, flimkien man-natura intrużiva ta' dawn is-sistemi, tali sistemi jistgħu jwasslu għal trattament detrimentali jew sfavorevoli ta' ċerti persuni fiżiċi jew gruppi sħaħ tagħhom. Għalhekk, jenħtieġ li l-introduzzjoni fis-suq, it-tqegħid fis-servizz, jew l-użu ta' sistemi tal-IA maħsuba biex jintużaw biex jiġi identifikat l-istat emozzjonali ta' individwi f'sitwazzjonijiet relatati mal-post tax-xogħol u mal-edukazzjoni jiġu pprojbiti. Jenħtieġ li dik il-projbizzjoni ma tkoprix is-sistemi tal-IA introdotti fis-suq strettament għal raġunijiet mediċi jew ta' sikurezza, bħal sistemi maħsuba għal użu terapewtiku.
(44)
Sussistono serie preoccupazioni in merito alla base scientifica dei sistemi di IA volti a identificare o inferire emozioni, in particolare perché l'espressione delle emozioni varia notevolmente in base alle culture e alle situazioni e persino in relazione a una stessa persona. Tra le principali carenze di tali sistemi figurano la limitata affidabilità, la mancanza di specificità e la limitata generalizzabilità. Pertanto, i sistemi di IA che identificano o inferiscono emozioni o intenzioni di persone fisiche sulla base dei loro dati biometrici possono portare a risultati discriminatori e possono essere invasivi dei diritti e delle libertà delle persone interessate. Considerando lo squilibrio di potere nel contesto del lavoro o dell'istruzione, combinato con la natura invasiva di tali sistemi, questi ultimi potrebbero determinare un trattamento pregiudizievole o sfavorevole di talune persone fisiche o di interi gruppi di persone fisiche. È pertanto opportuno vietare l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA destinati a essere utilizzati per rilevare lo stato emotivo delle persone in situazioni relative al luogo di lavoro e all'istruzione. Tale divieto non dovrebbe riguardare i sistemi di IA immessi sul mercato esclusivamente per motivi medici o di sicurezza, come i sistemi destinati all'uso terapeutico.
(45)
Jenħtieġ li l-prattiki li huma pprojbiti mil-liġi tal-Unjoni, inkluż il-liġi dwar il-protezzjoni tad-data, il-liġi dwar in-nondiskriminazzjoni, il-liġi dwar il-protezzjoni tal-konsumatur, u l-liġi tal-kompetizzjoni, ma jiġux affettwati minn dan ir-Regolament.
(45)
Il presente regolamento non dovrebbe incidere sulle pratiche vietate dal diritto dell'Unione, ivi incluso dal diritto in materia di protezione dei dati, non discriminazione, protezione dei consumatori e concorrenza.
(46)
Jenħtieġ li s-sistemi tal-IA b'riskju għoli jiġu introdotti fis-suq tal-Unjoni, jitqiegħdu fis-servizz jew jintużaw biss jekk ikunu konformi ma' ċerti rekwiżiti obbligatorji. Jenħtieġ li dawk ir-rekwiżiti jiżguraw li s-sistemi tal-IA b'riskju għoli disponibbli fl-Unjoni jew li l-output tagħhom jintuża b'xi mod ieħor fl-Unjoni ma jkunux joħolqu riskji inaċċettabbli għal interessi pubbliċi importanti tal-Unjoni kif rikonoxxuti u mħarsa bil-liġi tal-Unjoni. Abbażi tal-Qafas Leġiżlattiv Ġdid, kif iċċarat fl-avviż tal-Kummissjoni “‘Il-Gwida Blu’ dwar l-implimentazzjoni tar-regoli tal-prodotti tal-UE tal-2022” (20), ir-regola ġenerali hija li aktar minn att legali wieħed tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni, bħar-Regolamenti (UE) 2017/745 (21) u (UE) 2017/746 (22) tal-Parlament Ewropew u tal-Kunsill jew id-Direttiva 2006/42/KE tal-Parlament Ewropew u tal-Kunsill (23), jista' jkun applikabbli għal prodott wieħed, peress li l-introduzzjoni fis-suq jew it-tqegħid fis-servizz jista' jseħħ biss meta l-prodott jikkonforma mal-leġiżlazzjoni applikabbli kollha tal-Unjoni dwar l-armonizzazzjoni. Sabiex tiġi żgurata l-konsistenza u jiġu evitati piżijiet jew kostijiet amministrattivi bla bżonn, jenħtieġ li l-fornituri ta' prodott li jkun fih sistemi ta' IA b'riskju għoli waħda jew aktar, li għalihom japplikaw ir-rekwiżiti ta' dan ir-Regolament u tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkati f'anness ta' dan ir-Regolament, ikollhom flessibbiltà fir-rigward tad-deċiżjonijiet operazzjonali dwar kif tiġi żgurata l-konformità ta' prodott li jkun fih sistema tal-IA waħda jew aktar mar-rekwiżiti applikabbli kollha tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni bl-aħjar mod. Jenħtieġ li s-sistemi tal-IA identifikati bħala b'riskju għoli jkunu limitati għal dawk li għandhom impatt dannuż sinifikanti fuq is-saħħa, is-sikurezza u d-drittijiet fundamentali tal-persuni fl-Unjoni u din il-limitazzjoni jenħtieġ li timminimizza kwalunkwe restrizzjoni potenzjali fuq il-kummerċ internazzjonali.
(46)
È opportuno che i sistemi di IA ad alto rischio siano immessi sul mercato dell'Unione, messi in servizio o utilizzati solo se soddisfano determinati requisiti obbligatori. Tali requisiti dovrebbero garantire che i sistemi di IA ad alto rischio disponibili nell'Unione o i cui output sono altrimenti utilizzati nell'Unione non presentino rischi inaccettabili per interessi pubblici importanti dell'Unione, come riconosciuti e tutelati dal diritto dell'Unione. In base al nuovo quadro legislativo, come chiarito nella comunicazione della Commissione «La “Guida blu” all'attuazione della normativa UE sui prodotti 2022» (20), la regola generale è che più di un atto giuridico della normativa di armonizzazione dell'Unione, come i regolamenti (UE) 2017/745 (21) e (UE) 2017/746 (22) del Parlamento europeo e del Consiglio o la direttiva n, 2006/42/CE del Parlamento europeo e del Consiglio (23), può essere applicabile a un solo prodotto, poiché quest'ultimo può essere messo a disposizione o messo in servizio solo se risulta conforme a tutta la normativa di armonizzazione dell'Unione applicabile. Al fine di garantire la coerenza ed evitare oneri amministrativi o costi non necessari, i fornitori di un prodotto contenente uno o più sistemi di IA ad alto rischio cui si applicano i requisiti del presente regolamento e della normativa di armonizzazione dell'Unione elencata in un allegato del presente regolamento dovrebbero avere flessibilità per quanto riguarda le decisioni operative sui modi per garantire in modo ottimale la conformità di un prodotto contenente uno o più sistemi di IA a tutti i requisiti applicabili della normativa di armonizzazione dell'Unione. È opportuno limitare i sistemi di IA identificati come ad alto rischio a quelli che hanno un impatto nocivo significativo sulla salute, la sicurezza e i diritti fondamentali delle persone nell'Unione, e tale limitazione dovrebbe ridurre al minimo eventuali potenziali restrizioni al commercio internazionale.
(47)
Is-sistemi tal-IA jista' jkollhom impatt negattiv fuq is-saħħa u s-sikurezza tal-persuni, b'mod partikolari meta dawn is-sistemi jaħdmu bħala komponenti tas-sikurezza tal-prodotti. B'mod konsistenti mal-objettivi tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni biex jiġi ffaċilitat il-moviment liberu tal-prodotti fis-suq intern u biex ikun żgurat li prodotti sikuri u konformi b'xi mod ieħor biss jitqiegħdu fis-suq, hu importanti li jiġu evitati u mitigati kif xieraq ir-riskji għas-sikurezza li jistgħu jiġu ġġenerati minn prodott sħiħ minħabba l-komponenti diġitali tiegħu, inkluż sistemi tal-IA. Pereżempju, jenħtieġ li r-robots dejjem aktar awtonomi, sew fil-kuntest tal-manifattura kif ukoll fil-kuntest tal-assistenza u l-kura personali, ikunu jistgħu joperaw u jwettqu l-funzjonijiet tagħhom mingħajr periklu f'ambjenti kumplessi. Bl-istess mod, fis-settur tas-saħħa fejn l-interessi għall-ħajja u għas-saħħa huma partikolarment għoljin, jenħtieġ li s-sistemi dijanjostiċi dejjem aktar sofistikati u s-sistemi li jappoġġaw id-deċiżjonijiet umani jkunu affidabbli u preċiżi.
(47)
I sistemi di IA potrebbero avere un impatto negativo sulla salute e sulla sicurezza delle persone, in particolare quando tali sistemi sono impiegati come componenti di sicurezza dei prodotti. Coerentemente con gli obiettivi della normativa di armonizzazione dell'Unione di agevolare la libera circolazione dei prodotti nel mercato interno e di garantire che solo prodotti sicuri e comunque conformi possano essere immessi sul mercato, è importante che i rischi per la sicurezza che un prodotto nel suo insieme può generare a causa dei suoi componenti digitali, compresi i sistemi di IA, siano debitamente prevenuti e attenuati. Ad esempio, i robot sempre più autonomi, sia nel contesto della produzione sia in quello della cura e dell'assistenza alle persone, dovrebbero essere in misura di operare e svolgere le loro funzioni in condizioni di sicurezza in ambienti complessi. Analogamente, nel settore sanitario, in cui la posta in gioco per la vita e la salute è particolarmente elevata, è opportuno che i sistemi diagnostici e i sistemi di sostegno delle decisioni dell'uomo, sempre più sofisticati, siano affidabili e accurati.
(48)
Il-firxa tal-impatt negattiv ikkawżat mis-sistema tal-IA fuq id-drittijiet fundamentali protetti mill-Karta għandha rilevanza partikolari meta sistema tal-IA tkun qed tiġi klassifikata li għandha riskju għoli. Dawk id-drittijiet jinkludu d-dritt għad-dinjità tal-bniedem, ir-rispett għall-ħajja privata u tal-familja, il-protezzjoni tad-data personali, il-libertà tal-espressjoni u tal-informazzjoni, il-libertà ta' għaqda u ta' assoċjazzjoni, id-dritt għan-nondiskriminazzjoni, id-dritt għall-edukazzjoni, il-protezzjoni tal-konsumatur, id-drittijiet tal-ħaddiema, id-drittijiet tal-persuni b'diżabbiltà, l-ugwaljanza bejn il-ġeneri, id-drittijiet ta' proprjetà intellettwali, id-dritt għal rimedju effettiv u għal proċess imparzjali, id-dritt għad-difiża u l-preżunzjoni ta' innoċenza, u d-dritt għal amministrazzjoni tajba. Minbarra dawk id-drittijiet, hu importanti li jiġi enfasizzat il-fatt li t-tfal għandhom drittijiet speċifiċi kif minqux fl-Artikolu 24 tal-Karta u fil-Konvenzjoni tan-Nazzjonijiet Uniti dwar id-Drittijiet tat-Tfal, żviluppata aktar fil-Kumment Ġenerali Nru 25 tal-UNCRC fir-rigward tal-ambjent diġitali, li t-tnejn li huma jirrikjedu kunsiderazzjoni tal-vulnerabbiltajiet tat-tfal u l-għoti ta' tali protezzjoni u kura kif meħtieġ għall-benesseri tagħhom. Jenħtieġ li d-dritt fundamentali għal livell għoli ta' protezzjoni ambjentali, kif minqux fil-Karta u implimentat fil-politiki tal-Unjoni, jitqies ukoll meta tkun qed tiġi vvalutata s-severità tad-dannu li sistema tal-IA tista' tikkawża, inkluż fir-rigward tas-saħħa u s-sikurezza tal-persuni.
(48)
La portata dell'impatto negativo del sistema di IA sui diritti fondamentali protetti dalla Carta è di particolare rilevanza ai fini della classificazione di un sistema di IA tra quelli ad alto rischio. Tali diritti comprendono il diritto alla dignità umana, il rispetto della vita privata e della vita familiare, la protezione dei dati personali, la libertà di espressione e di informazione, la libertà di riunione e di associazione e il diritto alla non discriminazione, il diritto all'istruzione, la protezione dei consumatori, i diritti dei lavoratori, i diritti delle persone con disabilità, l'uguaglianza di genere, i diritti di proprietà intellettuale, il diritto a un ricorso effettivo e a un giudice imparziale, i diritti della difesa e la presunzione di innocenza e il diritto a una buona amministrazione. Oltre a tali diritti, è importante sottolineare il fatto che i minori godono di diritti specifici sanciti dall'articolo 24 della Carta e dalla Convenzione delle Nazioni Unite sui diritti dell'infanzia e dell'adolescenza, ulteriormente sviluppati nell'osservazione generale n, 25 della Convenzione delle Nazioni Unite dell'infanzia e dell'adolescenza per quanto riguarda l'ambiente digitale, che prevedono la necessità di tenere conto delle loro vulnerabilità e di fornire la protezione e l'assistenza necessarie al loro benessere. È altresì opportuno tenere in considerazione, nel valutare la gravità del danno che un sistema di IA può provocare, anche in relazione alla salute e alla sicurezza delle persone, il diritto fondamentale a un livello elevato di protezione dell'ambiente sancito dalla Carta e attuato nelle politiche dell'Unione.
(49)
Fir-rigward tas-sistemi tal-IA b'riskju għoli li huma komponenti tas-sikurezza tal-prodotti jew tas-sistemi, jew li huma stess huma prodotti jew sistemi li jaqgħu fil-kamp ta' applikazzjoni tar-Regolament (KE) Nru 300/2008 tal-Parlament Ewropew u tal-Kunsill (24), ir-Regolament (UE) Nru 167/2013 tal-Parlament Ewropew u tal-Kunsill (25), ir-Regolament (UE) Nru 168/2013 tal-Parlament Ewropew u tal-Kunsill (26), id-Direttiva 2014/90/UE tal-Parlament Ewropew u tal-Kunsill (27), id-Direttiva (UE) 2016/797 tal-Parlament Ewropew u tal-Kunsill (28), ir-Regolament (UE) 2018/858 tal-Parlament Ewropew u tal-Kunsill (29), ir-Regolament (UE) 2018/1139 tal-Parlament Ewropew u tal-Kunsill (30), u r-Regolament (UE) 2019/2144 tal-Parlament Ewropew u tal-Kunsill (31), huwa xieraq li dawk l-atti jiġu emendati biex jiġi żgurat li l-Kummissjoni tqis, abbażi tal-ispeċifiċitajiet tekniċi u regolatorji ta' kull settur, u mingħajr ma tinterferixxi mal-governanza, il-valutazzjoni tal-konformità u l-mekkaniżmi ta' infurzar eżistenti u l-awtoritajiet stabbiliti fih, ir-rekwiżiti obbligatorji għas-sistemi tal-IA b'riskju għoli stabbiliti f'dan ir-Regolament meta tadotta kwalunkwe att delegat jew ta' implimentazzjoni rilevanti abbażi ta' dawk l-atti.
(49)
Per quanto riguarda i sistemi di IA ad alto rischio che sono componenti di sicurezza di prodotti o sistemi o che sono essi stessi prodotti o sistemi che rientrano nell'ambito di applicazione del regolamento (CE) n, 300/2008 del Parlamento europeo e del Consiglio (24), del regolamento (UE) n, 167/2013 del Parlamento europeo e del Consiglio (25), del regolamento (UE) n, 168/2013 del Parlamento europeo e del Consiglio (26), della direttiva 2014/90/UE del Parlamento europeo e del Consiglio (27), della direttiva (UE) 2016/797 del Parlamento europeo e del Consiglio (28), del regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio (29), del regolamento (UE) 2018/1139 del Parlamento europeo e del Consiglio (30), e del regolamento (UE) 2019/2144 del Parlamento europeo e del Consiglio (31), è opportuno modificare i suddetti atti per garantire che, nell'adottare qualsiasi atto delegato o di esecuzione pertinente sulla base di tali atti, la Commissione tenga conto, sulla base delle specificità tecniche e normative di ciascun settore e senza interferire con i vigenti meccanismi di governance, valutazione della conformità e applicazione e con le autorità da essi stabilite, dei requisiti obbligatori sanciti dal presente regolamento.
(50)
Fir-rigward ta' sistemi tal-IA li huma komponenti tas-sikurezza ta' prodotti, jew li huma stess ikunu prodotti, li jaqgħu fil-kamp ta' applikazzjoni ta' ċerta leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata f’anness ta’ dan ir-Regolament, jixraq li jiġu kklassifikati bħala b'riskju għoli skont dan ir-Regolament jekk il-prodott ikkonċernat jgħaddi mill-proċedura ta' valutazzjoni tal-konformità mwettqa minn korp terz ta' valutazzjoni tal-konformità skont dik il-leġiżlazzjoni rilevanti tal-Unjoni dwar l-armonizzazzjoni. B'mod partikolari, dawn il-prodotti huma makkinarju, ġugarelli, liftijiet, tagħmir u sistemi protettivi maħsuba għal użu f'ambjenti potenzjalment esplożivi, f'tagħmir tar-radju, apparat tal-pressa, tagħmir ta' opri tal-baħar għar-rikreazzjoni, installazzjonijiet tal-funikular, apparati li jaħarqu fjuwils gassużi, apparati mediċi, apparati mediċi dijanjostiċi in vitro, karozzi u avjazzjoni.
(50)
Per quanto riguarda i sistemi di IA che sono componenti di sicurezza di prodotti, o che sono essi stessi prodotti, e rientrano nell'ambito di applicazione di una determinata normativa di armonizzazione dell'Unione elencata nell’allegato al presente regolamento, è opportuno classificarli come sistemi ad alto rischio a norma del presente regolamento se il prodotto interessato è sottoposto alla procedura di valutazione della conformità con un organismo terzo di valutazione della conformità a norma della suddetta pertinente normativa di armonizzazione dell’Unione. Tali prodotti sono, in particolare, macchine, giocattoli, ascensori, apparecchi e sistemi di protezione destinati a essere utilizzati in atmosfera potenzialmente esplosiva, apparecchiature radio, attrezzature a pressione, attrezzature per imbarcazioni da diporto, impianti a fune, apparecchi che bruciano carburanti gassosi, dispositivi medici, dispositivi medico-diagnostici in vitro, veicoli automobilistici e aeronautici.
(51)
Jenħtieġ li l-klassifikazzjoni ta' sistema tal-IA bħala li għandha riskju għoli skont dan ir-Regolament mhux bilfors tkun tfisser li l-prodott li l-komponent tas-sikurezza tiegħu jkun is-sistema tal-IA, jew is-sistema tal-IA stess bħala prodott, jitqiesu li huma b'“riskju għoli” skont il-kriterji stabbiliti fil-leġiżlazzjoni rilevanti tal-Unjoni dwar l-armonizzazzjoni li tapplika għall-prodott. B'mod partikolari, dan huwa l-każ għar-Regolamenti (UE) 2017/745 u (UE) 2017/746, fejn tiġi pprovduta valutazzjoni tal-konformità minn parti terza għal prodotti b'riskju medju u b'riskju għoli.
(51)
La classificazione di un sistema di IA come ad alto rischio a norma del presente regolamento non dovrebbe necessariamente significare che il prodotto il cui componente di sicurezza è il sistema di IA, o il sistema di IA stesso in quanto prodotto, sia considerato «ad alto rischio» in base ai criteri stabiliti nella pertinente normativa di armonizzazione dell'Unione che si applica al prodotto. Ciò vale, in particolare, per i regolamenti (UE) 2017/745 e (UE) 2017/746, in cui è prevista una valutazione della conformità da parte di terzi per i prodotti a medio rischio e ad alto rischio.
(52)
Fir-rigward ta' sistemi awtonomi tal-IA, jiġifieri sistemi tal-IA b'riskju għoli minbarra dawk li huma komponenti tas-sikurezza tal-prodotti, jew li huma stess ikunu prodotti, jixraq li jiġu klassifikati bħala b’riskju għoli jekk, fid-dawl tal-għan maħsub tagħhom, dawn jippreżentaw riskju għoli ta’ ħsara għas-saħħa u s-sikurezza jew għad-drittijiet fundamentali tal-persuni, filwaqt li jitqiesu kemm is-severità tal-ħsara possibbli u l-probabbiltà li din isseħħ, u jintużaw f’għadd ta’ oqsma speċifikament definiti minn qabel speċifikati f’dan ir-Regolament. L-identifikazzjoni ta’ dawk is-sistemi hija bbażata fuq l-istess metodoloġija u kriterji previsti wkoll għal kull emenda futura tal-lista tas-sistemi tal-IA b’riskju għoli li jenħtieġ li l-Kummissjoni tingħata s-setgħa li tadotta, permezz ta’ atti delegati, biex jitqies il-pass rapidu tal-iżvilupp teknoloġiku, kif ukoll il-bidliet potenzjali fl-użu tas-sistemi tal-IA.
(52)
Per quanto riguarda i sistemi di IA indipendenti, ossia i sistemi di IA ad alto rischio diversi da quelli che sono componenti di sicurezza dei prodotti o che sono essi stessi prodotti, è opportuno classificarli come ad alto rischio se, alla luce della loro finalità prevista, presentano un alto rischio di pregiudicare la salute e la sicurezza o i diritti fondamentali delle persone, tenendo conto sia della gravità del possibile danno sia della probabilità che si verifichi, e sono utilizzati in una serie di settori specificamente predefiniti indicati nel presente regolamento. L'identificazione di tali sistemi si basa sulla stessa metodologia e sui medesimi criteri previsti anche per eventuali future modifiche dell'elenco dei sistemi di IA ad alto rischio che la Commissione dovrebbe avere il potere di adottare, mediante atti delegati, per tenere conto del rapido ritmo dello sviluppo tecnologico nonché dei potenziali cambiamenti nell'uso dei sistemi di IA.
(53)
Huwa importanti wkoll li jiġi ċċarat li jista’ jkun hemm każijiet speċifiċi li fihom is-sistemi tal-IA msemmija f’oqsma predefiniti speċifikati f’dan ir-Regolament ma jwasslux għal riskju sinifikanti ta’ ħsara għall-interessi legali protetti f’dawk l-oqsma minħabba li ma jinfluwenzawx materjalment it-teħid tad-deċiżjonijiet jew ma jagħmlux ħsara sostanzjali lil dawk l-interessi. Għall-finijiet ta’ dan ir-Regolament, jenħtieġ li sistema tal-IA li ma tinfluwenzax materjalment l-eżitu tat-teħid tad-deċiżjonijiet tinftiehem li tkun sistema tal-IA li ma jkollhiex impatt fuq is-sustanza, u b’hekk fuq l-eżitu, tat-teħid tad-deċiżjonijiet, kemm jekk ikun mill-bniedem kif ukoll jekk awtomatizzat. Sistema tal-IA li ma tinfluwenzax materjalment l-eżitu tat-teħid tad-deċiżjonijiet tista’ tinkludi sitwazzjonijiet li fihom tiġi ssodisfata waħda jew aktar mill-kundizzjonijiet li ġejjin. L-ewwel tali kundizzjoni jenħtieġ li tkun li s-sistema tal-IA tkun maħsuba biex twettaq kompitu proċedurali ristrett, bħal sistema tal-IA li tittrasforma data mhux strutturata f’data strutturata, sistema tal-IA li tikklassifika dokumenti li jkunu deħlin f’kategoriji jew sistema tal-IA li tintuża biex jiġu identifikati duplikati fost għadd kbir ta’ applikazzjonijiet. Dawk il-kompiti huma ta’ natura tant ristretta u limitata li joħolqu biss riskji limitati li ma jiżdidux permezz tal-użu ta’ sistema tal-IA f'kuntest li huwa elenkat bħala użu b'riskju għoli f'anness ta' dan ir-Regolament. It-tieni kundizzjoni jenħtieġ li tkun li l-kompitu mwettaq mis-sistema tal-IA jkun maħsub biex itejjeb ir-riżultat ta' attività tal-bniedem li tkun tlestiet qabel li tista' tkun rilevanti għall-finijiet tal-użi b’riskju għoli elenkati f’anness ta’ dan ir-Regolament. Meta jitqiesu dawk il-karatteristiċi, is-sistema tal-IA tipprovdi biss saff addizzjonali għal attività tal-bniedem bil-konsegwenza li r-riskju jkun imnaqqas. Dik il-kundizzjoni tkun tapplika, pereżempju, għal sistemi tal-IA li huma maħsuba biex itejbu l-lingwa użata f'dokumenti diġà abbozzati, pereżempju fir-rigward tat-ton professjonali, l-istil akkademiku tal-lingwa jew billi t-test jiġi allinjat mal-messaġġ li tkun trid twassal marka partikolari. It-tielet kundizzjoni jenħtieġ li tkun li s-sistema tal-IA tkun maħsuba biex tidentifika xejriet ta' teħid ta' deċiżjonijiet jew devjazzjonijiet minn xejriet ta' teħid ta' deċiżjonijiet preċedenti. Ir-riskju jitnaqqas minħabba li l-użu tas-sistema tal-IA jsegwi valutazzjoni mill-bniedem li tkun tlestiet qabel li ma tkunx maħsuba biex tissostitwixxi jew tinfluwenza, mingħajr rieżami xieraq mill-bniedem. Tali sistemi tal-IA jinkludu pereżempju dawk li, minħabba ċertu tendenzi fl-għoti tal-marki minn għalliem, jistgħu jintużaw biex jiġi vverifikat ex post jekk l-għalliem setax iddevja mit-tendenzi fl-għoti tal-marki sabiex jiġu mmarkati inkonsistenzi jew anomaliji potenzjali. Ir-raba' kundizzjoni jenħtieġ li tkun li s-sistema tal-IA tkun maħsuba biex twettaq kompitu li jkun biss preparatorju għal valutazzjoni rilevanti għall-finijiet tas-sistemi tal-IA elenkati f'anness ta' dan ir-Regolament, u b'hekk ikun hemm riskju baxx ħafna li l-impatt possibbli tal-output tas-sistema ser jippreżenta xi riskju għall-valutazzjoni li ssegwi. Dik il-kundizzjoni tkopri, fost l-oħrajn, soluzzjonijiet intelliġenti għat-trattament tal-fajls, li jinkludu diversi funzjonijiet mill-indiċjar, it-tiftix, l-ipproċessar tat-test u tad-diskors jew il-kollegament tad-data ma' sorsi oħra ta' data, jew sistemi tal-IA użati għat-traduzzjoni ta' dokumenti inizjali. Fi kwalunkwe każ, jenħtieġ li s-sistemi tal-IA użati f’każijiet ta’ użu b'riskju għoli elenkati f’anness ta’ dan ir-Regolament jitqiesu li joħolqu riskji sinifikanti ta' ħsara għas-saħħa, għas-sikurezza jew għad-drittijiet fundamentali jekk is-sistema tal-IA timplika tfassil ta' profili skont it-tifsira tal-Artikolu 4, il-punt (4) tar-Regolament (UE) 2016/679 jew l-Artikolu 3, il-punt (4) tad-Direttiva (UE) 2016/680 jew l-Artikolu 3, il-punt (5) tar-Regolament (UE) 2018/1725. Biex jiġu żgurati t-traċċabbiltà u t-trasparenza, jenħtieġ li fornitur li jqis li sistema tal-IA mhijiex b'riskju għoli abbażi ta' dawk il-kundizzjonijiet imsemmija hawn fuq ifassal dokumentazzjoni tal-valutazzjoni qabel ma dik is-sistema tiġi introdotta fis-suq jew titqiegħed fis-servizz u jenħtieġ li jipprovdi dik id-dokumentazzjoni lill-awtoritajiet nazzjonali kompetenti fuq talba. Jenħtieġ li tali fornitur ikun obbligat jirreġistra s-sistema tal-IA fil-bażi tad-data tal-UE stabbilita skont dan ir-Regolament. Bil-ħsieb li tiġi pprovduta gwida ulterjuri għall-implimentazzjoni prattika tal-kundizzjonijiet li skonthom is-sistemi tal-IA elenkati f’anness ta’ dan ir-Regolament huma, fuq bażi eċċezzjonali, mhux b'riskju għoli, jenħtieġ li l-Kummissjoni, wara li tikkonsulta lill-Bord, tipprovdi linji gwida li jispeċifikaw dik l-implimentazzjoni prattika kkompletata b'lista komprensiva ta' eżempji prattiċi ta' każijiet ta' użu ta' sistemi tal-IA li huma b'riskju għoli u każijiet ta’ użu li mhumiex.
(53)
È altresì importante chiarire che possono esservi casi specifici in cui i sistemi di IA riferiti a settori predefiniti indicati nel presente regolamento non comportano un rischio significativo di pregiudicare gli interessi giuridici tutelati nell'ambito di tali settori in quanto non influenzano materialmente il processo decisionale né pregiudicano tali interessi in modo sostanziale. Ai fini del presente regolamento, un sistema di IA che non influenza materialmente l'esito del processo decisionale dovrebbe essere inteso come un sistema di IA che non ha un impatto sulla sostanza, e quindi sull'esito, del processo decisionale, sia esso umano o automatizzato. Un sistema di IA che non influenza materialmente l'esito del processo decisionale potrebbe includere situazioni in cui sono soddisfatte una o più delle seguenti condizioni. La prima di tali condizioni dovrebbe essere che il sistema di IA sia destinato a svolgere un compito procedurale ristretto, come un sistema di IA che trasforma dati non strutturati in dati strutturati, un sistema di IA che classifica i documenti in entrata per categorie o un sistema di IA utilizzato per rilevare duplicati tra un gran numero di applicazioni. Tali compiti sono di natura così ristretta e limitata da comportare solo rischi limitati che non aumentano con l'uso di un sistema di IA in un contesto elencato come uso ad alto rischio in un allegato del presente regolamento. La seconda condizione dovrebbe essere che il compito svolto dal sistema di IA sia inteso a migliorare il risultato di un'attività umana precedentemente completata che può essere pertinente ai fini degli usi ad alto rischio elencati nell’ allegato del presente regolamento. Tenuto conto di tali caratteristiche, il sistema di IA fornisce solo un livello aggiuntivo a un'attività umana con conseguente riduzione del rischio. Tale condizione si applicherebbe, ad esempio, ai sistemi di IA destinati a migliorare il linguaggio utilizzato in documenti redatti in precedenza, ad esempio in relazione al tono professionale, allo stile accademico del linguaggio o allineando il testo a una determinata comunicazione di marchio. La terza condizione dovrebbe essere che il sistema di IA sia inteso a individuare modelli decisionali o deviazioni da modelli decisionali precedenti. Il rischio sarebbe ridotto in quanto l'uso del sistema di IA segue una valutazione umana precedentemente completata che non è destinato a sostituire o influenzare, senza un'adeguata revisione umana. Tali sistemi di IA comprendono, ad esempio, quelli che, dato un determinato modello di valutazione di un insegnante, possono essere utilizzati per verificare ex post se l'insegnante possa essersi discostato dal modello di valutazione in modo da segnalare potenziali incongruenze o anomalie. La quarta condizione dovrebbe essere che il sistema di IA sia destinato a svolgere un compito che è solo preparatorio rispetto a una valutazione pertinente ai fini dei sistemi di IA elencati in un allegato del presente regolamento, e pertanto la probabilità che l'output del sistema presenti un rischio per la valutazione posteriore è molto ridotto. Tale condizione riguarda, in particolare, soluzioni intelligenti per la gestione dei fascicoli, che comprendono varie funzioni quali l'indicizzazione, la ricerca, l'elaborazione testuale e vocale o il collegamento dei dati ad altre fonti di dati, o i sistemi di IA utilizzati per la traduzione di documenti iniziali. In ogni caso, è opportuno ritenere che i sistemi di IA utilizzati usi ad alto rischio elencati nell’ allegato del presente regolamento comportino rischi significativi di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche se il sistema di IA implica la profilazione ai sensi dell'articolo 4, punto 4, del regolamento (UE) 2016/679, o dell'articolo 3, punto 4, della direttiva (UE) 2016/680 o dell'articolo 3, punto 5, del regolamento (UE) 2018/1725. Al fine di garantire la tracciabilità e la trasparenza, un fornitore che ritiene che un sistema di IA non sia ad alto rischio sulla base delle condizioni di cui sopra dovrebbe redigere la documentazione relativa alla valutazione prima che tale sistema sia immesso sul mercato o messo in servizio e dovrebbe fornire tale documentazione alle autorità nazionali competenti su richiesta. Tale fornitore dovrebbe essere tenuto a registrare il sistema di IA nella banca dati dell'UE istituita a norma del presente regolamento. Al fine di fornire ulteriori orientamenti per l'attuazione pratica delle condizioni alle quali i sistemi di IA elencati in un allegato del presente regolamento sono, in via eccezionale, non ad alto rischio, la Commissione, previa consultazione del consiglio per l'IA, dovrebbe fornire orientamenti che specifichino tale attuazione pratica completati da un elenco completo di esempi pratici di casi d'uso di sistemi di IA ad alto rischio e casi d’uso che non lo sono.
(54)
Peress li d-data bijometrika tikkostitwixxi kategorija speċjali ta' data personali, huwa xieraq li diversi każijiet ta' użu kritiku tas-sistemi bijometriċi jiġu kklassifikati bħala b'riskju għoli, sa fejn l-użu tagħhom ikun permess skont il-liġi rilevanti tal-Unjoni u dik nazzjonali. L-inakkuratezzi tekniċi tas-sistemi tal-IA maħsuba għall-identifikazzjoni bijometrika remota ta' persuni fiżiċi jistgħu jwasslu għal riżultati preġudikati u jħallu effetti diskriminatorji. Ir-riskju ta' tali riżultati preġudikati u effetti diskriminatorji huma partikolarment rilevanti fir-rigward tal-età, l-etniċità, ir-razza, is-sess jew id-diżabilitajiet. Jenħtieġ għalhekk li s-sistemi ta’ identifikazzjoni bijometrika remota jiġu kklassifikati bħala b'riskju għoli fid-dawl tar-riskji li jippreżentaw. Tali klassifikazzjoni teskludi sistemi tal-IA maħsuba biex jintużaw għall-verifika bijometrika, inkluż l-awtentikazzjoni, li l-iskop uniku tagħha huwa li tikkonferma li persuna fiżika speċifika hija l-persuna li dik il-persuna tiddikjara li hija u li tikkonferma l-identità ta' persuna fiżika għall-iskop uniku li jkollha aċċess għal servizz, li tiftaħ apparat jew li jkollha aċċess sigur għall-bini. Barra minn hekk, jenħtieġ li s-sistemi tal-IA bbażati fuq data bijometrika maħsuba biex jintużaw għall-kategorizzazzjoni bijometrika skont attributi jew karatteristiċi sensittivi protetti skont l-Artikolu 9(1) tar-Regolament (UE) 2016/679, sakemm dawn ma jkunux ipprojbiti skont dan ir-Regolament, u s-sistemi ta' rikonoxximent tal-emozzjonijiet li mhumiex ipprojbiti skont dan ir-Regolament, jiġu kklassifikati bħala b'riskju għoli. Jenħtieġ li s-sistemi bijometriċi li huma maħsuba li jintużaw biss għall-fini li jippermettu ċ-ċibersigurtà u l-miżuri tal-protezzjoni tad-data personali ma jitqisux li jkunu sistemi tal-IA b’riskju għoli.
(54)
Poiché i dati biometrici costituiscono una categoria particolare di dati personali, è opportuno classificare come ad alto rischio diversi casi di uso critico di sistemi biometrici, nella misura in cui il loro uso è consentito dal pertinente diritto dell'Unione e nazionale. Le inesattezze di carattere tecnico dei sistemi di IA destinati all'identificazione biometrica remota delle persone fisiche possono determinare risultati distorti e comportare effetti discriminatori. Il rischio di tali risultati distorti ed effetti discriminatori è particolarmente importante per quanto riguarda l'età, l'etnia, la razza, il sesso o le disabilità. I sistemi destinati all'identificazione biometrica remota dovrebbero pertanto essere classificati come ad alto rischio in considerazione dei rischi che comportano. Tale classificazione esclude i sistemi di IA destinati a essere utilizzati per la verifica biometrica, inclusa l'autenticazione, la cui unica finalità è confermare che una determinata persona fisica è chi dice di essere e confermare l'identità di una persona fisica al solo scopo di accedere a un servizio, sbloccare un dispositivo o disporre dell'accesso sicuro a locali. Inoltre, è opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati per la categorizzazione biometrica in base ad attributi o caratteristiche sensibili protetti a norma dell'articolo 9, paragrafo 1, del regolamento (UE) 2016/679 sulla base di dati biometrici, nella misura in cui non sono vietati a norma del presente regolamento, e i sistemi di riconoscimento delle emozioni che non sono vietati a norma del presente regolamento. I sistemi biometrici destinati a essere utilizzati al solo scopo di consentire la cibersicurezza e le misure di protezione dei dati personali non dovrebbero essere considerati sistemi di IA ad alto rischio.
(55)
Fir-rigward tal-ġestjoni u t-tħaddim tal-infrastruttura kritika, jixraq li s-sistemi tal-IA maħsuba biex jintużaw bħala komponenti tas-sikurezza fil-ġestjoni u t-tħaddim tal-infrastruttura diġitali kritika kif elenkat fil-punt (8) tal-Anness tad-Direttiva (UE) 2022/2557, tat-traffiku tat-triq u fil-provvista tal-ilma, tal-gass, tat-tisħin u tal-elettriku jiġu kklassifikati bħala b'riskju għoli, għax il-falliment jew il-funzjonament ħażin tagħhom jistgħu jqiegħdu f'riskju l-ħajja u s-saħħa tal-persuni fuq skala kbira u jwasslu għal tfixkil sinifikanti fl-eżekuzzjoni ordinarja tal-attivitajiet soċjali u ekonomiċi. Il-komponenti tas-sikurezza tal-infrastruttura kritika, inkluż l-infrastruttura diġitali kritika, huma sistemi użati biex jipproteġu direttament l-integrità fiżika tal-infrastruttura kritika jew is-saħħa u s-sikurezza tal-persuni u l-proprjetà iżda li mhumiex meħtieġa sabiex is-sistema tiffunzjona. Il-falliment jew il-funzjonament ħażin ta' tali komponenti jista' jwassal direttament għal riskji għall-integrità fiżika tal-infrastruttura kritika u b'hekk għal riskji għas-saħħa u s-sikurezza tal-persuni u l-proprjetà. Jenħtieġ li l-komponenti maħsuba biex jintużaw biss għal finijiet taċ-ċibersigurtà ma jikkwalifikawx bħala komponenti ta' sikurezza. Eżempji ta' komponenti ta' sikurezza ta' tali infrastruttura kritika jistgħu jinkludu sistemi għall-monitoraġġ tas-sistemi ta' kontroll tal-pressjoni tal-ilma jew tal-allarm tan-nar fiċ-ċentri tal-cloud computing.
(55)
Per quanto riguarda la gestione e il funzionamento delle infrastrutture critiche, è opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati come componenti di sicurezza ai fini della gestione e del funzionamento delle infrastrutture digitali critiche di cui all'allegato, punto 8, della direttiva (UE) 2022/2557, del traffico stradale nonché della fornitura di acqua, gas, riscaldamento ed elettricità, in quanto un loro guasto o malfunzionamento può mettere a rischio la vita e la salute di un grande numero di persone e provocare perturbazioni significative del normale svolgimento delle attività sociali ed economiche. I componenti di sicurezza delle infrastrutture critiche, comprese le infrastrutture digitali critiche, sono sistemi utilizzati per proteggere direttamente l'integrità fisica delle infrastrutture critiche ovvero la salute e la sicurezza delle persone e dei beni ma che non sono necessari per il funzionamento del sistema. Un guasto o malfunzionamento di tali componenti potrebbe comportare direttamente rischi per l'integrità fisica delle infrastrutture critiche e quindi per la salute e la sicurezza delle persone e dei beni. I componenti destinati a essere utilizzati esclusivamente a fini di cibersicurezza non dovrebbero essere considerati componenti di sicurezza. Tra gli esempi di componenti di sicurezza di tali infrastrutture critiche possono rientrare i sistemi di monitoraggio della pressione idrica o sistemi di controllo degli incendi nei centri di cloud computing.
(56)
L-implimentazzjoni tas-sistemi tal-IA fl-edukazzjoni huwa importanti biex jiġu promossi l-edukazzjoni u t-taħriġ diġitali ta' kwalità għolja u biex l-istudenti u l-għalliema kollha jkunu jistgħu jiksbu u jikkondividu l-ħiliet u l-kompetenzi diġitali meħtieġa, inkluż il-litteriżmu fil-media, u l-ħsieb kritiku, biex jieħdu sehem attiv fl-ekonomija, fis-soċjetà, u fil-proċessi demokratiċi. Madankollu, is-sistemi tal-IA użati fl-edukazzjoni jew fit-taħriġ vokazzjonali, b'mod partikolari għad-determinazzjoni tal-aċċess jew l-ammissjoni, għall-assenjazzjoni ta' persuni lil istituzzjonijiet jew programmi edukattivi u ta' taħriġ vokazzjonali fil-livelli kollha, għall-evalwazzjoni tal-eżiti tal-apprendiment tal-persuni, għall-valutazzjoni tal-livell xieraq ta' edukazzjoni għal individwu u li materjalment jinfluwenzaw il-livell ta' edukazzjoni u taħriġ li l-individwi ser jirċievu jew ser ikunu jistgħu jaċċessaw jew għall-monitoraġġ u għad-detezzjoni ta' mġiba pprojbita tal-istudenti matul it-testijiet jenħtieġ li jiġu kklassifikati bħala sistemi tal-IA b'riskju għoli, għax jistgħu jiddeterminaw il-kors edukattiv u professjonali tal-ħajja ta' persuna u għalhekk jistgħu jaffettwaw l-abbiltà ta' dik il-persuna li tiżgura l-għajxien. Meta jitfasslu u jintużaw b'mod mhux xieraq, dawn is-sistemi jistgħu jkunu partikolarment intrużivi u jistgħu jiksru d-dritt għal edukazzjoni u taħriġ kif ukoll id-dritt ta' nondiskriminazzjoni, u jipperpetwaw mudelli storiċi ta' diskriminazzjoni, pereżempju kontra n-nisa, ċerti gruppi ta' età, persuni b'diżabbiltà, jew persuni ta' ċerta oriġini razzjali jew etnika jew orjentazzjoni sesswali.
(56)
La diffusione dei sistemi di IA nell'istruzione è importante per promuovere un'istruzione e una formazione digitali di alta qualità e per consentire a tutti i discenti e gli insegnanti di acquisire e condividere le competenze e le abilità digitali necessarie, compresa l'alfabetizzazione mediatica, e il pensiero critico, per partecipare attivamente all'economia, alla società e ai processi democratici. Tuttavia, i sistemi di IA utilizzati nell'istruzione o nella formazione professionale, in particolare per determinare l'accesso o l'ammissione, per assegnare persone agli istituti o ai programmi di istruzione e formazione professionale a tutti i livelli, per valutare i risultati dell'apprendimento delle persone, per valutare il livello di istruzione adeguato per una persona e influenzare materialmente il livello di istruzione e formazione che le persone riceveranno o a cui potranno avere accesso o per monitorare e rilevare comportamenti vietati degli studenti durante le prove, dovrebbero essere classificati come sistemi di IA ad alto rischio, in quanto possono determinare il percorso d'istruzione e professionale della vita di una persona e quindi può incidere sulla sua capacità di garantire il proprio sostentamento. Se progettati e utilizzati in modo inadeguato, tali sistemi possono essere particolarmente intrusivi e violare il diritto all'istruzione e alla formazione, nonché il diritto alla non discriminazione, e perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale.
(57)
Jenħtieġ li s-sistemi tal-IA użati fl-impjiegi, fil-ġestjoni tal-ħaddiema u fl-aċċess għal impjieg indipendenti, b'mod partikolari għar-reklutaġġ u għall-għażla tal-persuni, għat-teħid ta' deċiżjonijiet li jaffettwaw it-termini tar-relazzjonijiet marbuta max-xogħol, il-promozzjoni u t-terminazzjoni ta' relazzjonijiet kuntrattwali relatati max-xogħol, għall-allokazzjoni ta' kompiti abbażi tal-imġiba individwali, il-kwalitajiet jew il-karatteristiċi personali u għall-monitoraġġ jew l-evalwazzjoni ta' persuni f'relazzjonijiet kuntrattwali relatati max-xogħol, jiġu kklassifikati wkoll bħala b'riskju għoli, peress li dawk is-sistemi jista' jkollhom impatt sinifikanti fuq il-prospetti futuri tal-karriera, l-għajxien ta' dawk il-persuni u d-drittijiet tal-ħaddiema. Jenħtieġ li r-relazzjonijiet kuntrattwali rilevanti relatati max-xogħol ikunu jinvolvu b'mod sinifikattiv lill-impjegati u lill-persuni li jipprovdu servizzi permezz ta' pjattaformi kif imsemmi fil-Programm ta' Ħidma tal-Kummissjoni għall-2021. Tul il-proċess kollu tar-reklutaġġ u fl-evalwazzjoni, fil-promozzjoni, jew fiż-żamma ta' persuni f'relazzjonijiet kuntrattwali relatati max-xogħol, dawn is-sistemi jistgħu jipperpetwaw mudelli storiċi ta' diskriminazzjoni, pereżempju kontra n-nisa, ċerti gruppi ta' età, persuni b'diżabbiltà, jew persuni ta' ċerta oriġini razzjali jew etnika jew orjentazzjoni sesswali. Is-sistemi tal-IA użati għall-monitoraġġ tal-prestazzjoni u tal-imġiba ta' tali persuni jistgħu jdgħajfu wkoll id-drittijiet fundamentali tagħhom għall-protezzjoni tad-data u l-privatezza.
(57)
Anche i sistemi di IA utilizzati nel settore dell'occupazione, nella gestione dei lavoratori e nell'accesso al lavoro autonomo, in particolare per l'assunzione e la selezione delle persone, per l'adozione di decisioni riguardanti le condizioni del rapporto di lavoro la promozione e la cessazione dei rapporti contrattuali di lavoro, per l'assegnazione dei compiti sulla base dei comportamenti individuali, dei tratti o delle caratteristiche personali e per il monitoraggio o la valutazione delle persone nei rapporti contrattuali legati al lavoro, dovrebbero essere classificati come sistemi ad alto rischio, in quanto tali sistemi possono avere un impatto significativo sul futuro di tali persone in termini di prospettive di carriera e sostentamento e di diritti dei lavoratori. I pertinenti rapporti contrattuali di lavoro dovrebbero coinvolgere, in modo significativo, i dipendenti e le persone che forniscono servizi tramite piattaforme, come indicato nel programma di lavoro annuale della Commissione per il 2021. Durante tutto il processo di assunzione, nonché ai fini della valutazione e della promozione delle persone o del proseguimento dei rapporti contrattuali legati al lavoro, tali sistemi possono perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale. I sistemi di IA utilizzati per monitorare le prestazioni e il comportamento di tali persone possono inoltre comprometterne i diritti fondamentali in materia di protezione dei dati e vita privata.
(58)
Qasam ieħor li fih l-użu tas-sistemi tal-IA jixirqilhom kunsiderazzjoni speċjali hu l-aċċess għal ċerti servizzi u benefiċċji privati u pubbliċi essenzjali u t-tgawdija ta' dawn is-servizzi u l-benefiċċji meħtieġa biex in-nies jipparteċipaw bis-sħiħ fis-soċjetà jew biex itejbu l-istandard tal-għajxien tagħhom. B'mod partikolari, il-persuni fiżiċi li japplikaw għal jew li jirċievu benefiċċji u servizzi essenzjali ta' assistenza pubblika mill-awtoritajiet pubbliċi, jiġifieri s-servizzi tal-kura tas-saħħa, il-benefiċċji tas-sigurtà soċjali, is-servizzi soċjali li jipprovdu protezzjoni f'każijiet bħall-maternità, il-mard, l-inċidenti industrijali, id-dipendenza jew ix-xjuħija u t-telf tal-impjieg u l-assistenza soċjali u tal-akkomodazzjoni, huma tipikament dipendenti fuq dawk il-benefiċċji u s-servizzi u f'pożizzjoni vulnerabbli fir-rigward tal-awtoritajiet responsabbli. Jekk is-sistemi tal-IA jintużaw biex jiġi determinat jekk dawn il-benefiċċji u s-servizzi għandhomx jingħataw, jiċċaħħdu, jitnaqqsu, jitneħħew jew jittieħdu lura mill-awtoritajiet, inkluż jekk il-benefiċjarji humiex leġittimament intitolati għal tali benefiċċji jew servizzi, dawk is-sistemi jista' jkollhom impatt sinifikanti fuq l-għajxien tal-persuni u jistgħu jiksru d-drittijiet fundamentali tagħhom, bħad-dritt għall-protezzjoni soċjali, id-dritt ta' nondiskriminazzjoni, għad-dinjità umana jew għal rimedju effettiv u għalhekk jenħtieġ li jiġu kklassifikati bħala b'riskju għoli. Madankollu, jenħtieġ li dan ir-Regolament ma jfixkilx l-iżvilupp u l-użu ta' approċċi innovattivi fl-amministrazzjoni pubblika, li jkunu jistgħu jibbenefikaw minn użu aktar mifrux ta' sistemi tal-IA konformi u sikuri, dment li dawk is-sistemi ma jkunux jinvolvu riskju għoli għall-persuni ġuridiċi u fiżiċi. Barra minn hekk, jenħtieġ li s-sistemi tal-IA użati biex jevalwaw il-kreditu jew għall-evalwazzjoni tal-affidabbiltà kreditizja ta' xi persuni fiżiċi jiġu kklassifikati bħala b'riskju għoli peress li jiddeterminaw l-aċċess ta' dawk il-persuni għal riżorsi finanzjarji jew għal servizzi essenzjali bħall-akkomodazzjoni, l-elettriku, u s-servizzi tat-telekomunikazzjoni. Is-sistemi tal-IA użati għal dawk il-finijiet jistgħu jwasslu għad-diskriminazzjoni bejn persuni jew gruppi u jistgħu jipperpetwaw mudelli storiċi ta' diskriminazzjoni, dħal dik ibbażati fuq l-oriġini razzjali jew etnika, il-ġeneru, id-diżabbiltà, l-età jew l-orjentazzjoni sesswali, jew jistgħu joħolqu forom ġodda ta' impatti diskriminatorji. Madankollu, jenħtieġ li s-sistemi tal-IA previsti mil-liġi tal-Unjoni għall-fini li tiġi identifikata frodi fl-offerta ta' servizzi finanzjarji u għal finijiet prudenzjali biex jiġu kkalkulati r-rekwiżiti kapitali tal-istituzzjonijiet ta' kreditu u tal-impriżi tal-assigurazzjoni ma jitqisux li jkunu b'riskju għoli skont dan ir-Regolament. Barra minn hekk, is-sistemi tal-IA maħsuba biex jintużaw għall-valutazzjoni tar-riskju u l-ipprezzar fir-rigward ta' persuni fiżiċi għall-assigurazzjoni tas-saħħa u tal-ħajja jista' wkoll ikollhom impatt sinifikanti fuq l-għajxien tal-persuni u jekk ma jkunux imfassla, żviluppati u użati kif xieraq, jistgħu jiksru d-drittijiet fundamentali tagħhom u jistgħu jwasslu għal konsegwenzi serji għall-ħajja u għas-saħħa tan-nies, inkluż l-esklużjoni finanzjarja u d-diskriminazzjoni. Fl-aħħar nett, jenħtieġ li anki s-sistemi tal-IA użati biex jiġu evalwati u kklassifikati telefonati ta' emerġenza minn persuni fiżiċi jew biex tintbagħat jew tiġi stabbilita prijorità fid-dispaċċ ta' servizzi tal-ewwel rispons ta' emerġenza, inkluż mill-pulizija, mill-ħaddiema tat-tifi tan-nar u mill-għajnuna medika, kif ukoll tas-sistemi tat-triage tal-pazjenti fil-qasam tal-kura tas-saħħa ta' emerġenza, jiġu kklassifikati bħala b'riskju għoli għax dawn jieħdu deċiżjonijiet f'sitwazzjonijiet kritiċi ħafna għall-ħajja u għas-saħħa tal-persuni u għall-proprjetà tagħhom.
(58)
Un altro settore in cui l'utilizzo dei sistemi di IA merita particolare attenzione è l'accesso ad alcuni servizi e prestazioni essenziali, pubblici e privati, necessari affinché le persone possano partecipare pienamente alla vita sociale o migliorare il proprio tenore di vita, e la fruizione di tali servizi. In particolare, le persone fisiche che chiedono o ricevono prestazioni e servizi essenziali di assistenza pubblica dalle autorità pubbliche, vale a dire servizi sanitari, prestazioni di sicurezza sociale, servizi sociali che forniscono protezione in casi quali la maternità, la malattia, gli infortuni sul lavoro, la dipendenza o la vecchiaia e la perdita di occupazione e l'assistenza sociale e abitativa, sono di norma dipendenti da tali prestazioni e servizi e si trovano generalmente in una posizione vulnerabile rispetto alle autorità responsabili. I sistemi di IA, se utilizzati per determinare se tali prestazioni e servizi dovrebbero essere concessi, negati, ridotti, revocati o recuperati dalle autorità, compreso se i beneficiari hanno legittimamente diritto a tali prestazioni o servizi, possono avere un impatto significativo sul sostentamento delle persone e violare i loro diritti fondamentali, quali il diritto alla protezione sociale, alla non discriminazione, alla dignità umana o a un ricorso effettivo e dovrebbero pertanto essere classificati come sistemi ad alto rischio. Cionondimeno, il presente regolamento non dovrebbe ostacolare lo sviluppo e l'utilizzo di approcci innovativi nella pubblica amministrazione, che trarrebbero beneficio da un uso più ampio di sistemi di IA conformi e sicuri, a condizione che tali sistemi non comportino un rischio alto per le persone fisiche e giuridiche. È inoltre opportuno classificare i sistemi di IA utilizzati per valutare il merito di credito o l'affidabilità creditizia delle persone fisiche come sistemi di IA ad alto rischio, in quanto determinano l'accesso di tali persone alle risorse finanziarie o a servizi essenziali quali l'alloggio, l'elettricità e i servizi di telecomunicazione. I sistemi di IA utilizzati a tali fini possono portare alla discriminazione fra persone o gruppi e possono perpetuare modelli storici di discriminazione, come quella basata sull'origine razziale o etnica, sul genere, sulle disabilità, sull'età o sull'orientamento sessuale, o possono dar vita a nuove forme di impatti discriminatori. Tuttavia, i sistemi di IA previsti dal diritto dell'Unione al fine di individuare frodi nell'offerta di servizi finanziari e a fini prudenziali per calcolare i requisiti patrimoniali degli enti creditizi e delle imprese assicurative non dovrebbero essere considerati ad alto rischio ai sensi del presente regolamento. Inoltre, anche i sistemi di IA destinati a essere utilizzati per la valutazione dei rischi e la determinazione dei prezzi in relazione alle persone fisiche per assicurazioni sulla vita e assicurazioni sanitarie possono avere un impatto significativo sul sostentamento delle persone e, se non debitamente progettati, sviluppati e utilizzati, possono violare i loro diritti fondamentali e comportare gravi conseguenze per la vita e la salute delle persone, tra cui l'esclusione finanziaria e la discriminazione. Infine, è opportuno classificare come ad alto rischio anche i sistemi di IA utilizzati per valutare e classificare le chiamate di emergenza effettuate da persone fisiche o inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all'invio di tali servizi, anche da parte di polizia, vigili del fuoco e assistenza medica, nonché per i sistemi di selezione dei pazienti per quanto concerne l'assistenza sanitaria di emergenza in quanto prendono decisioni in situazioni molto critiche per la vita e la salute delle persone e per i loro beni.
(59)
Minħabba r-rwol u r-responsabbiltà tagħhom, l-azzjonijiet tal-awtoritajiet tal-infurzar tal-liġi li jinvolvu ċerti użi tas-sistemi tal-IA huma kkaratterizzati minn grad sinifikanti ta' żbilanċ fil-poter u jistgħu jwasslu għal sorveljanza, għal arrest jew għal ċaħda tal-libertà ta' persuna fiżika u għal impatti negattivi oħra fuq id-drittijiet fundamentali garantiti fil-Karta. B'mod partikolari, jekk is-sistema tal-IA ma tkunx imħarrġa b'data ta' kwalità għolja, ma tkunx tissodisfa rekwiżiti adegwati fir-rigward tal-prestazzjoni, l-akkuratezza jew ir-robustezza tagħha, jew ma tkunx imfassla u ttestjata kif xieraq qabel ma tiġi introdotta fis-suq jew titqiegħed fis-servizz b'xi mod ieħor, din tista' tindividwa persuni b'mod diskriminatorju jew b'mod skorrett jew inġust. Barra minn hekk, l-eżerċitar ta' drittijiet fundamentali proċedurali importanti, bħad-dritt għal rimedju effettiv u għal proċess ġust kif ukoll id-dritt għal difiża u l-preżunzjoni tal-innoċenza, jista' jiġi mfixkel meta, b'mod partikolari, dawn is-sistemi tal-IA ma jkunux trasparenti, spjegabbli u dokumentati biżżejjed. Għalhekk, sakemm l-użu tagħhom ikun permess skont il-liġi rilevanti tal-Unjoni u dik nazzjonali, jixraq li xi sistemi tal-IA maħsuba biex jintużaw fil-kuntest tal-infurzar tal-liġi jiġu kklassifikati bħala b'riskju għoli, meta l-akkuratezza, l-affidabbiltà u t-trasparenza jkunu partikolarment importanti biex jiġu evitati impatti negattivi, tinżamm il-fiduċja pubblika u jiġu żgurati r-responsabbiltà u rimedju effettiv. Minħabba n-natura tal-attivitajiet u r-riskji relatati magħhom, jenħtieġ li dawk is-sistemi tal-IA b'riskju għoli jinkludu b'mod partikolari s-sistemi tal-IA maħsuba biex jintużaw minn jew f'isem l-awtoritajiet tal-infurzar tal-liġi jew minn istituzzjonijiet, korpi, uffiċċji jew aġenziji tal-Unjoni b'appoġġ għall-awtoritajiet tal-infurzar tal-liġi għall-valutazzjoni tar-riskju ta' persuna fiżika li ssir vittma ta' reati kriminali, bħal poligrafi u għodod simili, għall-evalwazzjoni tal-affidabbiltà tal-evidenza waqt investigazzjoni jew prosekuzzjoni ta' reati kriminali, u, sa fejn mhux ipprojbit skont dan ir-Regolament, għall-valutazzjoni tar-riskju ta' persuna fiżika li twettaq reat jew twettaq reat mill-ġdid mhux biss abbażi tat-tfassil ta' profili ta' persuni fiżiċi jew tal-valutazzjoni tal-kwalitajiet u l-karatteristiċi tal-personalità jew l-imġiba kriminali fil-passat ta' persuni fiżiċi jew gruppi, għat-tfassil ta' profili matul il-kxif, l-investigazzjoni jew il-prosekuzzjoni ta' reati kriminali. Jenħtieġ li s-sistemi tal-IA maħsuba speċifikament biex jintużaw għal proċedimenti amministrattivi mill-awtoritajiet tat-taxxa u tad-dwana kif ukoll mill-unitajiet tal-intelligence finanzjarja li jwettqu kompiti amministrattivi li janalizzaw l-informazzjoni skont il-liġi tal-Unjoni kontra l-ħasil tal-flus ma jiġux klassifikati bħala sistemi tal-IA b'riskju għoli użati mill-awtoritajiet tal-infurzar tal-liġi għall-fini tal-prevenzjoni, il-kxif, l-investigazzjoni u l-prosekuzzjoni ta' reati kriminali. Jenħtieġ li l-użu tal-għodod tal-IA mill-awtoritajiet tal-infurzar tal-liġi u awtoritajiet rilevanti oħra ma jsirx fattur ta' inugwaljanza jew esklużjoni. Jenħtieġ li l-impatt tal-użu tal-għodod tal-IA fuq id-drittijiet tad-difiża tal-persuni suspettati ma jiġix injorat, b'mod partikolari d-diffikultà biex tinkiseb informazzjoni sinifikattiva dwar il-funzjonament ta' dawk is-sistemi u d-diffikultà li tirriżulta biex jiġu kkontestati r-riżultati tagħhom fil-qorti, b'mod partikolari minn persuni fiżiċi li qed jiġu investigati.
(59)
Tenuto conto del loro ruolo e della loro responsabilità, le azioni delle autorità di contrasto che prevedono determinati usi dei sistemi di IA sono caratterizzate da un livello significativo di squilibrio di potere e possono portare alla sorveglianza, all'arresto o alla privazione della libertà di una persona fisica, come pure avere altri impatti negativi sui diritti fondamentali garantiti nella Carta. In particolare, il sistema di IA, se non è addestrato con dati di elevata qualità, se non soddisfa requisiti adeguati in termini di prestazione, accuratezza o robustezza, o se non è adeguatamente progettato e sottoposto a prova prima di essere immesso sul mercato o altrimenti messo in servizio, può individuare le persone in modo discriminatorio o altrimenti errato o ingiusto. Potrebbe inoltre essere ostacolato l'esercizio di importanti diritti procedurali fondamentali, quali il diritto a un ricorso effettivo e a un giudice imparziale, nonché i diritti della difesa e la presunzione di innocenza, in particolare nel caso in cui tali sistemi di IA non siano sufficientemente trasparenti, spiegabili e documentati. È pertanto opportuno classificare come ad alto rischio, nella misura in cui il loro uso è consentito dal pertinente diritto dell'Unione e nazionale, una serie di sistemi di IA destinati a essere utilizzati nel contesto delle attività di contrasto, in cui l'accuratezza, l'affidabilità e la trasparenza risultano particolarmente importanti per evitare impatti negativi, mantenere la fiducia dei cittadini e garantire la responsabilità e mezzi di ricorso efficaci. In considerazione della natura delle attività e dei rischi a esse connessi, tra tali sistemi di IA ad alto rischio è opportuno includere, in particolare, i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto, o per loro conto, o dagli organi o organismi dell'Unione a sostegno delle autorità di contrasto per valutare il rischio per una persona fisica di diventare vittima di reati, come poligrafi e strumenti analoghi, valutare l'affidabilità degli elementi probatori nel corso dell'accertamento e del perseguimento di reati, e, nella misura in cui non è vietato a norma del presente regolamento, determinare il rischio di reato o recidiva in relazione a una persona fisica non solo sulla base della profilazione delle persone fisiche, ma anche della valutazione dei tratti e delle caratteristiche della personalità o del comportamento criminale pregresso delle persone fisiche o dei gruppi, ai fini della profilazione nel corso dell'indagine, dell'accertamento e del perseguimento di reati. I sistemi di IA specificamente destinati a essere utilizzati per procedimenti amministrativi dalle autorità fiscali e doganali, come pure dalle unità di informazione finanziaria che svolgono compiti amministrativi di analisi delle informazioni conformemente al diritto dell’Unione in materia di antiriciclaggio, non dovrebbero essere classificati come sistemi di IA ad alto rischio utilizzati dalle autorità di contrasto a fini di prevenzione, accertamento, indagine e perseguimento di reati. L'utilizzo degli strumenti di IA da parte delle autorità di contrasto e delle altre pertinenti autorità non dovrebbe diventare un fattore di disuguaglianza o esclusione. L'impatto dell'utilizzo degli strumenti di IA sul diritto alla difesa degli indagati non dovrebbe essere ignorato, in particolare la difficoltà di ottenere informazioni significative sul funzionamento di tali sistemi e la difficoltà che ne risulta nel confutarne i risultati in tribunale, in particolare per le persone fisiche sottoposte a indagini.
(60)
Is-sistemi tal-IA użati fil-ġestjoni tal-migrazzjoni, tal-ażil u tal-kontroll fil-fruntieri jaffettwaw lil persuni li spiss ikunu f'pożizzjoni partikolarment vulnerabbli u li jiddependu fuq l-eżitu tal-azzjonijiet tal-awtoritajiet pubbliċi kompetenti. Għalhekk, l-akkuratezza, in-natura nondiskriminatorja u t-trasparenza tas-sistemi tal-IA użati f'dawk il-kuntesti huma partikolarment importanti biex ikun żgurat ir-rispett għad-drittijiet fundamentali tal-persuni affettwati, b'mod partikolari d-drittijiet tagħhom ta' moviment liberu, ta' nondiskriminazzjoni, ta' protezzjoni tal-ħajja privata u ta' data personali, ta' protezzjoni internazzjonali u ta' amministrazzjoni tajba. Għalhekk, sa fejn l-użu tagħhom ikun permess skont il-liġi rilevanti tal-Unjoni u nazzjonali, jixraq li jiġu kklassifikati bħala b'riskju għoli s-sistemi tal-IA maħsuba biex jintużaw minn jew f'isem awtoritajiet pubbliċi kompetenti jew minn istituzzjonijiet, korpi, uffiċċji jew aġenziji tal-Unjoni inkarigati b'kompiti fl-oqsma tal-migrazzjoni, l-ażil u l-ġestjoni tal-kontroll tal-fruntieri, bħal pereżempju poligrafi u għodod simili, għall-valutazzjoni ta' ċerti riskji maħluqa minn persuni fiżiċi li jidħlu fit-territorju ta' Stat Membru jew li japplikaw għal viża jew ażil, biex jassistu lill-awtoritajiet pubbliċi kompetenti għall-eżami, inkluż il-valutazzjoni relatata tal-affidabbiltà tal-evidenza, tal-applikazzjonijiet għall-ażil, tal-viża u tal-permessi ta' residenza u tal-ilmenti assoċjati fir-rigward tal-objettiv li tiġi stabbilita l-eliġibbiltà tal-persuni fiżiċi li japplikaw għal status, għall-fini tad-detezzjoni, ir-rikonoxximent jew l-identifikazzjoni ta' persuni fiżiċi fil-kuntest tal-ġestjoni tal-migrazzjoni, l-ażil u l-kontroll tal-fruntieri, bl-eċċezzjoni tal-verifika tad-dokumenti tal-ivvjaġġar. Jenħtieġ li s-sistemi tal-IA fil-qasam tal-ġestjoni tal-migrazzjoni, tal-ażil u tal-kontroll fil-fruntieri koperti b'dan ir-Regolament ikunu konformi mar-rekwiżiti proċedurali rilevanti stabbiliti mir-Regolament (KE) Nru 810/2009 tal-Parlament Ewropew u tal-Kunsill (32), mid-Direttiva 2013/32/UE tal-Parlament Ewropew u tal-Kunsill (33), u minn leġiżlazzjoni rilevanti oħra tal-Unjoni. Jenħtieġ li l-użu tas-sistemi tal-IA fil-ġestjoni tal-migrazzjoni, tal-ażil u tal-kontroll fil-fruntieri, fl-ebda ċirkostanza, ma jintuża mill-Istati Membri jew mill-istituzzjonijiet, mill-korpi, mill-uffiċċji jew mill-aġenziji tal-Unjoni bħala mezz biex jevitaw l-obbligi internazzjonali tagħhom skont il-Konvenzjoni tan-NU dwar l-Istatus tar-Refuġjati magħmula f'Ġinevra fit-28 ta' Lulju 1951 kif emendata mill-Protokoll tal-31 ta' Jannar 1967. Jenħtieġ li lanqas ma jintużaw biex jinkiser il-prinċipju ta' non-refoulement, jew biex jiġu mċaħħda perkorsi legali sikuri u effettivi lejn it-territorju tal-Unjoni, inkluż id-dritt għall-protezzjoni internazzjonali.
(60)
I sistemi di IA utilizzati nel settore della migrazione, dell'asilo e della gestione del controllo delle frontiere hanno effetti su persone che si trovano spesso in una posizione particolarmente vulnerabile e il cui futuro dipende dall'esito delle azioni delle autorità pubbliche competenti. L'accuratezza, la natura non discriminatoria e la trasparenza dei sistemi di IA utilizzati in tali contesti sono pertanto particolarmente importanti per garantire il rispetto dei diritti fondamentali delle persone interessate, in particolare i loro diritti alla libera circolazione, alla non discriminazione, alla protezione della vita privata e dei dati personali, alla protezione internazionale e alla buona amministrazione. È pertanto opportuno classificare come ad alto rischio, nella misura in cui il loro uso è consentito dal pertinente diritto dell'Unione e nazionale, i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti, o per loro conto, o dalle istituzioni, dagli organi o dagli organismi dell'Unione, incaricati di compiti in materia di migrazione, asilo e gestione del controllo delle frontiere, come poligrafi e strumenti analoghi, per valutare taluni rischi presentati da persone fisiche che entrano nel territorio di uno Stato membro o presentano domanda di visto o di asilo, per assistere le autorità pubbliche competenti nell'esame delle domande di asilo, di visto e di permesso di soggiorno e dei relativi reclami in relazione all'obiettivo di determinare l'ammissibilità delle persone fisiche che richiedono tale status, compresa la connessa valutazione dell'affidabilità degli elementi probatori, al fine di individuare, riconoscere o identificare persone fisiche nel contesto della migrazione, dell'asilo e della gestione del controllo delle frontiere con l’eccezione della verifica dei documenti di viaggio. I sistemi di IA nel settore della migrazione, dell'asilo e della gestione del controllo delle frontiere disciplinati dal presente regolamento dovrebbero essere conformi ai pertinenti requisiti procedurali stabiliti dal regolamento (CE) n, 810/2009 del Parlamento europeo e del Consiglio (32), dalla direttiva 2013/32/UE del Parlamento europeo e del Consiglio, (33) e da altre pertinenti disposizioni di diritto dell’Unione. I sistemi di IA nel settore della migrazione, dell'asilo e della gestione del controllo delle frontiere non dovrebbero in alcun caso essere utilizzati dagli Stati membri o dalle istituzioni, dagli organi o dagli organismi dell'Unione come mezzo per eludere gli obblighi internazionali a essi derivanti a titolo della convenzione delle Nazioni Unite relativa allo status dei rifugiati firmata a Ginevra il 28 luglio 1951, modificata dal protocollo del 31 gennaio 1967. Essi non dovrebbero essere utilizzati per violare in alcun modo il principio di non respingimento o per negare sicure ed efficaci vie legali di ingresso nel territorio dell'Unione, compreso il diritto alla protezione internazionale.
(61)
Jenħtieġ li ċerti sistemi tal-IA maħsuba għall-amministrazzjoni tal-ġustizzja u għall-proċessi demokratiċi jiġu kklassifikati bħala b'riskju għoli, meta jitqies l-impatt potenzjalment sinifikanti tagħhom fuq id-demokrazija, l-istat tad-dritt, il-libertajiet individwali u d-dritt għal rimedju effettiv u għal proċess imparzjali. B'mod partikolari, biex jiġu indirizzati r-riskji ta' preġudizzji, żbalji u opaċità potenzjali, jixraq li s-sistemi maħsuba biex jintużaw minn awtorità ġudizzjarja jew f'isimha biex jgħinu lill-awtoritajiet ġudizzjarji fir-riċerka u l-interpretazzjoni tal-fatti u tal-liġi u fl-applikazzjoni tal-liġi għal sett konkret ta' fatti, jikkwalifikaw bħala sistemi tal-IA b'riskju għoli. Jenħtieġ li s-sistemi tal-IA maħsuba biex jintużaw minn korpi għal soluzzjonijiet alternattivi għat-tilwim għal dawk il-finijiet jitqiesu wkoll li huma b'riskju għoli meta l-eżiti tal-proċedimenti ta' soluzzjoni alternattiva għat-tilwim jipproduċu effetti legali għall-partijiet. L-użu ta' għodod tal-IA jista' jappoġġa s-setgħa tat-teħid ta' deċiżjonijiet tal-imħallfin jew l-indipendenza ġudizzjarja, iżda jenħtieġ li ma jissostitwixxihiex: it-teħid finali ta' deċiżjonijiet irid jibqa' attività mmexxija mill-bniedem. Madankollu, jenħtieġ li l-klassifikazzjoni ta' sistemi tal-IA bħala b'riskju għoli ma testendix għal sistemi tal-IA maħsuba għal attivitajiet amministrattivi purament anċillari li ma jaffettwawx l-amministrazzjoni attwali tal-ġustizzja f'każijiet individwali, bħall-anonimizzazzjoni jew il-psewdonimizzazzjoni ta' deċiżjonijiet ġudizzjarji, ta' dokumenti jew ta' data, il-komunikazzjoni bejn il-persunal jew il-kompiti amministrattivi.
(61)
Alcuni sistemi di IA destinati all'amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un'autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti. Anche i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie a tali fini dovrebbero essere considerati ad alto rischio quando gli esiti dei procedimenti di risoluzione alternativa delle controversie producono effetti giuridici per le parti. L'utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all'indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un'attività a guida umana. Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi.
(62)
Mingħajr preġudizzju għar-regoli previsti fir-Regolament (UE) 2024/… tal-Parlament Ewropew u tal-Kunsill (34), u sabiex jiġu indirizzati r-riskji ta' interferenza esterna mhux dovuta fuq id-dritt tal-vot minqux fl-Artikolu 39 tal-Karta, u ta' effetti negattivi fuq id-demokrazija u l-istat tad-dritt, jenħtieġ li s-sistemi tal-IA maħsuba biex jintużaw bil-għan li jinfluwenzaw l-eżitu ta' elezzjoni jew referendum jew l-imġiba tal-votazzjoni ta' persuni fiżiċi fl-eżerċizzju tal-vot tagħhom fl-elezzjonijiet jew fir-referenda jiġu kklassifikati bħala sistemi tal-IA b'riskju għoli bl-eċċezzjoni ta' sistemi tal-IA li l-output tagħhom ma jkunx espost għal persuni fiżiċi, bħal għodod użati għall-organizzazzjoni, l-ottimizzazzjoni u l-istruttura ta' kampanji politiċi minn perspettiva amministrattiva u loġistika.
(62)
Fatte salve le norme previste dal regolamento (UE) 2024/900 del Parlamento europeo e del Consiglio (34), e al fine di affrontare i rischi di indebite interferenze esterne sul diritto di voto sancito dall'articolo 39 della Carta e di effetti negativi sulla democrazia e sullo Stato di diritto, i sistemi di IA destinati a essere utilizzati per influenzare l'esito di elezioni o referendum o il comportamento di voto delle persone fisiche nell'esercizio del loro voto alle elezioni o ai referendum dovrebbero essere classificati come sistemi di IA ad alto rischio, ad eccezione dei sistemi di IA ai cui output le persone fisiche non sono direttamente esposte, come gli strumenti utilizzati per organizzare, ottimizzare e strutturare le campagne politiche da un punto di vista amministrativo e logistico.
(63)
Jenħtieġ li l-fatt li sistema tal-IA tiġi kklassifikata bħala sistema tal-IA b'riskju għoli skont dan ir-Regolament ma jiġix interpretat bħala indikatur li l-użu tas-sistema huwa legali skont atti oħra tal-liġi tal-Unjoni jew skont il-liġi nazzjonali kompatibbli mal-liġi tal-Unjoni, bħal dwar il-protezzjoni tad-data personali, dwar l-użu tal-poligrafi u ta' għodod simili jew ta' sistemi oħra biex jiġi identifikat l-istat emozzjonali ta' persuni fiżiċi. Jenħtieġ li kull użu bħal dan ikompli jseħħ biss f'konformità mar-rekwiżiti applikabbli li jirriżultaw mill-Karta u mill-atti applikabbli tal-liġi sekondarja tal-Unjoni u tal-liġi nazzjonali. Jenħtieġ li dan ir-Regolament ma jinftiehemx li jipprevedi l-bażi legali għall-ipproċessar tad-data personali, inkluż kategoriji speċjali ta' data personali, meta rilevanti, sakemm mhux speċifikament previst mod ieħor f'dan ir-Regolament.
(63)
Il fatto che un sistema di IA sia classificato come sistema di IA ad alto rischio a norma del presente regolamento non dovrebbe essere interpretato come un'indicazione del fatto che l'utilizzo del sistema sia lecito a norma di altri atti giuridici dell'Unione o del diritto nazionale compatibile con il diritto dell'Unione, ad esempio in materia di protezione dei dati personali, uso di poligrafi e strumenti analoghi o di altri sistemi atti a rilevare lo stato emotivo delle persone fisiche. Qualsiasi siffatto utilizzo dovrebbe continuare a verificarsi solo in conformità dei requisiti applicabili risultanti dalla Carta e dagli atti applicabili di diritto derivato dell'Unione e di diritto nazionale. Il presente regolamento non dovrebbe essere inteso come un fondamento giuridico per il trattamento dei dati personali, comprese, ove opportuno, categorie particolari di dati personali, salvo quando diversamente disposto in modo specifico dal presente regolamento.
(64)
Biex jiġu mitigati r-riskji minn sistemi tal-IA b'riskju għoli introdotti fis-suq jew imqiegħda fis-servizz u biex jiġi żgurat livell għoli ta' affidabbiltà, jenħtieġ li ċerti rekwiżiti obbligatorji japplikaw għas-sistemi tal-IA b'riskju għoli, filwaqt li jitqies l-għan maħsub u l-kuntest tal-użu tas-sistema tal-IA u skont is-sistema ta' ġestjoni tar-riskju li għandha tiġi stabbilita mill-fornitur. Jenħtieġ li l-miżuri adottati mill-fornituri biex jikkonformaw mar-rekwiżiti obbligatorji ta' dan ir-Regolament iqisu l-ogħla livell ta' żvilupp tekniku rikonoxxut b'mod ġenerali dwar l-IA, u jkunu proporzjonati u effettivi biex jintlaħqu l-objettivi ta' dan ir-Regolament. Abbażi tal-Qafas Leġiżlattiv Ġdid, kif iċċarat fl-avviż tal-Kummissjoni “Il-‘Gwida Blu’ dwar l-implimentazzjoni tar-regoli tal-prodotti tal-UE tal-2022” ir-regola ġenerali hija li aktar minn att legali wieħed tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni jista’ jkun applikabbli għal prodott wieħed, peress li l-introduzzjoni fis-suq jew it-tqegħid fis-servizz jista' jseħħ biss meta l-prodott jikkonforma mal-leġiżlazzjoni applikabbli kollha tal-Unjoni dwar l-armonizzazzjoni. Il-perikli tas-sistemi tal-IA koperti mir-rekwiżiti ta' dan ir-Regolament jikkonċernaw aspetti differenti mill-leġiżlazzjoni eżistenti tal-Unjoni dwar l-armonizzazzjoni u għalhekk ir-rekwiżiti ta' dan ir-Regolament jikkomplementaw il-korp eżistenti tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni. Pereżempju, prodotti ta' makkinarju jew ta' apparati mediċi li jinkorporaw sistema tal-IA jistgħu jippreżentaw riskji mhux indirizzati mir-rekwiżiti essenzjali tas-saħħa u s-sikurezza stipulati fil-leġiżlazzjoni armonizzata rilevanti tal-Unjoni, peress li dik il-liġi settorjali ma tittrattax riskji speċifiċi għas-sistemi tal-IA. Dan jitlob li jkun hemm l-applikazzjoni simultanja u komplementari tad-diversi atti leġiżlattivi. Sabiex tiġi żgurata l-konsistenza u jiġu evitati piż u kostijiet amministrattivi bla bżonn, jenħtieġ li l-fornituri ta' prodott li jkun fih sistema ta' IA b'riskju għoli waħda jew aktar, li għaliha japplikaw ir-rekwiżiti ta' dan ir-Regolament u tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni bbażata fuq il-Qafas Leġiżlattiv Ġdid u elenkata f'anness ta' dan ir-Regolament, ikollhom flessibbiltà fir-rigward tad-deċiżjonijiet operazzjonali dwar kif tiġi żgurata l-konformità ta' prodott li jkun fih sistema tal-IA waħda jew aktar mar-rekwiżiti applikabbli kollha ta' dik il-leġiżlazzjoni armonizzata tal-Unjoni bl-aħjar mod. Dik il-flessibbiltà tista' tfisser, pereżempju, deċiżjoni mill-fornitur li jintegra parti mill-proċessi ta' ttestjar u rapportar, informazzjoni u dokumentazzjoni meħtieġa skont dan ir-Regolament fid-dokumentazzjoni u l-proċeduri diġà eżistenti meħtieġa skont il-leġiżlazzjoni eżistenti tal-Unjoni dwar l-armonizzazzjoni bbażata fuq il-Qafas Leġiżlattiv Ġdid u elenkata f'anness ta' dan ir-Regolament. Dan jenħtieġ li bl-ebda mod ma jimmina l-obbligu tal-fornitur li jikkonforma mar-rekwiżiti applikabbli kollha.
(64)
Al fine di attenuare i rischi derivanti dai sistemi di IA ad alto rischio immessi sul mercato o messi in servizio e per garantire un elevato livello di affidabilità, è opportuno applicare determinati requisiti obbligatori ai sistemi di IA ad alto rischio, tenendo conto della finalità prevista e del contesto dell'uso del sistema di IA e conformemente al sistema di gestione dei rischi che deve essere stabilito dal fornitore. Le misure adottate dai fornitori per conformarsi ai requisiti obbligatori del presente regolamento dovrebbero tenere conto dello stato dell'arte generalmente riconosciuto in materia di IA ed essere proporzionate ed efficaci per conseguire gli obiettivi del presente regolamento. Sulla base del nuovo quadro legislativo, come chiarito nella comunicazione della Commissione «La “Guida blu” all'attuazione della normativa UE sui prodotti 2022», di norma più di un atto giuridico della normativa di armonizzazione dell'Unione può essere applicabile a un prodotto, poiché quest'ultimo può essere messo a disposizione o messo in servizio solo se risulta conforme a tutta la normativa di armonizzazione dell'Unione applicabile. I pericoli dei sistemi di IA disciplinati dai requisiti del presente regolamento riguardano aspetti diversi rispetto alla vigente normativa di armonizzazione dell'Unione e pertanto i requisiti del presente regolamento completerebbero il corpus esistente della normativa di armonizzazione dell'Unione. Ad esempio, le macchine o i dispositivi medici in cui è integrato un sistema di IA potrebbero presentare rischi non affrontati dai requisiti essenziali di sicurezza e di tutela della salute stabiliti nella pertinente normativa armonizzata dell'Unione, in quanto tale normativa settoriale non affronta i rischi specifici dei sistemi di IA. Ciò richiede un'applicazione simultanea e complementare dei vari atti legislativi. Al fine di garantire la coerenza ed evitare oneri amministrativi e costi inutili, i fornitori di un prodotto contenente uno o più sistemi di IA ad alto rischio cui si applicano i requisiti del presente regolamento e della normativa di armonizzazione dell'Unione basata sul nuovo quadro legislativo ed elencata in un allegato del presente regolamento dovrebbero avere flessibilità per quanto riguarda le decisioni operative sulle maniere per garantire in modo ottimale la conformità di un prodotto contenente uno o più sistemi di IA a tutti i requisiti applicabili di tale normativa armonizzata dell'Unione. Tale flessibilità potrebbe significare, ad esempio, che il fornitore decide di integrare una parte dei necessari processi di prova e comunicazione, nonché delle informazioni e della documentazione richieste a norma del presente regolamento nella documentazione e nelle procedure già esistenti richieste dalla vigente normativa di armonizzazione dell'Unione sulla base del nuovo quadro legislativo ed elencate in un allegato del presente regolamento. Ciò non dovrebbe in alcun modo compromettere l'obbligo del fornitore di rispettare tutti i requisiti applicabili.
(65)
Jenħtieġ li s-sistema ta' ġestjoni tar-riskju tkun tikkonsisti fi proċess iterattiv kontinwu li jkun ippjanat u mħaddem tul iċ-ċiklu tal-ħajja kollu ta' sistema tal-IA b'riskju għoli. Jenħtieġ li dak il-proċess ikollu l-għan li jidentifika u jimmitiga r-riskji rilevanti tas-sistemi tal-IA fuq is-saħħa, is-sikurezza u d-drittijiet fundamentali. Jenħtieġ li s-sistema tal-ġestjoni tar-riskju tiġi rieżaminata u aġġornata regolarment biex jiġi żgurat li titkompla l-effettività tagħha, kif ukoll il-ġustifikazzjoni u d-dokumentazzjoni ta' kwalunkwe deċiżjoni u azzjoni sinifikanti meħuda soġġett għal dan ir-Regolament. Jenħtieġ li dan il-proċess jiżgura li l-fornitur jidentifika r-riskji jew l-impatti negattivi u jimplimenta miżuri ta' mitigazzjoni għar-riskji magħrufa u raġonevolment prevedibbli tas-sistemi tal-IA għas-saħħa, għas-sikurezza u għad-drittijiet fundamentali fid-dawl tal-għan maħsub tagħhom u tal-użu ħażin raġonevolment prevedibbli, inkluż ir-riskji possibbli li jirriżultaw mill-interazzjoni bejn is-sistema tal-IA u l-ambjent li topera fih. Jenħtieġ li s-sistema tal-ġestjoni tar-riskju tadotta l-aktar miżuri xierqa ta' ġestjoni tar-riskju fid-dawl tal-ogħla livell ta' żvilupp tekniku fl-IA. Meta jidentifika l-aktar miżuri xierqa ta' ġestjoni tar-riskju, jenħtieġ li l-fornitur jiddokumenta u jispjega l-għażliet li jkunu saru u, meta rilevanti, jinvolvi esperti u partijiet ikkonċernati esterni. Meta jidentifika l-użu ħażin raġonevolment prevedibbli ta' sistemi tal-IA b'riskju għoli, il-fornitur jenħtieġ li jkopri l-użi ta' sistemi tal-IA li, filwaqt li ma jkunux koperti direttament mill-għan maħsub u previst fl-istruzzjoni għall-użu, xorta waħda jistgħu jkunu raġonevolment mistennija li jirriżultaw minn imġiba umana faċilment prevedibbli fil-kuntest tal-karatteristiċi speċifiċi u tal-użu ta' sistema tal-IA partikolari. Jenħtieġ li kwalunkwe ċirkostanza magħrufa jew prevedibbli relatata mal-użu tas-sistema tal-IA b'riskju għoli f'konformità mal-għan maħsub tagħha jew f'kundizzjonijiet ta' użu ħażin raġonevolment prevedibbli, li tista' twassal għal riskji għas-saħħa u s-sikurezza jew għad-drittijiet fundamentali, tiġi inkluża fl-istruzzjonijiet għall-użu li huma pprovduti mill-fornitur. Dan biex jiġi żgurat li l-implimentatur ikun konxju u jqishom meta juża s-sistema tal-IA b'riskju għoli. Jenħtieġ li l-identifikazzjoni u l-implimentazzjoni ta' miżuri ta' mitigazzjoni tar-riskju għal użu ħażin prevedibbli skont dan ir-Regolament ma jirrikjedux taħriġ addizzjonali speċifiku għas-sistema tal-IA b'riskju għoli mill-fornitur biex jiġi indirizzat l-użu ħażin prevedibbli. Madankollu, il-fornituri huma mħeġġa jikkunsidraw tali miżuri ta' taħriġ addizzjonali biex itaffu l-użi ħżiena prevedibbli raġonevoli kif meħtieġ u xieraq.
(65)
Il sistema di gestione dei rischi dovrebbe essere costituito da un processo iterativo continuo pianificato ed eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio. Tale processo dovrebbe mirare a individuare e attenuare i rischi pertinenti dei sistemi di IA per la salute, la sicurezza e i diritti fondamentali. Il sistema di gestione dei rischi dovrebbe essere periodicamente riesaminato e aggiornato per garantirne l'efficacia costante, nonché la giustificazione e la documentazione delle eventuali decisioni e azioni significative adottate a norma del presente regolamento. Tale processo dovrebbe garantire che il fornitore individui rischi o impatti negativi e attui misure di attenuazione per i rischi noti e ragionevolmente prevedibili dei sistemi di IA per la salute, la sicurezza e i diritti fondamentali alla luce della loro finalità prevista e del loro uso improprio ragionevolmente prevedibile, compresi gli eventuali rischi derivanti dall'interazione tra il sistema di IA e l'ambiente in cui opera. Il sistema di gestione dei rischi dovrebbe adottare le misure di gestione dei rischi più appropriate alla luce dello stato dell'arte in materia di IA. Nell'individuare le misure di gestione dei rischi più appropriate, il fornitore dovrebbe documentare e spiegare le scelte effettuate e, se del caso, coinvolgere esperti e portatori di interessi esterni. Nell'individuare l'uso improprio ragionevolmente prevedibile dei sistemi di IA ad alto rischio, il fornitore dovrebbe contemplare gli usi di sistemi di IA che, pur non essendo direttamente coperti dalla finalità prevista e considerati nelle istruzioni per l'uso, si può ragionevolmente prevedere derivino da un comportamento umano facilmente prevedibile nel contesto delle caratteristiche e dell'uso specifici di un determinato sistema di IA. Qualsiasi circostanza nota o prevedibile connessa all'uso del sistema di IA ad alto rischio in conformità della sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, che possa comportare rischi per la salute e la sicurezza o per i diritti fondamentali, dovrebbe essere inclusa nelle istruzioni per l'uso fornite dal fornitore. L'obiettivo è garantire che il deployer sia consapevole e ne tenga conto quando utilizza il sistema di IA ad alto rischio. L'individuazione e l'attuazione di misure di attenuazione dei rischi per un uso improprio prevedibile a norma del presente regolamento non dovrebbero richiedere, da parte del fornitore per farvi fronte, specifiche formazioni aggiuntive per il sistema di IA ad alto rischio. I fornitori sono tuttavia incoraggiati a prendere in considerazione tali misure di formazione aggiuntive per attenuare gli usi impropri ragionevolmente prevedibili, ove necessario e opportuno.
(66)
Jenħtieġ li r-rekwiżiti japplikaw għas-sistemi tal-IA b'riskju għoli fir-rigward tal-ġestjoni tar-riskju, il-kwalità u r-rilevanza tas-settijiet tad-data użati, id-dokumentazzjoni teknika u ż-żamma tar-rekords, it-trasparenza u l-għoti tal-informazzjoni lill-implimentaturi, is-sorveljanza mill-bniedem, u r-robustezza, l-akkuratezza u ċ-ċibersigurtà. Dawk ir-rekwiżiti huma meħtieġa biex itaffu b'mod effettiv ir-riskji għas-saħħa u s-sikurezza u għad-drittijiet fundamentali. Billi l-ebda miżura oħra anqas restrittiva għall-kummerċ ma tkun raġonevolment disponibbli, dawk ir-rekwiżiti mhumiex restrizzjonijiet mhux ġustifikati għall-kummerċ.
(66)
Tali requisiti dovrebbero applicarsi ai sistemi di IA ad alto rischio per quanto concerne la gestione dei rischi, la qualità e la pertinenza dei set di dati utilizzati, la documentazione tecnica e la conservazione delle registrazioni, la trasparenza e la fornitura di informazioni ai deployer, la sorveglianza umana e la robustezza, l'accuratezza e la cibersicurezza. Tali requisiti sono necessari per attenuare efficacemente i rischi per la salute, la sicurezza e i diritti fondamentali e, non essendo ragionevolmente disponibili altre misure meno restrittive degli scambi, non costituiscono limitazioni ingiustificate del commercio.
(67)
Id-data ta' kwalità għolja u l-aċċess għal data ta' kwalità għolja għandhom rwol vitali fl-għoti tal-istruttura u fl-iżgurar tal-prestazzjoni ta' ħafna sistemi tal-IA, speċjalment meta jintużaw tekniki li jinvolvu t-taħriġ tal-mudelli, bl-għan li jiġi żgurat li s-sistema tal-IA b'riskju għoli taħdem kif suppost u b'mod sikur u ma ssirx sors ta' diskriminazzjoni pprojbit mil-liġi tal-Unjoni. Settijiet tad-data ta' kwalità għolja għal taħriġ, validazzjoni u ttestjar jirrikjedu l-implimentazzjoni ta' prattiki xierqa ta' governanza u ġestjoni tad-data. Jenħtieġ li s-settijiet tad-data għal taħriġ, validazzjoni u ttestjar, inkluż it-tikketti, ikunu rilevanti, rappreżentattivi biżżejjed, u sa fejn possibbli mingħajr żbalji u kompluti fid-dawl tal-għan maħsub tas-sistema. Sabiex tiġi ffaċilitata l-konformità mal-liġi tal-Unjoni dwar il-protezzjoni tad-data, bħar-Regolament (UE) 2016/679, jenħtieġ li l-prattiki ta' governanza u tal-ġestjoni tad-data jinkludu, fil-każ ta' data personali, trasparenza fir-rigward tal-iskop oriġinali tal-ġbir tad-data. Jenħtieġ li s-settijiet tad-data jkollhom ukoll il-proprjetajiet statistiċi xierqa, inkluż fir-rigward tal-persuni jew tal-gruppi ta' persuni li fir-rigward tagħhom hija maħsuba li tintuża s-sistema tal-IA b'riskju għoli, b'attenzjoni speċifika għall-mitigazzjoni tal-preġudizzji possibbli fis-settijiet tad-data, li x'aktarx jaffettwaw is-saħħa u s-sikurezza tal-persuni, ikollhom impatt negattiv fuq id-drittijiet fundamentali jew iwasslu għal diskriminazzjoni pprojbita skont il-liġi tal-Unjoni, speċjalment meta l-outputs tad-data jinfluwenzaw l-inputs għal operazzjonijiet futuri (feedback loops). Il-preġudizzji jistgħu pereżempju jkunu inerenti fis-settijiet tad-data sottostanti, speċjalment meta tkun qed tintuża data storika, jew iġġenerati meta s-sistemi jiġu implimentati f'ambjenti reali. Ir-riżultati pprovduti mis-sistemi tal-IA jistgħu jiġu influwenzati minn tali preġudizzji inerenti li huma inklinati li jiżdiedu gradwalment u b'hekk jipperpetwaw u jamplifikaw id-diskriminazzjoni eżistenti, b'mod partikolari għal persuni li jagħmlu parti minn ċerti gruppi vulnerabbli, inkluż gruppi razzjali jew etniċi. Jenħtieġ li r-rekwiżit li s-settijiet tad-data jkunu kemm jista' jkun kompluti u mingħajr żbalji ma jaffettwax l-użu ta' tekniki li jippreservaw il-privatezza fil-kuntest tal-iżvilupp u l-ittestjar tas-sistemi tal-IA. B'mod partikolari, jenħtieġ li s-settijiet tad-data jqisu, sa fejn ikun meħtieġ mill-għan maħsub tagħhom, il-karatteristiċi jew l-elementi partikolari għall-ambjent jew għall-issettjar ġeografiku, kuntestwali, komportamentali jew funzjonali speċifiku li fih tkun maħsuba li tintuża s-sistema tal-IA. Ir-rekwiżiti relatati mal-governanza tad-data jistgħu jiġu rrispettati billi jsir rikors għal partijiet terzi li joffru servizzi ta' konformità ċċertifikati inkluż verifika tal-governanza tad-data, tal-integrità tas-sett tad-data, u tat-taħriġ tad-data, il-prattiki tal-validazzjoni u tal-ittestjar, sa fejn tiġi żgurata l-konformità mar-rekwiżiti tad-data ta' dan ir-Regolament.
(67)
Dati di alta qualità e l'accesso a dati di alta qualità svolgono un ruolo essenziale nel fornire una struttura e garantire le prestazioni di molti sistemi di IA, in particolare quando si utilizzano tecniche che prevedono l'addestramento di modelli, al fine di garantire che il sistema di IA ad alto rischio funzioni come previsto e in maniera sicura e che non diventi una fonte di discriminazione vietata dal diritto dell'Unione. Per disporre di set di dati di addestramento, convalida e prova di elevata qualità è necessario attuare adeguate pratiche di governance e gestione dei dati. I set di dati di addestramento, convalida e prova, incluse le etichette, dovrebbero essere pertinenti, sufficientemente rappresentativi e, nella misura del possibile, esenti da errori e completi nell'ottica della finalità prevista del sistema. Al fine di agevolare il rispetto del diritto dell'Unione in materia di protezione dei dati, come il regolamento (UE) 2016/679, le pratiche di governance e di gestione dei dati dovrebbero includere, nel caso dei dati personali, la trasparenza in merito alla finalità originaria della raccolta dei dati. I set di dati dovrebbero inoltre possedere le proprietà statistiche appropriate, anche per quanto riguarda le persone o i gruppi di persone in relazione ai quali il sistema di IA ad alto rischio è destinato a essere usato, prestando particolare attenzione all'attenuazione di possibili distorsioni nei set di dati, suscettibili di incidere sulla salute e sulla sicurezza delle persone, di avere un impatto negativo sui diritti fondamentali o di comportare discriminazioni vietate dal diritto dell'Unione, specie laddove gli output di dati influenzano gli input per operazioni future (feedback loops - «circuiti di feedback»). Le distorsioni possono ad esempio essere intrinseche ai set di dati di base, specie se si utilizzano dati storici, o generate quando i sistemi sono attuati in contesti reali. I risultati forniti dai sistemi di IA potrebbero essere influenzati da tali distorsioni intrinseche, che sono destinate ad aumentare gradualmente e quindi a perpetuare e amplificare le discriminazioni esistenti, in particolare nei confronti delle persone che appartengono a determinati gruppi vulnerabili, inclusi gruppi razziali o etnici. Il requisito secondo cui i set di dati dovrebbero essere, per quanto possibile, completi ed esenti da errori non dovrebbe incidere sull'uso di tecniche di tutela della vita privata nel contesto dello sviluppo e della prova dei sistemi di IA. In particolare i set di dati dovrebbero tenere conto, nella misura necessaria per la finalità prevista, delle caratteristiche o degli elementi particolari dello specifico contesto geografico, contestuale, comportamentale o funzionale nel quale il sistema di IA ad alto rischio è destinato a essere usato. I requisiti relativi alla governance dei dati possono essere soddisfatti ricorrendo a terzi che offrono servizi di conformità certificati, compresa la verifica della governance dei dati, dell'integrità dei set di dati e delle pratiche di addestramento, convalida e prova dei dati, purché sia garantita la conformità ai requisiti in materia di dati di cui al presente regolamento.
(68)
Għall-iżvilupp u l-valutazzjoni ta' sistemi tal-IA b'riskju għoli, jenħtieġ li ċerti atturi, bħal fornituri, korpi notifikati u entitajiet rilevanti oħra, bħaċ-Ċentri Ewropej tal-Innovazzjoni Diġitali, il-faċilitajiet tal-esperimentazzjoni u ttestjar, u r-riċerkaturi, ikunu jistgħu jaċċessaw u jużaw settijiet tad-data ta' kwalità għolja fl-oqsma tal-attivitajiet ta' dawk l-atturi li huma relatati ma' dan ir-Regolament. L-ispazji komuni Ewropej tad-data stabbiliti mill-Kummissjoni u l-faċilitazzjoni tal-kondiviżjoni tad-data bejn in-negozji u mal-gvern fl-interess pubbliku ser ikunu strumentali biex jipprovdu aċċess affidabbli, responsabbli u nondiskriminatorju għal data ta' kwalità għolja għat-taħriġ, il-validazzjoni u l-ittestjar tas-sistemi tal-IA. Pereżempju, fil-qasam tas-saħħa, l-ispazju Ewropew tad-data dwar is-saħħa ser jiffaċilita aċċess nondiskriminatorju għal data dwar is-saħħa u t-taħriġ ta' algoritmi tal-IA fuq dawk is-settijiet tad-data, b'mod li jiżgura l-privatezza, li hu sigur, fil-ħin, trasparenti u affidabbli, u b'governanza istituzzjonali xierqa. L-awtoritajiet kompetenti rilevanti, inkluż dawk settorjali, li jipprovdu jew jappoġġaw l-aċċess għad-data, jistgħu jappoġġaw ukoll il-forniment ta' data ta' kwalità għolja għat-taħriġ, il-validazzjoni u l-ittestjar tas-sistemi tal-IA.
(68)
Ai fini dello sviluppo e della valutazione di sistemi di IA ad alto rischio, è opportuno concedere ad alcuni soggetti, come fornitori, organismi notificati e altre entità pertinenti, quali i poli europei dell'innovazione digitale, gli impianti di prova e sperimentazione e i ricercatori, l'accesso a set di dati di elevata qualità e la possibilità di utilizzarli nell'ambito dei settori di attività di tali attori soggetti al presente regolamento. Gli spazi comuni europei di dati istituiti dalla Commissione e l'agevolazione della condivisione dei dati tra imprese e con i governi, nell'interesse pubblico, saranno fondamentali per fornire un accesso affidabile, responsabile e non discriminatorio a dati di elevata qualità a fini di addestramento, convalida e prova dei sistemi di IA. Ad esempio, per quanto riguarda la salute, lo spazio europeo di dati sanitari agevolerà l'accesso non discriminatorio ai dati sanitari e l'addestramento di algoritmi di IA a partire da tali set di dati in modo sicuro, tempestivo, trasparente, affidabile e tale da tutelare la vita privata, nonché con un'adeguata governance istituzionale. Le autorità competenti interessate, comprese quelle settoriali, che forniscono o sostengono l'accesso ai dati, possono anche sostenere la fornitura di dati di alta qualità a fini di addestramento, convalida e prova dei sistemi di IA.
(69)
Id-dritt għall-privatezza u għall-protezzjoni tad-data personali jrid jiġi ggarantit tul iċ-ċiklu tal-ħajja kollu tas-sistema tal-IA. F'dan ir-rigward, il-prinċipji tal-minimizzazzjoni tad-data u tal-protezzjoni tad-data mid-disinn u b'mod awtomatiku, kif stipulati fil-liġi tal-Unjoni dwar il-protezzjoni tad-data, huma applikabbli meta tiġi pproċessata d-data personali. Il-miżuri meħuda mill-fornituri biex jiżguraw il-konformità ma' dawk il-prinċipji jistgħu jinkludu mhux biss l-anonimizzazzjoni u l-kriptaġġ, iżda wkoll l-użu ta' teknoloġija li tippermetti li l-algoritmi jinġiebu fid-data u li tippermetti t-taħriġ tas-sistemi tal-IA mingħajr it-trażmissjoni bejn il-partijiet jew l-ikkupjar tad-data mhux ipproċessata jew strutturata nnifisha, mingħajr preġudizzju għar-rekwiżiti dwar il-governanza tad-data previsti f'dan ir-Regolament.
(69)
Il diritto alla vita privata e alla protezione dei dati personali deve essere garantito durante l'intero ciclo di vita del sistema di IA. A tale riguardo, i principi della minimizzazione dei dati e della protezione dei dati fin dalla progettazione e per impostazione predefinita, sanciti dal diritto dell'Unione in materia di protezione dei dati, sono applicabili nel trattamento dei dati personali. Le misure adottate dai fornitori per garantire il rispetto di tali principi possono includere non solo l'anonimizzazione e la cifratura, ma anche l'uso di tecnologie che consentano di inserire algoritmi nei dati e di addestrare i sistemi di IA senza trasmissione tra le parti o copia degli stessi dati grezzi o strutturati, fatti salvi i requisiti in materia di governance dei dati di cui al presente regolamento.
(70)
Biex jiġi protett id-dritt ta' oħrajn mid-diskriminazzjoni li tista' tirriżulta mill-preġudizzju fis-sistemi tal-IA, jenħtieġ li l-fornituri, b'mod eċċezzjonali, sa fejn ikun strettament meħtieġ għall-fini tal-iżgurar tal-kxif u l-korrezzjoni tal-preġudizzji fir-rigward tas-sistemi tal-IA b'riskju għoli, soġġetti għal salvagwardji xierqa għad-drittijiet u l-libertajiet fundamentali tal-persuni fiżiċi u wara l-applikazzjoni tal-kundizzjonijiet applikabbli kollha stabbiliti f'dan ir-Regolament flimkien mal-kundizzjonijiet stabbiliti fir-Regolamenti (UE) 2016/679 u (UE) 2018/1725 u fid-Direttiva (UE) 2016/680, ikunu jistgħu jipproċessaw ukoll kategoriji speċjali ta' data personali, bħala kwistjoni ta' interess pubbliku sostanzjali skont it-tifsira tal-Artikolu 9(2), il-punt (g) tar-Regolament (UE) 2016/679 u l-Artikolu 10(2), il-punt (g) tar-Regolament (UE) 2018/1725.
(70)
Al fine di proteggere i diritti altrui contro la discriminazione che potrebbe derivare dalla distorsione nei sistemi di IA, è opportuno che i fornitori, in via eccezionale e nella misura strettamente necessaria al fine di garantire il rilevamento e la correzione delle distorsioni in relazione ai sistemi di IA ad alto rischio, fatte salve le tutele adeguate per i diritti e le libertà fondamentali delle persone fisiche e previa attuazione di tutte le condizioni applicabili previste dal presente regolamento unitamente alle condizioni previste dai regolamenti (UE) 2016/679 e (UE) 2018/1725 e dalla direttiva (UE) 2016/680, siano in grado di trattare anche categorie particolari di dati personali, come questione di interesse pubblico rilevante ai sensi dell'articolo 9, paragrafo 2, lettera g), del regolamento (UE) 2016/679 e dell'articolo 10, paragrafo 2, lettera g), del regolamento (UE) 2018/1725.
(71)
Huwa essenzjali li jkun hemm informazzjoni komprensibbli dwar kif ġew żviluppati s-sistemi tal-IA b'riskju għoli u kif jaħdmu tul ħajjithom kollha biex tkun tista' ssir it-traċċabbiltà ta' dawk is-sistemi, biex tiġi vverifikata l-konformità mar-rekwiżiti skont dan ir-Regolament, kif ukoll biex isir monitoraġġ tal-operazzjonijiet tagħhom u sorveljanza ta' wara t-tqegħid fis-suq. Għal dan il-għan, hemm bżonn li jinżammu rekords u li jkun hemm disponibbli dokumentazzjoni teknika, bl-informazzjoni meħtieġa biex tiġi vvalutata l-konformità tas-sistema tal-IA mar-rekwiżiti rilevanti u tiġi ffaċilitata s-sorveljanza ta' wara t-tqegħid fis-suq. Jenħtieġ li din l-informazzjoni tkun tinkludi l-karatteristiċi ġenerali, il-kapaċitajiet u l-limitazzjonijiet tas-sistema, tal-algoritmi, tad-data, tat-taħriġ, tal-ittestjar u tal-proċessi ta' validazzjoni użati kif ukoll dokumentazzjoni dwar is-sistema rilevanti tal-ġestjoni tar-riskji u li tkun mfassla f'forma ċara u komprensiva. Jenħtieġ li d-dokumentazzjoni teknika tinżamm aġġornata b'mod xieraq tul il-ħajja tas-sistema tal-IA. Barra minn hekk, jenħtieġ li s-sistemi tal-IA b'riskju għoli jippermettu teknikament ir-reġistrazzjoni awtomatika tal-avvenimenti, permezz ta' reġistri, tul il-ħajja tas-sistema.
(71)
Disporre di informazioni comprensibili sulle modalità di sviluppo dei sistemi di IA ad alto rischio e sulle loro modalità di funzionamento durante tutto il ciclo di vita è essenziale per consentire la tracciabilità di tali sistemi, verificare la conformità ai requisiti di cui al presente regolamento, monitorarne il funzionamento e svolgere il monitoraggio successivo all'immissione sul mercato. Occorre a tal fine conservare le registrazioni e disporre di una documentazione tecnica contenente le informazioni necessarie per valutare la conformità del sistema di IA ai requisiti pertinenti e agevolare il monitoraggio successivo all'immissione sul mercato. Tali informazioni dovrebbero includere le caratteristiche, le capacità e i limiti generali del sistema, gli algoritmi, i dati, l'addestramento, i processi di prova e di convalida utilizzati, nonché la documentazione sul pertinente sistema di gestione dei rischi redatta in forma chiara e comprensibile. È opportuno tenere aggiornata in modo adeguato la documentazione tecnica durante l'intero ciclo di vita del sistema di IA. Inoltre, i sistemi di IA ad alto rischio dovrebbero consentire, a livello tecnico, la registrazione automatica degli eventi, mediante «log», per la durata del ciclo di vita del sistema.
(72)
Biex jiġi indirizzat it-tħassib relatat mal-opaċità u l-kumplessità ta' ċerti sistemi tal-IA u biex l-implimentaturi jiġu megħjuna jissodisfaw l-obbligi tagħhom skont dan ir-Regolament, jenħtieġ li tkun meħtieġa trasparenza għas-sistemi tal-IA b'riskju għoli qabel ma jiġu introdotti fis-suq jew jitqiegħdu fis-servizz. Jenħtieġ li s-sistemi tal-IA b'riskju għoli jitfasslu b'mod li jippermetti lill-implimentaturi jifhmu kif taħdem is-sistema tal-IA, jevalwaw il-funzjonalità tagħha, u jifhmu l-elementi b'saħħithom u l-limitazzjonijiet tagħha. Jenħtieġ li s-sistemi tal-IA b'riskju għoli jkunu akkumpanjati minn informazzjoni xierqa fil-forma ta' struzzjonijiet dwar l-użu. Jenħtieġ li tali informazzjoni tinkludi l-karatteristiċi, il-kapaċitajiet u l-limitazzjonijiet tal-prestazzjoni tas-sistema tal-IA. Dawk ikopru informazzjoni dwar ċirkostanzi magħrufa u prevedibbli possibbli relatati mal-użu tas-sistema tal-IA b'riskju għoli, inkluż l-azzjoni tal-implimentatur li tista' tinfluwenza l-imġiba u l-prestazzjoni tas-sistema, li skontha s-sistema tal-IA tista' twassal għal riskji għas-saħħa, is-sikurezza, u d-drittijiet fundamentali, dwar il-bidliet li jkunu ġew iddeterminati minn qabel u vvalutati għall-konformità mill-fornitur u dwar il-miżuri rilevanti ta' sorveljanza mill-bniedem, inkluż il-miżuri li jiffaċilitaw l-interpretazzjoni tal-outputs tas-sistema tal-IA mill-implimentaturi. It-trasparenza, inkluż l-istruzzjonijiet ta' akkumpanjament għall-użu, għandha tassisti lill-implimentaturi fl-użu tas-sistema u tappoġġa t-teħid ta' deċiżjonijiet infurmat minnhom., Jenħtieġ li l-implimentaturi, fost l-oħrajn, jkunu f'pożizzjoni aħjar biex jagħmlu l-għażla korretta tas-sistema li beħsiebhom jużaw fid-dawl tal-obbligi applikabbli għalihom, jiġu edukati dwar l-użi maħsuba u preklużi, u jużaw is-sistema tal-IA b'mod korrett u kif xieraq. Biex jissaħħu l-leġibbiltà u l-aċċessibbiltà tal-informazzjoni inkluża fl-istruzzjonijiet tal-użu, meta xieraq, jenħtieġ li jiġu inklużi eżempji illustrattivi, pereżempju dwar il-limitazzjonijiet u dwar l-użi maħsuba u preklużi tas-sistema tal-IA. Jenħtieġ li l-fornituri jiżguraw li d-dokumentazzjoni kollha, inkluż l-istruzzjonijiet għall-użu, ikun fiha informazzjoni sinifikanti, komprensiva, aċċessibbli u li tinftiehem, filwaqt li jitqiesu l-ħtiġijiet u l-għarfien prevedibbli tal-implimentaturi fil-mira. Jenħtieġ li l-istruzzjonijiet għall-użu jkunu disponibbli b'lingwa li tista' tinftiehem faċilment mill-implimentaturi fil-mira, kif determinat mill-Istat Membru kkonċernat.
(72)
Per rispondere alle preoccupazioni relative all'opacità e alla complessità di determinati sistemi di IA e aiutare i deployer ad adempiere ai loro obblighi a norma del presente regolamento, è opportuno imporre la trasparenza per i sistemi di IA ad alto rischio prima che siano immessi sul mercato o messi in servizio. I sistemi di IA ad alto rischio dovrebbero essere progettati in modo da consentire ai deployer di comprendere il funzionamento del sistema di IA, valutarne la funzionalità e comprenderne i punti di forza e i limiti. I sistemi di IA ad alto rischio dovrebbero essere accompagnati da informazioni adeguate sotto forma di istruzioni per l'uso. Tali informazioni dovrebbero includere le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA. Tali elementi comprenderebbero informazioni su possibili circostanze note e prevedibili connesse all'uso del sistema di IA ad alto rischio, compresa l'azione del deployer suscettibile di influenzare il comportamento e le prestazioni del sistema, nel quadro dei quali il sistema di IA può comportare rischi per la salute, la sicurezza e i diritti fondamentali, sulle modifiche che sono state predeterminate e valutate a fini di conformità dal fornitore e sulle pertinenti misure di sorveglianza umana, comprese le misure volte a facilitare l'interpretazione degli output del sistema di IA da parte dei deployer. La trasparenza, comprese le istruzioni per l'uso che la accompagnano, dovrebbe aiutare i deployer a utilizzare il sistema e a prendere decisioni informate. Tra l'altro, i deployer dovrebbero essere nella posizione migliore per effettuare la scelta corretta del sistema che intendono utilizzare alla luce degli obblighi loro applicabili, essere a conoscenza degli usi previsti e vietati e utilizzare il sistema di IA in modo corretto e opportuno. Al fine di migliorare la leggibilità e l'accessibilità delle informazioni incluse nelle istruzioni per l'uso, se del caso, dovrebbero essere inclusi, esempi illustrativi, ad esempio sulle limitazioni e sugli usi previsti e vietati del sistema di IA. I fornitori dovrebbero garantire che tutta la documentazione, comprese le istruzioni per l'uso, contenga informazioni significative, complete, accessibili e comprensibili, tenendo conto delle esigenze e delle conoscenze prevedibili dei deployer destinatari. Le istruzioni per l'uso dovrebbero essere messe a disposizione in una lingua che possa essere compresa facilmente dai deployer destinatari, secondo quanto stabilito dallo Stato membro interessato.
(73)
Jenħtieġ li s-sistemi tal-IA b'riskju għoli jitfasslu u jiġu żviluppati b'tali mod li l-persuni fiżiċi jkunu jistgħu jissorveljaw il-funzjonament tagħhom, jiżguraw li jintużaw kif maħsub u li l-impatti tagħhom jiġu indirizzati matul iċ-ċiklu tal-ħajja tas-sistema. Għal dak il-għan, jenħtieġ li l-fornitur tas-sistema jidentifika miżuri xierqa ta' sorveljanza mill-bniedem qabel ma tiġi introdotta fis-suq jew imqiegħda fis-servizz. B'mod partikolari, meta xieraq, jenħtieġ li dawn il-miżuri jkunu jiggarantixxu li s-sistema tkun soġġetta għal restrizzjonijiet operazzjonali inkorporati li ma jistgħux jitwarrbu mis-sistema nnifisha u li tkun tirreaġixxi għall-operatur uman, u li l-persuni fiżiċi li lilhom tkun ġiet assenjata sorveljanza mill-bniedem jkollhom il-kompetenza, it-taħriġ u l-awtorità meħtieġa biex jaqdu dak ir-rwol. Huwa essenzjali wkoll, kif xieraq, li jiġi żgurat li s-sistemi tal-IA b'riskju għoli jinkludu mekkaniżmi li jiggwidaw u jinfurmaw lil persuna fiżika li lilha tkun ġiet assenjata s-sorveljanza mill-bniedem biex tieħu deċiżjonijiet infurmati dwar jekk, meta u kif għandha tintervjeni biex jiġu evitati konsegwenzi jew riskji negattivi, jew biex titwaqqaf is-sistema jekk ma taħdimx kif maħsub. Meta jitqiesu l-konsegwenzi sinifikanti għall-persuni fil-każ ta' tqabbil mhux korrett minn ċerti sistemi ta’ identifikazzjoni bijometrika, huwa xieraq li jiġi previst rekwiżit imtejjeb ta' sorveljanza mill-bniedem għal dawk is-sistemi sabiex ma tittieħed l-ebda azzjoni jew deċiżjoni mill-implimentatur abbażi tal-identifikazzjoni li tirriżulta mis-sistema sakemm dan ma jkunx ġie vverifikat u kkonfermat separatament minn mill-inqas żewġ persuni fiżiċi. Dawk il-persuni jistgħu jkunu minn entità waħda jew aktar u jinkludu l-persuna li topera jew li tuża s-sistema. Jenħtieġ li dan ir-rekwiżit ma joħloqx piż jew dewmien bla bżonn u jista' jkun biżżejjed li l-verifiki separati mill-persuni differenti jiġu rreġistrati awtomatikament fir-reġistri ġġenerati mis-sistema. Minħabba l-ispeċifiċitajiet tal-oqsma tal-infurzar tal-liġi, il-migrazzjoni, il-kontroll tal-fruntieri u l-ażil, jenħtieġ li dan ir-rekwiżit ma japplikax fejn il-liġi tal-Unjoni jew dik nazzjonali tqis li l-applikazzjoni ta' dak ir-rekwiżit hija sproporzjonata.
(73)
I sistemi di IA ad alto rischio dovrebbero essere progettati e sviluppati in modo da consentire alle persone fisiche di sorvegliarne il funzionamento, garantire che siano utilizzati come previsto e che i loro impatti siano affrontati durante il ciclo di vita del sistema. Il fornitore del sistema dovrebbe a tal fine individuare misure di sorveglianza umana adeguate prima dell'immissione del sistema sul mercato o della sua messa in servizio. Tali misure dovrebbero in particolare garantire, ove opportuno, che il sistema sia soggetto a vincoli operativi intrinseci che il sistema stesso non può annullare e che risponda all'operatore umano, e che le persone fisiche alle quali è stata affidata la sorveglianza umana dispongano delle competenze, della formazione e dell'autorità necessarie per svolgere tale ruolo. È inoltre essenziale, se del caso, garantire che i sistemi di IA ad alto rischio includano meccanismi per guidare e informare la persona fisica alla quale è stata affidata la sorveglianza umana affinché prenda decisioni informate in merito alla possibilità, ai tempi e alle modalità di intervento, onde evitare conseguenze negative o rischi, oppure affinché arresti il sistema, qualora non funzionasse come previsto. Tenuto conto delle conseguenze significative per le persone in caso di una corrispondenza non corretta da parte di determinati sistemi di identificazione biometrica, è opportuno prevedere un requisito rafforzato di sorveglianza umana per tali sistemi, in modo che il deployer non possa adottare alcuna azione o decisione sulla base dell'identificazione risultante dal sistema, a meno che ciò non sia stato verificato e confermato separatamente da almeno due persone fisiche. Tali persone potrebbero provenire da una o più entità e comprendere la persona che gestisce o utilizza il sistema. Tale requisito non dovrebbe comportare oneri o ritardi inutili e potrebbe essere sufficiente che le verifiche separate da parte delle diverse persone siano automaticamente registrate nei log generati dal sistema. Date le specificità dei settori delle attività di contrasto, della migrazione, del controllo delle frontiere e dell'asilo, tale requisito non dovrebbe applicarsi se il diritto dell'Unione o nazionale ritenga sproporzionata la sua applicazione.
(74)
Jenħtieġ li s-sistemi tal-IA b'riskju għoli jaħdmu b'mod konsistenti tul iċ-ċiklu tal-ħajja tagħhom u jissodisfaw livell xieraq ta' akkuratezza, robustezza u ċibersigurtà, fid-dawl tal-għan maħsub tagħhom u f'konformità mal-ogħla livell ta' żvilupp tekniku rikonoxxut b'mod ġenerali. Il-Kummissjoni u l-organizzazzjonijiet u l-partijiet ikkonċernati rilevanti huma mħeġġa jqisu kif xieraq il-mitigazzjoni tar-riskji u l-impatti negattivi tas-sistema tal-IA. Jenħtieġ li l-livell mistenni tal-metriċi tal-prestazzjoni jiġi ddikjarat fl-istruzzjonijiet tal-użu li jakkumpanjawhom. Il-fornituri huma mħeġġa jikkomunikaw dik l-informazzjoni lill-implimentaturi b'mod ċar u li jinftiehem faċilment, mingħajr nuqqas ta' fehim jew dikjarazzjonijiet qarrieqa. Il-liġi tal-Unjoni dwar il-metroloġija legali, inkluż id-Direttivi 2014/31/UE (35) u 2014/32/UE (36) tal-Parlament Ewropew u tal-Kunsill, għandha l-għan li tiżgura l-akkuratezza tal-kejl u li tgħin it-trasparenza u l-ġustizzja tat-tranżazzjonijiet kummerċjali. F'dak il-kuntest, f'kooperazzjoni mal-partijiet ikkonċernati u l-organizzazzjoni rilevanti, bħall-awtoritajiet tal-metroloġija u tal-valutazzjoni komparattiva, jenħtieġ li l-Kummissjoni tħeġġeġ, kif xieraq, l-iżvilupp ta' parametri referenzjarji u metodoloġiji ta' kejl għas-sistemi tal-IA. Meta tagħmel dan, jenħtieġ li l-Kummissjoni tieħu nota u tikkollabora mas-sħab internazzjonali li jaħdmu fuq il-metroloġija u l-indikaturi tal-kejl rilevanti relatati mal-IA.
(74)
Le prestazioni dei sistemi di IA ad alto rischio dovrebbero essere coerenti durante tutto il loro ciclo di vita e tali sistemi dovrebbero garantire un livello adeguato di accuratezza, robustezza e cibersicurezza, alla luce della loro finalità prevista e conformemente allo stato dell'arte generalmente riconosciuto. La Commissione e le organizzazioni e i portatori di interessi pertinenti sono incoraggiati a tenere in debita considerazione l'attenuazione dei rischi e degli impatti negativi del sistema di IA. Il livello atteso delle metriche di prestazione dovrebbe essere dichiarato nelle istruzioni per l'uso che accompagnano il sistema. I fornitori sono invitati a comunicare tali informazioni ai deployer in modo chiaro e facilmente comprensibile, senza malintesi o affermazioni fuorvianti. Il diritto dell'Unione in materia di metrologia legale, comprese le direttive 2014/31/UE (35) e 2014/32/UE (36) del Parlamento europeo e del Consiglio, mira a garantire l'accuratezza delle misurazioni e a favorire la trasparenza e l'equità delle transazioni commerciali. In tale contesto, in cooperazione con i portatori di interessi e le organizzazioni pertinenti, quali le autorità di metrologia e di analisi comparativa, la Commissione dovrebbe incoraggiare, se del caso, lo sviluppo di parametri di riferimento e metodologie di misurazione per i sistemi di IA. A tal fine, la Commissione dovrebbe prendere atto dei partner internazionali che operano nel settore della metrologia, collaborando con essi, e dei pertinenti indicatori di misurazione relativi all'IA.
(75)
Ir-robustezza teknika hi rekwiżit ewlieni għas-sistemi tal-IA b'riskju għoli. Jenħtieġ li dawn ikunu reżiljenti fir-rigward ta' mġiba li tagħmel ħsara jew li mhux mixtieqa b'xi mod ieħor li tista' tirriżulta minn limitazzjonijiet fis-sistemi jew fl-ambjent li fih joperaw is-sistemi (eż. żbalji, ħsarat, inkonsistenzi, sitwazzjonijiet mhux mistennija). Għalhekk, jenħtieġ li jittieħdu miżuri tekniċi u organizzattivi biex tiġi żgurata r-robustezza tas-sistemi tal-IA b'riskju għoli, pereżempju billi jitfasslu u jiġu żviluppati soluzzjonijiet tekniċi xierqa biex tiġi evitata jew minimizzata mġiba ta' ħsara jew fi kwalunkwe każ, mhux mixtieqa. Dawk is-soluzzjonijiet tekniċi jistgħu jinkludu pereżempju mekkaniżmi li jippermettu lis-sistema tinterrompi b'mod sikur l-operat tagħha (pjanijiet sikuri) fil-preżenza ta' ċerti anomaliji jew meta l-operazzjoni sseħħ barra minn ċerti limiti predeterminati. In-nuqqas ta' protezzjoni kontra dawn ir-riskji jista' jwassal għal impatti fuq is-sikurezza jew jaffettwa ħażin id-drittijiet fundamentali, pereżempju minħabba deċiżjonijiet żbaljati jew outputs ħżiena jew preġudikati ġġenerati mis-sistema tal-IA.
(75)
La robustezza tecnica è un requisito fondamentale dei sistemi di IA ad alto rischio. Essi dovrebbero essere resilienti in relazione a comportamenti dannosi o altrimenti indesiderati che possono derivare da limitazioni all'interno dei sistemi o dell'ambiente in cui i sistemi funzionano (ad esempio errori, guasti, incongruenze, situazioni impreviste). È pertanto opportuno adottare misure tecniche e organizzative per garantire la robustezza dei sistemi di IA ad alto rischio, ad esempio progettando e sviluppando soluzioni tecniche adeguate per prevenire o ridurre al minimo i comportamenti dannosi o altrimenti indesiderati. Tali soluzioni tecniche possono comprendere, ad esempio, meccanismi che consentano al sistema di interrompere in modo sicuro il proprio funzionamento (piani fail-safe) in presenza di determinate anomalie o quando il funzionamento ha luogo al di fuori di determinati limiti prestabiliti. La mancata protezione da tali rischi potrebbe avere ripercussioni sulla sicurezza o incidere negativamente sui diritti fondamentali, ad esempio a causa di decisioni errate o di output sbagliati o distorti generati dal sistema di IA.
(76)
Iċ-ċibersigurtà taqdi rwol kruċjali biex ikunu żgurati sistemi tal-IA reżiljenti kontra tentattivi biex jinbidlu l-użu, l-imġiba jew il-prestazzjoni tal-proprjetajiet tas-sigurtà tagħhom jew li dawn il-proprjetajiet jiġu kompromessi minn partijiet terzi malizzjużi li jisfruttaw il-vulnerabbiltajiet tas-sistema. Iċ-ċiberattakki kontra s-sistemi tal-IA jistgħu jisfruttaw assi speċifiċi għall-IA, bħal settijiet tad-data għat-taħriġ (eż. avvelenament tad-data) jew mudelli mħarrġin (eż. attakki kontradittorji jew inferenza ta' sħubija), jew jisfruttaw vulnerabbiltajiet fl-assi diġitali tas-sistema tal-IA jew fl-infrastruttura sottostanti tal-ICT. Għalhekk, biex ikun żgurat livell ta' ċibersigurtà xieraq għar-riskji, jenħtieġ li l-fornituri tas-sistemi tal-IA b'riskju għoli jieħdu l-miżuri adegwati, bħal kontrolli ta' sigurtà, filwaqt li jqisu wkoll kif xieraq l-infrastruttura sottostanti tal-ICT.
(76)
La cibersicurezza svolge un ruolo cruciale nel garantire che i sistemi di IA siano resilienti ai tentativi compiuti da terzi con intenzioni malevole che, sfruttando le vulnerabilità del sistema, mirano ad alterarne l'uso, il comportamento, le prestazioni o a comprometterne le proprietà di sicurezza. Gli attacchi informatici contro i sistemi di IA possono far leva sulle risorse specifiche dell'IA, quali i set di dati di addestramento (ad esempio il data poisoning, «avvelenamento dei dati») o i modelli addestrati (ad esempio gli adversarial attacks, «attacchi antagonisti» o la membership inference, «attacchi inferenziali»), o sfruttare le vulnerabilità delle risorse digitali del sistema di IA o dell'infrastruttura TIC sottostante. Al fine di garantire un livello di cibersicurezza adeguato ai rischi, è pertanto opportuno che i fornitori di sistemi di IA ad alto rischio adottino misure adeguate, come controlli di sicurezza, anche tenendo debitamente conto dell'infrastruttura TIC sottostante.
(77)
Mingħajr preġudizzju għar-rekwiżiti relatati mar-robustezza u l-akkuratezza stipulati f'dan ir-Regolament, is-sistemi tal-IA b'riskju għoli li jaqgħu fil-kamp ta' applikazzjoni ta’ Regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali, f'konformità ma' dak ir-regolament jistgħu juru konformità mar-rekwiżiti taċ-ċibersigurtà ta' dan ir-Regolament billi jissodisfaw ir-rekwiżiti essenzjali taċ-ċibersigurtà stipulati f’ dak ir-regolament. Meta s-sistemi tal-IA b'riskju għoli jissodisfaw ir-rekwiżiti essenzjali ta’ regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali, jenħtieġ li jitqiesu bħala konformi mar-rekwiżiti taċ-ċibersigurtà stipulati f'dan ir-Regolament sa fejn il-kisba ta' dawk ir-rekwiżiti tintwera fid-dikjarazzjoni ta' konformità tal-UE jew partijiet minnha maħruġa skont dak ir-regolament. Għal dak il-għan, jenħtieġ li l-valutazzjoni tar-riskji taċ-ċibersigurtà, assoċjati ma' prodott b'elementi diġitali kklassifikati bħala sistema tal-IA b'riskju għoli skont dan ir-Regolament, imwettqa skont regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali, tqis ir-riskji għar-reżiljenza ċibernetika ta' sistema tal-IA fir-rigward ta' tentattivi minn partijiet terzi mhux awtorizzati biex ibiddlu l-użu, l-imġiba jew il-prestazzjoni tagħha, inkluż vulnerabbiltajiet speċifiċi għall-IA bħall-avvelenament tad-data jew attakki kontradittorji, kif ukoll, kif rilevanti, riskji għad-drittijiet fundamentali kif meħtieġ minn dan ir-Regolament.
(77)
Fatti salvi i requisiti relativi alla robustezza e all'accuratezza di cui al presente regolamento, i sistemi di IA ad alto rischio che rientrano nell'ambito di applicazione del regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali, ai sensi di tale regolamento possono dimostrare la conformità ai requisiti di cibersicurezza del presente regolamento rispettando i requisiti essenziali di cibersicurezza a norma di tale regolamento. Quando rispettano i requisiti essenziali del regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali, i sistemi di IA ad alto rischio dovrebbero essere considerati conformi ai requisiti di cibersicurezza di cui al presente regolamento nella misura in cui il rispetto di tali requisiti sia dimostrato nella dichiarazione di conformità UE, o in parti di essa, rilasciata a norma di tale regolamento. A tal fine, la valutazione dei rischi di cibersicurezza, associati a un prodotto con elementi digitali classificati come sistemi di IA ad alto rischio ai sensi del presente regolamento, effettuata a norma del regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali, dovrebbe tenere in considerazione i rischi per la ciberresilienza di un sistema di IA per quanto riguarda i tentativi di terzi non autorizzati di modificarne l'uso, il comportamento o le prestazioni, comprese le vulnerabilità specifiche dell'IA, quali il data poisoning («avvelenamento dei dati») o gli adversarial attack («attacchi antagonisti»), nonché, se del caso, i rischi per i diritti fondamentali come disposto dal presente regolamento.
(78)
Jenħtieġ li l-proċedura ta' valutazzjoni tal-konformità prevista minn dan ir-Regolament tapplika fir-rigward tar-rekwiżiti essenzjali taċ-ċibersigurtà ta' prodott b'elementi diġitali kopert minn Regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali u kklassifikat bħala sistema tal-IA b'riskju għoli skont dan ir-Regolament. Madankollu, jenħtieġ li din ir-regola ma tirriżultax fit-tnaqqis tal-livell meħtieġ ta' assigurazzjoni għal prodotti kritiċi b'elementi diġitali koperti minn Regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali. Għalhekk, b'deroga minn din ir-regola, sistemi tal-IA b'riskju għoli li jaqgħu fil-kamp ta' applikazzjoni ta' dan ir-Regolament u li huma kkwalifikati wkoll bħala prodotti importanti u kritiċi b'elementi diġitali skont Regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali u li għalihom tapplika l-proċedura ta' valutazzjoni tal-konformità bbażata fuq il-kontroll intern stipulata f'anness ta' dan ir-Regolament, huma soġġetti għad-dispożizzjonijiet dwar il-valutazzjoni tal-konformità ta’ Regolament tal-Parlament Ewropew u tal-Kunsill dwar ir-rekwiżiti orizzontali taċ-ċibersigurtà għall-prodotti b'elementi diġitali sa fejn ikunu kkonċernati r-rekwiżiti essenzjali taċ-ċibersigurtà ta' dak ir-Regolament. F'dan il-każ, jenħtieġ li għall-aspetti l-oħra kollha koperti minn dan ir-Regolament japplikaw id-dispożizzjonijiet rispettivi dwar il-valutazzjoni tal-konformità bbażata fuq il-kontroll intern stipulati f'anness ta' dan ir-Regolament. Filwaqt li tibni fuq l-għarfien u l-kompetenza esperta tal-ENISA dwar il-politika taċ-ċibersigurtà u l-kompiti assenjati lill-ENISA skont ir-Regolament (UE) 2019/881 tal-Parlament Ewropew u tal-Kunsill (37), jenħtieġ li l-Kummissjoni tikkoopera mal-ENISA dwar kwistjonijiet relatati maċ-ċibersigurtà tas-sistemi tal-IA.
(78)
La procedura di valutazione della conformità di cui al presente regolamento dovrebbe applicarsi in relazione ai requisiti essenziali di cibersicurezza di un prodotto con elementi digitali disciplinato dal regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali e classificato come sistema di IA ad alto rischio a norma del presente regolamento. Tuttavia, tale norma non dovrebbe comportare una riduzione del livello di garanzia necessario per i prodotti con elementi digitali critici disciplinati dal regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali. Pertanto, in deroga a detta norma, i sistemi di IA ad alto rischio che rientrano nell'ambito di applicazione del presente regolamento e che sono anche qualificati come prodotti con elementi digitali importanti e critici a norma del regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali, e ai quali si applica la procedura di valutazione della conformità basata sul controllo interno in allegato al presente regolamento, sono soggetti alle disposizioni in materia di valutazione della conformità del regolamento del Parlamento europeo e del Consiglio relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali per quanto riguarda i requisiti essenziali di cibersicurezza di tale regolamento. In tal caso, per tutti gli altri aspetti disciplinati dal presente regolamento dovrebbero applicarsi le rispettive disposizioni in materia di valutazione della conformità basata sul controllo interno, in allegato al presente regolamento. Sulla base delle conoscenze e delle competenze dell'ENISA in merito alla politica in materia di cibersicurezza e ai relativi compiti assegnati all'ENISA a norma del regolamento (UE) 2019/881 del Parlamento europeo e del Consiglio (37), la Commissione dovrebbe cooperare con l'ENISA sulle questioni relative alla cibersicurezza dei sistemi di IA.
(79)
Huwa xieraq li persuna fiżika jew ġuridika speċifika, definita bħala l-fornitur, tieħu r-responsabbiltà għall-introduzzjoni fis-suq jew għat-tqegħid fis-servizz ta' sistema tal-IA b'riskju għoli, irrispettivament minn jekk dik il-persuna fiżika jew ġuridika tkunx il-persuna li fasslet jew żviluppat is-sistema.
(79)
È opportuno che una specifica persona fisica o giuridica, definita come il fornitore, si assuma la responsabilità dell'immissione sul mercato o della messa in servizio di un sistema di IA ad alto rischio, a prescindere dal fatto che tale persona fisica o giuridica sia la persona che ha progettato o sviluppato il sistema.
(80)
Bħala firmatarji tal-Konvenzjoni tan-Nazzjonijiet Uniti dwar id-Drittijiet ta' Persuni b'Diżabbiltà, l-Unjoni u l-Istati Membri huma legalment obbligati li jipproteġu lill-persuni b'diżabbiltà mid-diskriminazzjoni u li jippromwovu l-ugwaljanza tagħhom, li jiżguraw li l-persuni b'diżabbiltà jkollhom aċċess, fuq bażi ugwali ma' oħrajn, għat-teknoloġiji u s-sistemi tal-informazzjoni u tal-komunikazzjoni, u li jiżguraw ir-rispett għall-privatezza tal-persuni b'diżabbiltà. Minħabba l-importanza u l-użu dejjem akbar tas-sistemi tal-IA, l-applikazzjoni tal-prinċipji tad-disinn universali għat-teknoloġiji u s-servizzi l-ġodda kollha jenħtieġ li tiżgura aċċess sħiħ u ugwali għal kulħadd li potenzjalment jista' jiġi affettwat minn jew li juża teknoloġiji tal-IA, inkluż persuni b'diżabbiltà, b'mod li jqis bis-sħiħ id-dinjità u d-diversità inerenti tagħhom. Għalhekk huwa essenzjali li l-fornituri jiżguraw konformità sħiħa mar-rekwiżiti ta' aċċessibbiltà, inkluż id-Direttiva (UE) 2016/2102 tal-Parlament Ewropew u tal-Kunsill (38) u d-Direttiva (UE) 2019/882. Jenħtieġ li l-fornituri jiżguraw il-konformità ma' dawn ir-rekwiżiti mid-disinn. Għalhekk, jenħtieġ li l-miżuri meħtieġa jiġu integrati kemm jista' jkun fid-disinn tas-sistema tal-IA b'riskju għoli.
(80)
In qualità di firmatari della Convenzione delle Nazioni Unite sui diritti delle persone con disabilità, l'Unione e gli Stati membri sono tenuti, dal punto di vista giuridico, a proteggere le persone con disabilità dalla discriminazione e a promuoverne l'uguaglianza, a garantire che le persone con disabilità abbiano accesso, su un piano di parità con gli altri, alle tecnologie e ai sistemi di informazione e comunicazione e a garantire il rispetto della vita privata delle persone con disabilità. In considerazione dell'importanza e dell'utilizzo crescenti dei sistemi di IA, l'applicazione dei principi della progettazione universale a tutti i nuovi servizi e tecnologie dovrebbe garantire un accesso pieno e paritario a tutti coloro che sono potenzialmente interessati dalle tecnologie di IA o che le utilizzano, ivi comprese le persone con disabilità, in modo da tenere pienamente conto delle loro dignità e diversità intrinseche. È pertanto essenziale che i fornitori garantiscano la piena conformità ai requisiti di accessibilità, anche alla direttiva (UE) 2016/2102 del Parlamento europeo e del Consiglio (38) e alla direttiva (UE) 2019/882. I fornitori dovrebbero garantire il rispetto di tali requisiti fin dalla progettazione. Pertanto, le misure necessarie dovrebbero essere quanto più possibile integrate nella progettazione dei sistemi di IA ad alto rischio.
(81)
Jenħtieġ li l-fornitur jistabbilixxi sistema tajba ta' ġestjoni tal-kwalità, jiżgura t-twettiq tal-proċedura mitluba għal valutazzjoni tal-konformità, ifassal id-dokumentazzjoni rilevanti u jistabbilixxi sistema robusta ta' sorveljanza ta' wara t-tqegħid fis-suq. Jenħtieġ li l-fornituri tas-sistemi tal-IA b'riskju għoli li huma soġġetti għal obbligi rigward is-sistemi ta' ġestjoni tal-kwalità skont il-liġi settorjali rilevanti tal-Unjoni jkollhom il-possibbiltà li jinkludu l-elementi tas-sistema ta' ġestjoni tal-kwalità previsti f'dan ir-Regolament bħala parti mis-sistema eżistenti ta' ġestjoni tal-kwalità prevista f'dik il-liġi settorjali l-oħra tal-Unjoni. Jenħtieġ li l-komplementarjetà bejn dan ir-Regolament u l-liġi settorjali eżistenti tal-Unjoni titqies ukoll fl-attivitajiet ta' standardizzazzjoni jew ta' gwida futuri adottati mill-Kummissjoni. L-awtoritajiet pubbliċi li jqiegħdu fis-servizz sistemi tal-IA b'riskju għoli għall-użu tagħhom stess jistgħu jadottaw u jimplimentaw ir-regoli għas-sistema ta' ġestjoni tal-kwalità bħala parti mis-sistema ta' ġestjoni tal-kwalità adottata fil-livell nazzjonali jew reġjonali, kif xieraq, filwaqt li jqisu l-ispeċifiċitajiet tas-settur u l-kompetenzi u l-organizzazzjoni tal-awtorità pubblika kkonċernata.
(81)
È opportuno che il fornitore istituisca un solido sistema di gestione della qualità, garantisca l'espletamento della procedura di valutazione della conformità richiesta, rediga la documentazione pertinente e istituisca un sistema robusto per il monitoraggio successivo all'immissione sul mercato. I fornitori di sistemi di IA ad alto rischio che sono soggetti a obblighi relativi ai sistemi di gestione della qualità conformemente al pertinente diritto settoriale dell'Unione dovrebbero avere la possibilità di includere gli elementi del sistema di gestione della qualità di cui al presente regolamento nell'ambito del sistema di gestione della qualità esistente previsto da tale altro diritto settoriale dell'Unione. La complementarità tra il presente regolamento e il diritto settoriale vigente dell'Unione dovrebbe essere tenuta in considerazione anche nelle future attività di normazione o negli orientamenti adottati dalla Commissione. Le autorità pubbliche che mettono in servizio sistemi di IA ad alto rischio per uso proprio possono adottare e attuare le regole per il sistema di gestione della qualità nell'ambito del sistema di gestione della qualità adottato a livello nazionale o regionale, a seconda dei casi, tenendo conto delle specificità del settore come pure delle competenze e dell'organizzazione dell'autorità pubblica interessata.
(82)
Biex jiġi ffaċilitat l-infurzar ta' dan ir-Regolament u jinħolqu kundizzjonijiet ekwi għall-operaturi, u filwaqt li jitqiesu l-forom differenti ta' tqegħid għad-dispożizzjoni tal-prodotti diġitali, hu importanti li jkun żgurat li, f'kull ċirkostanza, persuna stabbilita fl-Unjoni tkun tista' tipprovdi l-informazzjoni kollha meħtieġa lill-awtoritajiet dwar il-konformità tas-sistema tal-IA. Għalhekk, qabel ma jagħmlu s-sistemi tal-IA tagħhom disponibbli fl-Unjoni, il-fornituri stabbiliti f'pajjiżi terzi jenħtieġ li jaħtru, b'mandat bil-miktub, rappreżentant awtorizzat stabbilit fl-Unjoni. Dan ir-rappreżentant awtorizzat għandu rwol kruċjali biex jiżgura l-konformità tas-sistemi tal-IA b'riskju għoli introdotti fis-suq jew imqiegħda fis-servizz fl-Unjoni minn dawk il-fornituri li mhumiex stabbiliti fl-Unjoni, u biex iservi bħala l-persuna ta' kuntatt tagħhom stabbilit fl-Unjoni.
(82)
Al fine di consentire l'applicazione del presente regolamento e di creare condizioni di parità per gli operatori, e tenendo conto delle diverse forme di messa a disposizione di prodotti digitali, è importante garantire che, in qualsiasi circostanza, una persona stabilita nell'Unione possa fornire alle autorità tutte le informazioni necessarie sulla conformità di un sistema di IA. Pertanto, prima di mettere a disposizione i propri sistemi di IA nell'Unione, i fornitori stabiliti in paesi terzi dovrebbero nominare, mediante mandato scritto, un rappresentante autorizzato stabilito nell'Unione. Tale rappresentante autorizzato svolge un ruolo chiave nel garantire la conformità dei sistemi di IA ad alto rischio immessi sul mercato o messi in servizio nell'Unione da tali fornitori non stabiliti nell'Unione e nel servire da loro referente stabilito nell'Unione.
(83)
Fid-dawl tan-natura u l-kumplessità tal-katina tal-valur għas-sistemi tal-IA u f'konformità mal-Qafas Leġiżlattiv Ġdid, huwa essenzjali li tiġi żgurata ċ-ċertezza legali u tiġi ffaċilitata l-konformità ma' dan ir-Regolament. Għalhekk, jeħtieġ li jiġu ċċarati r-rwol u l-obbligi speċifiċi tal-operaturi rilevanti tul dik il-katina tal-valur, bħall-importaturi u d-distributuri li jistgħu jikkontribwixxu għall-iżvilupp tas-sistemi tal-IA. F'ċerti sitwazzjonijiet, dawk l-operaturi jistgħu jaġixxu f'aktar minn rwol wieħed fl-istess ħin u għalhekk jenħtieġ li jissodisfaw b'mod kumulattiv l-obbligi rilevanti kollha assoċjati ma' dawk ir-rwoli. Pereżempju, operatur jista' jaġixxi bħala distributur u importatur fl-istess ħin.
(83)
Alla luce della natura e della complessità della catena del valore per i sistemi di IA e in linea con il nuovo quadro legislativo, è essenziale garantire la certezza del diritto e facilitare il rispetto del presente regolamento. È pertanto necessario chiarire il ruolo e gli obblighi specifici degli operatori pertinenti lungo tale catena del valore, come importatori e distributori che possono contribuire allo sviluppo dei sistemi di IA. In determinate situazioni tali operatori potrebbero agire contemporaneamente in più di un ruolo e dovrebbero pertanto adempiere cumulativamente tutti gli obblighi pertinenti associati a tali ruoli. Ad esempio, un operatore potrebbe agire contemporaneamente come distributore e importatore.
(84)
Biex tiġi żgurata ċ-ċertezza legali, jeħtieġ li jiġi ċċarat li, taħt ċerti kundizzjonijiet speċifiċi, jenħtieġ li kwalunkwe distributur, importatur, implimentatur jew parti terza oħra titqies bħala fornitur ta' sistema ġdida tal-IA b'riskju għoli u għalhekk tassumi l-obbligi rilevanti kollha. Dan ikun il-każ jekk dik il-parti tqiegħed isimha jew it-trademark tagħha fuq sistema tal-IA b'riskju għoli diġà introdotta fis-suq jew imqiegħda fis-servizz, mingħajr preġudizzju għall-arranġamenti kuntrattwali li jistipulaw li l-obbligi jiġu allokati mod ieħor. Dan ikun ukoll il-każ jekk dik il-parti tagħmel modifika sostanzjali f'sistema tal-IA b'riskju għoli li tkun diġà introdotta fis-suq jew diġà tqiegħdet fis-servizz b'mod li tibqa' sistema tal-IA b'riskju għoli f'konformità ma' dan ir-Regolament, jew jekk timmodifika l-għan maħsub ta' sistema tal-IA, inkluż sistema tal-IA bi skop ġenerali, li ma tkunx ġiet ikklassifikata bħala b'riskju għoli u li tkun diġà introdotta fis-suq jew imqiegħda fis-servizz, b'mod li s-sistema tal-IA ssir sistema tal-IA b'riskju għoli f'konformità ma' dan ir-Regolament. Jenħtieġ li dawk id-dispożizzjonijiet japplikaw mingħajr preġudizzju għal dispożizzjonijiet aktar speċifiċi stabbiliti f'ċerti leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni bbażata fuq il-Qafas Leġiżlattiv Ġdid, li flimkien miegħu għandu japplika dan ir-Regolament. Pereżempju, jenħtieġ li l-Artikolu 16(2), tar-Regolament (UE) 2017/745, li jistabbilixxi li ċerti bidliet m'għandhomx jitqiesu bħala modifiki ta' apparat li jistgħu jaffettwaw il-konformità tiegħu mar-rekwiżiti applikabbli, ikompli japplika għal sistemi tal-IA b'riskju għoli li huma apparati mediċi skont it-tifsira ta' dak ir-Regolament.
(84)
Al fine di garantire la certezza del diritto, è necessario chiarire che, a determinate condizioni specifiche, qualsiasi distributore, importatore, deployer o altro terzo dovrebbe essere considerato un fornitore di un sistema di IA ad alto rischio e, pertanto, assumere tutti gli obblighi del caso. Ciò si verifica ove tale parte apponga il proprio nome o marchio su un sistema di IA ad alto rischio già immesso sul mercato o messo in servizio, fatti salvi accordi contrattuali che prevedano una diversa ripartizione degli obblighi. Ciò si verifica anche ove tale parte apporti una modifica sostanziale a un sistema di IA ad alto rischio già immesso sul mercato o messo in servizio e in modo che resti un sistema di IA ad alto rischio a norma del presente regolamento, ovvero ove modifichi la finalità prevista di un sistema di IA, compreso un sistema di IA per finalità generali, che non è stato classificato come sistema ad alto rischio ed è già immesso sul mercato o messo in servizio, in modo tale da rendere il sistema di IA un sistema di IA ad alto rischio a norma del presente regolamento. Tali disposizioni dovrebbero applicarsi fatte salve le disposizioni più specifiche stabilite in alcune normative di armonizzazione dell'Unione basate sul nuovo quadro legislativo, unitamente al quale dovrebbe applicarsi il presente regolamento. Ad esempio, l'articolo 16, paragrafo 2, del regolamento (UE) 2017/745, che stabilisce che talune modifiche non dovrebbero essere considerate modifiche di un dispositivo tali da compromettere la sua conformità alle prescrizioni applicabili, dovrebbe continuare ad applicarsi ai sistemi di IA ad alto rischio che sono dispositivi medici ai sensi di tale regolamento.
(85)
Sistemi tal-IA bi skop ġenerali jistgħu jintużaw bħala sistemi tal-IA b'riskju għoli waħedhom jew ikunu komponenti ta' sistemi oħra tal-IA b'riskju għoli. Għaldaqstant, minħabba n-natura partikolari tagħhom u sabiex jiġi żgurat tqassim ġust tar-responsabbiltajiet tul il-katina ta' valur tal-IA, jenħtieġ li l-fornituri ta' tali sistemi, irrispettivament minn jekk jistgħux jintużaw bħala sistemi tal-IA b'riskju għoli bħala tali minn fornituri oħra jew bħala komponenti ta' sistemi tal-IA b'riskju għoli u dment li ma jkunx previst mod ieħor skont dan ir-Regolament, jikkooperaw mill-qrib mal-fornituri tas-sistemi tal-IA b'riskju għoli rilevanti biex jiffaċilitaw il-konformità tagħhom mal-obbligi rilevanti skont dan ir-Regolament u mal-awtoritajiet kompetenti stabbiliti skont dan ir-Regolament.
(85)
I sistemi di IA per finalità generali possono essere utilizzati da soli come sistemi di IA ad alto rischio o essere componenti di altri sistemi di IA ad alto rischio. Pertanto, data la loro natura particolare e al fine di garantire un'equa ripartizione delle responsabilità lungo la catena del valore dell'IA, i fornitori di tali sistemi, indipendentemente dal fatto che questi possano essere utilizzati di per sé come sistemi di IA ad alto rischio da altri fornitori o come componenti di sistemi di IA ad alto rischio, e salvo se diversamente disposto dal presente regolamento, dovrebbero cooperare strettamente con i fornitori dei pertinenti sistemi di IA ad alto rischio per consentire loro di conformarsi ai pertinenti obblighi previsti dal presente regolamento e con le autorità competenti istituite a norma del presente regolamento.
(86)
Meta, skont il-kundizzjonijiet stabbiliti f'dan ir-Regolament, jenħtieġ li l-fornitur li inizjalment ikun introduċa s-sistema tal-IA fis-suq jew qiegħdha fis-servizz ma jibqax jitqies bħala l-fornitur għall-finijiet ta' dan ir-Regolament, u meta dak il-fornitur ma jkunx eskluda espressament il-bidla tas-sistema tal-IA f'sistema tal-IA b'riskju għoli, jenħtieġ li dan il-fornitur preċedenti madankollu jikkoopera mill-qrib u jagħmel disponibbli l-informazzjoni meħtieġa u jipprovdi l-aċċess tekniku raġonevolment mistenni u assistenza oħra meħtieġa għat-twettiq tal-obbligi stipulati f'dan ir-Regolament, b'mod partikolari fir-rigward tar-rispett tal-valutazzjoni tal-konformità tas-sistemi tal-IA b'riskju għoli.
(86)
Qualora, alle condizioni di cui al presente regolamento, il fornitore che ha inizialmente immesso sul mercato o messo in servizio il sistema di IA non dovesse più essere considerato il fornitore ai fini del presente regolamento, e se tale fornitore non ha espressamente escluso la modifica del sistema di IA in un sistema di IA ad alto rischio, il precedente fornitore dovrebbe comunque cooperare strettamente e mettere a disposizione le informazioni necessarie nonché fornire l'accesso tecnico ragionevolmente atteso e qualsiasi altra forma di assistenza che sono richiesti per l'adempimento degli obblighi di cui al presente regolamento, in particolare per quanto riguarda la conformità alla valutazione della conformità dei sistemi di IA ad alto rischio.
(87)
Barra minn hekk, meta sistema tal-IA b'riskju għoli li tkun komponent tas-sikurezza ta' prodott li jaqa' fil-kamp ta' applikazzjoni tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni bbażata fuq il-Qafas Leġiżlattiv Ġdid ma tkunx introdotta fis-suq jew ma titqiegħedx fis-servizz indipendentement mill-prodott, jenħtieġ li l-manifattur tal-prodott definit f'dik il-leġiżlazzjoni jikkonforma mal-obbligi tal-fornitur stabbilit f'dan ir-Regolament u jenħtieġ li, b'mod partikolari, jiżgura li s-sistema tal-IA inkorporata fil-prodott finali tikkonforma mar-rekwiżiti ta' dan ir-Regolament.
(87)
Inoltre, se un sistema di IA ad alto rischio che è un componente di sicurezza di un prodotto rientrante nell'ambito di applicazione della normativa di armonizzazione dell'Unione basata sul nuovo quadro legislativo non è immesso sul mercato o messo in servizio separatamente dal prodotto, il fabbricante del prodotto quale definito in tale normativa dovrebbe adempiere gli obblighi del fornitore stabiliti nel presente regolamento e, in particolare, dovrebbe garantire che il sistema di IA integrato nel prodotto finale soddisfa i requisiti del presente regolamento.
(88)
Tul il-katina tal-valur tal-IA diversi partijiet spiss jipprovdu sistemi tal-IA, għodod u servizzi iżda wkoll komponenti jew proċessi li jiġu inkorporati mill-fornitur fis-sistema tal-IA, b'diversi objettivi inkluż it-taħriġ tal-mudell, it-taħriġ mill-ġdid tal-mudell, l-ittestjar u l-evalwazzjoni tal-mudell, l-integrazzjoni fis-software, jew aspetti oħra tal-iżvilupp tal-mudell. Dawk il-partijiet għandhom rwol importanti fil-katina tal-valur għall-fornitur tas-sistema tal-IA b'riskju għoli li fiha jiġu integrati s-sistemi, l-għodod, is-servizzi, il-komponenti jew il-proċessi tal-IA tagħhom, u jenħtieġ li jipprovdu, permezz ta' ftehim bil-miktub lil dan il-fornitur, l-informazzjoni, il-kapaċitajiet, l-aċċess tekniku u assistenza oħra meħtieġa abbażi tal-ogħla livell ta' żvilupp tekniku rikonoxxut b'mod ġenerali, sabiex il-fornitur ikun jista' jikkonforma bis-sħiħ mal-obbligi stipulati f'dan ir-Regolament, mingħajr ma jikkompromettu d-drittijiet tal-proprjetà intellettwali jew is-sigrieti kummerċjali tagħhom stess.
(88)
Lungo la catena del valore dell'IA, spesso più parti forniscono sistemi di IA, strumenti e servizi, ma anche componenti o processi, che sono integrati dal fornitore nel sistema di IA con varie finalità, inclusi l'addestramento dei modelli, la riqualificazione dei modelli, la prova e la valutazione dei modelli, l'integrazione nel software o altri aspetti dello sviluppo dei modelli. Tali parti svolgono un ruolo importante nella catena del valore nei confronti del fornitore del sistema di IA ad alto rischio in cui i loro sistemi di IA, strumenti, servizi, componenti o processi sono integrati e dovrebbero fornire a tale fornitore mediante accordo scritto le informazioni, le capacità, l'accesso tecnico e qualsiasi altra forma di assistenza necessari sulla base dello stato dell'arte generalmente riconosciuto, al fine di consentire al fornitore di adempiere pienamente gli obblighi di cui al presente regolamento, senza compromettere i propri diritti di proprietà intellettuale o segreti commerciali.
(89)
Partijiet terzi li jagħmlu aċċessibbli għall-pubbliku l-għodod, is-servizzi, il-proċessi, jew il-komponenti tal-IA għajr il-mudelli tal-IA bi skop ġenerali, jenħtieġ li ma jingħatawx il-mandat li jikkonformaw mar-rekwiżiti mmirati lejn ir-responsabbiltajiet tul il-katina tal-valur tal-IA, b'mod partikolari lejn il-fornitur li jkun użahom jew integrahom, meta dawk l-għodod, servizzi, proċessi, jew komponenti tal-IA jsiru aċċessibbli b'liċenzja libera u b’sors miftuħ. Jenħtieġ li l-iżviluppaturi ta' għodod, servizzi, proċessi jew komponenti tal-IA liberi u b'sors miftuħ jitħeġġu jimplimentaw prattiki ta' dokumentazzjoni adottati b'mod wiesa', bħal kards mudell u skedi tad-data, bħala mod biex titħaffef il-kondiviżjoni tal-informazzjoni tul il-katina tal-valur tal-IA, u dan jippermetti l-promozzjoni ta' sistemi tal-IA affidabbli fl-Unjoni.
(89)
I terzi che rendono accessibili al pubblico strumenti, servizi, processi o componenti di IA diversi dai modelli di IA per finalità generali non dovrebbero essere tenuti a conformarsi a requisiti relativi alle responsabilità lungo la catena del valore dell'IA, in particolare nei confronti del fornitore che li ha utilizzati o integrati, quando tali strumenti, servizi, processi o componenti di IA sono resi accessibili con licenza libera e open source. Gli sviluppatori di strumenti, servizi, processi o componenti di IA liberi e open source diversi dai modelli di IA per finalità generali dovrebbero essere incoraggiati ad attuare pratiche di documentazione ampiamente adottate, come schede di modelli e schede dati, al fine di accelerare la condivisione delle informazioni lungo la catena del valore dell'IA, consentendo la promozione di sistemi di IA affidabili nell'Unione.
(90)
Il-Kummissjoni tista' tiżviluppa u tirrakkomanda mudelli volontarji ta' termini kuntrattwali bejn il-fornituri ta' sistemi tal-IA b'riskju għoli u l-partijiet terzi li jipprovdu għodod, servizzi, komponenti jew proċessi li jintużaw jew jiġu integrati f'sistemi tal-IA b'riskju għoli, biex tiġi ffaċilitata l-kooperazzjoni tul il-katina tal-valur. Meta tiżviluppa mudelli volontarji ta' termini kuntrattwali, jenħtieġ li l-Kummissjoni qis ir-rekwiżiti kuntrattwali possibbli applikabbli f'setturi jew każijiet ta' negozju speċifiċi.
(90)
La Commissione potrebbe elaborare e raccomandare clausole contrattuali tipo volontarie tra i fornitori di sistemi di IA ad alto rischio e i terzi che forniscono strumenti, servizi, componenti o processi utilizzati o integrati in sistemi di IA ad alto rischio, al fine di agevolare la cooperazione lungo la catena del valore. Nell'elaborare clausole contrattuali tipo volontarie, la Commissione dovrebbe altresì tenere conto dei possibili requisiti contrattuali applicabili in determinati settori o casi commerciali.
(91)
Minħabba n-natura tas-sistemi tal-IA u r-riskji għas-sikurezza u għad-drittijiet fundamentali possibbilment assoċjati mal-użu tagħhom, inkluż fir-rigward tal-ħtieġa li jkun żgurat monitoraġġ xieraq tal-prestazzjoni tas-sistema tal-IA f'ambjent tal-ħajja reali, jixraq jiġu stabbiliti responsabbiltajiet speċifiċi għall-implimentaturi. Jenħtieġ li l-implimentaturi, b'mod partikolari, jieħdu miżuri tekniċi u organizzattivi biex jiżguraw li jużaw sistemi tal-IA b'riskju għoli f'konformità mal-istruzzjonijiet tal-użu u jenħtieġ li jiġu previsti ċerti obbligi oħra fir-rigward tal-monitoraġġ tal-funzjonament tas-sistemi tal-IA u fir-rigward taż-żamma tar-rekords, kif xieraq. Barra minn hekk, jenħtieġ li l-implimentaturi jiżguraw li l-persuni assenjati biex jimplimentaw l-istruzzjonijiet għall-użu u għas-sorveljanza mill-bniedem kif stipulat f'dan ir-Regolament ikollhom il-kompetenza meħtieġa, b'mod partikolari livell adegwat ta' litteriżmu, taħriġ u awtorità fir-rigward tal-IA biex iwettqu dawk il-kompiti kif suppost. Jenħtieġ li dawk l-obbligi jkunu mingħajr preġudizzju għal obbligi oħra tal-implimentatur fir-rigward tas-sistemi tal-IA b'riskju għoli skont il-liġi tal-Unjoni jew dik nazzjonali.
(91)
In considerazione della natura dei sistemi di IA e dei possibili rischi per la sicurezza e i diritti fondamentali associati al loro utilizzo, anche per quanto riguarda la necessità di garantire un adeguato monitoraggio delle prestazioni di un sistema di IA in un contesto reale, è opportuno stabilire responsabilità specifiche per i deployer. È in particolare opportuno che i deployer adottino misure tecniche e organizzative adeguate per garantire di utilizzare i sistemi di IA ad alto rischio conformemente alle istruzioni per l'uso e che siano previsti alcuni altri obblighi in materia di monitoraggio del funzionamento dei sistemi di IA e conservazione delle registrazioni, a seconda dei casi. Inoltre, i deployer dovrebbero garantire che le persone alle quali è affidata l'attuazione delle istruzioni per l'uso e della sorveglianza umana di cui al presente regolamento dispongano delle competenze necessarie, in particolare un livello adeguato di alfabetizzazione, formazione e autorità in materia di IA per svolgere adeguatamente tali compiti. Tali obblighi dovrebbero lasciare impregiudicati altri obblighi dei deployer in relazione ai sistemi di IA ad alto rischio previsti dal diritto dell'Unione o nazionale.
(92)
Dan ir-Regolament huwa mingħajr preġudizzju għall-obbligi għall-impjegaturi li jinfurmaw jew jinfurmaw u jikkonsultaw lill-ħaddiema jew lir-rappreżentanti tagħhom skont id-dritt u l-prattika tal-Unjoni jew nazzjonali, inkluż id-Direttiva 2002/14/KE tal-Parlament Ewropew u tal-Kunsill (39), dwar deċiżjonijiet biex jitqiegħdu fis-servizz jew jintużaw sistemi tal-IA. Jibqa' meħtieġ li tiġi żgurata l-informazzjoni tal-ħaddiema u tar-rappreżentanti tagħhom dwar l-użu ppjanat ta' sistemi tal-IA b'riskju għoli fuq il-post tax-xogħol fejn il-kundizzjonijiet għal dawk l-obbligi ta' informazzjoni jew ta' informazzjoni u konsultazzjoni fi strumenti legali oħra ma jkunux issodisfati. Barra minn hekk, tali dritt għall-informazzjoni huwa anċillari u meħtieġ għall-objettiv tal-protezzjoni tad-drittijiet fundamentali li huwa l-bażi ta' dan ir-Regolament. Għalhekk, jenħtieġ li jiġi stabbilit rekwiżit ta' informazzjoni għal dak l-għan f'dan ir-Regolament, mingħajr ma jiġi affettwat l-ebda dritt eżistenti tal-ħaddiema.
(92)
Il presente regolamento lascia impregiudicati gli obblighi dei datori di lavoro di informare o di informare e consultare i lavoratori o i loro rappresentanti a norma del diritto e delle prassi dell'Unione o nazionali, compresa la direttiva 2002/14/CE del Parlamento europeo e del Consiglio (39), in merito alle decisioni di mettere in servizio o utilizzare sistemi di IA. Rimane necessario garantire che i lavoratori e i loro rappresentanti siano informati in merito alla diffusione programmata dei sistemi di IA ad alto rischio sul luogo di lavoro, qualora non siano soddisfatte le condizioni per tali obblighi di informazione o di informazione e consultazione previsti da altri strumenti giuridici. Inoltre, tale diritto di informazione è accessorio e necessario rispetto all'obiettivo di tutelare i diritti fondamentali alla base del presente regolamento. È pertanto opportuno prevedere nel presente regolamento un obbligo di informazione con tale finalità, lasciando impregiudicati i diritti esistenti dei lavoratori.
(93)
Filwaqt li r-riskji relatati mas-sistemi tal-IA jistgħu jirriżultaw mill-mod kif jiġu ddisinjati sistemi bħal dawn, ir-riskji jistgħu jinħolqu wkoll minn kif jintużaw sistemi tal-IA bħal dawn. L-implimentaturi ta' sistema tal-IA b'riskju għoli għaldaqstant għandhom rwol kritiku fl-iżgurar li jiġu protetti d-drittijiet fundamentali, filwaqt li jikkomplementaw l-obbligi tal-fornitur meta jiżviluppa s-sistema tal-IA. L-implimentaturi jinsabu fl-aħjar pożizzjoni biex jifhmu kif is-sistema tal-IA b'riskju għoli ser tintuża b'mod konkret u għalhekk jistgħu jidentifikaw riskji sinfikanti potenzjali li ma kinux previsti fil-fażi tal-iżvilupp, minħabba għarfien aktar preċiż tal-kuntest tal-użu, tal-persuni jew tal-gruppi ta' persuni li x'aktarx jiġu affettwati, inkluż gruppi vulnerabbli. L-implimentaturi ta' sistemi tal-IA b'riskju għoli elenkati f'anness ta' dan ir-Regolament ukoll għandhom rwol kruċjali li jinfurmaw lil persuni fiżiċi u, meta jieħdu deċiżjonijiet jew jassistu fit-teħid ta' deċiżjonijiet relatati mal-persuni fiżiċi, jenħtieġ li fejn applikabbli jinfurmaw lill-persuni fiżiċi li huma soġġetti għall-użu ta' sistema tal-IA b'riskju għoli. Jenħtieġ li din l-informazzjoni tinkludi l-għan maħsub u t-tip ta' deċiżjonijiet li tieħu. Jenħtieġ li l-implimentatur jinforma wkoll lill-persuni fiżiċi dwar id-dritt tagħhom għal spjegazzjoni pprovdut skont dan ir-Regolament. Fir-rigward tas-sistemi tal-IA b'riskju għoli użati għall-finijiet tal-infurzar tal-liġi, jenħtieġ li dak l-obbligu jiġi implimentat f'konformità mal-Artikolu 13 tad-Direttiva (UE) 2016/680.
(93)
Se da un lato i rischi legati ai sistemi di IA possono risultare dal modo in cui tali sistemi sono progettati, dall'altro essi possono derivare anche dal modo in cui tali sistemi di IA sono utilizzati. I deployer di sistemi di IA ad alto rischio svolgono pertanto un ruolo fondamentale nel garantire la tutela dei diritti fondamentali, integrando gli obblighi del fornitore nello sviluppo del sistema di IA. I deployer sono nella posizione migliore per comprendere come il sistema di IA ad alto rischio sarà utilizzato concretamente e possono pertanto individuare potenziali rischi significativi non previsti nella fase di sviluppo, in ragione di una conoscenza più puntuale del contesto di utilizzo e delle persone o dei gruppi di persone che potrebbero essere interessati, compresi i gruppi vulnerabili. I deployer dei sistemi di IA ad alto rischio elencati in un allegato del presente regolamento svolgono inoltre un ruolo cruciale per informare le persone fisiche e, quando adottano decisioni o assistono nell'adozione di decisioni che riguardano persone fisiche, dovrebbero informare, se del caso, queste ultime che sono soggette all'uso del sistema di IA ad alto rischio. Tale informazione dovrebbe includere la finalità prevista e il tipo di decisioni adottate. Il deployer dovrebbe informare inoltre le persone fisiche del loro diritto a una spiegazione previsto dal presente regolamento. Per quanto riguarda i sistemi di IA ad alto rischio utilizzati a fini di attività di contrasto, tale obbligo dovrebbe essere attuato conformemente all'articolo 13 della direttiva (UE) 2016/680.
(94)
Jenħtieġ li kwalunkwe pproċessar ta' data bijometrika involut fl-użu tas-sistemi tal-IA għall-identifikazzjoni bijometrika għall-fini ta' infurzar tal-liġi jikkonforma mal-Artikolu 10 tad-Direttiva (UE) 2016/680, li jippermetti dan l-ipproċessar biss meta strettament meħtieġ, soġġett għal salvagwardji xierqa għad-drittijiet u l-libertajiet tas-suġġett tad-data, u meta awtorizzat mil-liġi tal-Unjoni jew ta' Stat Membru. Tali użu, meta awtorizzat, għandu jirrispetta wkoll il-prinċipji stabbiliti fl-Artikolu 4(1) tad-Direttiva (UE) 2016/680 inkluż il-legalità, il-ġustizzja u t-trasparenza, il-limitazzjoni tal-iskop, il-preċiżjoni, l-akkuratezza u l-limitazzjoni tal-ħżin.
(94)
Qualsiasi trattamento di dati biometrici interessati dall'uso di sistemi di IA a fini di identificazione biometrica a scopo di contrasto deve essere conforme all'articolo 10 della direttiva (UE) 2016/680, che consente tale trattamento solo se strettamente necessario, fatte salve le tutele adeguate per i diritti e le libertà dell'interessato, e se autorizzato dal diritto dell'Unione o degli Stati membri. Tale uso, se autorizzato, deve inoltre rispettare i principi di cui all'articolo 4, paragrafo 1, della direttiva (UE) 2016/680, tra cui liceità, correttezza e trasparenza, determinazione delle finalità, esattezza e limitazione della conservazione.
(95)
Mingħajr preġudizzju għal-liġi applikabbli tal-Unjoni, b'mod partikolari r-Regolament (UE) 2016/679 u d-Direttiva (UE) 2016/680, meta titqies in-natura intrużiva tas-sistemi ta’ identifikazzjoni bijometrika remota “f'ħin aktar tard”, l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “f'ħin aktar tard” jenħtieġ li jkun soġġett għal salvagwardji. Jenħtieġ li s-sistemi ta’ identifikazzjoni bijometrika remota “f'ħin aktar tard” dejjem jintużaw b'mod li jkun proporzjonat, leġittimu u strettament meħtieġ, u għalhekk immirat, fir-rigward tal-individwi li għandhom jiġu identifikati, il-post, il-kamp ta' applikazzjoni temporali u abbażi ta' sett ta' data magħluq ta' filmati miksuba legalment. Fi kwalunkwe każ, jenħtieġ li s-sistemi ta’ identifikazzjoni bijometrika remota “f'ħin aktar tard” ma jintużawx fil-qafas tal-infurzar tal-liġi biex iwasslu għal sorveljanza indiskriminata. Fi kwalunkwe każ jenħtieġ li l-kundizzjonijiet għall-identifikazzjoni bijometrika remota “f'ħin aktar tard” ma jipprovdux bażi biex jiġu evitati l-kundizzjonijiet tal-projbizzjoni u l-eċċezzjonijiet stretti għall-identifikazzjoni bijometrika remota f'ħin reali.
(95)
Fatto salvo il diritto dell'Unione applicabile, in particolare il regolamento (UE) 2016/679 e la direttiva (UE) 2016/680, tenendo in considerazione la natura invasiva dei sistemi di identificazione biometrica remota a posteriori, l'uso di tali sistemi dovrebbe essere soggetto a tutele. I sistemi di identificazione biometrica remota a posteriori dovrebbero sempre essere utilizzati in modo proporzionato, legittimo e strettamente necessario e quindi mirato, per quanto riguarda le persone da identificare, il luogo e l'ambito temporale e sulla base di un set di dati chiuso di filmati acquisiti legalmente. In ogni caso, i sistemi di identificazione biometrica remota a posteriori non dovrebbero essere utilizzati nel quadro delle attività di contrasto per condurre una sorveglianza indiscriminata. Le condizioni per l'identificazione biometrica remota a posteriori non dovrebbero, in ogni caso, fornire una base per eludere le condizioni del divieto e le rigorose eccezioni per l'identificazione biometrica remota «in tempo reale».
(96)
Biex ikun żgurat b'mod effiċjenti li d-drittijiet fundamentali jiġu protetti, jenħtieġ li l-implimentaturi ta' sistemi tal-IA b'riskju għoli li huma korpi rregolati mil-liġi pubblika, jew entitajiet privati li jipprovdu servizzi pubbliċi u implimentaturi ta’ ċerti sistemi tal-IA b'riskju għoli elenkati f'anness ta' dan ir-Regolament, bħal entitajiet bankarji jew tal-assigurazzjoni, iwettqu valutazzjoni tal-impatt fuq id-drittijiet fundamentali qabel ma jibdew jużawha. Servizzi importanti għal individwi li huma ta' natura pubblika jistgħu jiġu pprovduti wkoll minn entitajiet privati. L-entitajiet privati li jipprovdu tali servizzi pubbliċi huma marbuta ma' kompiti fl-interess pubbliku bħal fl-oqsma tal-edukazzjoni, il-kura tas-saħħa, is-servizzi soċjali, l-akkomodazzjoni, l-amministrazzjoni tal-ġustizzja. L-għan tal-valutazzjoni tal-impatt fuq id-drittijiet fundamentali huwa li l-implimentatur jidentifika r-riskji speċifiċi għad-drittijiet tal-individwi jew tal-gruppi ta' individwi li x'aktarx jiġu affettwati u jidentifika l-miżuri li għandhom jittieħdu fil-każ li dawk ir-riskji jimmaterjalizzaw. Jenħtieġ li l-valutazzjoni tal-impatt titwettaq qabel l-użu tas-sistema tal-IA b'riskju għoli, u jenħtieġ li tiġi aġġornata meta l-implimentatur iqis li jkun inbidel xi wieħed mill-fatturi rilevanti. Jenħtieġ li l-valutazzjoni tal-impatt tidentifika l-proċessi rilevanti tal-implimentatur li fihom ser tintuża s-sistema tal-IA b'riskju għoli f'konformità mal-għan maħsub tagħha, u jenħtieġ li tinkludi deskrizzjoni tal-perjodu ta' żmien u l-frekwenza li fihom is-sistema tkun maħsuba li tintuża kif ukoll ta' kategoriji speċifiċi ta' persuni fiżiċi u gruppi li x'aktarx jiġu affettwati fil-kuntest speċifiku tal-użu. Jenħtieġ li l-valutazzjoni tinkludi wkoll l-identifikazzjoni ta' riskji speċifiċi ta' ħsara li x'aktarx ikollhom impatt fuq id-drittijiet fundamentali ta' dawk il-persuni jew gruppi. Meta jwettaq din il-valutazzjoni, jenħtieġ li l-implimentatur iqis l-informazzjoni rilevanti għal valutazzjoni xierqa tal-impatt, inkluż iżda mhux biss, l-informazzjoni mogħtija mill-fornitur tas-sistema tal-IA b'riskju għoli fl-istruzzjonijiet għall-użu. Fid-dawl tar-riskji identifikati, jenħtieġ li l-implimentaturi jiddeterminaw il-miżuri li għandhom jittieħdu f'każ tal-materjalizzazzjoni ta' dawk ir-riskji, inkluż pereżempju arranġamenti ta' governanza f'dak il-kuntest speċifiku tal-użu, bħal arranġamenti għas-sorveljanza mill-bniedem skont l-istruzzjonijiet tal-użu jew, it-trattament tal-ilmenti u l-proċeduri ta' rimedju, peress li dawn jistgħu jkunu strumentali fil-mitigazzjoni tar-riskji għad-drittijiet fundamentali f'każijiet konkreti ta' użu. Wara li jwettaq dik il-valutazzjoni tal-impatt, jenħtieġ li l-implimentatur jinnotifika lill-awtorità tas-sorveljanza tas-suq rilevanti. Meta xieraq, biex tinġabar l-informazzjoni rilevanti meħtieġa biex titwettaq il-valutazzjoni tal-impatt, l-implimentaturi tas-sistema tal-IA b'riskju għoli, b'mod partikolari meta jintużaw sistemi tal-IA fis-settur pubbliku, jistgħu jinvolvu lill-partijiet ikkonċernati rilevanti, inkluż ir-rappreżentanti ta' gruppi ta' persuni li x'aktarx ikunu affettwati mis-sistema tal-IA, esperti indipendenti, u organizzazzjonijiet tas-soċjetà ċivili fit-twettiq ta' dawn il-valutazzjonijiet tal-impatt u fit-tfassil tal-miżuri li għandhom jittieħdu fil-każ tal-materjalizzazzjoni tar-riskji. Jenħtieġ li l-Uffiċċju Ewropew għall-Intelliġenza Artifiċjali (l-Uffiċċju għall-IA) jiżviluppa mudell għal kwestjonarju sabiex jiffaċilita l-konformità u jnaqqas il-piż amministrattiv għall-amministraturi.
(96)
Al fine di garantire in modo efficiente la tutela dei diritti fondamentali, i deployer di sistemi di IA ad alto rischio che sono organismi di diritto pubblico o enti privati che forniscono servizi pubblici e deployer di taluni sistemi di IA ad alto rischio elencati nell'allegato del presente regolamento, come i soggetti bancari o assicurativi, dovrebbero svolgere una valutazione d'impatto sui diritti fondamentali prima di metterli in uso. I servizi importanti di natura pubblica per le persone possono essere forniti anche da soggetti privati. Gli enti privati che forniscono tali servizi pubblici sono legati a compiti di interesse pubblico, ad esempio nei settori dell'istruzione, dell'assistenza sanitaria, dei servizi sociali, degli alloggi e dell'amministrazione della giustizia. L'obiettivo della valutazione d'impatto sui diritti fondamentali è consentire al deployer di individuare i rischi specifici per i diritti delle persone o dei gruppi di persone che potrebbero essere interessati e di individuare le misure da adottare al concretizzarsi di tali rischi. La valutazione d'impatto dovrebbe essere svolta prima del primo impiego del sistema di IA ad alto rischio e dovrebbe essere aggiornata quando il deployer ritiene che uno qualsiasi dei fattori pertinenti sia cambiato. La valutazione d'impatto dovrebbe individuare i processi pertinenti del deployer in cui il sistema di IA ad alto rischio sarà utilizzato in linea con la sua finalità prevista e dovrebbe includere una descrizione del periodo di tempo in cui il sistema è destinato a essere usato e della relativa frequenza, nonché delle categorie specifiche di persone fisiche e gruppi che potrebbero essere interessati nel contesto specifico di utilizzo. La valutazione dovrebbe altresì comprendere l'individuazione di rischi specifici di danno che possono incidere sui diritti fondamentali di tali persone o gruppi. Nell'effettuare tale valutazione, il deployer dovrebbe tenere conto delle informazioni pertinenti per un'adeguata valutazione dell'impatto, comprese, tra l'altro, le informazioni trasmesse dal fornitore del sistema di IA ad alto rischio nelle istruzioni per l'uso. Alla luce dei rischi individuati, i deployer dovrebbero stabilire le misure da adottare al concretizzarsi di tali rischi, compresi, ad esempio, i meccanismi di governance in tale contesto specifico di utilizzo, quali le modalità di sorveglianza umana secondo le istruzioni per l'uso, o le procedure di gestione dei reclami e di ricorso, dato che potrebbero essere determinanti nell'attenuare i rischi per i diritti fondamentali in casi d'uso concreti. Dopo aver effettuato tale valutazione d'impatto, il deployer dovrebbe darne notifica alla pertinente autorità di vigilanza del mercato. Se del caso, per raccogliere le informazioni pertinenti necessarie a effettuare la valutazione d'impatto, i deployer di sistemi di IA ad alto rischio, in particolare quando i sistemi di IA sono utilizzati nel settore pubblico, potrebbero coinvolgere i portatori di interessi pertinenti, compresi i rappresentanti di gruppi di persone che potrebbero essere interessati dal sistema di IA, gli esperti indipendenti e le organizzazioni della società civile nello svolgimento di tali valutazioni d'impatto e nella progettazione delle misure da adottare al concretizzarsi dei rischi. L'ufficio europeo per l'IA («ufficio per l'IA») dovrebbe elaborare un modello di questionario al fine di agevolare la conformità e ridurre gli oneri amministrativi per i deployer.
(97)
Jenħtieġ li l-kunċett ta' mudelli tal-IA bi skop ġenerali jiġi ddefinit b'mod ċar u jkun distint mill-kunċett ta' sistemi tal-IA biex ikun hemm ċertezza legali. Jenħtieġ li d-definizzjoni tkun ibbażata fuq il-karatteristiċi funzjonali ewlenin ta' mudell tal-IA bi skop ġenerali, b'mod partikolari l-ġeneralità u l-kapaċità li jwettaq b'mod kompetenti firxa wiesgħa ta' kompiti distinti. Dawn il-mudelli huma tipikament imħarrġa fuq ammonti kbar ta' data, permezz ta' diversi metodi, bħal tagħlim awtosorveljat, mhux sorveljat jew rinforzat. Il-mudelli tal-IA bi skop ġenerali jistgħu jiġu introdotti fis-suq b'diversi modi, inkluż permezz ta' libreriji, interfaċċi għall-ipprogrammar tal-applikazzjonijiet (APIs), bħala tniżżil dirett, jew bħala kopja fiżika. Dawn il-mudelli jistgħu jiġu mmodifikati jew irfinati aktar f'mudelli ġodda. Għalkemm il-mudelli tal-IA huma komponenti essenzjali tas-sistemi tal-IA, waħedhom ma jikkostitwixxux sistemi tal-IA. Il-mudelli tal-IA jeħtieġu ż-żieda ta' komponenti ulterjuri, bħal pereżempju interfaċċa tal-utent, biex isiru sistemi tal-IA. Il-mudelli tal-IA tipikament jiġu integrati fis-sistemi tal-IA u jiffurmaw parti minnhom. Dan ir-Regolament jipprevedi regoli speċifiċi għal mudelli tal-IA bi skop ġenerali u għal mudelli tal-IA bi skop ġenerali li joħolqu riskji sistemiċi, li jenħtieġ li japplikaw ukoll meta dawn il-mudelli jkunu integrati jew jiffurmaw parti minn sistema tal-IA. Jenħtieġ li jinftiehem li l-obbligi għall-fornituri ta' mudelli tal-IA bi skop ġenerali jenħtieġ li japplikaw ladarba l-mudelli tal-IA bi skop ġenerali jiġu introdotti fis-suq. Meta l-fornitur ta' mudell tal-IA bi skop ġenerali jintegra mudell proprju fis-sistema tal-IA tiegħu stess li jiġi introdott fis-suq jew jitqiegħed fis-servizz, jenħtieġ li dak il-mudell jitqies li ġie introdott fis-suq u, għalhekk, jenħtieġ li l-obbligi f'dan ir-Regolament għall-mudelli jkomplu japplikaw flimkien ma' dawk għas-sistemi tal-IA. Fi kwalunkwe każ jenħtieġ li l-obbligi stabbiliti għall-mudelli ma japplikawx meta mudell proprju jintuża għal proċessi purament interni li ma jkunux essenzjali għall-forniment ta' prodott jew servizz lil partijiet terzi u d-drittijiet tal-persuni fiżiċi ma jiġux affettwati. Meta jitqiesu l-effetti negattivi sinifikanti potenzjali tagħhom, jenħtieġ li l-mudelli tal-IA bi skop ġenerali b'riskju sistemiku dejjem ikunu soġġetti għall-obbligi rilevanti skont dan ir-Regolament. Jenħtieġ li d-definizzjoni ma tkoprix il-mudelli tal-IA użati qabel l-introduzzjoni tagħhom fis-suq għall-iskop uniku ta' attivitajiet ta' riċerka, żvilupp u ħolqien ta' prototipi. Dan huwa mingħajr preġudizzju għall-obbligu ta' konformità ma' dan ir-Regolament meta, wara tali attivitajiet, mudell jiġi introdott fis-suq.
(97)
La nozione di modelli di IA per finalità generali dovrebbe essere chiaramente definita e distinta dalla nozione di sistemi di IA per consentire la certezza del diritto. La definizione dovrebbe basarsi sulle principali caratteristiche funzionali di un modello di IA per finalità generali, in particolare la generalità e la capacità di svolgere con competenza un'ampia gamma di compiti distinti. Questi modelli sono solitamente addestrati su grandi quantità di dati con diversi metodi, come l'apprendimento autosupervisionato, non supervisionato o per rinforzo. I modelli di IA per finalità generali possono essere immessi sul mercato in vari modi, tra cui biblioteche, interfacce di programmazione delle applicazioni (API), download diretto o copia fisica. Tali modelli possono essere ulteriormente modificati o perfezionati con nuovi modelli. Sebbene i modelli di IA siano componenti essenziali dei sistemi di IA, essi non costituiscono di per sé sistemi di IA. I modelli di IA necessitano dell'aggiunta di altri componenti, ad esempio un'interfaccia utente, per diventare sistemi di IA. I modelli di IA sono generalmente integrati nei sistemi di IA e ne fanno parte. Il presente regolamento stabilisce norme specifiche per i modelli di IA per finalità generali e per i modelli di IA per finalità generali che presentano rischi sistemici, le quali dovrebbero applicarsi anche quando tali modelli sono integrati o fanno parte di un sistema di IA. Resta inteso che gli obblighi per i fornitori di modelli di IA per finalità generali dovrebbero applicarsi una volta che i modelli di IA per finalità generali sono immessi sul mercato. Quando il fornitore di un modello di IA per finalità generali integra un modello proprio nel suo sistema di IA messo a disposizione sul mercato o messo in servizio, tale modello dovrebbe essere considerato immesso sul mercato e, pertanto, gli obblighi di cui al presente regolamento per i modelli dovrebbero continuare ad applicarsi in aggiunta a quelli per i sistemi di IA. Gli obblighi previsti per i modelli non dovrebbero in ogni caso applicarsi quando un modello proprio è utilizzato per processi puramente interni che non sono essenziali per fornire un prodotto o un servizio a terzi e i diritti delle persone fisiche restano impregiudicati. Considerati i loro potenziali effetti negativi significativi, i modelli di IA per finalità generali con rischio sistemico dovrebbero sempre essere soggetti ai pertinenti obblighi a norma del presente regolamento. La definizione non dovrebbe includere i modelli di IA utilizzati prima della loro immissione sul mercato solo a scopo di ricerca, sviluppo e prototipazione. Ciò non pregiudica l'obbligo di conformarsi al presente regolamento quando, in seguito a tali attività, un modello è immesso sul mercato.
(98)
Filwaqt li l-ġeneralità ta' mudell tista', fost kriterji oħra, tiġi ddeterminata wkoll minn għadd ta' parametri, jenħtieġ li l-mudelli b'mill-inqas biljun parametru u mħarrġa b'ammont kbir ta' data bl-użu ta' awtosuperviżjoni fuq skala kbira jitqiesu li juru ġeneralità sinifikanti u li jwettqu b'mod kompetenti firxa wiesgħa ta' kompiti distintivi.
(98)
Mentre la generalità di un modello potrebbe, tra gli altri criteri, essere determinata anche da una serie di parametri, i modelli con almeno un miliardo di parametri e addestrati con grandi quantità di dati utilizzando l'autosupervisione su larga scala dovrebbero ritenersi caratterizzati da una generalità significativa e in grado di svolgere con competenza un'ampia gamma di compiti distinti.
(99)
Il-mudelli ġenerattivi kbar tal-IA huma eżempju tipiku għal mudell tal-IA bi skop ġenerali, peress li jippermettu ġenerazzjoni flessibbli ta' kontenut, bħal fil-forma ta' test, awdjo, immaġnijiet jew vidjo, li jista' jakkomoda faċilment firxa wiesgħa ta' kompiti distintivi.
(99)
I grandi modelli di IA generativi sono un tipico esempio di modello di IA per finalità generali, dato che consentono una generazione flessibile di contenuti, ad esempio sotto forma di testo, audio, immagini o video, che possono prontamente rispondere a un'ampia gamma di compiti distinti.
(100)
Meta mudell tal-IA bi skop ġenerali jiġi integrat f'sistema tal-IA jew jifforma parti minnha, jenħtieġ li din is-sistema titqies bħala sistema tal-IA bi skop ġenerali meta, minħabba din l-integrazzjoni, din is-sistema jkollha l-kapaċità li taqdi varjetà ta' skopijiet. Sistema tal-IA bi skop ġenerali tista' tintuża direttament, jew tista' tkun integrata f'sistemi oħra tal-IA.
(100)
Quando un modello di IA per finalità generali è integrato in un sistema di IA o ne fa parte, tale sistema dovrebbe essere considerato un sistema di IA per finalità generali qualora, a causa di tale integrazione, il sistema abbia la capacità di perseguire varie finalità. Un sistema di IA per finalità generali può essere utilizzato direttamente o può essere integrato in altri sistemi di IA.
(101)
Il-fornituri ta' mudelli tal-IA bi skop ġenerali għandhom rwol u responsabbiltà partikolari tul il-katina tal-valur tal-IA, peress li l-mudelli li jipprovdu jistgħu jiffurmaw il-bażi għal firxa ta' sistemi downstream, spiss ipprovduti minn fornituri downstream li jeħtieġu għarfien tajjeb tal-mudelli u tal-kapaċitajiet tagħhom, kemm biex jippermettu l-integrazzjoni ta' mudelli bħal dawn fil-prodotti tagħhom, kif ukoll biex jissodisfaw l-obbligi tagħhom skont dan ir-regolament jew skont regolamenti oħra. Għalhekk, jenħtieġ li jiġu stabbiliti miżuri proporzjonati ta' trasparenza, inkluż it-tfassil u ż-żamma aġġornata tad-dokumentazzjoni, u l-għoti ta' informazzjoni dwar il-mudell tal-IA bi skop ġenerali għall-użu tiegħu mill-fornituri downstream. Jenħtieġ li d-dokumentazzjoni teknika titħejja u tinżamm aġġornata mill-fornitur tal-mudell tal-IA bi skop ġenerali bl-għan li ssir disponibbli, fuq talba, għall-Uffiċċju għall-IA u għall-awtoritajiet nazzjonali kompetenti. Jenħtieġ li s-sett minimu ta' elementi li għandhom jiġu inklużi f'tali dokumentazzjoni jiġi stipulat fl-annessi speċifiċi ta' dan ir-Regolament. Jenħtieġ li l-Kummissjoni tingħata s-setgħa li temenda dawk l-annessi permezz ta' atti delegati fid-dawl tal-iżviluppi teknoloġiċi li qed jevolvu.
(101)
I fornitori di modelli di IA per finalità generali hanno un ruolo e una responsabilità particolari lungo la catena del valore dell'IA, poiché i modelli che forniscono possono costituire la base per una serie di sistemi a valle, spesso forniti da fornitori a valle che richiedono una buona comprensione dei modelli e delle loro capacità, sia per consentire l'integrazione di tali modelli nei loro prodotti, sia per adempiere i rispettivi obblighi a norma del presente regolamento o di altri regolamenti. È pertanto opportuno prevedere misure di trasparenza proporzionate, tra cui la redazione e l'aggiornamento della documentazione e la fornitura di informazioni sul modello di IA per finalità generali ai fini del suo utilizzo da parte dei fornitori a valle. La documentazione tecnica dovrebbe essere preparata e tenuta aggiornata dal fornitore del modello di IA per finalità generali allo scopo di metterla a disposizione, su richiesta, dell'ufficio per l'IA e delle autorità nazionali competenti. La serie minima di elementi da includere in tale documentazione dovrebbe essere stabilita in specifici allegati del presente regolamento. Alla Commissione dovrebbe essere conferito il potere di modificare tali allegati mediante atti delegati alla luce degli sviluppi tecnologici in evoluzione.
(102)
Software u data, inkluż mudelli, rilaxxati taħt liċenzja libera u b'sors miftuħ li tippermettilhom jiġu kondiviżi b'mod miftuħ u fejn l-utenti jistgħu jaċċessaw, jużaw, jimmodifikaw u jiddistribwixxu mill-ġdid liberament il-verżjonijiet tagħhom jew il-verżjonijiet modifikati tagħhom, jistgħu jikkontribwixxu għar-riċerka u l-innovazzjoni fis-suq u jistgħu jipprovdu opportunitajiet sinifikanti ta' tkabbir għall-ekonomija tal-Unjoni. Jenħtieġ li jiġu kkunsidrati mudelli tal-IA bi skop ġenerali rilaxxati b'liċenzji liberi u b'sors miftuħ biex jiġu żgurati livelli għoljin ta' trasparenza u ftuħ jekk il-parametri tagħhom, inkluż il-piżijiet, l-informazzjoni dwar l-arkitettura tal-mudell, u l-informazzjoni dwar l-użu tal-mudell ikunu disponibbli għall-pubbliku. Jenħtieġ li l-liċenzja titqies b'liċenzja libera u b'sors miftuħ anke meta tippermetti lill-utenti jaħdmu, jikkupjaw, jiddistribwixxu, jistudjaw, jibdlu u jtejbu s-software u d-data, inkluż mudelli bil-kundizzjoni li l-fornitur oriġinali tal-mudell jiġi kkreditat u li jiġu rrispettati t-termini identiċi jew komparabbli tad-distribuzzjoni.
(102)
I software e i dati, compresi i modelli, rilasciati con licenza libera e open source che consentano loro di essere condivisi apertamente e che gli utenti possano liberamente consultare, utilizzare, modificare e ridistribuire, comprese le loro versioni modificate, possono contribuire alla ricerca e all'innovazione nel mercato e possono offrire notevoli opportunità di crescita per l'economia dell'Unione. I modelli di IA per finalità generali rilasciati con licenza libera e open source dovrebbero essere presi in considerazione per garantire elevati livelli di trasparenza e apertura, se i loro parametri, compresi i pesi, le informazioni sull'architettura del modello e le informazioni sull'uso del modello, sono resi pubblici. La licenza dovrebbe essere considerata libera e open source anche quando consente agli utenti di eseguire, copiare, distribuire, studiare, modificare e migliorare i software e i dati, compresi i modelli, purché il modello sia attribuito al fornitore originario e siano rispettate condizioni di distribuzione identiche o comparabili.
(103)
Komponenti tal-IA b'liċenzja libera u b'sors miftuħ ikopru s-software u d-data, inkluż mudelli u mudelli, għodod, servizzi jew proċessi tal-IA bi skop ġenerali ta' sistema tal-IA. Komponenti tal-IA b'liċenzja libera u b'sors miftuħ jistgħu jiġu pprovduti permezz ta' kanali differenti, inkluż l-iżvilupp tagħhom f'repożitorji miftuħa. Għall-finijiet ta' dan ir-Regolament, jenħtieġ li l-komponenti tal-IA li jiġu pprovduti bi ħlas jew monetizzati b'xi mod ieħor, inkluż bil-forniment ta' appoġġ tekniku jew servizzi oħra, fosthom permezz ta' pjattaforma tas-software, relatati mal-komponent tal-IA, jew l-użu ta' data personali għal raġunijiet għajr esklużivament għat-titjib tas-sigurtà, il-kompatibbiltà jew l-interoperabbiltà tas-software, bl-eċċezzjoni ta' tranżazzjonijiet bejn mikroimpriżi, ma jibbenefikawx mill-eċċezzjonijiet ipprovduti għall-komponenti tal-IA b'liċenzja libera u b'sors miftuħ. Jenħtieġ li fih innifsu, il-fatt li l-komponenti tal-IA jsiru disponibbli permezz ta' repożitorji miftuħa ma jikkostitwixxix monetizzazzjoni.
(103)
I componenti di IA liberi e open source comprendono i software e i dati, compresi i modelli e i modelli di IA per finalità generali, gli strumenti, i servizi o i processi di un sistema di IA. I componenti di IA liberi e open source possono essere forniti attraverso diversi canali e possono inoltre essere sviluppati su archivi aperti. Ai fini del presente regolamento, i componenti di IA forniti a pagamento o altrimenti monetizzati, anche tramite la fornitura di assistenza tecnica o altri servizi, ad esempio attraverso una piattaforma software, in relazione al componente di IA, o l'utilizzo di dati personali per motivi diversi dal solo miglioramento della sicurezza, della compatibilità o dell'interoperabilità del software, ad eccezione delle transazioni tra microimprese, non dovrebbero beneficiare delle eccezioni previste per i componenti di IA liberi e open source. La messa a disposizione di componenti di IA tramite archivi aperti non dovrebbe, di per sé, costituire monetizzazione.
(104)
Il-fornituri ta' mudelli tal-IA bi skop ġenerali li jiġu rilaxxati b'liċenzja libera u b'sors miftuħ, u li l-parametri tagħhom, inkluż il-piżijiet, l-informazzjoni dwar l-arkitettura tal-mudell, u l-informazzjoni dwar l-użu tal-mudell, isiru disponibbli għall-pubbliku, jenħtieġ li jkunu soġġetti għal eċċezzjonijiet fir-rigward tar-rekwiżiti relatati mat-trasparenza imposti fuq il-mudelli tal-IA bi skop ġenerali, sakemm ma jkunux jistgħu jitqiesu li jippreżentaw riskju sistemiku, f'liema każ iċ-ċirkostanza li l-mudell ikun trasparenti u akkumpanjat minn liċenzja b'sors miftuħ jenħtieġ li ma titqiesx bħala raġuni suffiċjenti biex tiġi eskluża l-konformità mal-obbligi skont dan ir-Regolament. Fi kwalunkwe każ, minħabba li r-rilaxx ta' mudelli tal-IA bi skop ġenerali b'liċenzja libera u b'sors miftuħ mhux neċessarjament jiżvela informazzjoni sostanzjali dwar is-sett tad-data użat għat-taħriġ jew għall-irfinar tal-mudell u dwar kif b'hekk ġiet żgurata l-konformità mal-liġi dwar id-drittijiet tal-awtur, jenħtieġ li l-eċċezzjoni prevista għall-mudelli tal-IA bi skop ġenerali mill-konformità mar-rekwiżiti relatati mat-trasparenza ma tikkonċernax l-obbligu li jingħata sommarju dwar il-kontenut użat għat-taħriġ tal-mudell u l-obbligu li tiġi stabbilita politika ta' konformità mal-liġi tal-Unjoni dwar id-drittijiet tal-awtur, b'mod partikolari biex tiġi identifikata u konformi mar-riżerva tad-drittijiet skont l-Artikolu 4(3) tad-Direttiva (UE) 2019/790 tal-Parlament Ewropew u tal-Kunsill (40).
(104)
I fornitori di modelli di IA per finalità generali che sono rilasciati con licenza libera e open source e i cui parametri, compresi i pesi, le informazioni sull'architettura del modello e le informazioni sull'uso del modello, sono messi pubblicamente a disposizione dovrebbero essere soggetti ad eccezioni per quanto riguarda i requisiti relativi alla trasparenza imposti ai modelli di IA per finalità generali, a meno che non si possa ritenere che presentino un rischio sistemico, nel qual caso la circostanza che il modello sia trasparente e corredato di una licenza open source non dovrebbe ritenersi un motivo sufficiente per escludere la conformità agli obblighi di cui al presente regolamento. In ogni caso, dato che il rilascio di modelli di IA per finalità generali con licenza libera e open source non rivela necessariamente informazioni sostanziali sul set di dati utilizzato per l'addestramento o il perfezionamento del modello e sulla modalità con cui è stata in tal modo garantita la conformità al diritto d'autore, l'eccezione prevista per i modelli di IA per finalità generali concernente il rispetto dei requisiti relativi alla trasparenza non dovrebbe riguardare l'obbligo di produrre una sintesi del contenuto utilizzato per l'addestramento dei modelli e l'obbligo di attuare una politica volta ad adempiere la normativa europea in materia di diritto d'autore, in particolare di individuare e rispettare la riserva dei diritti a norma dell'articolo 4, paragrafo 3, della direttiva (UE) 2019/790 del Parlamento europeo e del Consiglio (40).
(105)
Il-mudelli tal-IA bi skop ġenerali, b'mod partikolari mudelli tal-IA ġenerattivi kbar, li kapaċi jiġġeneraw test, immaġnijiet, u kontenut ieħor, jippreżentaw opportunitajiet uniċi ta' innovazzjoni iżda wkoll sfidi għall-artisti, l-awturi, u kreaturi oħra u l-mod kif il-kontenut kreattiv tagħhom jinħoloq, jitqassam, jintuża u jiġi kkunsmat. L-iżvilupp u t-taħriġ ta' mudelli bħal dawn jeħtieġu aċċess għal ammonti kbar ta' testi, immaġnijiet, vidjows, u data oħra. It-tekniki tal-estrazzjoni tat-test u tad-data jistgħu jintużaw b'mod estensiv f'dan il-kuntest għall-irkupru u l-analiżi ta' tali kontenut, li jista' jiġi protett bid-drittijiet tal-awtur u bi drittijiet relatati. Kwalunkwe użu ta' kontenut protett bid-drittijiet tal-awtur jeħtieġ l-awtorizzazzjoni tad-detentur tad-drittijiet ikkonċernat sakemm ma japplikawx eċċezzjonijiet u limitazzjonijiet rilevanti tad-drittijiet tal-awtur. Id-Direttiva (UE) 2019/790 introduċiet eċċezzjonijiet u limitazzjonijiet li jippermettu r-riproduzzjonijiet u l-estrazzjonijiet ta' xogħlijiet jew materjal ieħor, għall-fini tal-estrazzjoni tat-test u tad-data, taħt ċerti kundizzjonijiet. Skont dawn ir-regoli, id-detenturi tad-drittijiet jistgħu jagħżlu li jirriżervaw id-drittijiet tagħhom fuq ix-xogħlijiet jew materjal ieħor tagħhom biex jipprevjenu l-estrazzjoni tat-test u tad-data, sakemm dan ma jsirx għall-finijiet ta' riċerka xjentifika. Meta d-drittijiet ta' nonparteċipazzjoni jkunu ġew espressament riżervati b'mod xieraq, il-fornituri ta' mudelli tal-IA bi skop ġenerali jeħtieġ li jiksbu awtorizzazzjoni mid-detenturi tad-drittijiet jekk ikunu jridu jwettqu estrazzjoni tat-test u tad-data fuq tali xogħlijiet.
(105)
I modelli di IA per finalità generali, in particolare i grandi modelli di IA generativa, in grado di generare testo, immagini e altri contenuti, presentano opportunità di innovazione uniche, ma anche sfide per artisti, autori e altri creatori e per le modalità con cui i loro contenuti creativi sono creati, distribuiti, utilizzati e fruiti. Lo sviluppo e l'addestramento di tali modelli richiedono l'accesso a grandi quantità di testo, immagini, video e altri dati. Le tecniche di estrazione di testo e di dati possono essere ampiamente utilizzate in tale contesto per il reperimento e l'analisi di tali contenuti, che possono essere protetti da diritto d'autore e da diritti connessi. Qualsiasi utilizzo di contenuti protetti da diritto d'autore richiede l'autorizzazione del titolare dei diritti interessato, salvo se si applicano eccezioni e limitazioni pertinenti al diritto d'autore. La direttiva (UE) 2019/790 ha introdotto eccezioni e limitazioni che consentono, a determinate condizioni, riproduzioni ed estrazioni effettuate da opere o altri materiali ai fini dell'estrazione di testo e di dati. In base a tali norme, i titolari dei diritti hanno la facoltà di scegliere che l'utilizzo delle loro opere e di altri materiali sia da essi riservato per evitare l'estrazione di testo e di dati, salvo a fini di ricerca scientifica. Qualora il diritto di sottrarsi sia stato espressamente riservato in modo appropriato, i fornitori di modelli di IA per finalità generali devono ottenere un'autorizzazione dai titolari dei diritti, qualora intendano compiere l'estrazione di testo e di dati su tali opere.
(106)
Jenħtieġ li l-fornituri li jintroduċu mudelli tal-IA bi skop ġenerali fis-suq tal-Unjoni jiżguraw il-konformità mal-obbligi rilevanti f'dan ir-Regolament. Għal dak l-għan, jenħtieġ li l-fornituri ta' mudelli tal-IA bi skop ġenerali jistabbilixxu politika biex jikkonformaw mal-liġi tal-Unjoni dwar id-drittijiet tal-awtur u drittijiet relatati, b'mod partikolari biex jidentifikaw u jikkonformaw mar-riżerva tad-drittijiet espressa mid-detenturi tad-drittijiet skont l-Artikolu 4(3) tad-Direttiva (UE) 2019/790. Jenħtieġ li kwalunkwe fornitur li jintroduċi mudell tal-IA bi skop ġenerali fis-suq tal-Unjoni jikkonforma ma' dan l-obbligu, irrispettivament mill-ġuriżdizzjoni li fiha jseħħu l-atti rilevanti għad-drittijiet tal-awtur li jirfdu t-taħriġ ta' dawk il-mudelli tal-IA bi skop ġenerali. Dan huwa meħtieġ biex jiġu żgurati kundizzjonijiet ekwi fost il-fornituri ta' mudelli tal-IA bi skop ġenerali meta l-ebda fornitur ma jkun jista' jikseb vantaġġ kompetittiv fis-suq tal-Unjoni billi japplika standards tad-drittijiet tal-awtur aktar baxxi minn dawk ipprovduti fl-Unjoni.
(106)
I fornitori che immettono modelli di IA per finalità generali sul mercato dell'Unione dovrebbero garantire la conformità ai pertinenti obblighi del presente regolamento. A tal fine, i fornitori di modelli di IA per finalità generali dovrebbero mettere in atto una politica volta a rispettare il diritto dell'Unione in materia di diritto d'autore e diritti connessi, in particolare per individuare e rispettare la riserva dei diritti espresse dai titolari dei diritti a norma dell'articolo 4, paragrafo 3, della direttiva (UE) 2019/790. Qualsiasi fornitore che immetta sul mercato dell'Unione un modello di IA per finalità generali dovrebbe rispettare tale obbligo, indipendentemente dalla giurisdizione in cui hanno luogo gli atti pertinenti in materia di diritto d'autore alla base dell'addestramento di tali modelli di IA per finalità generali. Ciò è necessario per garantire condizioni di parità tra i fornitori di modelli di IA per finalità generali, dato che nessun fornitore dovrebbe essere in grado di ottenere un vantaggio competitivo nel mercato dell'Unione applicando norme in materia di diritto d'autore meno rigorose di quelle previste nell'Unione.
(107)
Sabiex tiżdied it-trasparenza dwar id-data li tintuża fit-taħriġ minn qabel u fit-taħriġ ta' mudelli tal-IA bi skop ġenerali, inkluż it-test u d-data protetti mil-liġi dwar id-drittijiet tal-awtur, huwa xieraq li l-fornituri ta' tali mudelli jfasslu u jagħmlu disponibbli għall-pubbliku sommarju dettaljat biżżejjed tal-kontenut użat għat-taħriġ tal-mudell tal-IA bi skop ġenerali. Filwaqt li titqies kif xieraq il-ħtieġa li jiġu protetti s-sigrieti kummerċjali u l-informazzjoni kummerċjali kunfidenzjali, jenħtieġ li dan is-sommarju jkun ġeneralment komprensiv fil-kamp ta' applikazzjoni tiegħu minflok ma jkun teknikament dettaljat biex jiffaċilita lill-partijiet b'interessi leġittimi, inkluż id-detenturi tad-drittijiet tal-awtur, biex jeżerċitaw u jinfurzaw id-drittijiet tagħhom skont il-liġi tal-Unjoni, pereżempju billi jelenka l-ġabriet jew is-settijiet ewlenin tad-data li jkunu ħarrġu l-mudell, bħal bażijiet tad-data privati jew pubbliċi kbar jew arkivji tad-data, u billi jipprovdi spjegazzjoni narrattiva dwar sorsi oħra ta' data użati. Huwa xieraq li l-Uffiċċju għall-IA jipprovdi mudell għas-sommarju, li jenħtieġ li jkun sempliċi, effettiv, u jippermetti lill-fornitur jipprovdi s-sommarju meħtieġ f'forma narrattiva.
(107)
Al fine di aumentare la trasparenza sui dati utilizzati nelle fasi di pre-addestramento e addestramento dei modelli di IA per finalità generali, compresi testo e dati protetti dalla normativa sul diritto d'autore, è opportuno che i fornitori di tali modelli elaborino e mettano a disposizione del pubblico una sintesi sufficientemente dettagliata dei contenuti utilizzati per l'addestramento del modello di IA per finalità generali. Pur tenendo debitamente conto della necessità di proteggere i segreti commerciali e le informazioni commerciali riservate, la presente sintesi dovrebbe essere di respiro ampio e generale, anziché dettagliata sotto il profilo tecnico, al fine di agevolare le parti con interessi legittimi, compresi i titolari dei diritti d'autore, nell'esercitare e far rispettare i loro diritti ai sensi del diritto dell'Unione, ad esempio elencando le principali raccolte o serie di dati che sono state inserite nell'addestramento del modello, quali grandi banche dati o archivi di dati privati o pubblici, e fornendo una descrizione delle altre fonti di dati utilizzate. È opportuno che l'ufficio per l'IA fornisca un modello per la sintesi, che dovrebbe essere semplice ed efficace nonché consentire al fornitore di fornire la sintesi richiesta in forma descrittiva.
(108)
Fir-rigward tal-obbligi imposti fuq il-fornituri ta' mudelli tal-IA bi skop ġenerali biex jistabbilixxu politika biex jikkonformaw mal-liġi tal-Unjoni dwar id-drittijiet tal-awtur u jagħmlu disponibbli għall-pubbliku sommarju tal-kontenut użat għat-taħriġ, jenħtieġ li l-Uffiċċju għall-IA jimmonitorja jekk il-fornitur ikunx issodisfa dawk l-obbligi mingħajr ma jivverifika jew jipproċedi biex jivvaluta wieħed wieħed kull xogħol tad-data tat-taħriġ fir-rigward tal-konformità mad-drittijiet tal-awtur. Dan ir-Regolament ma jaffettwax l-infurzar tar-regoli dwar id-drittijiet tal-awtur kif previst fil-liġi tal-Unjoni.
(108)
In merito agli obblighi imposti ai fornitori di modelli di IA per finalità generali per quanto riguarda l'attuazione di una politica volta a rispettare la normativa dell'Unione in materia di diritto d'autore e a mettere pubblicamente a disposizione una sintesi dei contenuti utilizzati per l'addestramento, l'ufficio per l'IA dovrebbe controllare se il fornitore ha adempiuto tali obblighi senza verificare o procedere a una valutazione puntuale dei dati di addestramento in termini di conformità al diritto d'autore. Il presente regolamento non pregiudica l'applicazione delle norme sul diritto d'autore previste dal diritto dell'Unione.
(109)
Jenħtieġ li l-konformità mal-obbligi applikabbli għall-fornituri tal-mudelli tal-IA bi skop ġenerali tkun proporzjonata għat-tip ta' fornitur tal-mudell, bl-esklużjoni tal-ħtieġa ta' konformità għall-persuni li jiżviluppaw jew jużaw mudelli għal skopijiet ta' riċerka mhux professjonali jew xjentifika, li madankollu jenħtieġ li jiġu mħeġġa jikkonformaw b'mod volontarju ma' dawn ir-rekwiżiti. Mingħajr preġudizzju għal-liġi tal-Unjoni dwar id-drittijiet tal-awtur, jenħtieġ li l-konformità ma' dawk l-obbligi tqis kif xieraq id-daqs tal-fornitur u tippermetti modi simplifikati ta' konformità għall-SMEs inkluż in-negozji ġodda, li jenħtieġ li ma jirrappreżentawx kost eċċessiv u ma jiskoraġġixxux l-użu ta' tali mudelli. Fil-każ ta' modifika jew irfinar ta' mudell, jenħtieġ li l-obbligi għall-fornituri ta’ mudelli tal-IA bi skop ġenerali jkunu limitati għal dik il-modifika jew irfinar, pereżempju billi d-dokumentazzjoni teknika diġà eżistenti tiġi kkomplementata b'informazzjoni dwar il-modifiki, inkluż sorsi ġodda ta' data tat-taħriġ, bħala mezz biex jikkonformaw mal-obbligi tal-katina tal-valur previsti f'dan ir-Regolament.
(109)
Il rispetto degli obblighi applicabili ai fornitori di modelli di IA per finalità generali dovrebbe essere commisurato e proporzionato al tipo di fornitore del modello, escludendo la necessità di adempimento per le persone che sviluppano o utilizzano modelli per finalità non professionali o di ricerca scientifica, le quali dovrebbero tuttavia essere incoraggiate a rispettare volontariamente tali obblighi. Fatta salva la normativa dell'Unione in materia di diritto d'autore, il rispetto di tali obblighi dovrebbe tenere debitamente conto delle dimensioni del fornitore e consentire modalità semplificate di adempimento per le PMI, comprese le start-up, che non dovrebbero comportare costi eccessivi né scoraggiare l'uso di tali modelli. In caso di modifica o perfezionamento di un modello, gli obblighi per i fornitori di modelli di IA per finalità generali dovrebbero essere limitati a tale modifica o perfezionamento, ad esempio integrando la documentazione tecnica già esistente con informazioni sulle modifiche, comprese nuove fonti di dati di addestramento, quale mezzo per adempiere gli obblighi della catena del valore di cui al presente regolamento.
(110)
Il-mudelli tal-IA bi skop ġenerali jistgħu joħolqu riskji sistemiċi li jinkludu, iżda mhumiex limitati għal, kwalunkwe effett negattiv reali jew raġonevolment prevedibbli fir-rigward ta' aċċidenti kbar, tfixkil ta' setturi kritiċi u konsegwenzi serji għas-saħħa u s-sikurezza pubblika; kwalunkwe effett negattiv attwali jew raġonevolment prevedibbli fuq il-proċessi demokratiċi, is-sigurtà pubblika u ekonomika; id-disseminazzjoni ta' kontenut illegali, falz jew diskriminatorju. Ir-riskji sistemiċi jenħtieġ li jinftiehmu li jiżdiedu bil-kapaċitajiet tal-mudell u l-kopertura tal-mudell, jistgħu jinħolqu tul iċ-ċiklu tal-ħajja kollu tal-mudell, u huma influwenzati minn kundizzjonijiet ta' użu ħażin, l-affidabbiltà tal-mudell, l-imparzjalità tal-mudell u sigurtà tal-mudell, il-livell ta' awtonomija tal-mudell, l-aċċess tiegħu għal għodod, modalitajiet ġodda jew ikkombinati, strateġiji ta' rilaxx u distribuzzjoni, il-potenzjal li jitneħħew il-konfini u fatturi oħra. B'mod partikolari, l-approċċi internazzjonali s'issa identifikaw il-ħtieġa li tingħata attenzjoni għar-riskji minn użu ħażin intenzjonat potenzjali jew kwistjonijiet mhux intenzjonati ta' kontroll relatati mal-allinjament mal-intenzjoni tal-bniedem; riskji kimiċi, bijoloġiċi, radjoloġiċi u nukleari, bħall-modi li bihom jistgħu jitnaqqsu l-ostakli għad-dħul, inkluż għall-iżvilupp, l-akkwist tad-disinn, jew l-użu tal-armi; kapaċitajiet ċibernetiċi offensivi, bħall-modi ta' skoperta tal-vulnerabbiltà, l-isfruttament, jew l-użu operazzjonali jistgħu jiġu attivati; l-effetti tal-interazzjoni u l-użu tal-għodda, inkluż pereżempju l-kapaċità li jiġu kkontrollati s-sistemi fiżiċi u ssir interferenza mal-infrastruttura kritika; riskji minn mudelli li jipproduċu kopji tagħhom infushom jew li jagħmlu “awtoreplikazzjoni” jew iħarrġu mudelli oħrajn; il-modi li bihom il-mudelli jistgħu jwasslu għal preġudizzju ta' ħsara u diskriminazzjoni b'riskji għall-individwi, il-komunitajiet jew is-soċjetajiet; il-faċilitazzjoni tad-diżinformazzjoni jew il-ħsara lill-privatezza b'theddid għall-valuri demokratiċi u d-drittijiet tal-bniedem; riskju li avveniment partikolari jista' jwassal għal reazzjoni katina b'effetti negattivi konsiderevoli li jistgħu jaffettwaw sa belt sħiħa, attività ta' dominju sħiħ jew komunità sħiħa.
(110)
I modelli di IA per finalità generali potrebbero comportare rischi sistemici che includono, tra l'altro, qualsiasi effetto negativo effettivo o ragionevolmente prevedibile in relazione a incidenti gravi, perturbazioni di settori critici e serie conseguenze per la salute e la sicurezza pubbliche; eventuali effetti negativi, effettivi o ragionevolmente prevedibili, sui processi democratici e sulla sicurezza pubblica ed economica; la diffusione di contenuti illegali, mendaci o discriminatori. I rischi sistemici sono da intendersi in aumento con le capacità e la portata del modello, possono emergere durante l'intero ciclo di vita del modello e sono influenzati da condizioni di uso improprio, affidabilità, equità e sicurezza del modello, il livello di autonomia del modello, dal suo accesso agli strumenti, dalle sue modalità nuove o combinate, dalle strategie di rilascio e distribuzione, dal potenziale di rimozione delle misure protettive e da altri fattori. In particolare, gli approcci internazionali hanno finora rilevato la necessità di prestare attenzione ai rischi derivanti da potenziali usi impropri intenzionali o da involontari problemi di controllo relativi all'allineamento con l'intento umano; ai rischi chimici, biologici, radiologici e nucleari, come le modalità con cui ridurre gli ostacoli all'accesso, anche per quanto riguarda lo sviluppo e l'uso di armi o la relativa acquisizione di progetti; alle capacità informatiche offensive, come le modalità per consentire la scoperta, lo sfruttamento o l'uso operativo delle vulnerabilità; agli effetti dell'interazione e dell'uso di strumenti, compresa, ad esempio, la capacità di controllare i sistemi fisici e di interferire con infrastrutture critiche; ai rischi derivanti da modelli che realizzano copie di sé stessi o «autoreplicanti» o che addestrano altri modelli; alle modalità con cui i modelli possono dar luogo a dannosi pregiudizi e discriminazioni con rischi per gli individui, le comunità o le società; all'agevolazione della disinformazione o alla violazione della vita privata con minacce ai valori democratici e ai diritti umani; al rischio che un particolare evento possa provocare una reazione a catena con notevoli effetti negativi che potrebbero interessare fino a un'intera città, un intero settore o un'intera comunità.
(111)
Huwa xieraq li tiġi stabbilita metodoloġija għall-klassifikazzjoni tal-mudelli tal-IA bi skop ġenerali bħala mudelli tal-IA bi skop ġenerali b'riskji sistemiċi. Peress li r-riskji sistemiċi jirriżultaw minn kapaċitajiet partikolarment għoljin, jenħtieġ li l-mudell tal-IA bi skop ġenerali jitqies li jippreżenta riskji sistemiċi jekk ikollu kapaċitajiet b'impatt għoli, evalwati abbażi ta' għodod u metodoloġiji tekniċi xierqa, jew impatt sinifikanti fuq is-suq intern minħabba l-kopertura tiegħu. Kapaċitajiet b'impatt kbir f'mudelli tal-IA bi skop ġenerali tfisser kapaċitajiet li jaqblu mal-kapaċitajiet irreġistrati fl-aktar mudelli avvanzati tal-IA bi skop ġenerali jew jaqbżuhom. Il-firxa sħiħa ta' kapaċitajiet f'mudell tista' tinftiehem aħjar wara l-introduzzjoni tiegħu fis-suq jew meta l-implimentaturi jinteraġixxu mal-mudell. Skont l-ogħla livell ta' żvilupp tekniku fil-mument tad-dħul fis-seħħ ta' dan ir-Regolament, l-ammont kumulattiv ta' komputazzjoni użat għat-taħriġ tal-mudell tal-IA bi skop ġenerali mkejjel f'operazzjonijiet b'punt varjabbli huwa wieħed mill-approssimazzjonijiet rilevanti għall-kapaċitajiet tal-mudell. L-ammont kumulattiv ta’ komputazzjoni użat għat-taħriġ jinkludi l-komputazzjoni użata fl-attivitajiet u l-metodi kollha li huma maħsuba biex itejbu l-kapaċitajiet tal-mudell qabel l-implimentazzjoni, bħal taħriġ minn qabel, ġenerazzjoni ta' data sintetika u rfinar. Għalhekk, jenħtieġ li jiġi stabbilit limitu inizjali tal-operazzjonijiet b'punt varjabbli, li, jekk jiġi ssodisfat minn mudell tal-IA bi skop ġenerali, iwassal għal preżunzjoni li l-mudell huwa mudell tal-IA bi skop ġenerali b'riskji sistemiċi. Jenħtieġ li dan il-limitu jiġi aġġustat maż-żmien biex jirrifletti l-bidliet teknoloġiċi u industrijali, bħat-titjib algoritmiku jew żieda fl-effiċjenza tal-hardware, u jenħtieġ li jiġi ssupplimentat b'parametri referenzjarji u indikaturi għall-kapaċità tal-mudell. Biex jikkontribwixxi għal dan, jenħtieġ li l-Uffiċċju għall-IA jinvolvi ruħu mal-komunità xjentifika, l-industrija, is-soċjetà ċivili u esperti oħra. Jenħtieġ li l-limiti, kif ukoll l-għodod u l-parametri referenzjarji għall-valutazzjoni ta' kapaċitajiet b'impatt għoli, ikunu jistgħu jbassru sew il-ġeneralità, il-kapaċitajiet u r-riskju sistemiku assoċjat ta' mudelli tal-IA bi skop ġenerali, u jistgħu jqisu l-mod kif il-mudell ser jiġi introdott fis-suq jew l-għadd ta' utenti li jista' jaffettwa. Biex tikkomplementa din is-sistema, jenħtieġ ikun hemm il-possibbiltà li l-Kummissjoni tieħu deċiżjonijiet individwali li jiddeżinjaw mudell tal-IA bi skop ġenerali bħala mudell tal-IA bi skop ġenerali b'riskju sistemiku jekk jinstab li tali mudell għandu kapaċitajiet jew impatt ekwivalenti għal dawk koperti mil-livell limitu stabbilit. Jenħtieġ li dik id-deċiżjoni tittieħed abbażi ta' valutazzjoni ġenerali tal-kriterji għad-deżinjazzjoni ta' mudell tal-IA bi skop ġenerali b'riskju sistemiku stipulat f'anness ta' dan ir-Regolament, bħall-kwalità jew id-daqs tas-sett tad-data tat-taħriġ, l-għadd ta' negozji u utenti finali, il-modalitajiet tal-input u tal-output tiegħu, il-livell ta' awtonomija u skalabbiltà tiegħu, jew l-għodod li għandu aċċess għalihom. Fuq talba motivata ta' fornitur li l-mudell tiegħu jkun ġie ddeżinjat bħala mudell tal-IA bi skop ġenerali b'riskju sistemiku, jenħtieġ li l-Kummissjoni tqis it-talba u tista' tiddeċiedi li tivvaluta mill-ġdid jekk il-mudell tal-IA bi skop ġenerali għadux jista' jitqies li jippreżenta riskji sistemiċi.
(111)
È opportuno stabilire una metodologia per la classificazione dei modelli di IA per finalità generali come modelli di IA per finalità generali con rischi sistemici. Poiché i rischi sistemici derivano da capacità particolarmente elevate, si dovrebbe considerare che un modello di IA per finalità generali presenti rischi sistemici se ha capacità di impatto elevato, valutate sulla base di metodologie e strumenti tecnici adeguati, o se ha un impatto significativo sul mercato interno a causa della sua portata. Per capacità di impatto elevato nei modelli di IA per finalità generali si intendono capacità che corrispondono o superano le capacità registrate nei modelli di IA per finalità generali più avanzati. L'intera gamma di capacità di un modello potrebbe essere meglio compresa dopo la sua immissione sul mercato o quando i deployer interagiscono con il modello. In base allo stato dell'arte al momento dell'entrata in vigore del presente regolamento, l'importo cumulativo del calcolo utilizzato per l'addestramento del modello di IA per finalità generali misurato in operazioni in virgola mobile è una delle approssimazioni pertinenti per le capacità del modello. L'importo cumulativo del calcolo utilizzato per l'addestramento comprende il calcolo utilizzato nelle attività e nei metodi tesi a migliorare le capacità del modello prima della diffusione, quali il pre-addestramento, la generazione di dati sintetici e il perfezionamento. È pertanto opportuno fissare una soglia iniziale di operazioni in virgola mobile che, se raggiunta da un modello di IA per finalità generali, porta a presumere che il modello sia un modello di IA per finalità generali con rischi sistemici. Tale soglia dovrebbe essere adeguata nel tempo per riflettere i cambiamenti tecnologici e industriali, quali miglioramenti algoritmici o una maggiore efficienza dell'hardware, e dovrebbe essere integrata da parametri di riferimento e indicatori per la capacità del modello. A tal fine, l'ufficio per l'IA dovrebbe dialogare con la comunità scientifica, l'industria, la società civile e altri esperti. Le soglie, nonché gli strumenti e i parametri di riferimento per la valutazione delle capacità di impatto elevato, dovrebbero essere solidi indicatori della generalità, delle capacità e del connesso rischio sistemico dei modelli di IA per finalità generali e potrebbero tenere conto delle modalità con cui il modello sarà immesso sul mercato o del numero di utenti che potrebbero esserne interessati. A integrazione di tale sistema, la Commissione dovrebbe avere la possibilità di adottare decisioni individuali per designare un modello di IA per finalità generali come modello di IA per finalità generali con rischio sistemico, qualora si accerti che tale modello abbia capacità o un impatto equivalenti a quelli rilevati dalla soglia fissata. Tale decisione dovrebbe essere adottata in base a una valutazione globale dei criteri per la designazione di un modello di IA per finalità generali con rischio sistemico di cui all'allegato del presente regolamento, come la qualità o le dimensioni del set di dati di addestramento, il numero di utenti commerciali e finali, le sue modalità di input e output, il suo livello di autonomia e scalabilità o gli strumenti a cui ha accesso. Su richiesta motivata di un fornitore il cui modello è stato designato come modello di IA per finalità generali con rischio sistemico, la Commissione dovrebbe tenere conto della richiesta e può decidere di rivalutare se si possa ancora ritenere che il modello di IA per finalità generali presenti rischi sistemici.
(112)
Jeħtieġ ukoll li tiġi ċċarata proċedura għall-klassifikazzjoni ta' mudell tal-IA bi skop ġenerali b'riskji sistemiċi. Jenħtieġ li mudell tal-IA bi skop ġenerali li jissodisfa l-limitu applikabbli għal kapaċitajiet b'impatt għoli jitqies li huwa mudell tal-IA bi skop ġenerali b'riskju sistemiku. Jenħtieġ li l-fornitur jinnotifika lill-Uffiċċju għall-IA mhux aktar tard minn ġimagħtejn wara li jiġu ssodisfati r-rekwiżiti jew isir magħruf li mudell tal-IA bi skop ġenerali ser jissodisfa r-rekwiżiti li jwasslu għall-preżunzjoni. Dan huwa partikolarment rilevanti fir-rigward tal-limitu tal-operazzjonijiet b'punt varjabbli minħabba li t-taħriġ ta' mudelli tal-IA bi skop ġenerali jirrikjedi ippjanar konsiderevoli li jinkludi l-allokazzjoni bil-quddiem tar-riżorsi tal-komputazzjoni u, għalhekk, il-fornituri ta' mudelli tal-IA bi skop ġenerali jistgħu jkunu jafu jekk il-mudell tagħhom jilħaqx il-limitu qabel ma jitlesta t-taħriġ. Fil-kuntest ta' dik in-notifika, jenħtieġ li l-fornitur ikun jista' juri li minħabba l-karatteristiċi speċifiċi tiegħu, mudell tal-IA bi skop ġenerali b'mod eċċezzjonali ma jippreżentax riskji sistemiċi, u li għalhekk jenħtieġ li ma jiġix ikklassifikat bħala mudell tal-IA bi skop ġenerali b'riskji sistemiċi. Dik l-informazzjoni hija siewja għall-Uffiċċju għall-IA biex jantiċipa l-introduzzjoni fis-suq ta' mudelli tal-IA bi skop ġenerali b'riskji sistemiċi u l-fornituri jistgħu jibdew jinvolvu ruħhom mal-Uffiċċju għall-IA minn kmieni. Dik l-informazzjoni hija partikolarment importanti fir-rigward tal-mudelli tal-IA bi skop ġenerali li huma ppjanati li jiġu rilaxxati bħala sors miftuħ, minħabba li, wara r-rilaxx tal-mudell b'sors miftuħ, il-miżuri meħtieġa biex tiġi żgurata l-konformità mal-obbligi skont dan ir-Regolament jistgħu jkunu aktar diffiċli biex jiġu implimentati.
(112)
È altresì opportuno specificare una procedura per la classificazione di un modello di IA per finalità generali con rischi sistemici. Si dovrebbe presumere che un modello di IA per finalità generali che raggiunge la soglia applicabile per le capacità di impatto elevato sia un modello di IA per finalità generali con rischio sistemico. Il fornitore dovrebbe informare l'ufficio per l'IA al più tardi due settimane dopo che i requisiti sono soddisfatti o quando viene a conoscenza del fatto che un modello di IA per finalità generali soddisferà i requisiti che portano alla suddetta presunzione. Questo assume particolare rilevanza in relazione alla soglia di operazioni in virgola mobile, dato che l'addestramento dei modelli di IA per finalità generali richiede una pianificazione considerevole, comprensiva dell'assegnazione anticipata delle risorse di calcolo, cosicché i fornitori di modelli di IA per finalità generali siano in grado di sapere se il loro modello può raggiungere la soglia prima della conclusione dell'addestramento. Nel contesto di tale notifica, il fornitore dovrebbe essere in grado di dimostrare che, a causa delle sue caratteristiche specifiche, un modello di IA per finalità generali non presenta eccezionalmente rischi sistemici e che, pertanto, non dovrebbe essere classificato come modello di IA per finalità generali con rischi sistemici. Si tratta di informazioni utili all'ufficio per l'IA per anticipare l'immissione sul mercato di modelli di IA per finalità generali con rischi sistemici e i fornitori possono iniziare a dialogare con l'ufficio per l'IA sin dalle prime fasi. Tali informazioni sono particolarmente importanti per quanto riguarda i modelli di IA per finalità generali che si pianifica di rilasciare come open source, dato che, dopo il rilascio del modello open source, è possibile che sia più difficile attuare le misure necessarie a garantire il rispetto degli obblighi di cui al presente regolamento.
(113)
Jekk il-Kummissjoni ssir taf bil-fatt li mudell tal-IA bi skop ġenerali jissodisfa r-rekwiżiti biex jiġi kklassifikat bħala mudell tal-IA bi skop ġenerali b'riskju sistemiku, li qabel jew ma kienx magħruf jew li l-fornitur rilevanti naqas milli jinnotifika lill-Kummissjoni, jenħtieġ li l-Kummissjoni tingħata s-setgħa li tiddeżinjah bħala tali. Jenħtieġ li jkun hemm sistema ta' allerti kwalifikati li tiżgura li l-Uffiċċju għall-IA jiġi mgħarraf mill-bord b'mudelli tal-IA bi skop ġenerali li x'aktarx għandhom jiġu kklassifikati bħala mudelli tal-IA bi skop ġenerali b'riskju sistemiku, minbarra l-attivitajiet ta' monitoraġġ tal-Uffiċċju għall-IA.
(113)
La Commissione dovrebbe avere il potere di designare un modello di IA per finalità generali come modello di IA per finalità generali con rischio sistemico, se viene a conoscenza del fatto che il modello in questione soddisfa i requisiti per tale designazione e in precedenza tale fatto non era noto o il pertinente fornitore aveva omesso di notificarlo alla Commissione. Un sistema di segnalazioni qualificate dovrebbe garantire che l'ufficio per l'IA sia informato dal gruppo scientifico dei modelli di IA per finalità generali che potrebbero dover essere classificati come modelli di IA per finalità generali con rischio sistemico, in aggiunta alle attività di monitoraggio dell'ufficio per l'IA.
(114)
Jenħtieġ li l-fornituri ta' mudelli tal-IA bi skop ġenerali li jippreżentaw riskji sistemiċi jkunu soġġetti, minbarra l-obbligi previsti għall-fornituri ta' mudelli tal-IA bi skop ġenerali, għal obbligi mmirati lejn l-identifikazzjoni u l-mitigazzjoni ta' dawk ir-riskji u l-iżgurar ta' livell adegwat ta' protezzjoni taċ-ċibersigurtà, irrispettivament minn jekk jiġix ipprovdut bħala mudell awtonomu jew inkorporat f'sistema tal-IA jew fi prodott. Sabiex jintlaħqu dawk l-objettivi, jenħtieġ li dan ir-Regolament jirrikjedi li l-fornituri jwettqu l-evalwazzjonijiet tal-mudell meħtieġa, b'mod partikolari qabel l-ewwel introduzzjoni tiegħu fis-suq, inkluż it-twettiq u d-dokumentazzjoni tal-ittestjar kontradittorju tal-mudelli, anke, kif xieraq, permezz ta' ttestjar intern jew indipendenti estern. Barra minn hekk, jenħtieġ li l-fornituri ta' mudelli tal-IA bi skop ġenerali b'riskji sistemiċi jivvalutaw u jimmitigaw kontinwament ir-riskji sistemiċi, inkluż pereżempju billi jistabbilixxu politiki ta' ġestjoni tar-riskju, bħal proċessi ta' responsabbiltà u governanza, jimplimentaw sorveljanza ta' wara l-introduzzjoni fis-suq, jieħdu miżuri xierqa tul iċ-ċiklu tal-ħajja kollu tal-mudell u jikkooperaw ma' atturi rilevanti tul il-katina tal-valur tal-IA.
(114)
I fornitori di modelli di IA per finalità generali che presentano rischi sistemici dovrebbero essere soggetti, oltre agli obblighi previsti per i fornitori di modelli di IA per finalità generali, agli obblighi volti a individuare e attenuare tali rischi e a garantire un livello adeguato di protezione della cibersicurezza, a prescindere dal fatto che il modello sia fornito come modello autonomo o integrato in un sistema di IA o in un prodotto. Per conseguire tali obiettivi, il presente regolamento dovrebbe imporre ai fornitori di effettuare le necessarie valutazioni dei modelli, in particolare prima della sua prima immissione sul mercato, compreso lo svolgimento e la documentazione del test contraddittorio (adversarial testing) dei modelli, anche, se del caso, mediante prove interne o esterne indipendenti. Inoltre, i fornitori di modelli di IA per finalità generali con rischi sistemici dovrebbero valutare e attenuare continuamente i rischi sistemici, ad esempio attuando politiche di gestione dei rischi, quali processi di responsabilità e governance, svolgendo il monitoraggio successivo all'immissione sul mercato, adottando misure adeguate lungo l'intero ciclo di vita del modello e cooperando con gli attori pertinenti lungo la catena del valore dell'IA.
(115)
Jenħtieġ li l-fornituri ta' mudelli tal-IA bi skop ġenerali b'riskji sistemiċi jivvalutaw u jimmitigaw ir-riskji sistemiċi possibbli. Jekk, minkejja l-isforzi biex jiġu identifikati u evitati riskji relatati ma' mudell tal-IA bi skop ġenerali li jista' jippreżenta riskji sistemiċi, l-iżvilupp jew l-użu tal-mudell jikkawża inċident serju, jenħtieġ li l-fornitur tal-mudell tal-IA bi skop ġenerali mingħajr dewmien żejjed iżomm rekord tal-inċident u jirrapporta kwalunkwe informazzjoni rilevanti u miżuri korrettiva possibbli lill-Kummissjoni u lill-awtoritajiet nazzjonali kompetenti. Barra minn hekk, jenħtieġ li l-fornituri jiżguraw livell adegwat ta' protezzjoni taċ-ċibersigurtà għall-mudell u l-infrastruttura fiżika tiegħu, jekk ikun xieraq, tul iċ-ċiklu tal-ħajja kollu tal-mudell. Jenħtieġ li l-protezzjoni taċ-ċibersigurtà relatata mar-riskji sistemiċi assoċjati mal-użu malizzjuż ta' mudell jew attakki tqis kif xieraq ir-rilaxx aċċidentali minn mudell, ir-rilaxxi mhux awtorizzati, iċ-ċirkomvenzjoni tal-miżuri ta' sikurezza, u d-difiża kontra l-attakki ċibernetiċi, l-aċċess mhux awtorizzat jew is-serq tal-mudell. Dik il-protezzjoni tista' tiġi ffaċilitata billi jiġu żgurati piżijiet tal-mudell, algoritmi, servers, u settijiet ta' data, pereżempju permezz ta' miżuri ta' sigurtà operazzjonali għas-sigurtà tal-informazzjoni, politiki speċifiċi dwar iċ-ċibersigurtà, soluzzjonijiet tekniċi u stabbiliti adegwati, u kontrolli tal-aċċess ċibernetiku u fiżiku, adattati għaċ-ċirkostanzi rilevanti u r-riskji involuti.
(115)
I fornitori di modelli di IA per finalità generali con rischi sistemici dovrebbero valutare e attenuare i possibili rischi sistemici. Se lo sviluppo o l'utilizzo di un modello di IA per finalità generali che potrebbe presentare rischi sistemici causa un incidente grave, nonostante gli sforzi volti a individuare e prevenire i rischi connessi a tale modello, il fornitore del modello di IA per finalità generali dovrebbe, senza indebito ritardo, tenere traccia dell'incidente e riferire alla Commissione e alle autorità nazionali competenti le informazioni pertinenti e le eventuali misure correttive. Inoltre, i fornitori dovrebbero garantire un livello adeguato di protezione della cibersicurezza per il modello e la sua infrastruttura fisica, se del caso, lungo l'intero ciclo di vita del modello. La protezione della cibersicurezza connessa ai rischi sistemici associati a uso doloso o attacchi dovrebbe tenere debitamente in considerazione model leakage accidentali, rilasci non autorizzati, elusioni delle misure di sicurezza, nonché la difesa contro gli attacchi informatici, l'accesso non autorizzato o il furto di modelli. Tale protezione potrebbe essere facilitata mettendo al sicuro pesi, algoritmi, server e set di dati relativi al modello, ad esempio attraverso misure di sicurezza operativa per la sicurezza delle informazioni, politiche specifiche in materia di cibersicurezza, soluzioni tecniche e consolidate appropriate e controlli dell'accesso informatico e fisico, che siano adeguati alle circostanze pertinenti e ai rischi connessi.
(116)
Jenħtieġ li l-Uffiċċju għall-IA jħeġġeġ u jiffaċilita t-tfassil, ir-rieżami u l-adattament tal-kodiċijiet ta' prattika, filwaqt li jqis l-approċċi internazzjonali. Il-fornituri kollha ta' mudelli tal-IA bi skop ġenerali jistgħu jiġu mistiedna jipparteċipaw. Biex jiġi żgurat li l-kodiċijiet ta' prattika jirriflettu l-ogħla livell ta' żvilupp tekniku u jqisu kif xieraq sett varjat ta' perspettivi, jenħtieġ li l-Uffiċċju għall-IA jikkollabora mal-awtoritajiet nazzjonali kompetenti rilevanti, u jista', fejn xieraq, jikkonsulta mal-organizzazzjonijiet tas-soċjetà ċivili u partijiet ikkonċernati u esperti rilevanti oħra, inkluż il-bord, għat-tfassil ta' tali kodiċijiet. Jenħtieġ li l-kodiċijiet ta' prattika jkopru l-obbligi għall-fornituri ta' mudelli tal-IA bi skop ġenerali u ta' mudelli tal-IA bi skop ġenerali li jippreżentaw riskji sistemiċi. Barra minn hekk, fir-rigward tar-riskji sistemiċi, jenħtieġ li l-kodiċijiet ta' prattika jgħinu biex tiġi stabbilita tassonomija tar-riskju tat-tip u n-natura tar-riskji sistemiċi fil-livell tal-Unjoni, inkluż is-sorsi tagħhom. Jenħtieġ li l-Kodiċijiet ta' Prattika jkunu ffukati wkoll fuq valutazzjoni tar-riskju speċifika u miżuri ta' mitigazzjoni.
(116)
L'ufficio per l'IA dovrebbe incoraggiare e agevolare l'elaborazione, il riesame e l'adeguamento dei codici di buone pratiche, tenendo conto degli approcci internazionali. Tutti i fornitori di modelli di IA per finalità generali potrebbero essere invitati a partecipare. Per garantire che i codici di buone pratiche riflettano lo stato dell'arte e tengano debitamente conto di una serie diversificata di prospettive, l'ufficio per l'IA dovrebbe collaborare con le pertinenti autorità nazionali competenti e potrebbe, se del caso, consultare le organizzazioni della società civile e altri portatori di interessi ed esperti pertinenti, compreso il gruppo di esperti scientifici, ai fini dell'elaborazione di tali codici. I codici di buone pratiche dovrebbero disciplinare gli obblighi per i fornitori di modelli di IA per finalità generali e per i fornitori di modelli di IA per finalità generali che presentano rischi sistemici. Inoltre, quanto ai rischi sistemici, i codici di buone pratiche dovrebbero contribuire a stabilire una tassonomia del tipo e della natura dei rischi sistemici a livello dell'Unione, comprese le loro fonti. I codici di buone pratiche dovrebbero inoltre concentrarsi su misure specifiche di valutazione e attenuazione dei rischi.
(117)
Jenħtieġ li l-kodiċijiet ta' prattika jirrappreżentaw għodda ċentrali għall-konformità xierqa mal-obbligi previsti skont dan ir-Regolament għall-fornituri ta' mudelli tal-IA bi skop ġenerali. Jenħtieġ li l-fornituri jkunu jistgħu jiddependu fuq kodiċijiet ta' prattika biex juru l-konformità mal-obbligi. Permezz ta' atti ta' implimentazzjoni, il-Kummissjoni tista' tiddeċiedi li tapprova kodiċi ta' prattika u tagħtih validità ġenerali fl-Unjoni, jew, alternattivament, li tipprovdi regoli komuni għall-implimentazzjoni tal-obbligi rilevanti, jekk, sa meta dan ir-Regolament isir applikabbli, kodiċi ta' prattika ma jkunx jista' jiġi ffinalizzat jew ma jitqiesx adegwat mill-Uffiċċju għall-IA. Ladarba standard armonizzat jiġi ppubblikat u vvalutat bħala xieraq biex ikopri l-obbligi rilevanti mill-Uffiċċju għall-IA, jenħtieġ li l-konformità ma' standard armonizzat Ewropew tagħti lill-fornituri l-preżunzjoni tal-konformità. Barra minn hekk, jenħtieġ li l-fornituri ta' mudelli tal-IA bi skop ġenerali jkunu jistgħu juru l-konformità bl-użu ta' mezzi adegwati alternattivi, jekk il-kodiċijiet ta' prattika jew l-istandards armonizzati ma jkunux disponibbli, jew jagħżlu li ma jiddependux fuqhom.
(117)
I codici di buone pratiche dovrebbero rappresentare uno strumento essenziale per i fornitori di modelli di IA per finalità generali ai fini di un'adeguata conformità agli obblighi previsti dal presente regolamento. I fornitori dovrebbero poter fare affidamento su codici di buone pratiche per dimostrare la conformità agli obblighi. Mediante atti di esecuzione, la Commissione può decidere di approvare un codice di buone pratiche e conferire ad esso una validità generale all'interno dell'Unione o, in alternativa, di stabilire norme comuni per l'attuazione dei pertinenti obblighi, qualora un codice di buone pratiche non possa essere portato a termine o ritenuto adeguato da parte dell'ufficio per l'IA entro la data di applicazione del presente regolamento. Quando una norma armonizzata è pubblicata e ritenuta idonea a disciplinare i pertinenti obblighi da parte dell'ufficio per l'IA, la conformità a una norma armonizzata europea dovrebbe conferire ai fornitori la presunzione di conformità. I fornitori di modelli di IA per finalità generali dovrebbero inoltre essere in grado di dimostrare la conformità utilizzando mezzi adeguati alternativi, se non sono disponibili codici di buone pratiche o norme armonizzate, oppure se tali fornitori scelgono di non fare affidamento su tali codici e norme.
(118)
Dan ir-Regolament jirregola s-sistemi tal-IA u l-mudelli tal-IA billi jimponi ċerti rekwiżiti u obbligi għall-atturi rilevanti tas-suq li qed jintroduċuhom fis-suq, iqegħduhom fis-servizz jew fl-użu fl-Unjoni, u b'hekk jikkomplementa l-obbligi għall-fornituri tas-servizzi intermedjarji li jinkorporaw tali sistemi jew mudelli fis-servizzi tagħhom irregolati bir-Regolament (UE) 2022/2065. Sal-punt li tali sistemi jew mudelli jkunu inkorporati fi pjattaformi online kbar ħafna ddeżinjati jew f'magni tat-tiftix online kbar ħafna, dawn ikunu soġġetti għall-qafas ta' ġestjoni tar-riskju previst fir-Regolament (UE) 2022/2065. Konsegwentement, jenħtieġ li l-obbligi korrispondenti ta' dan ir-Regolament jiġu preżunti li ġew issodisfati, dment li ma jitfaċċawx riskji sistemiċi sinifikanti mhux koperti mir-Regolament (UE) 2022/2065 u jiġu identifikati f'tali mudelli. F'dan il-qafas, il-fornituri tal-pjattaformi online kbar ħafna u tal-magni tat-tiftix online kbar ħafna huma obbligati jivvalutaw ir-riskji sistemiċi potenzjali li jirriżultaw mid-disinn, il-funzjonament u l-użu tas-servizzi tagħhom, inkluż kif id-disinn tas-sistemi algoritmiċi użati fis-servizz jista' jikkontribwixxi għal tali riskji, kif ukoll riskji sistemiċi li jirriżultaw minn użi ħżiena potenzjali. Dawk il-fornituri huma obbligati wkoll li jieħdu miżuri ta' mitigazzjoni xierqa b'rispett għad-drittijiet fundamentali.
(118)
Il presente regolamento disciplina i sistemi di IA e i modelli di IA imponendo determinati requisiti e obblighi agli operatori del mercato pertinenti che li immettono sul mercato, li mettono in servizio o li utilizzano nell'Unione, integrando in tal modo gli obblighi per i prestatori di servizi intermediari che incorporano tali sistemi o modelli nei loro servizi disciplinati dal regolamento (UE) 2022/2065. Nella misura in cui sono integrati in piattaforme online di dimensioni molto grandi designate o motori di ricerca online di dimensioni molto grandi designati, tali sistemi o modelli sono soggetti al quadro di gestione dei rischi di cui al regolamento (UE) 2022/2065. Di conseguenza, si dovrebbe ritenere che gli obblighi corrispondenti del presente regolamento siano adempiuti, salvo se emergono e sono individuati in tali modelli dei rischi sistemici significativi non disciplinati dal regolamento (UE) 2022/2065. In tale quadro, i prestatori di piattaforme online di dimensioni molto grandi e motori di ricerca online di dimensioni molto grandi sono tenuti a valutare i potenziali rischi sistemici derivanti dalla progettazione, dal funzionamento e dall'utilizzo dei rispettivi servizi, comprese le modalità con cui la progettazione dei sistemi algoritmici impiegati nel servizio possono contribuire a tali rischi, nonché i rischi sistemici derivanti da potenziali usi impropri. Tali prestatori sono altresì tenuti ad adottare misure di attenuazione adeguate nel rispetto dei diritti fondamentali.
(119)
Meta wieħed iqis il-pass mgħaġġel tal-innovazzjoni u l-evoluzzjoni teknoloġika tas-servizzi diġitali fil-kamp ta' applikazzjoni ta' strumenti differenti tad-dritt tal-Unjoni b'mod partikolari meta wieħed iżomm f'moħħu l-użu u l-perċezzjoni tar-riċevituri tagħhom, is-sistemi tal-IA soġġetti għal dan ir-Regolament jistgħu jiġu previsti bħala servizzi intermedjarji jew partijiet minnhom skont it-tifsira tar-Regolament (UE) 2022/2065, li jenħtieġ li jiġi interpretat b'mod teknoloġikament newtrali. Pereżempju, is-sistemi tal-IA jistgħu jintużaw biex jipprovdu magni tat-tiftix online, b'mod partikolari, sal-punt li sistema tal-IA bħal chatbot online twettaq tfittxijiet, fil-prinċipju, tas-siti web kollha, imbagħad tinkorpora r-riżultati fl-għarfien eżistenti tagħha u tuża l-għarfien aġġornat biex tiġġenera output uniku li jikkombina sorsi differenti ta' informazzjoni.
(119)
Considerando la rapidità dell'innovazione e dell'evoluzione tecnologica dei servizi digitali che rientrano nell'ambito di applicazione dei diversi strumenti previsti dal diritto dell'Unione, in particolare tenendo presente l'uso e la percezione dei loro destinatari, i sistemi di IA soggetti al presente regolamento possono essere forniti come servizi intermediari o parti di essi ai sensi del regolamento (UE) 2022/2065, da interpretarsi in modo tecnologicamente neutro. Ad esempio, i sistemi di IA possono essere utilizzati per fornire motori di ricerca online, in particolare nella misura in cui un sistema di IA, come un chatbot online, effettua ricerche, in linea di principio, su tutti i siti web, incorpora i risultati nelle sue conoscenze esistenti e si avvale delle conoscenze aggiornate per generare un unico output che combina diverse fonti di informazione.
(120)
Barra minn hekk, l-obbligi imposti fuq il-fornituri u l-implimentaturi ta' ċerti sistemi tal-IA f'dan ir-Regolament biex jippermettu l-kxif u d-divulgazzjoni li l-outputs ta' dawk is-sistemi jiġu ġġenerati jew immanipulati b'mod artifiċjali huma partikolarment rilevanti biex tiġi ffaċilitata l-implimentazzjoni effettiva tar-Regolament (UE) 2022/2065. Dan japplika b'mod partikolari fir-rigward tal-obbligi tal-fornituri ta' pjattaformi online kbar ħafna jew ta' magni tat-tiftix online kbar ħafna biex jidentifikaw u jimmitigaw ir-riskji sistemiċi li jistgħu jirriżultaw mid-disseminazzjoni ta' kontenut li jkun ġie ġġenerat jew immanipulat b'mod artifiċjali, b'mod partikolari r-riskju tal-effetti negattivi reali jew prevedibbli fuq il-proċessi demokratiċi, id-diskors ċiviku u l-proċessi elettorali, inkluż permezz tad-diżinformazzjoni.
(120)
Inoltre, gli obblighi imposti dal presente regolamento ai fornitori e ai deployer di taluni sistemi di IA, volti a consentire il rilevamento e la divulgazione del fatto che gli output di tali sistemi siano generati o manipolati artificialmente, sono molto importanti per contribuire all'efficace attuazione del regolamento (UE) 2022/2065. Ciò si applica specialmente agli obblighi per i fornitori di piattaforme online di dimensioni molto grandi o motori di ricerca online di dimensioni molto grandi di individuare e attenuare i rischi sistemici che possono derivare dalla diffusione di contenuti generati o manipolati artificialmente, in particolare il rischio di impatti negativi effettivi o prevedibili sui processi democratici, sul dibattito civico e sui processi elettorali, anche mediante la disinformazione.
(121)
Jenħtieġ li l-istandardizzazzjoni taqdi rwol ewlieni biex tipprovdi soluzzjonijiet tekniċi lill-fornituri ħalli tkun żgurata l-konformità ma' dan ir-Regolament, f'konformità mal-ogħla livell ta' żvilupp tekniku, biex tippromwovi l-innovazzjoni kif ukoll il-kompetittività u t-tkabbir fis-suq uniku. Jenħtieġ li l-konformità mal-istandards armonizzati kif definiti fl-Artikolu 2, il-punt (1)(c) tar-Regolament (UE) Nru 1025/2012 tal-Parlament Ewropew u tal-Kunsill (41), li normalment mistennija jirriflettu l-ogħla livell ta' żvilupp tekniku, tkun mezz biex il-fornituri juru l-konformità mar-rekwiżiti ta' dan ir-Regolament. Għalhekk jenħtieġ li titħeġġeġ rappreżentazzjoni bilanċjata tal-interessi li tinvolvi l-partijiet ikkonċernati rilevanti kollha fl-iżvilupp tal-istandards, b'mod partikolari l-SMEs, l-organizzazzjonijiet tal-konsumaturi u l-partijiet ikkonċernati fil-qasam tal-ambjent u dak soċjali f'konformità mal-Artikoli 5 u 6 tar-Regolament (UE) Nru 1025/2012. Sabiex tiġi ffaċilitata l-konformità, jenħtieġ li t-talbiet ta' standardizzazzjoni jinħarġu mill-Kummissjoni mingħajr dewmien żejjed. Meta tkun qed tħejji t-talba ta' standardizzazzjoni, jenħtieġ li l-Kummissjoni tikkonsulta lill-forum konsultattiv u lill-Bord sabiex tiġbor l-kompetenza esperta rilevanti. Madankollu, fin-nuqqas ta' referenzi rilevanti għal standards armonizzati, jenħtieġ li l-Kummissjoni tkun tista' tistabbilixxi, permezz ta' atti ta' implimentazzjoni, u wara konsultazzjoni mal-forum konsultattiv, speċifikazzjonijiet komuni għal ċerti rekwiżiti skont dan ir-Regolament. Jenħtieġ li l-ispeċifikazzjoni komuni tkun soluzzjoni ta' riżerva eċċezzjonali biex jiġi ffaċilitat l-obbligu tal-fornitur li jikkonforma mar-rekwiżiti ta' dan ir-Regolament, meta t-talba ta' standardizzazzjoni ma tkunx ġiet aċċettata minn xi waħda mill-organizzazzjonijiet Ewropej tal-istandardizzazzjoni, jew meta l-istandards armonizzati rilevanti ma jindirizzawx biżżejjed it-tħassib dwar id-drittijiet fundamentali, jew meta l-istandards armonizzati ma jikkonformawx mat-talba, jew meta jkun hemm dewmien fl-adozzjoni ta' standard armonizzat xieraq. Fejn tali dewmien fl-adozzjoni ta' standard armonizzat ikun dovut għall-kumplessità teknika ta' dak l-istandard, jenħtieġ li dan jiġi kkunsidrat mill-Kummissjoni qabel ma jiġi maħsub l-istabbiliment ta' speċifikazzjonijiet komuni. Meta tiżviluppa speċifikazzjonijiet komuni, il-Kummissjoni hija mħeġġa tikkoopera mas-sħab internazzjonali u mal-korpi internazzjonali tal-istandardizzazzjoni.
(121)
La normazione dovrebbe svolgere un ruolo fondamentale nel fornire soluzioni tecniche ai fornitori per garantire la conformità al presente regolamento, in linea con lo stato dell'arte, e promuovere l'innovazione, la competitività e la crescita nel mercato unico. La conformità alle norme armonizzate quali definite all'articolo 2, punto 1, lettera c), del regolamento (UE) n, 1025/2012 del Parlamento europeo e del Consiglio (41), le quali normalmente dovrebbero rispecchiare lo stato dell'arte, dovrebbe essere un modo per i fornitori di dimostrare la conformità ai requisiti del presente regolamento. È pertanto opportuno incoraggiare una rappresentanza equilibrata degli interessi che coinvolga tutti i portatori di interessi pertinenti nell'elaborazione delle norme, in particolare le PMI, le organizzazioni dei consumatori e i portatori di interessi in materia sociale e ambientale conformemente agli articoli 5 e 6 del regolamento (UE) n, 1025/2012. Al fine di agevolare l'adempimento, le richieste di normazione dovrebbero essere presentate dalla Commissione senza indebito ritardo. In sede di elaborazione della richiesta di normazione, la Commissione dovrebbe consultare il forum consultivo e il consiglio per l'IA al fine di ottenere le competenze pertinenti. Tuttavia, in assenza di riferimenti pertinenti a norme armonizzate, la Commissione dovrebbe poter stabilire, mediante atti di esecuzione e previa consultazione del forum consultivo, specifiche comuni per determinati requisiti previsti del presente regolamento. La specifica comune dovrebbe costituire una soluzione eccezionale di ripiego per agevolare l'obbligo del fornitore di conformarsi ai requisiti del presente regolamento, quando la richiesta di normazione non è stata accettata da alcuna delle organizzazioni europee di normazione, quando le pertinenti norme armonizzate non tengono sufficientemente conto delle preoccupazioni in materia di diritti fondamentali, quando le norme armonizzate non sono conformi alla richiesta o quando vi sono ritardi nell'adozione di una norma armonizzata appropriata. Qualora tale ritardo nell'adozione di una norma armonizzata sia dovuto alla complessità tecnica di tale norma, la Commissione dovrebbe tenerne conto prima di prendere in considerazione la definizione di specifiche comuni. Nell'elaborare specifiche comuni, la Commissione è incoraggiata a cooperare con i partner internazionali e gli organismi internazionali di normazione.
(122)
Jixraq li, mingħajr preġudizzju għall-użu ta' standards armonizzati u speċifikazzjonijiet komuni, ikun jenħtieġ li l-fornituri tas-sistema tal-IA b'riskju għoli li tkun ġiet imħarrġa u ttestjata fuq data li tirrifletti l-issettjar ġeografiku, komportamentali, kuntestwali jew funzjonali speċifiku li fih tkun maħsuba li tintuża s-sistema tal-IA, jiġu preżunti li jikkonformaw mal-miżura rilevanti prevista fir-rekwiżit dwar il-governanza tad-data stipulata f'dan ir-Regolament. Mingħajr preġudizzju għar-rekwiżiti relatati mar-robustezza u l-akkuratezza stipulati f'dan ir-Regolament, f'konformità mal-Artikolu 54(3) tar-Regolament (UE) 2019/881, jenħtieġ li s-sistemi tal-IA b'riskju għoli li jkunu ġew iċċertifikati jew li għalihom tkun inħarġet dikjarazzjoni ta' konformità taħt skema taċ-ċibersigurtà skont dak ir-Regolament u li r-referenzi tagħhom ikunu ġew ippubblikati f'Il-Ġurnal Uffiċjali tal-Unjoni Ewropea, jiġu preżunti li jikkonformaw mar-rekwiżit taċ-ċibersigurtà ta' dan ir-Regolament dment li ċ-ċertifikat taċ-ċibersigurtà jew id-dikjarazzjoni tal-konformità jew partijiet minnha jkopru r-rekwiżit taċ-ċibersigurtà ta' dan ir-Regolament. Dan jibqa' mingħajr preġudizzju għan-natura volontarja ta' dik l-iskema ta' ċibersigurtà.
(122)
È opportuno che, fatto salvo il ricorso a norme armonizzate e specifiche comuni, i fornitori di un sistema di IA ad alto rischio che è stato addestrato e sottoposto a prova con dati che rispecchiano il contesto geografico, comportamentale, contestuale o funzionale specifico all'interno del quale il sistema di IA è destinato a essere usato si presumano conformi alla misura pertinente prevista dal requisito in materia di governance dei dati di cui al presente regolamento. Fatti salvi i requisiti relativi alla robustezza e all'accuratezza di cui al presente regolamento, conformemente all'articolo 54, paragrafo 3, del regolamento (UE) 2019/881, i sistemi di IA ad alto rischio certificati o per i quali è stata rilasciata una dichiarazione di conformità nell'ambito di un sistema di cibersicurezza a norma di tale regolamento e i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea dovrebbero essere considerati conformi al requisito di cibersicurezza di cui al presente regolamento nella misura in cui il certificato di cibersicurezza o la dichiarazione di conformità o parti di essi contemplino il requisito di cibersicurezza di cui al presente regolamento. Ciò lascia impregiudicata la natura volontaria di tale sistema di cibersicurezza.
(123)
Biex ikun żgurat livell għoli ta' affidabbiltà tas-sistemi tal-IA b'riskju għoli, jenħtieġ li dawk is-sistemi jkunu soġġetti għal valutazzjoni tal-konformità qabel ma jiġu introdotti fis-suq jew imqiegħda fis-servizz.
(123)
Al fine di garantire un elevato livello di affidabilità dei sistemi di IA ad alto rischio, è opportuno sottoporre tali sistemi a una valutazione della conformità prima della loro immissione sul mercato o messa in servizio.
(124)
Jixraq li, biex jitnaqqas kemm jista' jkun il-piż fuq l-operaturi u tkun evitata kwalunkwe duplikazzjoni possibbli, għas-sistemi tal-IA b'riskju għoli relatati ma' prodotti koperti bil-leġiżlazzjoni eżistenti tal-Unjoni dwar l-armonizzazzjoni bbażata fuq il-Qafas Leġiżlattiv Ġdid, jenħtieġ li l-konformità ta' dawk is-sistemi tal-IA mar-rekwiżiti ta' dan ir-Regolament tiġi vvalutata bħala parti mill-valutazzjoni tal-konformità diġà prevista f'dik il-liġi. Għalhekk, jenħtieġ li l-applikabbiltà tar-rekwiżiti ta' dan ir-Regolament ma taffettwax il-loġika, il-metodoloġija jew l-istruttura ġenerali speċifiċi ta' valutazzjoni tal-konformità skont il-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni.
(124)
Al fine di ridurre al minimo l'onere per gli operatori ed evitare eventuali duplicazioni, la conformità ai requisiti del presente regolamento dei sistemi di IA ad alto rischio collegati a prodotti disciplinati dalla vigente normativa di armonizzazione dell'Unione basata sul nuovo quadro legislativo dovrebbe essere valutata nell'ambito della valutazione della conformità già prevista da tale normativa. L'applicabilità dei requisiti del presente regolamento non dovrebbe pertanto incidere sulla logica, la metodologia o la struttura generale specifiche della valutazione della conformità a norma della pertinente normativa di armonizzazione dell'Unione.
(125)
Minħabba l-kumplessità tas-sistemi tal-IA b'risku għoli u r-riskji li huma assoċjati magħhom, huwa importanti li tiġi żviluppata proċedura adegwata ta' valutazzjoni tal-konformità għal sistemi tal-IA b'risku għoli li jinvolvu korpi notifikati, l-hekk imsejħa valutazzjoni tal-konformità minn parti terza. Madankollu, minħabba l-esperjenza attwali ta' ċertifikaturi professjonali ta' qabel l-introduzzjoni fis-suq fil-qasam tas-sikurezza tal-prodotti u n-natura differenti tar-riskji involuti, jixraq li l-kamp ta' applikazzjoni tal-valutazzjoni tal-konformità minn parti terza jiġi limitat, mill-inqas f'fażi inizjali tal-applikazzjoni ta' dan ir-Regolament għas-sistemi tal-IA b'riskju għoli għajr dawk relatati mal-prodotti. Għalhekk, jenħtieġ li l-valutazzjoni tal-konformità ta' sistemi bħal dawn titwettaq bħala regola ġenerali mill-fornitur taħt ir-responsabbiltà tiegħu stess, bl-unika eċċezzjoni tas-sistemi tal-IA maħsuba biex jintużaw għall-bijometrija.
(125)
Data la complessità dei sistemi di IA ad alto rischio e i rischi ad essi associati, è importante sviluppare un’adeguata procedura di valutazione della conformità per quanto riguarda i sistemi di IA ad alto rischio che coinvolgono organismi notificati, la cosiddetta valutazione della conformità da parte di terzi. Tuttavia, in considerazione dell'attuale esperienza dei certificatori professionali pre-commercializzazione nel settore della sicurezza dei prodotti e della diversa natura dei rischi connessi, è opportuno limitare, almeno in una fase iniziale di applicazione del presente regolamento, l'ambito di applicazione della valutazione della conformità da parte di terzi ai sistemi di IA ad alto rischio diversi da quelli collegati ai prodotti. È pertanto opportuno che la valutazione della conformità di tali sistemi sia generalmente effettuata dal fornitore sotto la propria responsabilità, con la sola eccezione dei sistemi di IA destinati a essere utilizzati per la biometrica.
(126)
Biex issir valutazzjoni tal-konformità minn parti terza meta dan ikun meħtieġ, jenħtieġ li l-korpi notifikati jiġu nnotifikati skont dan ir-Regolament mill-awtoritajiet kompetenti nazzjonali, dment li dawn jikkonformaw ma' sett ta' rekwiżiti, b'mod partikolari dwar l-indipendenza, il-kompetenza u n-nuqqas ta' kunflitti ta' interess u rekwiżiti ta' ċibersigurtà adegwati. Jenħtieġ li n-notifika ta' dawk il-korpi tintbagħat mill-awtoritajiet nazzjonali kompetenti lill-Kummissjoni u lill-Istati Membri l-oħra permezz tal-għodda elettronika ta' notifika żviluppata u ġestita mill-Kummissjoni skont l-Artikolu R23 tal-Anness I tad-Deċiżjoni Nru 768/2008/KE.
(126)
Ai fini delle valutazioni della conformità da parte di terzi, laddove richieste, è opportuno che le autorità nazionali competenti notifichino gli organismi notificati a norma del presente regolamento, a condizione che tali organismi soddisfino una serie di requisiti, in particolare in materia di indipendenza, competenza, assenza di conflitti di interesse e requisiti idonei di cibersicurezza. La notifica di tali organismi dovrebbe essere trasmessa dalle autorità nazionali competenti alla Commissione e agli altri Stati membri mediante lo strumento elettronico di notifica elaborato e gestito dalla Commissione a norma dell'allegato I, articolo R23, della decisione n, 768/2008/CE.
(127)
F'konformità mal-impenji tal-Unjoni skont il-Ftehim tal-Organizzazzjoni Dinjija tal-Kummerċ dwar l-Ostakli Tekniċi għall-Kummerċ, huwa xieraq li jiġi ffaċilitat ir-rikonoxximent reċiproku tar-riżultati tal-valutazzjoni tal-konformità prodotti minn korpi kompetenti tal-valutazzjoni tal-konformità, indipendenti mit-territorju li fih ikunu stabbiliti, dment li dawk il-korpi ta' valutazzjoni tal-konformità stabbiliti skont il-liġi ta' pajjiż terz jissodisfaw ir-rekwiżiti applikabbli ta' dan ir-Regolament u l-Unjoni tkun ikkonkludiet ftehim skont dan. F'dan il-kuntest, jenħtieġ li l-Kummissjoni tesplora b'mod attiv strumenti internazzjonali possibbli għal dak l-għan u b'mod partikolari tfittex il-konklużjoni ta' ftehimiet ta' rikonoxximent reċiproku ma' pajjiżi terzi.
(127)
In linea con gli impegni assunti dall'Unione nell'ambito dell'accordo dell'Organizzazione mondiale del commercio sugli ostacoli tecnici agli scambi, è opportuno agevolare il riconoscimento reciproco dei risultati della valutazione della conformità prodotti da organismi di valutazione della conformità competenti, indipendentemente dal luogo in cui siano stabiliti, purché tali organismi di valutazione della conformità istituiti a norma del diritto di un paese terzo soddisfino i requisiti applicabili del presente regolamento e l'Unione abbia concluso un accordo in tal senso. In questo contesto, la Commissione dovrebbe esplorare attivamente possibili strumenti internazionali a tale scopo e, in particolare, perseguire la conclusione di accordi di riconoscimento reciproco con i paesi terzi.
(128)
F'konformità mal-kunċett stabbilit b'mod komuni ta' modifika sostanzjali għall-prodotti regolati mil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni, huwa xieraq li kull meta sseħħ bidla li tista' taffettwa l-konformità ta' sistema tal-IA b'riskju għoli ma' dan ir-Regolament (eż. bidla fis-sistema operattiva jew fl-arkitettura tas-software), jew meta jinbidel l-għan maħsub tas-sistema, jenħtieġ li dik is-sistema tal-IA titqies bħala sistema ġdida tal-IA li jenħtieġ li ssirilha valutazzjoni tal-konformità ġdida. Madankollu, il-bidliet li jseħħu fl-algoritmu u l-prestazzjoni tas-sistemi tal-IA li jkomplu “jitgħallmu” wara li jiġu introdotti fis-suq jew jitqiegħdu fis-servizz, jiġifieri l-adattament awtomatiku ta' kif jitwettqu l-funzjonijiet, jenħtieġ li ma jikkostitwixxux modifika sostanzjali, dment li dawk il-bidliet ikunu ġew iddeterminati minn qabel mill-fornitur u vvalutati fil-mument tal-valutazzjoni tal-konformità.
(128)
In linea con la nozione generalmente riconosciuta di modifica sostanziale dei prodotti disciplinati dalla normativa di armonizzazione dell'Unione, è opportuno che ogniqualvolta intervenga una modifica che possa incidere sulla conformità del sistema di IA ad alto rischio al presente regolamento (ad esempio, la modifica del sistema operativo o dell'architettura del software), oppure quando viene modificata la finalità prevista del sistema, tale sistema di IA sia considerato un nuovo sistema di IA che dovrebbe essere sottoposto a una nuova valutazione della conformità. Tuttavia, le modifiche apportate all'algoritmo e alle prestazioni dei sistemi di IA che proseguono il loro «apprendimento» dopo essere stati immessi sul mercato o messi in servizio, in particolare adattando automaticamente le modalità di svolgimento delle funzioni, non dovrebbero costituire una modifica sostanziale, a condizione che tali modifiche siano state predeterminate dal fornitore e valutate al momento della valutazione della conformità.
(129)
Jenħtieġ li s-sistemi tal-IA b'riskju għoli jkollhom il-markatura CE biex jindikaw il-konformità tagħhom ma' dan ir-Regolament b'tali mod li jkunu jistgħu jiċċaqilqu liberament fis-suq intern. Għal sistemi tal-IA b'risku għoli inkorporati fi prodott, jenħtieġ li titwaħħal markatura CE fiżika, u tista' tiġi kkomplementata minn markatura CE diġitali. Għas-sistemi tal-IA b'risku għoli pprovduti biss b'mod diġitali, jenħtieġ li tintuża markatura CE diġitali. Jenħtieġ li l-Istati Membri ma joħolqux xkiel mhux ġustifikat għall-introduzzjoni fis-suq jew għat-tqegħid fis-servizz ta' sistemi tal-IA b'riskju għoli li jikkonformaw mar-rekwiżiti stabbiliti f'dan ir-Regolament u jkollhom il-markatura CE.
(129)
I sistemi di IA ad alto rischio dovrebbero recare la marcatura CE per indicare la loro conformità al presente regolamento, in modo da poter circolare liberamente nel mercato interno. Per i sistemi di IA ad alto rischio integrati in un prodotto, dovrebbe essere apposta una marcatura CE fisica, integrabile con una marcatura CE digitale. Per i sistemi di IA ad alto rischio forniti solo digitalmente, dovrebbe essere utilizzata una marcatura CE digitale. Gli Stati membri non dovrebbero ostacolare in maniera ingiustificata l'immissione sul mercato o la messa in servizio di sistemi di IA ad alto rischio che soddisfano i requisiti stabiliti nel presente regolamento e recano la marcatura CE.
(130)
F'ċerti kundizzjonijiet, id-disponibbiltà rapida ta' teknoloġiji innovattivi tista' tkun kruċjali għas-saħħa u s-sikurezza tal-persuni, il-protezzjoni tal-ambjent u t-tibdil fil-klima u għas-soċjetà kollha kemm hi. Għalhekk jixraq li, għal raġunijiet eċċezzjonali ta' sigurtà pubblika jew ta' protezzjoni tal-ħajja u tas-saħħa tal-persuni fiżiċi, il-ħarsien tal-ambjent u l-protezzjoni ta' assi prinċipali industrijali u tal-infrastruttura, l-awtoritajiet tas-sorveljanza tas-suq jkunu jistgħu jawtorizzaw l-introduzzjoni fis-suq jew it-tqegħid fis-servizz ta' sistemi tal-IA li ma tkunx saritilhom valutazzjoni tal-konformità. F'sitwazzjonijiet debitament ġustifikati kif previst f’ dan ir-Regolament, l-awtoritajiet tal-infurzar tal-liġi jew l-awtoritajiet tal-protezzjoni ċivili jistgħu jqiegħdu fis-servizz sistema speċifika tal-IA b'risku għoli mingħajr l-awtorizzazzjoni tal-awtorità tas-sorveljanza tas-suq, dment li tali awtorizzazzjoni tintalab matul jew wara l-użu mingħajr dewmien żejjed.
(130)
La disponibilità in tempi rapidi di tecnologie innovative può, a determinate condizioni, essere fondamentale per la salute e la sicurezza delle persone, per la tutela dell'ambiente e la protezione dai cambiamenti climatici e per la società nel suo insieme. È pertanto opportuno che, per motivi eccezionali di pubblica sicurezza o di tutela della vita e della salute delle persone fisiche, di tutela dell'ambiente nonché di protezione dei principali beni industriali e infrastrutturali, le autorità di vigilanza del mercato possano autorizzare l'immissione sul mercato o la messa in servizio di sistemi di IA che non sono stati sottoposti a una valutazione della conformità. In situazioni debitamente giustificate come previsto dal presente regolamento, le autorità di contrasto o le autorità di protezione civile possono mettere in servizio uno specifico sistema di IA ad alto rischio senza l'autorizzazione dell'autorità di vigilanza del mercato, a condizione che tale autorizzazione sia richiesta durante o dopo l'uso senza indebito ritardo.
(131)
Sabiex tiġi ffaċilitata l-ħidma tal-Kummissjoni u tal-Istati Membri fil-qasam tal-IA u biex tiżdied it-trasparenza lejn il-pubbliku, jenħtieġ li l-fornituri tas-sistemi tal-IA b'riskju għoli għajr dawk relatati ma' prodotti li jaqgħu fil-kamp ta' applikazzjoni tal-leġiżlazzjoni eżistenti rilevanti tal-Unjoni dwar l-armonizzazzjoni, kif ukoll fornituri li jqisu li sistema tal-IA elenkata fil-każijiet ta’ użu b'riskju għoli f'anness ta' dan ir-Regolament mhix ta' riskju għoli abbażi ta' deroga, ikunu mitluba jirreġistraw lilhom infushom u l-informazzjoni dwar is-sistema tal-IA tagħhom f'bażi tad-data tal-UE, li trid tiġi stabbilita u ġestita mill-Kummissjoni. Qabel ma jużaw sistema tal-IA elenkata fil-każijiet ta’ użu b'riskju għoli f’anness ta’ dan ir-Regolament, jenħtieġ li l-implimentaturi ta' sistemi tal-IA b'riskju għoli li jkunu awtoritajiet, aġenziji jew korpi pubbliċi, jirreġistraw lilhom infushom f'tali bażi tad-data tal-UE u jagħżlu s-sistema li beħsiebhom jużaw. Jenħtieġ li implimentaturi oħra jkunu intitolati li jagħmlu dan b'mod volontarju. Jenħtieġ li din it-taqsima tal-bażi tad-data tal-UE tkun aċċessibbli għall-pubbliku, mingħajr ħlas, u jenħtieġ li l-informazzjoni tkun faċilment navigabbli, tinftiehem u tinqara mill-magni. Jenħtieġ li l-bażi tad-data tkun faċli għall-utent ukoll, pereżempju billi tipprovdi funzjonalitajiet ta' tiftix, inkluż permezz ta' keywords, li jippermettu lill-pubbliku ġenerali jsib informazzjoni rilevanti li trid tiġi ppreżentata mar-reġistrazzjoni tas-sistemi tal-IA b'riskju għoli u dwar il-każ ta’ użu tas-sistemi tal-IA b'riskju għoli, stipulati f’anness ta' dan ir-Regolament, li għalihom jikkorrispondu s-sistemi tal-IA b'riskju għoli. Jenħtieġ li kwalunkwe modifika sostanzjali tas-sistemi tal-IA b'riskju għoli tiġi rreġistrata wkoll fil-bażi tad-data tal-UE. Għal sistemi tal-IA b'riskju għoli fil-qasam tal-infurzar tal-liġi, tal-migrazzjoni, tal-ażil u tal-ġestjoni tal-kontroll fil-fruntieri, jenħtieġ li l-obbligi ta' reġistrazzjoni jiġu ssodisfati f'taqsima sigura mhux pubblika tal-bażi tad-data tal-UE. Jenħtieġ li l-aċċess għat-taqsima sigura mhux pubblika jkun strettament limitat għall-Kummissjoni kif ukoll għall-awtoritajiet tas-sorveljanza tas-suq fir-rigward tat-taqsima nazzjonali tagħhom ta’ dik il-bażi tad-data. Jenħtieġ li s-sistemi tal-IA b’riskju għoli fil-qasam tal-infrastruttura kritika jiġu rreġistrati biss fil-livell nazzjonali. Jenħtieġ li l-Kummissjoni tkun il-kontrollur tal-bażi tad-data tal-UE, f’konformità mar-Regolament (UE) 2018/1725. Sabiex tiġi żgurata l-funzjonalità sħiħa tal-bażi tad-data tal-UE, meta tiġi implimentata, jenħtieġ li l-proċedura għall-istabbiliment tal-bażi tad-data tinkludi l-iżvilupp ta' speċifikazzjonijiet funzjonali mill-Kummissjoni u rapport tal-awditjar indipendenti. Jenħtieġ li l-Kummissjoni tqis ir-riskji taċ-ċibersigurtà meta twettaq il-kompiti tagħha bħala kontrollur tad-data fil-bażi tad-data tal-UE. Sabiex jiġu mmassimizzati d-disponibbiltà u l-użu tal-bażi tad-data tal-UE mill-pubbliku, il-bażi tad-data tal-UE, inkluż l-informazzjoni disponibbli permezz tagħha, jenħtieġ li tikkonforma mar-rekwiżiti skont id-Direttiva (UE) 2019/882.
(131)
Al fine di agevolare il lavoro della Commissione e degli Stati membri nel settore dell'IA e di aumentare la trasparenza nei confronti del pubblico, è opportuno che i fornitori di sistemi di IA ad alto rischio diversi da quelli collegati a prodotti che rientrano nell'ambito di applicazione della pertinente normativa di armonizzazione dell'Unione vigente, nonché i fornitori che ritengono che, in base a una deroga, il sistema di IA elencato tra i casi ad alto rischio nell'allegato del presente regolamento non sia ad alto rischio, siano tenuti a registrarsi e a registrare informazioni sul loro sistema di IA in una banca dati dell'UE, che sarà istituita e gestita dalla Commissione. Prima di utilizzare un sistema di IA elencato tra i casi ad alto rischio nell'allegato del presente regolamento, i deployer di sistemi di IA ad alto rischio che sono autorità, agenzie o organismi pubblici dovrebbero registrarsi in tale banca dati e selezionare il sistema che intendono utilizzare. Gli altri deployer dovrebbero essere autorizzati a farlo su base volontaria. Questa sezione della banca dati dell’UE dovrebbe essere accessibile al pubblico gratuitamente e le informazioni dovrebbero essere di facile consultazione, comprensibili e leggibili meccanicamente. La banca dati dell’UE dovrebbe inoltre essere di facile utilizzo, ad esempio tramite la fornitura di funzionalità di ricerca, anche attraverso parole chiave, che consentano al pubblico di reperire informazioni pertinenti da presentare al momento della registrazione dei sistemi di IA ad alto rischio e riguardanti l’uso di sistemi di IA ad alto rischio, elencati in allegato al presente regolamento, a cui corrispondono i sistemi di IA ad alto rischio. Qualsiasi modifica sostanziale dei sistemi di IA ad alto rischio dovrebbe essere registrata anche nella banca dati dell’UE. Per i sistemi di IA ad alto rischio nei settori delle attività di contrasto, della migrazione, dell’asilo e della gestione del controllo delle frontiere, gli obblighi di registrazione dovrebbero essere adempiuti in una sezione non pubblica sicura della banca dati dell’UE. L’accesso alla sezione non pubblica sicura dovrebbe essere strettamente limitato alla Commissione e alle autorità di vigilanza del mercato per quanto riguarda la rispettiva sezione nazionale di tale banca dati. I sistemi di IA ad alto rischio nel settore delle infrastrutture critiche dovrebbero essere registrati solo a livello nazionale. È opportuno che la Commissione sia la titolare del trattamento di tale banca dati dell’UE conformemente al regolamento (UE) 2018/1725. Al fine di garantire la piena funzionalità della banca dati dell’UE, è opportuno che, al momento dell’attivazione, la procedura per l’istituzione della banca dati preveda l’elaborazione di specifiche funzionali da parte della Commissione e una relazione di audit indipendente. Nello svolgimento dei suoi compiti di titolare del trattamento dei dati nella banca dati dell’UE, la Commissione dovrebbe tenere conto dei rischi legati alla cibersicurezza. Onde massimizzare la disponibilità e l'uso della banca dati dell’UE da parte del pubblico, la banca dati dell’UE, comprese le informazioni ivi messe a disposizione, dovrebbe essere conforme ai requisiti di cui alla direttiva (UE) 2019/882.
(132)
Ċerti sistemi tal-IA maħsuba biex jinteraġixxu ma' persuni fiżiċi jew biex jiġġeneraw kontenut jistgħu joħolqu riskji speċifiċi ta' personifikazzjoni jew qerq irrispettivament minn jekk dawn jikkwalifikawx li għandhom riskju għoli jew le. Għalhekk, f'ċerti ċirkostanzi, jenħtieġ li l-użu ta' dawn is-sistemi jkun soġġett għal obbligi speċifiċi tat-trasparenza mingħajr preġudizzju għar-rekwiżiti u l-obbligi tas-sistemi tal-IA b'riskju għoli u soġġett għal eċċezzjonijiet immirati biex jittieħed kont tal-ħtieġa speċjali tal-infurzar tal-liġi. B'mod partikolari, jenħtieġ li l-persuni fiżiċi jiġu nnotifikati li qed jinteraġixxu ma' sistema tal-IA, sakemm dan ma jkunx ovvju mill-perspettiva ta' persuna fiżika li tkun raġonevolment infurmata tajjeb, osservanti u prudenti, filwaqt li jitqiesu ċ-ċirkostanzi u l-kuntest tal-użu. Meta jiġi implimentat dak l-obbligu, jenħtieġ li jitqiesu l-karatteristiċi tal-persuni fiżiċi li jagħmlu parti minn gruppi vulnerabbli minħabba l-età jew id-diżabbiltà tagħhom sal-punt li s-sistema tal-IA tkun maħsuba biex tinteraġixxi ma' dawk il-gruppi wkoll. Barra minn hekk, jenħtieġ li l-persuni fiżiċi jiġu nnotifikati meta jkunu esposti għal sistemi tal-IA li, bl-ipproċessar tad-data bijometrika tagħhom, jistgħu jidentifikaw jew jinferixxu l-emozzjonijiet jew l-intenzjonijiet ta' dawk il-persuni jew jassenjawhom għal kategoriji speċifiċi. Tali kategoriji speċifiċi jistgħu jkunu relatati ma' aspetti bħas-sess, l-età, il-kulur tax-xagħar, il-kulur tal-għajnejn, tatwaġġi, karatteristiċi personali, l-oriġini etnika, il-preferenzi u l-interessi personali. Jenħtieġ li din l-informazzjoni u n-notifiki jiġu pprovduti b'formati aċċessibbli għall-persuni b'diżabbiltà.
(132)
Alcuni sistemi di IA destinati all'interazione con persone fisiche o alla generazione di contenuti possono comportare rischi specifici di impersonificazione o inganno, a prescindere dal fatto che siano considerati ad alto rischio o no. L'uso di tali sistemi dovrebbe pertanto essere, in determinate circostanze, soggetto a specifici obblighi di trasparenza, fatti salvi i requisiti e gli obblighi per i sistemi di IA ad alto rischio, e soggetto ad eccezioni mirate per tenere conto delle particolari esigenze delle attività di contrasto. Le persone fisiche dovrebbero in particolare ricevere una notifica nel momento in cui interagiscono con un sistema di IA, a meno che tale interazione non risulti evidente dal punto di vista di una persona fisica ragionevolmente informata, attenta e avveduta, tenendo conto delle circostanze e del contesto di utilizzo. Nell'attuare tale obbligo, le caratteristiche delle persone fisiche appartenenti a gruppi vulnerabili a causa della loro età o disabilità dovrebbero essere prese in considerazione nella misura in cui il sistema di IA sia destinato a interagire anche con tali gruppi. È inoltre opportuno che le persone fisiche ricevano una notifica quando sono esposte a sistemi di IA che, nel trattamento dei loro dati biometrici, possono identificare o inferire le emozioni o intenzioni di tali persone o assegnarle a categorie specifiche. Tali categorie specifiche possono riguardare aspetti quali il sesso, l’età, il colore dei capelli, il colore degli occhi, i tatuaggi, i tratti personali, l’origine etnica, le preferenze e gli interessi personali. Tali informazioni e notifiche dovrebbero essere fornite in formati accessibili alle persone con disabilità.
(133)
Diversi sistemi tal-IA jistgħu jiġġeneraw kwantitajiet kbar ta' kontenut sintetiku li jsir dejjem aktar diffiċli għall-bnedmin biex jiddistingwu minn kontenut iġġenerat mill-bniedem u kontenut awtentiku. Id-disponibbiltà wiesgħa u l-kapaċitajiet dejjem akbar ta' dawk is-sistemi għandhom impatt sinifikanti fuq l-integrità u l-fiduċja fl-ekosistema tal-informazzjoni, filwaqt li jżidu riskji ġodda ta' miżinformazzjoni u manipulazzjoni fuq skala kbira, frodi, personifikazzjoni u qerq tal-konsumatur. Fid-dawl ta' dawk l-impatti, il-pass teknoloġiku mgħaġġel u l-ħtieġa ta' metodi u tekniki ġodda biex tiġi traċċata l-oriġini tal-informazzjoni, jixraq li l-fornituri ta' dawk is-sistemi jinkorporaw soluzzjonijiet tekniċi li jippermettu l-immarkar f'format li jinqara mill-magni u l-kxif li l-output ikun ġie ġġenerat jew immanipulat minn sistema tal-IA u mhux minn bniedem. Jenħtieġ li tali tekniki u metodi jkunu affidabbli, interoperabbli, effettivi u robusti biżżejjed sa fejn dan ikun teknikament fattibbli, filwaqt li jitqiesu t-tekniki disponibbli jew taħlita ta' tali tekniki, bħal marki tal-ilma, identifikazzjonijiet tal-metadata, metodi kriptografiċi biex jiġu ppruvati l-provenjenza u l-awtentiċità tal-kontenut, il-metodi ta' reġistrazzjoni, il-marki tas-swaba' jew tekniki oħra, skont kif ikun xieraq. Meta jimplimentaw dan l-obbligu, jenħtieġ li l-fornituri jqisu wkoll l-ispeċifiċitajiet u l-limitazzjonijiet tat-tipi differenti ta' kontenut u l-iżviluppi teknoloġiċi u tas-suq rilevanti f'dan il-qasam, kif rifless fl-ogħla livell ta' żvilupp tekniku rikonoxxut b'mod ġenerali. Tali tekniki u metodi jistgħu jiġu implimentati fil-livell tas-sistema tal-IA jew fil-livell tal-mudell tal-IA, inkluż mudelli tal-IA bi skop ġenerali li jiġġeneraw kontenut, u b'hekk jiġi ffaċilitat it-twettiq ta' dan l-obbligu mill-fornitur downstream tas-sistema tal-IA. Biex jibqa' proporzjonat, huwa xieraq li jiġi previst li dan l-obbligu tal-immarkar jenħtieġ li ma jkoprix sistemi tal-IA li primarjament iwettqu funzjoni ta' assistenza għall-editjar standard jew għas-sistemi tal-IA li ma jbiddlux b'mod sostanzjali d-data tal-input ipprovduta mill-implimentatur jew is-semantika tagħha.
(133)
Diversi sistemi di IA possono generare grandi quantità di contenuti sintetici, che per gli esseri umani è divenuto sempre più difficile distinguere dai contenuti autentici e generati da esseri umani. L’ampia disponibilità e l’aumento delle capacità di tali sistemi hanno un impatto significativo sull’integrità e sulla fiducia nell’ecosistema dell’informazione, aumentando i nuovi rischi di cattiva informazione e manipolazione su vasta scala, frode, impersonificazione e inganno dei consumatori. Alla luce di tali impatti, della rapida evoluzione tecnologica e della necessità di nuovi metodi e tecniche per risalire all’origine delle informazioni, è opportuno imporre ai fornitori di tali sistemi di integrare soluzioni tecniche che consentano agli output di essere marcati in un formato leggibile meccanicamente e di essere rilevabili come generati o manipolati da un sistema di IA e non da esseri umani. Tali tecniche e metodi dovrebbero essere sufficientemente affidabili, interoperabili, efficaci e solidi nella misura in cui ciò sia tecnicamente possibile, tenendo conto delle tecniche disponibili o di una combinazione di tali tecniche, quali filigrane, identificazioni di metadati, metodi crittografici per dimostrare la provenienza e l’autenticità dei contenuti, metodi di registrazione, impronte digitali o altre tecniche, a seconda dei casi. Nell’attuare tale obbligo, i fornitori dovrebbero tenere conto anche delle specificità e dei limiti dei diversi tipi di contenuti e dei pertinenti sviluppi tecnologici e di mercato nel settore, come rispecchia lo stato dell’arte generalmente riconosciuto. Tali tecniche e metodi possono essere attuati a livello di sistema di IA o a livello di modello di IA, compresi i modelli di IA per finalità generali che generano contenuti, facilitando in tal modo l’adempimento di tale obbligo da parte del fornitore a valle del sistema di IA. Per continuare a essere proporzionato, è opportuno prevedere che tale obbligo di marcatura non debba riguardare i sistemi di IA che svolgono principalmente una funzione di assistenza per l’editing standard o i sistemi di IA che non modificano in modo sostanziale i dati di input forniti dal deployer o la rispettiva semantica.
(134)
Minbarra s-soluzzjonijiet tekniċi użati mill-fornituri tas-sistema tal-IA, l-implimentaturi li jużaw sistema tal-IA biex jiġġeneraw jew jimmanipulaw kontenut ta' immaġni, awdjo jew vidjo li jixbah b'mod sinifikattiv lil persuni, oġġetti, postijiet, entitajiet jew avvenimenti eżistenti u li jidher b'mod falz li persuna tkun awtentika jew veritiera (deep fakes), jenħtieġ li jiddivulgaw ukoll b'mod ċar u distint li l-kontenut inħoloq jew ġie mmanipulat b'mod artifiċjali billi jittikkettaw l-output tal-intelliġenza artifiċjali kif xieraq u jiddivulgaw l-oriġini artifiċjali tiegħu. Jenħtieġ li l-konformità ma' dan l-obbligu ta' trasparenza ma tiġix interpretata bħala li tindika li l-użu tas-sistema tal-IA jew tal-output tagħha jimpedixxi d-dritt għal-libertà tal-espressjoni u d-dritt għal-libertà tal-arti u x-xjenzi ggarantiti fil-Karta, b'mod partikolari fejn il-kontenut ikun parti minn ħidma jew programm evidentement kreattiv, satiriku, artistiku, fittizju jew analoġu, soġġett għal salvagwardji xierqa għad-drittijiet u l-libertajiet ta' partijiet terzi. F'dawk il-każijiet, l-obbligu ta' trasparenza għal deep fakes stipulat f'dan ir-Regolament huwa limitat għad-divulgazzjoni tal-eżistenza ta' tali kontenut iġġenerat jew manipulat b'mod xieraq li ma jfixkilx il-wiri jew it-tgawdija tax-xogħol, inkluż l-isfruttament u l-użu normali tiegħu, filwaqt li jinżammu l-utilità u l-kwalità tax-xogħol. Barra minn hekk, huwa xieraq ukoll li jiġi previst obbligu ta' divulgazzjoni simili fir-rigward ta' test iġġenerat mill-IA jew manipulat sal-punt li jiġi ppubblikat bl-għan li l-pubbliku jiġi infurmat dwar kwistjonijiet ta' interess pubbliku sakemm il-kontenut iġġenerat mill-IA ma jkunx għadda minn proċess ta' rieżami mill-bniedem jew kontroll editorjali u persuna fiżika jew ġuridika jkollha r-responsabbiltà editorjali għall-pubblikazzjoni tal-kontenut.
(134)
Oltre alle soluzioni tecniche utilizzate dai fornitori del sistema di IA, i deployer che utilizzano un sistema di IA per generare o manipolare immagini o contenuti audio o video che assomigliano notevolmente a persone, oggetti, luoghi, entità o eventi esistenti e che potrebbero apparire falsamente autentici o veritieri a una persona (deep fake), dovrebbero anche rendere noto in modo chiaro e distinto che il contenuto è stato creato o manipolato artificialmente etichettando di conseguenza gli output dell’IA e rivelandone l'origine artificiale. L'adempimento di tale obbligo di trasparenza non dovrebbe essere interpretato nel senso che l'uso del sistema di IA o dei suoi output ostacola il diritto alla libertà di espressione e il diritto alla libertà delle arti e delle scienze garantito dalla Carta, in particolare quando il contenuto fa parte di un'opera o di un programma manifestamente creativo, satirico, artistico, fittizio, o analogo fatte salve le tutele adeguate per i diritti e le libertà dei terzi. In tali casi, l'obbligo di trasparenza per i deep fake di cui al presente regolamento si limita alla rivelazione dell'esistenza di tali contenuti generati o manipolati in modo adeguato che non ostacoli l'esposizione o il godimento dell'opera, compresi il suo normale sfruttamento e utilizzo, mantenendo nel contempo l'utilità e la qualità dell'opera. È inoltre opportuno prevedere un obbligo di divulgazione analogo in relazione al testo generato o manipolato dall'IA nella misura in cui è pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico, a meno che il contenuto generato dall'IA sia stato sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o giuridica abbia la responsabilità editoriale della pubblicazione del contenuto.
(135)
Mingħajr preġudizzju għan-natura obbligatorja u l-applikabbiltà sħiħa tal-obbligi ta' trasparenza, il-Kummissjoni tista' tħeġġeġ u tiffaċilita wkoll it-tfassil ta' kodiċijiet ta' prattika fil-livell tal-Unjoni biex tiffaċilita l-implimentazzjoni effettiva tal-obbligi rigward il-kxif u t-tikkettar ta' kontenut iġġenerat jew immanipulat b'mod artifiċjali, inkluż biex tappoġġa arranġamenti prattiċi biex, kif xieraq, il-mekkaniżmi ta' kxif isiru aċċessibbli u tiġi ffaċilitata l-kooperazzjoni ma' atturi oħra tul il-katina tal-valur, id-disseminazzjoni tal-kontenut jew il-verifika tal-awtentiċità u l-provenjenza tiegħu biex il-pubbliku jkun jista' jiddistingwi b'mod effettiv il-kontenut iġġenerat mill-IA.
(135)
Fatta salva la natura obbligatoria e la piena applicabilità degli obblighi di trasparenza, la Commissione può altresì incoraggiare e agevolare l'elaborazione di codici di buone pratiche a livello dell'Unione per facilitare l'efficace attuazione degli obblighi in materia di rilevazione ed etichettatura dei contenuti generati o manipolati artificialmente, anche per sostenere modalità pratiche per rendere accessibili, se del caso, i meccanismi di rilevazione e favorire la cooperazione con altri attori lungo la catena del valore, diffondere contenuti o verificarne l'autenticità e la provenienza onde consentire al pubblico di distinguere efficacemente i contenuti generati dall'IA.
(136)
L-obbligi imposti fuq il-fornituri u l-implimentaturi ta' ċerti sistemi tal-IA f'dan ir-Regolament biex jippermettu l-kxif u d-divulgazzjoni li l-outputs ta' dawk is-sistemi jiġu ġġenerati jew immanipulati b'mod artifiċjali huma partikolarment rilevanti biex tiġi ffaċilitata l-implimentazzjoni effettiva tar-Regolament (UE) 2022/2065. Dan japplika b'mod partikolari fir-rigward tal-obbligi tal-fornituri ta' pjattaformi online kbar ħafna jew ta' magni tat-tiftix online kbar ħafna biex jidentifikaw u jimmitigaw ir-riskji sistemiċi li jistgħu jirriżultaw mid-disseminazzjoni ta' kontenut li jkun ġie ġġenerat jew immanipulat b'mod artifiċjali, b'mod partikolari r-riskju tal-effetti negattivi reali jew prevedibbli fuq il-proċessi demokratiċi, id-diskors ċiviku u l-proċessi elettorali, inkluż permezz tad-diżinformazzjoni. Ir-rekwiżit li jiġi ttikkettat il-kontenut iġġenerat mis-sistemi tal-IA skont dan ir-Regolament huwa mingħajr preġudizzju għall-obbligu fl-Artikolu 16(6) tar-Regolament (UE) 2022/2065 għall-fornituri ta' servizzi ta' hosting li joħorġu avviżi dwar kontenut illegali riċevut skont l-Artikolu 16(1) ta' dak ir-Regolament u jenħtieġ li ma jinfluwenzax il-valutazzjoni u d-deċiżjoni dwar l-illegalità tal-kontenut speċifiku. Jenħtieġ li din l-evalwazzjoni ssir biss b'riferiment għar-regoli li jirregolaw il-legalità tal-kontenut.
(136)
Gli obblighi imposti dal presente regolamento ai fornitori e ai deployer di taluni sistemi di IA, volti a consentire il rilevamento e la divulgazione del fatto che gli output di tali sistemi siano generati o manipolati artificialmente, sono molto importanti per contribuire all'efficace attuazione del regolamento (UE) 2022/2065. Ciò si applica specialmente agli obblighi per i fornitori di piattaforme online di dimensioni molto grandi o motori di ricerca online di dimensioni molto grandi di individuare e attenuare i rischi sistemici che possono derivare dalla diffusione di contenuti generati o manipolati artificialmente, in particolare il rischio di impatti negativi effettivi o prevedibili sui processi democratici, sul dibattito civico e sui processi elettorali, anche mediante la disinformazione. L'obbligo di etichettare i contenuti generati dai sistemi di IA a norma del presente regolamento lascia impregiudicato l'obbligo di cui all'articolo 16, paragrafo 6, del regolamento (UE) 2022/2065 per i prestatori di servizi di memorizzazione di informazioni di trattare le segnalazioni di contenuti illegali ricevute a norma dell'articolo 16, paragrafo 1, di tale regolamento e non dovrebbe influenzare la valutazione e la decisione in merito all'illegalità del contenuto specifico. Tale valutazione dovrebbe essere effettuata solo con riferimento alle norme che disciplinano la legalità dei contenuti.
(137)
Jenħtieġ li l-konformità mal-obbligi tat-trasparenza għas-sistemi tal-IA koperti minn dan ir-Regolament ma tiġix interpretata li tindika li l-użu tas-sistema tal-IA jew tal-output tagħha huwa legali skont dan ir-Regolament jew dritt ieħor tal-Unjoni u tal-Istati Membri u jenħtieġ li tkun mingħajr preġudizzju għal obbligi oħra ta' trasparenza għall-implimentaturi tas-sistemi tal-IA stabbiliti fil-liġi tal-Unjoni jew dik nazzjonali.
(137)
La conformità agli obblighi di trasparenza per i sistemi di IA disciplinati dal presente regolamento non dovrebbe essere interpretata nel senso che l'uso del sistema di IA o dei suoi output è lecito ai sensi del presente regolamento o di altre disposizioni del diritto dell'Unione e degli Stati membri e dovrebbe lasciare impregiudicati gli altri obblighi di trasparenza per i deployer dei sistemi di IA stabiliti dal diritto dell'Unione o nazionale.
(138)
L-IA hija familja ta' teknoloġiji li qed tiżviluppa b'mod rapidu li tirrikjedi sorveljanza regolatorja u spazju sikur u kkontrollat għall-esperimentazzjoni, filwaqt li tiżgura innovazzjoni u integrazzjoni responsabbli ta' salvagwardji u miżuri ta' mitigazzjoni tar-riskju xierqa. Sabiex jiġi żgurat qafas legali li jippromwovi l-innovazzjoni, jibqa' validu fil-futur u jkun reżiljenti għat-tfixkil, jenħtieġ li l-Istati Membri jiżguraw li l-awtoritajiet kompetenti nazzjonali tagħhom jistabbilixxu mill-inqas ambjent wieħed ta' esperimentazzjoni regolatorja għall-IA fil-livell nazzjonali biex jiffaċilitaw l-iżvilupp u l-ittestjar ta' sistemi innovattivi tal-IA taħt sorveljanza regolatorja stretta qabel ma dawn is-sistemi jiġu introdotti fis-suq jew inkella jitqiegħdu fis-servizz. L-Istati Membri jistgħu jissodisfaw ukoll dan l-obbligu billi jipparteċipaw f'ambjenti ta' esperimentazzjoni regolatorji diġà eżistenti jew jistabbilixxu b'mod konġunt ambjent ta' esperimentazzjoni ma' awtorità kompetenti waħda jew aktar tal-Istati Membri, dment li din il-parteċipazzjoni tipprovdi livell ekwivalenti ta' kopertura nazzjonali għall-Istati Membri parteċipanti. Ambjenti ta' esperimentazzjoni regolatorja għall-IA jistgħu jiġu stabbiliti f'forma fiżika, diġitali jew ibrida u jistgħu jakkomodaw prodotti fiżiċi kif ukoll diġitali. Jenħtieġ li l-awtoritajiet kostitwenti jiżguraw ukoll li l-ambjenti ta' esperimentazzjoni regolatorja għall-IA jkollhom ir-riżorsi adegwati għall-funzjonament tagħhom, inkluż ir-riżorsi finanzjarji u umani.
(138)
L'IA è una famiglia di tecnologie in rapida evoluzione che richiede sorveglianza regolamentare e uno spazio sicuro e controllato per la sperimentazione, garantendo nel contempo un'innovazione responsabile e l'integrazione di tutele adeguate e di misure di attenuazione dei rischi. Al fine di garantire un quadro giuridico che promuova l'innovazione, sia adeguato alle esigenze future e resiliente alle perturbazioni, gli Stati membri dovrebbero garantire che le rispettive autorità nazionali competenti istituiscano almeno uno spazio di sperimentazione normativa in materia di IA a livello nazionale per agevolare lo sviluppo e le prove di sistemi di IA innovativi, sotto una rigorosa sorveglianza regolamentare, prima che tali sistemi siano immessi sul mercato o altrimenti messi in servizio. Gli Stati membri potrebbero inoltre adempiere tale obbligo partecipando a spazi di sperimentazione normativa già esistenti o istituendo congiuntamente uno spazio di sperimentazione con le autorità competenti di uno o più Stati membri, nella misura in cui tale partecipazione fornisca un livello equivalente di copertura nazionale per gli Stati membri partecipanti. Gli spazi di sperimentazione normativa per l’IA potrebbero essere istituiti in forma fisica, digitale o ibrida e potrebbero accogliere prodotti sia fisici che digitali. Le autorità costituenti dovrebbero altresì garantire che gli spazi di sperimentazione normativa per l’IA dispongano delle risorse adeguate per il loro funzionamento, comprese risorse finanziarie e umane.
(139)
Jenħtieġ li l-objettivi tal-ambjenti ta' esperimentazzjoni regolatorja għall-IA jkunu li jrawmu l-innovazzjoni tal-IA billi jistabbilixxu ambjent ikkontrollat ta' esperimentazzjoni u ttestjar fil-fażi tal-iżvilupp u ta' qabel il-kummerċjalizzazzjoni biex jiżguraw il-konformità tas-sistemi innovattivi tal-IA ma' dan ir-Regolament u ma' liġijiet tal-Unjoni jew nazzjonali oħra rilevanti. Barra minn hekk, l-ambjenti ta' esperimentazzjoni regolatorja għall-IA jenħtieġ li jimmiraw li jsaħħu ċ-ċertezza legali għall-innovaturi u s-sorveljanza u l-fehim mill-awtoritajiet kompetenti tal-opportunitajiet, tar-riskji emerġenti u tal-impatti tal-użu tal-IA, biex jiġi ffaċilitat it-tagħlim regolatorju għall-awtoritajiet u għall-intrapriżi, inkluż bil-ħsieb ta' adattamenti futuri tal-qafas legali, biex jiġu appoġġati l-kooperazzjoni u l-kondiviżjoni tal-aħjar prattiki mal-awtoritajiet involuti fl-ambjent ta' esperimentazzjoni regolatorja għall-IA, u biex jitħaffef l-aċċess għas-swieq, inkluż billi jitneħħew l-ostakli għall-SMEs, inkluż in-negozji ġodda. Jenħtieġ li l-ambjenti ta' esperimentazzjoni regolatorja għall-IA jkunu disponibbli b'mod wiesa' madwar l-Unjoni, u jenħtieġ li tingħata attenzjoni partikolari lill-aċċessibbiltà tagħhom għall-SMEs, inkluż in-negozji ġodda. Jenħtieġ li l-parteċipazzjoni fl-ambjent ta' esperimentazzjoni regolatorja għall-IA tiffoka fuq kwistjonijiet li jqajmu inċertezza legali għall-fornituri u l-fornituri prospettivi biex jinnovaw, jesperimentaw bl-IA fl-Unjoni u jikkontribwixxu għal tagħlim regolatorju bbażat fuq l-evidenza. Għalhekk, jenħtieġ li s-superviżjoni tas-sistemi tal-IA fl-ambjent ta' esperimentazzjoni regolatorja għall-IA tkopri l-iżvilupp, it-taħriġ, l-ittestjar u l-validazzjoni tagħhom qabel ma s-sistemi jiġu introdotti fis-suq jew imqiegħda fis-servizz, kif ukoll il-kunċett u l-okkorrenza ta' modifika sostanzjali li tista' tirrikjedi proċedura ġdida ta' valutazzjoni tal-konformità. Kwalunkwe riskju sinifikanti identifikat matul l-iżvilupp u l-ittestjar ta' tali sistemi tal-IA jenħtieġ li jirriżulta f'mitigazzjoni adegwata u, fin-nuqqas ta' din, fis-sospensjoni tal-proċess tal-iżvilupp u tal-ittestjar. Fejn xieraq, jenħtieġ li l-awtoritajiet nazzjonali kompetenti li jkunu qed jistabbilixxu ambjenti ta' esperimentazzjoni regolatorja għall-IA jikkooperaw ma' awtoritajiet rilevanti oħra, inkluż dawk li jissorveljaw il-protezzjoni tad-drittijiet fundamentali, u jistgħu jagħtu lok għall-involviment ta' atturi oħra fl-ekosistema tal-IA bħal organizzazzjonijiet nazzjonali jew Ewropej tal-istandardizzazzjoni, korpi notifikati, faċilitajiet tal-ittestjar u tal-esperimentazzjoni, laboratorji tar-riċerka u tal-esperimentazzjoni, Ċentri Ewropej tal-Innovazzjoni Diġitali u organizzazzjonijiet rilevanti tal-partijiet ikkonċernati u tas-soċjetà ċivili. Biex ikunu żgurati implimentazzjoni uniformi madwar l-Unjoni u l-ekonomiji ta' skala, jixraq jiġu stabbiliti regoli komuni għall-implimentazzjoni tal-ambjenti ta' esperimentazzjoni regolatorja għall-IA u qafas għall-kooperazzjoni bejn l-awtoritajiet rilevanti involuti fis-superviżjoni tal-ambjenti ta' esperimentazzjoni. Jenħtieġ li l-ambjenti ta' esperimentazzjoni regolatorja għall-IA stabbiliti skont dan ir-Regolament ikunu mingħajr preġudizzju għal liġijiet oħra li jippermettu l-istabbiliment ta' ambjenti ta' esperimentazzjoni oħra bil-għan li jiżguraw il-konformità ma' liġijiet għajr dan ir-Regolament. Meta xieraq, jenħtieġ li l-awtoritajiet kompetenti rilevanti inkarigati minn dawk l-ambjenti ta' esperimentazzjoni regolatorja l-oħra jikkunsidraw il-benefiċċji tal-użu ta' dawk l-ambjenti ta' esperimentazzjoni anki għall-fini li jiżguraw il-konformità tas-sistemi tal-IA ma' dan ir-Regolament. Bi qbil bejn l-awtoritajiet nazzjonali kompetenti u l-parteċipanti fl-ambjent ta' esperimentazzjoni regolatorja għall-IA, l-ittestjar fil-kundizzjonijiet tad-dinja reali jista' jsir u jiġi ssorveljat ukoll fil-qafas tal-ambjent ta' esperimentazzjoni regolatorja għall-IA.
(139)
Gli obiettivi degli spazi di sperimentazione normativa per l'IA dovrebbero essere la promozione dell'innovazione in materia di IA, mediante la creazione di un ambiente controllato di sperimentazione e prova nella fase di sviluppo e pre-commercializzazione al fine di garantire la conformità dei sistemi di IA innovativi al presente regolamento e ad altre pertinenti disposizioni di diritto dell'Unione e nazionale. Inoltre, gli spazi di sperimentazione normativa per l’IA dovrebbero avere come obiettivo il rafforzamento della certezza del diritto per gli innovatori e della sorveglianza e della comprensione da parte delle autorità competenti delle opportunità, dei rischi emergenti e degli impatti dell'uso dell'IA, l'agevolazione dell'apprendimento normativo per le autorità e le imprese, anche in vista del futuro adeguamento del quadro giuridico, il sostegno alla cooperazione e la condivisione delle migliori pratiche con le autorità coinvolte nello spazio di sperimentazione normativa per l'IA, nonché l'accelerazione dell'accesso ai mercati, anche mediante l'eliminazione degli ostacoli per le PMI, comprese le start-up. Gli spazi di sperimentazione normativa per l’IA dovrebbero essere ampiamente disponibili in tutta l'Unione e si dovrebbe prestare particolare attenzione alla loro accessibilità per le PMI, comprese le start-up. La partecipazione allo spazio di sperimentazione normativa per l'IA dovrebbe concentrarsi su questioni che creano incertezza giuridica rendendo difficoltoso per i fornitori e i potenziali fornitori innovare, sperimentare l'IA nell'Unione e contribuire all'apprendimento normativo basato su dati concreti. La supervisione dei sistemi di IA nello spazio di sperimentazione normativa per l'IA dovrebbe pertanto riguardare il relativo sviluppo, addestramento, prova e convalida prima che i sistemi siano immessi sul mercato o messi in servizio, nonché la nozione e il verificarsi di modifiche sostanziali che possono richiedere una nuova procedura di valutazione della conformità. Qualsiasi rischio significativo individuato durante lo sviluppo e le prove di tali sistemi di IA dovrebbe comportare l'adozione di adeguate misure di attenuazione e, in mancanza di ciò, la sospensione del processo di sviluppo e di prova. Se del caso, le autorità nazionali competenti che istituiscono spazi di sperimentazione normativa per l'IA dovrebbero cooperare con altre autorità pertinenti, comprese quelle che vigilano sulla protezione dei diritti fondamentali, e potrebbero consentire il coinvolgimento di altri attori all'interno dell'ecosistema dell'IA, quali organizzazioni di normazione nazionali o europee, organismi notificati, impianti di prova e sperimentazione, laboratori di ricerca e sperimentazione, poli europei dell'innovazione digitale e pertinenti portatori di interessi e organizzazioni della società civile. Al fine di garantire un'attuazione uniforme in tutta l'Unione e le economie di scala, è opportuno stabilire regole comuni per l'attuazione degli spazi di sperimentazione normativa per l'IA e un quadro per la cooperazione tra le autorità competenti coinvolte nel controllo degli spazi di sperimentazione. Gli spazi di sperimentazione normativa per l'IA istituiti a norma del presente regolamento non dovrebbero pregiudicare altre disposizioni che consentono la creazione di altri spazi di sperimentazione volti a garantire la conformità a disposizioni del diritto diverse dal presente regolamento. Se del caso, le pertinenti autorità competenti responsabili di tali altri spazi di sperimentazione normativa dovrebbero considerare i vantaggi derivanti dall'utilizzo di tali spazi di sperimentazione anche al fine di garantire la conformità dei sistemi di IA al presente regolamento. Previo accordo tra le autorità nazionali competenti e i partecipanti allo spazio di sperimentazione normativa per l'IA, anche le prove in condizioni reali possono essere gestite e supervisionate nel quadro dello spazio di sperimentazione normativa per l'IA.
(140)
Jenħtieġ li dan ir-Regolament jipprovdi l-bażi legali għall-fornituri u l-fornituri prospettivi fl-ambjent ta' esperimentazzjoni regolatorja għall-IA biex jużaw id-data personali miġbura għal finijiet oħra għall-iżvilupp ta' ċerti sistemi tal-IA fl-interess pubbliku fi ħdan l-ambjent ta' esperimentazzjoni regolatorja għall-IA, f'kundizzjonijiet speċifiċi biss, f'konformità mal-Artikolu 6(4) u l-Artikolu 9(2), il-punt (g) tar-Regolament (UE) 2016/679, u mal-Artikoli 5, 6 u 10 tar-Regolament (UE) 2018/1725, u mingħajr preġudizzju għall-Artikolu 4(2) u l-Artikolu 10 tad-Direttiva (UE) 2016/680. L-obbligi l-oħra kollha tal-kontrolluri tad-data u d-drittijiet tas-suġġetti tad-data skont ir-Regolamenti (UE) 2016/679 u (UE) 2018/1725 u d-Direttiva (UE) 2016/680 jibqgħu applikabbli. B'mod partikolari, jenħtieġ li dan ir-Regolament ma jipprovdix bażi legali skont it-tifsira tal-Artikolu 22(2), il-punt (b) tar-Regolament (UE) 2016/679 u l-Artikolu 24(2), il-punt (b) tar-Regolament (UE) 2018/1725. Jenħtieġ li l-fornituri u l-fornituri prospettivi fl-ambjent ta' esperimentazzjoni regolatorja tal-IA jiżguraw salvagwardji xierqa u jikkooperaw mal-awtoritajiet kompetenti, inkluż billi jimxu mal-gwida tagħhom u jaġixxu malajr u b'bona fide biex jimmitigaw b'mod adegwat kwalunkwe riskju identifikat għas-sikurezza, is-saħħa u għad-drittijiet fundamentali li jista' jinqala' waqt l-iżvilupp, l-ittestjar, u l-esperimentazzjoni f’dak l-ambjent ta' esperimentazzjoni.
(140)
Il presente regolamento dovrebbe fornire la base giuridica ai fornitori e ai potenziali fornitori nello spazio di sperimentazione normativa per l'IA per utilizzare i dati personali raccolti per altre finalità ai fini dello sviluppo di determinati sistemi di IA di interesse pubblico nell'ambito dello spazio di sperimentazione normativa per l'IA, solo a specifiche condizioni, conformemente all'articolo 6, paragrafo 4, e all'articolo 9, paragrafo 2, lettera g), del regolamento (UE) 2016/679, e agli articoli 5, 6 e 10 del regolamento (UE) 2018/1725, e fatti salvi l'articolo 4, paragrafo 2, e l'articolo 10 della direttiva (UE) 2016/680. Tutti gli altri obblighi dei titolari del trattamento e i diritti degli interessati ai sensi del regolamento (UE) 2016/679, del regolamento (UE) 2018/1725 e della direttiva (UE) 2016/680 restano applicabili. In particolare, il presente regolamento non dovrebbe costituire una base giuridica ai sensi dell'articolo 22, paragrafo 2, lettera b), del regolamento (UE) 2016/679 e dell'articolo 24, paragrafo 2, lettera b), del regolamento (UE) 2018/1725. I fornitori e i potenziali fornitori nello spazio di sperimentazione normativa per l'IA dovrebbero fornire garanzie adeguate e cooperare con le autorità competenti, anche seguendo i loro orientamenti e agendo rapidamente e in buona fede per attenuare adeguatamente eventuali rischi significativi individuati per la sicurezza, la salute e i diritti fondamentali che possono emergere durante lo sviluppo, le prove e la sperimentazione in tale spazio.
(141)
Biex jitħaffef il-proċess tal-iżvilupp u l-introduzzjoni fis-suq tas-sistemi tal-IA b'riskju għoli elenkati f' anness ta' dan ir-Regolament, huwa importanti li l-fornituri jew il-fornituri prospettivi ta' dawn is-sistemi jkunu jistgħu jibbenefikaw ukoll minn reġim speċifiku għall-ittestjar ta' dawk is-sistemi f'kundizzjonijiet tad-dinja reali, mingħajr ma jieħdu sehem f'ambjent ta' esperimentazzjoni regolatorja għall-IA. Madankollu, f'każijiet bħal dawn, filwaqt li jitqiesu l-konsegwenzi possibbli ta' tali ttestjar fuq individwi, jenħtieġ li jiġi żgurat li dan ir-Regolament jintroduċi garanziji u kundizzjonijiet xierqa u suffiċjenti għall-fornituri jew il-fornituri prospettivi. Jenħtieġ li tali garanziji jinkludu, fost l-oħrajn, talba għal kunsens infurmat ta' persuni fiżiċi biex jieħdu sehem fl-ittestjar fil-kundizzjonijiet tad-dinja reali, bl-eċċezzjoni tal-infurzar tal-liġi fejn it-tiftix ta' kunsens infurmat jipprevjeni s-sistema tal-IA milli tiġi ttestjata. Il-kunsens tas-suġġetti biex jieħdu sehem f'tali ttestjar skont dan ir-Regolament huwa distint minn u mingħajr preġudizzju għall-kunsens tas-suġġetti tad-data għall-ipproċessar tad-data personali tagħhom skont il-liġi rilevanti dwar il-protezzjoni tad-data. Huwa importanti wkoll li jiġu minimizzati r-riskji u li tkun tista' ssir sorveljanza mill-awtoritajiet kompetenti u għalhekk ikun meħtieġ li l-fornituri prospettivi jkollhom pjan ta' ttestjar fid-dinja reali sottomess lill-awtorità kompetenti tas-sorveljanza tas-suq, jirreġistraw l-ittestjar f'taqsimiet iddedikati fil-bażi tad-data għall-UE soġġett għal xi eċċezzjonijiet limitati, jistabbilixxu limitazzjonijiet fuq il-perjodu li għalih jista' jsir l-ittestjar u jirrikjedu salvagwardji addizzjonali għal persuni vulnerabbli li jagħmlu parti minn ċerti gruppi vulnerabbli, kif ukoll ftehim bil-miktub li jiddefinixxi r-rwoli u r-responsabbiltajiet tal-fornituri u l-implimentaturi prospettivi u sorveljanza effettiva mill-persunal kompetenti involut fl-ittestjar fid-dinja reali. Barra minn hekk, huwa xieraq li jiġu previsti salvagwardji addizzjonali biex jiġi żgurat li t-tbassir, ir-rakkomandazzjonijiet jew id-deċiżjonijiet tas-sistema tal-IA jkunu jistgħu jitreġġgħu lura u jiġu injorati b'mod effettiv u li d-data personali tiġi protetta u titħassar meta s-suġġetti jkunu rtiraw il-kunsens tagħhom biex jipparteċipaw fl-ittestjar mingħajr preġudizzju għad-drittijiet tagħhom bħala suġġetti tad-data skont il-liġi tal-Unjoni dwar il-protezzjoni tad-data. Fir-rigward tat-trasferiment tad-data, huwa xieraq ukoll li jiġi previst li d-data miġbura u pproċessata għall-fini tal-ittestjar fil-kundizzjonijiet tad-dinja reali jenħtieġ li tiġi ttrasferita lil pajjiżi terzi biss fejn jiġu implimentati salvagwardji xierqa u applikabbli skont il-liġi tal-Unjoni, b'mod partikolari f'konformità mal-bażijiet għat-trasferiment ta' data personali skont il-liġi tal-Unjoni dwar il-protezzjoni tad-data, filwaqt li għad-data mhux personali jiġu stabbiliti salvagwardji xierqa f'konformità mal-liġi tal-Unjoni, bħar-Regolamenti (UE) 2022/868 (42) u (UE) 2023/2854 (43) tal-Parlament Ewropew u tal-Kunsill.
(141)
Al fine di accelerare il processo di sviluppo e immissione sul mercato dei sistemi di IA ad alto rischio elencati in un allegato del presente regolamento, è importante che anche i fornitori o i potenziali fornitori di tali sistemi possano beneficiare di un regime specifico per sottoporre a prova tali sistemi in condizioni reali, senza partecipare a uno spazio di sperimentazione normativa per l'IA. Tuttavia, in tali casi, e tenendo conto delle possibili conseguenze di tali prove sulle persone, è opportuno garantire che il presente regolamento introduca garanzie e condizioni adeguate e sufficienti per i fornitori o potenziali fornitori. Tali garanzie dovrebbero includere, tra l'altro, la richiesta del consenso informato delle persone fisiche a partecipare a prove in condizioni reali, ad eccezione delle autorità di contrasto quando la richiesta di consenso informato impedirebbe di sottoporre a prova il sistema di IA. Il consenso dei soggetti a partecipare a tali prove a norma del presente regolamento è distinto e non pregiudica il consenso degli interessati al trattamento dei loro dati personali ai sensi della pertinente normativa in materia di protezione dei dati. È inoltre importante ridurre al minimo i rischi e consentire la sorveglianza da parte delle autorità competenti e richiedere pertanto ai potenziali fornitori di disporre di un piano di prova in condizioni reali presentato all'autorità di vigilanza del mercato competente, di registrare le prove in sezioni dedicate della banca dati dell'UE, fatte salve alcune limitate eccezioni, di fissare limiti al periodo nel quale possono essere effettuate le prove e di richiedere tutele aggiuntive per le persone appartenenti a certi gruppi vulnerabili, nonché un accordo scritto che definisca i ruoli e le responsabilità dei potenziali fornitori e dei deployer e una sorveglianza efficace da parte del personale competente coinvolto nelle prove in condizioni reali. È inoltre opportuno prevedere tutele aggiuntive per garantire che le previsioni, le raccomandazioni o le decisioni del sistema di IA possano essere efficacemente ribaltate e ignorate e che i dati personali siano protetti e cancellati quando i soggetti hanno revocato il loro consenso a partecipare alle prove, fatti salvi i loro diritti in qualità di interessati ai sensi della normativa dell'Unione in materia di protezione dei dati. Per quanto riguarda il trasferimento dei dati, è inoltre opportuno prevedere che i dati raccolti e trattati ai fini delle prove in condizioni reali siano trasferiti a paesi terzi solo se sono attuate tutele adeguate e applicabili ai sensi del diritto dell'Unione, in particolare conformemente alle basi per il trasferimento di dati personali ai sensi del diritto dell'Unione in materia di protezione dei dati, mentre per i dati non personali sono poste in essere tutele adeguate conformemente al diritto dell'Unione, quali il regolamento (UE) 2022/868 (42) e il regolamento (UE) 2023/2854 (43) del Parlamento europeo e del Consiglio.
(142)
Biex jiġi żgurat li l-IA twassal għal eżiti ta' benefiċċju soċjali u ambjentali, l-Istati Membri huma mħeġġa jappoġġaw u jippromwovu r-riċerka u l-iżvilupp ta' soluzzjonijiet tal-IA li jappoġġaw eżiti ta' benefiċċju soċjali u ambjentali, bħal soluzzjonijiet ibbażati fuq l-IA biex tiżdied l-aċċessibbiltà għall-persuni b'diżabbiltà, jiġu indirizzati l-inugwaljanzi soċjoekonomiċi jew biex jintlaħqu miri ambjentali, billi jallokaw ir-riżorsi suffiċjenti, inkluż finanzjament pubbliku u tal-Unjoni, u, fejn xieraq u dment li l-kriterji tal-eliġibbiltà u tal-għażla jiġu ssodisfati, b'kunsiderazzjoni partikolari għal proġetti li għandhom tali objettivi. Jenħtieġ li proġetti bħal dawn ikunu bbażati fuq il-prinċipju ta' kooperazzjoni interdixxiplinari bejn l-iżviluppaturi tal-IA, l-esperti dwar l-inugwaljanza u n-nondiskriminazzjoni, l-aċċessibbiltà, il-konsumatur, id-drittijiet ambjentali u diġitali, kif ukoll l-akkademiċi.
(142)
Per garantire che l'IA porti a risultati vantaggiosi sul piano sociale e ambientale, gli Stati membri sono incoraggiati a sostenere e promuovere la ricerca e lo sviluppo di soluzioni di IA a sostegno di risultati vantaggiosi dal punto di vista sociale e ambientale, come le soluzioni basate sull'IA per aumentare l'accessibilità per le persone con disabilità, affrontare le disuguaglianze socioeconomiche o conseguire obiettivi in materia di ambiente, assegnando risorse sufficienti, compresi i finanziamenti pubblici e dell'Unione, e, se del caso e a condizione che siano soddisfatti i criteri di ammissibilità e selezione, prendendo in considerazione soprattutto i progetti che perseguono tali obiettivi. Tali progetti dovrebbero basarsi sul principio della cooperazione interdisciplinare tra sviluppatori dell'IA, esperti in materia di disuguaglianza e non discriminazione, accessibilità e diritti ambientali, digitali e dei consumatori, nonché personalità accademiche.
(143)
Sabiex tiġi promossa u protetta l-innovazzjoni, huwa importanti li jitqiesu b'mod partikolari l-interessi tal-SMEs, inkluż in-negozji ġodda, li huma fornituri jew implimentaturi ta' sistemi tal-IA. Għal dak il-għan, jenħtieġ li l-Istati Membri jiżviluppaw inizjattivi, immirati lejn dawk l-operaturi, inkluż għas-sensibilizzazzjoni u l-komunikazzjoni tal-informazzjoni. L-Istati Membri jenħtieġ li jipprovdu lill-SMEs, inkluż in-negozji ġodda, li jkollhom uffiċċju reġistrat jew fergħa fl-Unjoni, aċċess prijoritarju għal ambjenti ta' esperimentazzjoni regolatorja għall-IA dment li jissodisfaw il-kundizzjonijiet tal-eliġibbiltà u l-kriterji tal-għażla u mingħajr ma jipprekludu lil fornituri u fornituri prospettivi oħra milli jaċċessaw l-ambjenti regolatorji dment li l-istess kundizzjonijiet u kriterji jiġu ssodisfati. L-Istati Membri jenħtieġ li jużaw il-mezzi eżistenti u, meta xieraq, jistabbilixxu mezzi ddedikati ġodda għall-komunikazzjoni mal-SMEs, inkluż man-negozji ġodda, mal-implimentaturi, ma' innovaturi oħrajn, u kif xieraq, mal-awtoritajiet pubbliċi lokali, biex jappoġġaw lill-SMEs fil-perkors kollu tal-iżvilupp tagħhom billi jipprovdu gwida u jwieġbu domandi dwar l-implimentazzjoni ta' dan ir-Regolament. Meta xieraq, dawn il-mezzi jenħtieġ li jaħdmu flimkien biex joħolqu sinerġiji u jiżguraw l-omoġeneità fil-gwida tagħhom lill-SMEs, inkluż in-negozji ġodda, u l-implimentaturi. Jenħtieġ li l-Istati Membri jiffaċilitaw ukoll il-parteċipazzjoni tal-SMEs u ta' partijiet ikkonċernati rilevanti oħra fil-proċess tal-iżvilupp tal-istandardizzazzjoni. Barra minn hekk, meta l-korpi notifikati jistabbilixxu tariffi għall-valutazzjoni tal-konformità, jenħtieġ li jitqiesu l-interessi u l-ħtiġijiet speċifiċi tal-fornituri li huma SMEs, inkluż negozji ġodda. Jenħtieġ li l-Kummissjoni tevalwa b'mod regolari l-kostijiet ta' ċertifikazzjoni u konformità għall-SMEs inkluż għan-negozji ġodda, permezz ta' konsultazzjonijiet trasparenti u jenħtieġ li taħdem mal-Istati Membri biex tnaqqas dawn il-kostijiet. Pereżempju, il-kostijiet tat-traduzzjoni relatata mad-dokumentazzjoni obbligatorja u l-komunikazzjoni mal-awtoritajiet jistgħu jikkostitwixxu kost sinifikanti għall-fornituri u għal operaturi oħra, b'mod partikolari għal dawk fuq skala iżgħar. Jenħtieġ li l-Istati Membri possibbilment jiżguraw li waħda mil-lingwi determinati u aċċettati minnhom għad-dokumentazzjoni tal-fornituri rilevanti u għall-komunikazzjoni mal-operaturi tkun waħda li tinftiehem b'mod wiesa' mill-akbar għadd ta' implimentaturi transfruntieri possibbli. Sabiex jiġu indirizzati l-ħtiġijiet speċifiċi tal-SMEs inkluż tan-negozji ġodda, jenħtieġ li l-Kummissjoni tipprovdi mudelli standardizzati għall-oqsma koperti minn dan ir-Regolament fuq talba tal-Bord. Barra minn hekk, jenħtieġ li l-Kummissjoni tikkomplementa l-isforzi tal-Istati Membri billi tipprovdi pjattaforma ta' informazzjoni unika b'informazzjoni faċli biex tintuża fir-rigward ta' dan ir-Regolament għall-fornituri u l-implimentaturi kollha, billi torganizza kampanji ta' komunikazzjoni adatti biex tqajjem kuxjenza dwar l-obbligi li jirriżultaw minn dan ir-Regolament, u billi tevalwa u tippromwovi l-konverġenza tal-aħjar prattiki fil-proċeduri tal-akkwist pubbliku fir-rigward tas-sistemi tal-IA. Jenħtieġ li l-intrapriżi ta' daqs medju li sa reċentement kienu jikkwalifikaw bħala intrapriżi żgħar skont it-tifsira tal-Anness tar-Rakkomandazzjoni tal-Kummissjoni 2003/361/KE (44) jkollhom aċċess għal dawk il-miżuri ta' appoġġ peress li dawk l-intrapriżi ġodda ta' daqs medju ġodda xi drabi jistgħu ma jkollhomx ir-riżorsi legali u t-taħriġ meħtieġa biex jiżguraw fehim xieraq ta' dan ir-Regolament u konformità miegħu.
(143)
Al fine di promuovere e proteggere l'innovazione, è importante che siano tenuti in particolare considerazione gli interessi delle PMI, comprese le start-up, che sono fornitrici o deployer di sistemi di IA. È a tal fine opportuno che gli Stati membri sviluppino iniziative destinate a tali operatori, anche in materia di sensibilizzazione e comunicazione delle informazioni. Gli Stati membri dovrebbero fornire alle PMI, comprese le start-up, con sede legale o una filiale nell'Unione, un accesso prioritario agli spazi di sperimentazione normativa per l'IA, purché soddisfino le condizioni di ammissibilità e i criteri di selezione e senza precludere ad altri fornitori e potenziali fornitori l'accesso agli spazi di sperimentazione, a condizione che siano soddisfatti gli stessi criteri e le stesse condizioni. Gli Stati membri dovrebbero utilizzare i canali esistenti e, ove opportuno, istituiscono nuovi canali dedicati per la comunicazione con le PMI, comprese le start-up, i deployer, altri innovatori e, se del caso, le autorità pubbliche locali, al fine di sostenere le PMI nel loro percorso di sviluppo fornendo orientamenti e rispondendo alle domande sull'attuazione del presente regolamento. Se del caso, tali canali dovrebbero collaborare per creare sinergie e garantire l'omogeneità dei loro orientamenti per le PMI, comprese le start-up, e i deployer. Inoltre, gli Stati membri dovrebbero agevolare la partecipazione delle PMI e di altri portatori di interessi pertinenti ai processi di sviluppo della normazione. Gli organismi notificati, nel fissare le tariffe per la valutazione della conformità, dovrebbero tenere in considerazione gli interessi e le esigenze specifici dei fornitori che sono PMI, comprese le start-up. La Commissione dovrebbe valutare periodicamente i costi di certificazione e di conformità per le PMI, comprese le start-up, attraverso consultazioni trasparenti e dovrebbe collaborare con gli Stati membri per ridurre tali costi. Ad esempio, le spese di traduzione connesse alla documentazione obbligatoria e alla comunicazione con le autorità possono rappresentare un costo significativo per i fornitori e gli altri operatori, in particolare quelli di dimensioni ridotte. Gli Stati membri dovrebbero garantire, se possibile, che una delle lingue da essi indicate e accettate per la documentazione dei fornitori pertinenti e per la comunicazione con gli operatori sia una lingua ampiamente compresa dal maggior numero possibile di deployer transfrontalieri. Al fine di rispondere alle esigenze specifiche delle PMI, comprese le start-up, la Commissione dovrebbe fornire modelli standardizzati per i settori disciplinati dal presente regolamento, su richiesta del consiglio per l'IA. Inoltre, la Commissione dovrebbe integrare gli sforzi degli Stati membri fornendo a tutti i fornitori e i deployer una piattaforma unica di informazioni di facile utilizzo in relazione al presente regolamento, organizzando adeguate campagne di comunicazione per sensibilizzare in merito agli obblighi derivanti dal presente regolamento e valutando e promuovendo la convergenza delle migliori pratiche nelle procedure di appalto pubblico in relazione ai sistemi di IA. Le imprese che di recente sono passate dalla categoria delle piccole imprese a quella delle medie imprese ai sensi dell'allegato della raccomandazione 2003/361/CE (44) della Commissione dovrebbero avere accesso a tali misure di sostegno, in quanto queste nuove imprese di medie dimensioni possono talvolta non disporre delle risorse giuridiche e della formazione necessarie per garantire una corretta comprensione del presente regolamento e la conformità ad esso.
(144)
Sabiex tiġi promossa u protetta l-innovazzjoni, jenħtieġ li l-pjattaforma tal-IA fuq talba, il-programmi u l-proġetti ta' finanzjament rilevanti kollha tal-Unjoni, bħall-Programm Ewropa Diġitali, Orizzont Ewropa, implimentati mill-Kummissjoni u mill-Istati Membri fil-livell tal-Unjoni jew nazzjonali, jikkontribwixxu, kif xieraq, għall-kisba tal-objettivi ta' dan ir-Regolament.
(144)
Al fine di promuovere e proteggere l'innovazione, la piattaforma di IA on demand e tutti i pertinenti programmi e progetti di finanziamento dell'Unione, quali il programma Europa digitale e Orizzonte Europa, attuati dalla Commissione e dagli Stati membri a livello dell'Unione o nazionale, a seconda dei casi, dovrebbero contribuire al conseguimento degli obiettivi del presente regolamento.
(145)
Sabiex jiġu minimizzati r-riskji għall-implimentazzjoni li jirriżultaw minn nuqqas ta' għarfien u kompetenza esperta fis-suq kif ukoll biex tiġi ffaċilitata l-konformità tal-fornituri, b'mod partikolari l-SMEs, inkluż in-negozji ġodda, u l-korpi notifikati mal-obbligi tagħhom skont dan ir-Regolament, jenħtieġ li l-pjattaforma tal-IA fuq talba, iċ-Ċentri Ewropej tal-Innovazzjoni Diġitali u l-Faċilitajiet tal-ittestjar u tal-esperimentazzjoni stabbiliti mill-Kummissjoni u mill-Istati Membri fil-livell tal-Unjoni jew nazzjonali jikkontribwixxu għall-implimentazzjoni ta' dan ir-Regolament. Fil-missjonijiet u l-oqsma ta' kompetenza rispettivi tagħhom, il-pjattaforma tal-IA fuq talba, iċ-Ċentri Ewropej tal-Innovazzjoni Diġitali u l-Faċilitajiet tal-ittestjar u tal-esperimentazzjoni jistgħu jipprovdu b'mod partikolari appoġġ tekniku u xjentifiku lill-fornituri u lill-korpi notifikati.
(145)
Al fine di ridurre al minimo i rischi per l'attuazione derivanti dalla mancanza di conoscenze e competenze sul mercato, nonché per agevolare il rispetto, da parte dei fornitori, in particolare le PMI, comprese le start-up, e degli organismi notificati, degli obblighi loro imposti dal presente regolamento, è opportuno che la piattaforma di IA on demand, i poli europei dell'innovazione digitale e gli impianti di prova e sperimentazione istituiti dalla Commissione e dagli Stati membri a livello dell'Unione o nazionale contribuiscano all'attuazione del presente regolamento. Nell'ambito delle rispettive missioni e dei rispettivi settori di competenza, la piattaforma di IA on demand, i poli europei dell'innovazione digitale e gli impianti di prova e sperimentazione sono in grado di fornire, in particolare, sostegno tecnico e scientifico ai fornitori e agli organismi notificati.
(146)
Barra minn hekk, fid-dawl tad-daqs żgħir ħafna ta' xi operaturi u sabiex tiġi żgurata l-proporzjonalità fir-rigward tal-kostijiet tal-innovazzjoni, jixraq li l-mikrointrapriżi jitħallew jissodisfaw wieħed mill-aktar obbligi għaljin, jiġifieri l-istabbiliment ta' sistema ta' ġestjoni tal-kwalità, b'mod simplifikat li tnaqqas il-piż amministrattiv u l-kostijiet għal dawk l-intrapriżi mingħajr ma jiġi affettwat il-livell ta' protezzjoni u l-ħtieġa ta' konformità mar-rekwiżiti għas-sistemi tal-IA b'riskju għoli. Jenħtieġ li l-Kummissjoni tiżviluppa linji gwida biex tispeċifika l-elementi tas-sistema ta' ġestjoni tal-kwalità li għandhom jiġu ssodisfati b'dan il-mod simplifikat mill-mikrointrapriżi.
(146)
Inoltre, alla luce delle dimensioni molto ridotte di alcuni operatori e al fine di garantire la proporzionalità rispetto ai costi dell'innovazione, è opportuno consentire alle microimprese di adempiere a uno degli obblighi più dispendiosi, vale a dire l'istituzione di un sistema di gestione della qualità, in un modo semplificato che ridurrebbe gli oneri amministrativi e i costi a carico di tali imprese senza incidere sul livello di protezione e sulla necessità di rispettare i requisiti per i sistemi di IA ad alto rischio. La Commissione dovrebbe elaborare orientamenti per specificare gli elementi del sistema di gestione della qualità che le microimprese devono soddisfare in tale modo semplificato.
(147)
Jixraq li l-Kummissjoni tiffaċilita, sa fejn ikun possibbli, l-aċċess għall-faċilitajiet tal-ittestjar u tal-esperimentazzjoni għall-korpi, il-gruppi jew il-laboratorji stabbiliti jew akkreditati skont kwalunkwe leġiżlazzjoni rilevanti tal-Unjoni dwar l-armonizzazzjoni u li jissodisfaw kompiti fil-kuntest ta' valutazzjoni tal-konformità ta' prodotti jew ta' apparati koperti minn dik il-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni. Dan hu partikolarment il-każ fir-rigward tal-gruppi ta' esperti, il-laboratorji esperti u l-laboratorji ta' referenza fil-qasam tal-apparati mediċi skont ir-Regolamenti (UE) 2017/745 u (UE) 2017/746.
(147)
È opportuno che la Commissione agevoli, nella misura del possibile, l'accesso agli impianti di prova e sperimentazione di organismi, gruppi o laboratori istituiti o accreditati a norma di qualsiasi pertinente normativa di armonizzazione dell'Unione che assolvono compiti nel contesto della valutazione della conformità di prodotti o dispositivi contemplati da tale normativa di armonizzazione dell'Unione. Ciò vale in particolare per quanto riguarda i gruppi di esperti, i laboratori specializzati e i laboratori di riferimento nel settore dei dispositivi medici a norma dei regolamenti (UE) 2017/745 e (UE) 2017/746.
(148)
Jenħtieġ li dan ir-Regolament jistabbilixxi qafas ta' governanza li jippermetti kemm il-koordinazzjoni u l-appoġġ tal-applikazzjoni ta' dan ir-Regolament fil-livell nazzjonali, kif ukoll it-tisħiħ tal-kapaċitajiet fil-livell tal-Unjoni u l-integrazzjoni tal-partijiet ikkonċernati fil-qasam tal-IA. L-implimentazzjoni u l-infurzar effettivi ta' dan ir-Regolament jirrikjedu qafas ta' governanza li jippermetti l-koordinazzjoni u l-bini ta' kompetenza esperta ċentrali fil-livell tal-Unjoni. L-Uffiċċju għall-IA ġie stabbilit b'Deċiżjoni tal-Kummissjoni (45) u għandu bħala l-missjoni tiegħu li jiżviluppa l-għarfien espert u l-kapaċitajiet tal-Unjoni fil-qasam tal-IA u li jikkontribwixxi għall-implimentazzjoni tal-liġi tal-Unjoni dwar l-IA. Jenħtieġ li l-Istati Membri jiffaċilitaw il-kompiti tal-Uffiċċju għall-IA bil-ħsieb li jiġi appoġġat l-iżvilupp tal-kompetenza esperta u l-kapaċitajiet tal-Unjoni fil-livell tal-Unjoni u li jissaħħaħ il-funzjonament tas-suq uniku diġitali. Barra minn hekk, jenħtieġ li jiġi stabbilit Bord magħmul minn rappreżentanti tal-Istati Membri, bord għall-integrazzjoni tal-komunità xjentifika u forum konsultattiv biex jikkontribwixxi l-kontribut tal-partijiet ikkonċernati għall-implimentazzjoni ta' dan ir-Regolament, fil-livell tal-Unjoni u dak nazzjonali. Jenħtieġ li l-iżvilupp tal-kompetenza esperta u tal-kapaċitajiet tal-Unjoni jinkludi wkoll l-użu tar-riżorsi u l-kompetenza esperta eżistenti, b'mod partikolari permezz ta' sinerġiji ma' strutturi mibnija fil-kuntest tal-infurzar fil-livell tal-Unjoni ta' liġijiet u sinerġiji oħra ma' inizjattivi relatati fil-livell tal-Unjoni, bħall-Impriża Konġunta EuroHPC u l-faċilitajiet tal-ittestjar u tal-esperimentazzjoni tal-IA taħt il-Programm Ewropa Diġitali.
(148)
Il presente regolamento dovrebbe istituire un quadro di governance che consenta di coordinare e sostenere l'applicazione dello stesso a livello nazionale, nonché di sviluppare capacità a livello dell'Unione e integrare i portatori di interessi nel settore dell'IA. L'attuazione e l'esecuzione efficaci del presente regolamento richiedono un quadro di governance che consenta di coordinare e sviluppare competenze centrali a livello dell'Unione. L'ufficio per l'IA è stato istituito con decisione della Commissione (45) e ha la missione di sviluppare competenze e capacità dell'Unione nel settore dell'IA e di contribuire all'attuazione del diritto dell'Unione in materia di IA. Gli Stati membri dovrebbero facilitare i compiti dell'ufficio per l'IA al fine di sostenere lo sviluppo di competenze e capacità dell'Unione a livello dell'Unione e di rafforzare il funzionamento del mercato unico digitale. È inoltre opportuno istituire un consiglio per l'IA composto da rappresentanti degli Stati membri, un gruppo di esperti scientifici volto a integrare la comunità scientifica e un forum consultivo per raccogliere il contributo dei portatori di interessi all'attuazione del presente regolamento, a livello dell'Unione e nazionale. Lo sviluppo delle competenze e delle capacità dell'Unione dovrebbe includere anche l'utilizzo delle risorse e delle competenze esistenti, in particolare grazie a sinergie con le strutture create nel contesto dell'esecuzione a livello dell'Unione di altre disposizioni e a sinergie con le iniziative correlate a livello dell'Unione, quali l'impresa comune EuroHPC e gli impianti di prova e sperimentazione dell'IA nell'ambito del programma Europa digitale.
(149)
Sabiex tiġi ffaċilitata implimentazzjoni bla xkiel, effettiva u armonizzata ta' dan ir-Regolament, jenħtieġ jiġi stabbilit Bord. Jenħtieġ li l-Bord jirrifletti d-diversi interessi tal-ekosistema tal-IA u jkun magħmul minn rappreżentanti tal-Istati Membri. Jenħtieġ li l-Bord ikun responsabbli għal għadd ta' kompiti konsultattivi, inkluż l-għoti ta' opinjonijiet, rakkomandazzjonijiet, pariri jew kontribut għall-gwida dwar kwistjonijiet relatati mal-implimentazzjoni ta' dan ir-Regolament, inkluż dwar kwistjonijiet ta' infurzar, speċifikazzjonijiet tekniċi jew standards eżistenti rigward ir-rekwiżiti stipulati f'dan ir-Regolament u l-għoti ta' pariri lill-Kummissjoni u lill-Istati Membri u l-awtoritajiet nazzjonali kompetenti tagħhom dwar kwistjonijiet speċifiċi relatati mal-IA. Sabiex tingħata xi flessibbiltà lill-Istati Membri fid-deżinjazzjoni tar-rappreżentanti tagħhom fil-Bord, tali rappreżentanti jistgħu jkunu kwalunkwe persuna li tappartjeni għal entitajiet pubbliċi li jenħtieġ li jkollha l-kompetenzi u s-setgħat rilevanti biex tiffaċilita l-koordinazzjoni fil-livell nazzjonali u tikkontribwixxi għall-kisba tal-kompiti tal-Bord. Jenħtieġ li l-Bord jistabbilixxi żewġ sottogruppi permanenti biex tiġi pprovduta pjattaforma għall-kooperazzjoni u l-iskambju fost l-awtoritajiet tas-sorveljanza tas-suq u l-awtoritajiet tan-notifika dwar kwistjonijiet relatati rispettivament mas-sorveljanza tas-suq u l-korpi notifikati. Jenħtieġ li s-sottogrupp permanenti għas-sorveljanza tas-suq jaġixxi bħala l-grupp ta' kooperazzjoni amministrattiva (ADCO) għal dan ir-Regolament skont it-tifsira tal-Artikolu 30 tar-Regolament (UE) 2019/1020. F'konformità mal-Artikolu 33 ta' dak ir-Regolament, jenħtieġ li l-Kummissjoni tappoġġa l-attivitajiet tas-sottogrupp permanenti għas-sorveljanza tas-suq billi twettaq evalwazzjonijiet jew studji tas-suq, partikolarment bil-ħsieb li tidentifika aspetti ta' dan ir-Regolament li jirrikjedu koordinazzjoni speċifika u urġenti fost l-awtoritajiet tas-sorveljanza tas-suq. Il-Bord jista' jistabbilixxi sottogruppi permanenti jew temporanji oħra kif xieraq għall-fini tal-eżaminazzjoni ta' kwistjonijiet speċifiċi. Jenħtieġ li l-Bord jikkoopera wkoll, kif xieraq, mal-korpi, il-gruppi ta' esperti u n-networks rilevanti tal-Unjoni attivi fil-kuntest tal-liġijiet rilevanti tal-Unjoni, inkluż b'mod partikolari dawk attivi skont il-liġijiet rilevanti tal-Unjoni dwar id-data, il-prodotti u s-servizzi diġitali.
(149)
Al fine di facilitare un'attuazione agevole, efficace e armonizzata del presente regolamento, è opportuno istituire un consiglio per l'IA. Il consiglio per l'IA dovrebbe riflettere i vari interessi dell'ecosistema dell'IA ed essere composto da rappresentanti degli Stati membri. Il consiglio per l'IA dovrebbe essere responsabile di una serie di compiti consultivi, tra cui l'emanazione di pareri, raccomandazioni, consulenze o il contributo all'emanazione di orientamenti su questioni relative all'attuazione del presente regolamento, comprese le questioni relative all'esecuzione, le specifiche tecniche o le norme esistenti per quanto riguarda i requisiti stabiliti nel presente regolamento, e la fornitura di consulenza alla Commissione, agli Stati membri e alle rispettive autorità nazionali competenti su questioni specifiche connesse all'IA. Al fine di offrire una certa flessibilità agli Stati membri nella designazione dei loro rappresentanti all'interno del consiglio per l'IA, tali rappresentanti possono essere persone appartenenti a entità pubbliche dotate delle competenze e dei poteri pertinenti per facilitare il coordinamento a livello nazionale e contribuire all'adempimento dei compiti del consiglio per l'IA. Il consiglio per l'IA dovrebbe istituire due sottogruppi permanenti al fine di fornire una piattaforma di cooperazione e scambio tra le autorità di vigilanza del mercato e le autorità di notifica su questioni relative, rispettivamente, alla vigilanza del mercato e agli organismi notificati. Il sottogruppo permanente per la vigilanza del mercato dovrebbe fungere da gruppo di cooperazione amministrativa (ADCO) per il presente regolamento ai sensi dell'articolo 30 del regolamento (UE) 2019/1020. In conformità dell'articolo 33 di tale regolamento, la Commissione dovrebbe sostenere le attività del sottogruppo permanente per la vigilanza del mercato effettuando valutazioni o studi di mercato, in particolare al fine di individuare gli aspetti del presente regolamento che richiedono un coordinamento specifico e urgente tra le autorità di vigilanza del mercato. Il consiglio per l'IA può istituire altri sottogruppi permanenti o temporanei, se del caso, ai fini dell'esame di questioni specifiche. Il consiglio per l'IA dovrebbe inoltre cooperare, se del caso, con i pertinenti organismi, gruppi di esperti e reti dell'Unione attivi nel contesto del pertinente diritto dell'Unione, compresi in particolare quelli attivi a norma del pertinente diritto dell'Unione sui dati, i prodotti e i servizi digitali.
(150)
Bil-ħsieb li jiġi żgurat l-involviment tal-partijiet ikkonċernati fl-implimentazzjoni u l-applikazzjoni ta' dan ir-Regolament, jenħtieġ li jiġi stabbilit forum konsultattiv biex jagħti pariri u jipprovdi kompetenza esperta teknika lill-Bord u lill-Kummissjoni. Sabiex tiġi żgurata rappreżentanza varjata u bbilanċjata tal-partijiet ikkonċernati bejn l-interess kummerċjali u dak mhux kummerċjali u, fil-kategorija tal-interessi kummerċjali, fir-rigward tal-SMEs u impriżi oħra, jenħtieġ li l-forum konsultattiv jinkludi, fost l-oħrajn, l-industrija, in-negozji ġodda, l-SMEs, id-dinja akkademika, is-soċjetà ċivili, inkluż is-sħab soċjali, kif ukoll l-Aġenzija għad-Drittijiet Fundamentali, l-ENISA, il-Kumitat Ewropew għall-Istandardizzazzjoni (CEN), il-Kumitat Ewropew għall-Istandardizzazzjoni Elettroteknika (CENELEC) u l-Istitut Ewropew tal-Istandards tat-Telekomunikazzjoni (ETSI).
(150)
Al fine di garantire il coinvolgimento dei portatori di interessi nell'attuazione e nell'applicazione del presente regolamento, è opportuno istituire un forum consultivo per fornire consulenza e competenze tecniche al consiglio per l'IA e alla Commissione. Al fine di garantire una rappresentanza diversificata ed equilibrata dei portatori di interessi che tenga conto di interessi commerciali e non commerciali e, all'interno della categoria degli interessi commerciali, con riferimento alle PMI e alle altre imprese, il forum consultivo dovrebbe comprendere, tra l'altro, l'industria, le start-up, le PMI, il mondo accademico, la società civile, comprese le parti sociali, nonché l'Agenzia per i diritti fondamentali, l'ENISA, il Comitato europeo di normazione (CEN), il Comitato europeo di normazione elettrotecnica (CENELEC) e l'Istituto europeo delle norme di telecomunicazione (ETSI).
(151)
Jenħtieġ li jiġi stabbilit bord ta' esperti indipendenti biex jiġu appoġġati l-implimentazzjoni u l-infurzar ta' dan ir-Regolament, b'mod partikolari l-attivitajiet ta' monitoraġġ tal-Uffiċċju għall-IA fir-rigward tal-mudelli tal-IA bi skop ġenerali. Jenħtieġ li l-esperti indipendenti li jikkostitwixxu l-bord jintgħażlu abbażi ta' kompetenza esperta xjentifika jew teknika aġġornata fil-qasam tal-IA u għandhom iwettqu l-kompiti tagħhom b'imparzjalità u oġġettività u jiżguraw il-kunfidenzjalità tal-informazzjoni u tad-data miksuba fit-twettiq tal-kompiti u l-attivitajiet tagħhom. Sabiex ikun possibli t-tisħiħ tal-kapaċitajiet nazzjonali meħtieġa għall-infurzar effettiv ta' dan ir-Regolament, jenħtieġ li l-Istati Membri jkunu jistgħu jitolbu appoġġ mill-grupp ta' esperti li jikkostitwixxu l-bord għall-attivitajiet ta' infurzar tagħhom.
(151)
Al fine di sostenere l'attuazione e l'esecuzione del presente regolamento, in particolare le attività di monitoraggio dell'ufficio per l'IA per quanto riguarda i modelli di IA per finalità generali, è opportuno istituire un gruppo di esperti scientifici indipendenti. Gli esperti indipendenti che costituiscono il gruppo dovrebbero essere selezionati sulla base di competenze scientifiche o tecniche aggiornate nel settore dell'IA e dovrebbero svolgere i loro compiti con imparzialità e obiettività e garantire la riservatezza delle informazioni e dei dati ottenuti nello svolgimento dei loro compiti e delle loro attività. Per consentire il potenziamento delle capacità nazionali necessarie per l'efficace esecuzione del presente regolamento, gli Stati membri dovrebbero essere in grado di chiedere il sostegno della riserva di esperti che costituisce il gruppo di esperti scientifici per le loro attività di esecuzione.
(152)
Jenħtieġ li jiġu stabbiliti u mqiegħda għad-dispożizzjoni tal-Istati Membri, strutturi ta' appoġġ tal-Unjoni għall-ittestjar tal-IA sabiex jiġi appoġġat l-infurzar adegwat fir-rigward tas-sistemi tal-IA u jissaħħu l-kapaċitajiet tal-Istati Membri.
(152)
Al fine di sostenere un'esecuzione adeguata per quanto riguarda i sistemi di IA e rafforzare le capacità degli Stati membri, è opportuno istituire e mettere a disposizione degli Stati membri strutture di sostegno dell'Unione per la prova dell'IA.
(153)
L-Istati Membri jaqdu rwol ewlieni fl-applikazzjoni u fl-infurzar ta' dan ir-Regolament. F'dak ir-rigward, jenħtieġ li kull Stat Membru jiddeżinja minn tal-inqas awtorità tan-notifika waħda u minn tal-inqas awtorità tas-sorveljanza tas-suq waħda bħala awtoritajiet kompetenti nazzjonali bil-għan li jiġu ssorveljati l-applikazzjoni u l-implimentazzjoni ta' dan ir-Regolament. L-Istati Membri jistgħu jiddeċiedu li jaħtru kwalunkwe tip ta' entità pubblika biex twettaq il-kompiti tal-awtoritajiet kompetenti nazzjonali skont it-tifsira ta' dan ir-Regolament, f'konformità mal-karatteristiċi u l-ħtiġijiet organizzattivi nazzjonali speċifiċi tagħhom. Sabiex tiżdied l-effiċjenza tal-organizzazzjoni fuq in-naħa tal-Istati Membri u biex jiġi stabbilit punt uniku ta' kuntatt għall-pubbliku u għal kontropartijiet oħra fil-livell tal-Istati Membri u f'dak tal-Unjoni, jenħtieġ li kull Stat Membru jiddeżinja awtorità tas-sorveljanza tas-suq biex taġixxi bħala punt uniku ta' kuntatt.
(153)
Gli Stati membri svolgono un ruolo chiave nell'applicare ed eseguire il presente regolamento. A tale riguardo, è opportuno che ciascuno Stato membro designi almeno una autorità di notifica e almeno una autorità di vigilanza del mercato come autorità nazionali competenti al fine di controllare l'applicazione e l'attuazione del presente regolamento. Gli Stati membri possono decidere di nominare qualsiasi tipo di entità pubblica per svolgere i compiti delle autorità nazionali competenti ai sensi del presente regolamento, conformemente alle loro specifiche caratteristiche ed esigenze organizzative nazionali. Al fine di incrementare l'efficienza organizzativa da parte degli Stati membri e di istituire un punto di contatto unico nei confronti del pubblico e di altre controparti sia a livello di Stati membri sia a livello di Unione, è opportuno che ciascuno Stato membro designi un'autorità di vigilanza del mercato come punto di contatto unico.
(154)
Jenħtieġ li l-awtoritajiet kompetenti nazzjonali jeżerċitaw is-setgħat tagħhom b'mod indipendenti, imparzjali u mingħajr preġudizzju sabiex jissalvagwardaw il-prinċipji tal-oġġettività tal-attivitajiet u l-kompiti tagħhom u biex jiżguraw l-applikazzjoni u l-implimentazzjoni ta' dan ir-Regolament. Jenħtieġ li l-membri ta' dawn l-awtoritajiet joqogħdu lura minn kwalunkwe azzjoni inkompatibbli mad-dmirijiet tagħhom u jenħtieġ li jkunu soġġetti għal regoli ta' kunfidenzjalità skont dan ir-Regolament.
(154)
Le autorità nazionali competenti dovrebbero esercitare i loro poteri in modo indipendente, imparziale e senza pregiudizi, in modo da salvaguardare i principi di obiettività delle loro attività e dei loro compiti e garantire l'applicazione e l'attuazione del presente regolamento. I membri di tali autorità dovrebbero astenersi da qualsiasi atto incompatibile con le loro funzioni e dovrebbero essere soggetti alle norme in materia di riservatezza ai sensi del presente regolamento.
(155)
Sabiex ikun żgurat li l-fornituri tas-sistemi tal-IA b'riskju għoli jkunu jistgħu jqisu l-esperjenza bl-użu tas-sistemi tal-IA b'riskju għoli għat-titjib tas-sistemi tagħhom u tal-proċess tad-disinn u l-iżvilupp, jew ikunu jistgħu jieħdu xi azzjoni korrettiva possibbli fil-ħin, jenħtieġ li l-fornituri kollha jkollhom fis-seħħ sistema ta' sorveljanza ta' wara t-tqegħid fis-suq. Meta jkun rilevanti, jenħtieġ li s-sorveljanza ta' wara t-tqegħid fis-suq tinkludi analiżi tal-interazzjoni ma' sistemi oħra tal-IA inkluż apparati u software ieħor. Jenħtieġ li s-sorveljanza ta' wara t-tqegħid fis-suq ma tkoprix data operazzjonali sensittiva ta' implimentaturi li huma awtoritajiet tal-infurzar tal-liġi. Din is-sistema hi kruċjali wkoll biex ikun żgurat li r-riskji possibbli li jirriżultaw mis-sistemi tal-IA li jkomplu “jitgħallmu” wara li jiġu introdotti fis-suq jew jitqiegħdu fis-servizz ikunu jistgħu jiġu indirizzati b'mod aktar effiċjenti u fil-ħin. F'dan il-kuntest, jenħtieġ li l-fornituri jkunu wkoll meħtieġa jkollhom fis-seħħ sistema biex jirrapportaw lura lill-awtoritajiet rilevanti kwalunkwe inċident serju li jirriżulta mill-użu tas-sistemi tal-IA tagħhom, jiġifieri inċident jew funzjonament ħażin li jwassal għal mewt jew ħsara serja għas-saħħa, tfixkil serju u irriversibbli tal-ġestjoni u tal-operat ta' infrastruttura kritika, ksur tal-obbligi skont liġijiet tal-Unjoni maħsuba biex jipproteġu d-drittijiet fundamentali jew dannu serju lill-proprjetà jew lill-ambjent.
(155)
Al fine di garantire che i fornitori di sistemi di IA ad alto rischio possano tenere in considerazione l'esperienza sull'uso di sistemi di IA ad alto rischio per migliorare i loro sistemi e il processo di progettazione e sviluppo o possano adottare tempestivamente eventuali misure correttive, è opportuno che tutti i fornitori dispongano di un sistema di monitoraggio successivo all'immissione sul mercato. Se del caso, il monitoraggio successivo all'immissione sul mercato dovrebbe includere un'analisi dell'interazione con altri sistemi di IA, compresi altri dispositivi e software. Il monitoraggio successivo all'immissione sul mercato non dovrebbe riguardare i dati operativi sensibili dei deployer che sono autorità di contrasto. Tale sistema è altresì fondamentale per garantire che i possibili rischi derivanti dai sistemi di IA che proseguono il loro «apprendimento» dopo essere stati immessi sul mercato o messi in servizio possano essere affrontati in modo più efficiente e tempestivo. I fornitori dovrebbero anche essere tenuti, in tale contesto, a predisporre un sistema per segnalare alle autorità competenti eventuali incidenti gravi derivanti dall'uso dei loro sistemi di IA, vale a dire incidenti o malfunzionamenti che comportano il decesso o gravi danni alla salute, perturbazioni gravi e irreversibili della gestione o del funzionamento delle infrastrutture critiche, violazioni degli obblighi ai sensi del diritto dell'Unione intesi a proteggere i diritti fondamentali o gravi danni alle cose o all'ambiente.
(156)
Sabiex ikun żgurat infurzar xieraq u effettiv tar-rekwiżiti u l-obbligi stipulati b'dan ir-Regolament, li huwa leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni, jenħtieġ li s-sistema tas-sorveljanza tas-suq u tal-konformità tal-prodotti stabbilita bir-Regolament (UE) 2019/1020 tapplika fl-intier tagħha. Jenħtieġ li l-awtoritajiet tas-sorveljanza tas-suq deżinjati skont dan ir-Regolament ikollhom is-setgħat kollha ta' infurzar stabbiliti f'dan ir-Regolament u fir-Regolament (UE) 2019/1020 u jenħtieġ li jeżerċitaw is-setgħat tagħhom u jwettqu dmirijiethom b'mod indipendenti, imparzjali u mingħajr preġudizzju. Minkejja li l-maġġoranza tas-sistemi tal-IA mhumiex soġġetti għal rekwiżiti u obbligi speċifiċi skont dan ir-Regolament, l-awtoritajiet tas-sorveljanza tas-suq jistgħu jieħdu miżuri fir-rigward tas-sistemi kollha tal-IA meta jippreżentaw riskju f'konformità ma' dan ir-Regolament. Minħabba n-natura speċifika tal-istituzzjonijiet, l-aġenziji u l-korpi tal-Unjoni li jaqgħu fil-kamp ta' applikazzjoni ta' dan ir-Regolament, huwa xieraq li l-Kontrollur Ewropew għall-Protezzjoni tad-Data jiġi deżinjat bħala awtorità kompetenti tas-sorveljanza tas-suq għalihom. Jenħtieġ li dan ikun mingħajr preġudizzju għad-deżinjazzjoni tal-awtoritajiet nazzjonali kompetenti mill-Istati Membri. Jenħtieġ li l-attivitajiet ta' sorveljanza tas-suq ma jaffettwawx il-kapaċità tal-entitajiet taħt superviżjoni li jwettqu l-kompiti tagħhom b'mod indipendenti, meta tali indipendenza tkun meħtieġa mil-liġi tal-Unjoni.
(156)
Al fine di garantire un'esecuzione adeguata ed efficace dei requisiti e degli obblighi stabiliti dal presente regolamento, che costituisce la normativa di armonizzazione dell'Unione, è opportuno che si applichi nella sua interezza il sistema di vigilanza del mercato e di conformità dei prodotti istituito dal regolamento (UE) 2019/1020. Le autorità di vigilanza del mercato designate a norma del presente regolamento dovrebbero disporre di tutti i poteri di esecuzione di cui al presente regolamento e al regolamento (UE) 2019/1020 e dovrebbero esercitare i loro poteri e svolgere le loro funzioni in modo indipendente, imparziale e senza pregiudizi. Sebbene la maggior parte dei sistemi di IA non sia soggetta a requisiti e obblighi specifici a norma del presente regolamento, le autorità di vigilanza del mercato possono adottare misure in relazione a tutti i sistemi di IA che presentino un rischio conformemente al presente regolamento. Data la natura specifica delle istituzioni, degli organi e degli organismi dell'Unione che rientrano nell'ambito di applicazione del presente regolamento, è opportuno designare il Garante europeo della protezione dei dati quale autorità di vigilanza del mercato per essi competente. Ciò non dovrebbe pregiudicare la designazione di autorità nazionali competenti da parte degli Stati membri. Le attività di vigilanza del mercato non dovrebbero pregiudicare la capacità delle entità sottoposte a vigilanza di svolgere i loro compiti in modo indipendente, qualora tale indipendenza sia richiesta dal diritto dell'Unione.
(157)
Dan ir-Regolament huwa mingħajr preġudizzju għall-kompetenzi, il-kompiti, is-setgħat u l-indipendenza tal-awtoritajiet jew il-korpi pubbliċi nazzjonali rilevanti li jissorveljaw l-applikazzjoni tal-liġi tal-Unjoni li tipproteġi d-drittijiet fundamentali, inkluż il-korpi tal-ugwaljanza u l-awtoritajiet tal-protezzjoni tad-data. Fejn meħtieġ għall-mandat tagħhom, jenħtieġ li dawk l-awtoritajiet jew il-korpi pubbliċi jkollhom aċċess ukoll għal kwalunkwe dokumentazzjoni maħluqa skont dan ir-Regolament. Jenħtieġ li tiġi stabbilita proċedura ta' salvagwardja speċifika biex jiġi żgurat infurzar adegwat u f'waqtu kontra s-sistemi tal-IA li jippreżentaw riskju għas-saħħa, is-sikurezza u d-drittijiet fundamentali. Jenħtieġ li l-proċedura għal tali sistemi tal-IA li jippreżentaw riskju tiġi applikata għas-sistemi tal-IA b'riskju għoli li jippreżentaw riskju, għas-sistemi pprojbiti li ġew introdotti fis-suq, tqiegħdu fis-servizz jew ntużaw bi ksur tal-prattiki pprojbiti stabbiliti f'dan ir-Regolament u għas-sistemi tal-IA li saru disponibbli bi ksur tar-rekwiżiti ta' trasparenza stabbiliti f'dan ir-Regolament u li jippreżentaw riskju.
(157)
Il presente regolamento non pregiudica le competenze, i compiti, i poteri e l'indipendenza delle autorità o degli organismi pubblici nazionali competenti che controllano l'applicazione del diritto dell'Unione che tutela i diritti fondamentali, compresi gli organismi per la parità e le autorità per la protezione dei dati. Ove necessario per il loro mandato, è opportuno che tali autorità od organismi pubblici nazionali abbiano altresì accesso alla documentazione creata a norma del presente regolamento. È opportuno istituire una procedura di salvaguardia specifica per garantire un'esecuzione adeguata e tempestiva rispetto ai sistemi di IA che presentano un rischio per la salute, la sicurezza e i diritti fondamentali. La procedura per siffatti sistemi di IA che presentano un rischio dovrebbe essere applicata ai sistemi di IA ad alto rischio che presentano un rischio, ai sistemi vietati che sono stati immessi sul mercato, messi in servizio o utilizzati in violazione dei divieti riguardanti le pratiche di cui al presente regolamento e ai sistemi di IA che sono stati messi a disposizione in violazione dei requisiti di trasparenza di cui al presente regolamento e che presentano un rischio.
(158)
Il-liġi tal-Unjoni dwar is-servizzi finanzjarji tinkludi regoli u rekwiżiti interni dwar il-governanza u l-ġestjoni tar-riskju li huma applikabbli għall-istituzzjonijiet finanzjarji regolati waqt il-forniment ta' dawk is-servizzi, inkluż meta jużaw is-sistemi tal-IA. Sabiex ikunu żgurati applikazzjoni u infurzar koerenti tal-obbligi skont dan ir-Regolament u tar-regoli u r-rekwiżiti rilevanti tal-atti legali tal-Unjoni dwar is-servizzi finanzjarji, jenħtieġ li l-awtoritajiet kompetenti għas-superviżjoni u l-infurzar ta' dawk l-atti legali, b'mod partikolari l-awtoritajiet kompetenti kif definiti fir-Regolament (UE) Nru 575/2013 tal-Parlament Ewropew u tal-Kunsill (46) u d-Direttivi 2008/48/KE (47), 2009/138/KE (48), 2013/36/UE (49), 2014/17/UE (50) u (UE) 2016/97 (51) tal-Parlament Ewropew u tal-Kunsill, jiġu ddeżinjati, fil-kompetenzi rispettivi tagħhom, bħala awtoritajiet kompetenti għall-fini tas-superviżjoni tal-implimentazzjoni ta' dan ir-Regolament, inkluż għal attivitajiet ta' sorveljanza tas-suq, fir-rigward tas-sistemi tal-IA pprovduti jew użati minn istituzzjonijiet finanzjarji regolati u sorveljati sakemm l-Istati Membri ma jiddeċidux li jiddeżinjaw awtorità oħra biex twettaq dawn il-kompiti ta' sorveljanza tas-suq. Jenħtieġ li dawk l-awtoritajiet kompetenti jkollhom is-setgħat kollha skont dan ir-Regolament u r-Regolament (UE) 2019/1020 biex jinfurzaw ir-rekwiżiti u l-obbligi ta' dan ir-Regolament, inkluż is-setgħat li jwettqu l-attivitajiet ta' sorveljanza tas-suq ex post li jistgħu jiġu integrati, kif xieraq, fil-mekkaniżmi u l-proċeduri superviżorji eżistenti tagħhom skont il-liġi rilevanti tal-Unjoni dwar is-servizzi finanzjarji. Huwa xieraq li jiġi previst li jenħtieġ li, meta jaġixxu bħala awtoritajiet tas-sorveljanza tas-suq skont dan ir-Regolament, l-awtoritajiet nazzjonali responsabbli għas-superviżjoni tal-istituzzjonijiet ta' kreditu regolati skont id-Direttiva 2013/36/UE, li jkunu qed jipparteċipaw fil-Mekkaniżmu Superviżorju Uniku stabbilit bir-Regolament tal-Kunsill (UE) Nru 1024/2013 (52), jirrappurtaw, mingħajr dewmien, lill-Bank Ċentrali Ewropew kwalunkwe informazzjoni identifikata matul l-attivitajiet tagħhom ta' sorveljanza tas-suq li tista' tkun ta' interess potenzjali għall-kompiti superviżorji prudenzjali tal-Bank Ċentrali Ewropew kif speċifikat f'dak ir-Regolament. Biex tkompli tissaħħaħ il-konsistenza bejn dan ir-Regolament u r-regoli applikabbli għall-istituzzjonijiet ta' kreditu rregolati skont id-Direttiva 2013/36/UE, jixraq ukoll li xi wħud mill-obbligi proċedurali tal-fornituri fir-rigward tal-ġestjoni tar-riskju, il-monitoraġġ ta' wara t-tqegħid fis-suq u tad-dokumentazzjoni jiġu integrati fl-obbligi u l-proċeduri eżistenti skont id-Direttiva 2013/36/UE. Sabiex ikun evitat it-trikkib, jenħtieġ li jiġu previsti wkoll derogi limitati fir-rigward tas-sistema ta' ġestjoni tal-kwalità tal-fornituri u l-obbligu ta' monitoraġġ impost fuq l-implimentaturi ta' sistemi tal-IA b'riskju għoli sa fejn dawn ikunu japplikaw għall-istituzzjonijiet ta' kreditu regolati bid-Direttiva 2013/36/UE. Jenħtieġ li l-istess reġim japplika għall-impriżi tal-assigurazzjoni u tar-riassigurazzjoni u l-kumpaniji azzjonarji tal-assigurazzjoni skont id-Direttiva 2009/138/KE u l-intermedjarji tal-assigurazzjoni skont id-Direttiva (UE) 2016/97 u tipi oħra ta' istituzzjonijiet finanzjarji soġġetti għal rekwiżiti rigward il-governanza interna, l-arranġamenti jew il-proċessi stabbiliti skont il-liġi rilevanti tal-Unjoni dwar is-servizzi finanzjarji biex jiġu żgurati l-konsistenza u t-trattament ugwali fis-settur finanzjarju.
(158)
Il diritto dell'Unione in materia di servizi finanziari comprende regole e requisiti in materia di governance interna e di gestione dei rischi che sono applicabili agli istituti finanziari regolamentati durante la fornitura di tali servizi, anche quando si avvalgono di sistemi di IA. Al fine di garantire la coerenza dell'applicazione e dell'esecuzione degli obblighi previsti dal presente regolamento e delle regole e dei requisiti pertinenti degli atti giuridici dell'Unione in materia di servizi finanziari, è opportuno che le autorità competenti del controllo e dell'esecuzione di tali atti giuridici, in particolare le autorità competenti quali definite al regolamento (UE) n, 575/2013 del Parlamento europeo e del Consiglio (46) e alle direttive 2008/48/CE (47), 2009/138/CE (48), 2013/36/UE (49), 2014/17/UE (50) e (UE) 2016/97 (51) del Parlamento europeo e del Consiglio, siano designate, nell'ambito delle rispettive competenze, quali autorità competenti ai fini del controllo dell'attuazione del presente regolamento, anche in relazione alle attività di vigilanza del mercato, per quanto riguarda i sistemi di IA forniti o utilizzati da istituti finanziari regolamentati e sottoposti a vigilanza, a meno che gli Stati membri non decidano di designare un'altra autorità per svolgere tali compiti di vigilanza del mercato. Tali autorità competenti dovrebbero disporre di tutti i poteri a norma del presente regolamento e del regolamento (UE) 2019/1020 per far rispettare i requisiti e gli obblighi del presente regolamento, compresi i poteri per svolgere attività di vigilanza del mercato ex post che possono essere integrate, se del caso, nei rispettivi meccanismi e nelle rispettive procedure di vigilanza esistenti a norma del pertinente diritto dell'Unione in materia di servizi finanziari. È opportuno prevedere che, quando agiscono in qualità di autorità di vigilanza del mercato a norma del presente regolamento, le autorità nazionali responsabili della vigilanza degli enti creditizi disciplinati nel quadro della direttiva 2013/36/UE, che partecipano al meccanismo di vigilanza unico istituito dal regolamento (UE) n, 1024/2013 del Consiglio (52), comunichino senza ritardo alla Banca centrale europea qualsiasi informazione individuata nel corso delle attività di vigilanza del mercato che possa essere di potenziale interesse per i compiti in materia di vigilanza prudenziale della Banca centrale europea specificati in tale regolamento. Per migliorare ulteriormente la coerenza tra il presente regolamento e le regole applicabili agli enti creditizi disciplinati dalla direttiva 2013/36/UE, è altresì opportuno integrare negli obblighi e nelle procedure esistenti a norma di tale direttiva alcuni degli obblighi procedurali dei fornitori in materia di gestione dei rischi, monitoraggio successivo all'immissione sul mercato e documentazione. Al fine di evitare sovrapposizioni, è opportuno prevedere deroghe limitate anche in relazione al sistema di gestione della qualità dei fornitori e all'obbligo di monitoraggio imposto ai deployer dei sistemi di IA ad alto rischio nella misura in cui si applicano agli enti creditizi disciplinati dalla direttiva 2013/36/UE. Lo stesso regime dovrebbe applicarsi alle imprese di assicurazione e di riassicurazione e alle società di partecipazione assicurativa ai sensi della direttiva 2009/138/CE nonché agli intermediari assicurativi ai sensi della direttiva (UE) 2016/97 e ad altri tipi di istituti finanziari soggetti a requisiti in materia di governance, dispositivi o processi interni stabiliti a norma del pertinente diritto dell'Unione in materia di servizi finanziari per garantire coerenza e parità di trattamento nel settore finanziario.
(159)
Jenħtieġ li kull awtorità tas-sorveljanza tas-suq għal sistemi tal-IA b'riskju għoli fil-qasam tal-bijometrika, kif elenkati f'anness ta' dan ir-Regolament sakemm dawk is-sistemi jintużaw għall-finijiet tal-infurzar tal-liġi, il-migrazzjoni, l-ażil u l-ġestjoni tal-kontroll fil-fruntieri, jew tal-amministrazzjoni tal-ġustizzja u tal-proċessi demokratiċi, ikollha setgħat investigattivi u korrettivi effettivi, inkluż mill-inqas is-setgħa li tikseb aċċess għad-data personali kollha li tkun qed tiġi pproċessata u għall-informazzjoni kollha meħtieġa għat-twettiq tal-kompiti tagħha. Jenħtieġ li l-awtoritajiet tas-sorveljanza tas-suq ikunu jistgħu jeżerċitaw is-setgħat tagħhom billi jaġixxu b'indipendenza sħiħa. Jenħtieġ li kwalunkwe limitazzjoni tal-aċċess tagħhom għal data operazzjonali sensittiva skont dan ir-Regolament tkun mingħajr preġudizzju għas-setgħat mogħtija lilhom mid-Direttiva (UE) 2016/680. Jenħtieġ li l-ebda esklużjoni fuq id-divulgazzjoni tad-data lill-awtoritajiet tal-protezzjoni tad-data nazzjonali skont dan ir-Regolament ma taffettwa s-setgħat attwali jew futuri ta' dawk l-awtoritajiet lil hinn mill-kamp ta' applikazzjoni ta' dan ir-Regolament.
(159)
Ciascuna autorità di vigilanza del mercato per i sistemi di IA ad alto rischio nel settore della biometria elencati in un allegato del presente regolamento nella misura in cui tali sistemi siano utilizzati a fini di contrasto, migrazione, asilo e gestione del controllo delle frontiere, o per l'amministrazione della giustizia e dei processi democratici, dovrebbe disporre di poteri di indagine e correttivi efficaci, tra cui almeno il potere di ottenere l'accesso a tutti i dati personali trattati e a tutte le informazioni necessarie per lo svolgimento dei suoi compiti. Le autorità di vigilanza del mercato dovrebbero poter esercitare i loro poteri agendo in piena indipendenza. Qualsiasi limitazione del loro accesso ai dati operativi sensibili a norma del presente regolamento dovrebbe lasciare impregiudicati i poteri loro conferiti dalla direttiva (UE) 2016/680. Nessuna esclusione relativa alla divulgazione dei dati alle autorità nazionali per la protezione dei dati a norma del presente regolamento dovrebbe incidere sui poteri attuali o futuri di tali autorità al di là dell'ambito di applicazione del presente regolamento.
(160)
Jenħtieġ li l-awtoritajiet tas-sorveljanza tas-suq u l-Kummissjoni jkunu jistgħu jipproponu attivitajiet konġunti, inkluż investigazzjonijiet konġunti, li għandhom jitwettqu mill-awtoritajiet tas-sorveljanza tas-suq jew mill-awtoritajiet tas-sorveljanza tas-suq b'mod konġunt mal-Kummissjoni, li jkollhom l-għan li jippromwovu l-konformità, jidentifikaw in-nonkonformità, iqajmu kuxjenza u jipprovdu gwida fir-rigward ta' dan ir-Regolament b'rabta ma' kategoriji speċifiċi ta' sistemi tal-IA b'riskju għoli li jinstabu li jippreżentaw riskju serju f'żewġ Stati Membri jew aktar. Jenħtieġ li l-attivitajiet konġunti għall-promozzjoni tal-konformità jitwettqu f'konformità mal-Artikolu 9 tar-Regolament (UE)2019/1020. Jenħtieġ li l-Uffiċċju għall-IA jipprovdi appoġġ ta' koordinazzjoni għall-investigazzjonijiet konġunti.
(160)
Le autorità di vigilanza del mercato e la Commissione dovrebbero poter proporre attività congiunte, comprese indagini congiunte, che dovrebbero essere condotte dalle autorità di vigilanza del mercato o dalle autorità di vigilanza del mercato di concerto con la Commissione, al fine di promuovere la conformità, individuare casi di non conformità, sensibilizzare e fornire orientamenti in relazione al presente regolamento riguardo a specifiche categorie di sistemi di IA ad alto rischio che si rileva presentino un rischio grave in due o più Stati membri. Le attività congiunte volte a promuovere la conformità dovrebbero essere svolte conformemente all'articolo 9 del regolamento (UE) 2019/1020. L'ufficio per l'IA dovrebbe fornire sostegno di coordinamento per le indagini congiunte.
(161)
Jenħtieġ li jiġu ċċarati r-responsabbiltajiet u l-kompetenzi fil-livell tal-Unjoni u dak nazzjonali fir-rigward tas-sistemi tal-IA li huma mibnija fuq mudelli tal-IA bi skop ġenerali. Biex jiġu evitati kompetenzi duplikati, meta sistema tal-IA tkun ibbażata fuq mudell tal-IA bi skop ġenerali u l-mudell u s-sistema jiġu pprovduti mill-istess fornitur, jenħtieġ li s-superviżjoni ssir fil-livell tal-Unjoni permezz tal-Uffiċċju għall-IA, li għandu jkollu s-setgħat ta' awtorità tas-sorveljanza tas-suq skont it-tifsira tar-Regolament (UE) 2019/1020 għal dan il-għan. Fil-każijiet l-oħra kollha, l-awtoritajiet tas-sorveljanza tas-suq nazzjonali jibqgħu responsabbli għas-superviżjoni tas-sistemi tal-IA. Madankollu, għal sistemi tal-IA bi skop ġenerali li jistgħu jintużaw direttament mill-implimentaturi għal mill-inqas skop wieħed li huwa kklassifikat bħala b'riskju għoli, jenħtieġ li l-awtoritajiet tas-sorveljanza tas-suq jikkooperaw mal-Uffiċċju għall-IA biex iwettqu evalwazzjonijiet tal-konformità u jinfurmaw lill-Bord u lill-awtoritajiet tas-sorveljanza tas-suq l-oħra skont il-każ. Barra minn hekk, meta l-awtorità tas-sorveljanza tas-suq ma tkunx tista' tikkonkludi investigazzjoni dwar sistema tal-IA b'riskju għoli minħabba li ma jkollhiex aċċess għal ċerta informazzjoni relatata mal-mudell tal-IA bi skop ġenerali li fuqu tkun mibnija s-sistema tal-IA b'riskju għoli, jenħtieġ li l-awtoritajiet tas-sorveljanza tas-suq ikunu jistgħu jitolbu għajnuna mill-Uffiċċju għall-IA. F'każijiet bħal dawn, jenħtieġ li tapplika mutatis mutandis il-proċedura rigward l-assistenza reċiproka f'każijiet transfruntieri fil-Kapitolu VI tar-Regolament (UE) 2019/1020.
(161)
È necessario chiarire le responsabilità e le competenze a livello dell'Unione e nazionale per quanto riguarda i sistemi di IA basati su modelli di IA per finalità generali. Per evitare sovrapposizioni di competenze, qualora un sistema di IA si basi su un modello di IA per finalità generali e il modello e il sistema siano forniti dallo stesso fornitore, la supervisione dovrebbe avere luogo a livello dell'Unione attraverso l'ufficio per l'IA, che dovrebbe disporre a tal fine dei poteri di un'autorità di vigilanza del mercato ai sensi del regolamento (UE) 2019/1020. In tutti gli altri casi, le autorità nazionali di vigilanza del mercato restano responsabili della supervisione dei sistemi di IA. Tuttavia, per i sistemi di IA per finalità generali che possono essere utilizzati direttamente dai deployer per almeno una finalità classificata come ad alto rischio, le autorità di vigilanza del mercato dovrebbero cooperare con l'ufficio per l'IA per effettuare valutazioni della conformità e informare di conseguenza il consiglio per l'IA e le altre autorità di vigilanza del mercato. Inoltre, qualsiasi autorità di vigilanza del mercato dovrebbero poter chiedere assistenza all'ufficio per l'IA qualora non sia in grado di concludere un'indagine su un sistema di IA ad alto rischio perché non può accedere a determinate informazioni relative al modello di IA per finalità generali su cui è costruito il sistema di IA ad alto rischio. In tali casi, dovrebbe applicarsi mutatis mutandis la procedura relativa all'assistenza reciproca nei casi transfrontalieri di cui al capo VI del regolamento (UE) 2019/1020.
(162)
Biex isir l-aħjar użu mill-kompetenza esperta u s-sinerġiji ċentralizzati tal-Unjoni fil-livell tal-Unjoni, jenħtieġ li s-setgħat ta' superviżjoni u infurzar tal-obbligi fuq il-fornituri ta' mudelli tal-IA bi skop ġenerali jkunu kompetenza tal-Kummissjoni. Jenħtieġ li l-Uffiċċju għall-IA jkun jista' jwettaq l-azzjonijiet kollha meħtieġa biex jissorvelja l-implimentazzjoni effettiva ta' dan ir-Regolament fir-rigward tal-mudelli tal-IA bi skop ġenerali. Jenħtieġ li jkun jista' jinvestiga ksur possibbli tar-regoli dwar il-fornituri ta' mudelli tal-IA bi skop ġenerali kemm fuq inizjattiva tiegħu stess, b'segwitu għar-riżultati tal-attivitajiet ta' monitoraġġ tiegħu, kif ukoll fuq talba mill-awtoritajiet tas-sorveljanza tas-suq f'konformità mal-kundizzjonijiet stipulati f'dan ir-Regolament. Jenħtieġ li, biex tappoġġa l-monitoraġġ effettiv tal-Uffiċċju għall-IA, tipprevedi l-possibbiltà li l-fornituri downstream iressqu lmenti dwar ksur possibbli tar-regoli dwar il-fornituri ta' sistemi tal-IA u ta’ mudelli tal-IA bi skop ġenerali.
(162)
Per sfruttare al meglio le competenze centralizzate dell'Unione e le sinergie a livello dell'Unione, i poteri di controllo ed esecuzione degli obblighi dei fornitori di modelli di IA per finalità generali dovrebbero essere di competenza della Commissione. L'ufficio per l'IA dovrebbe essere in grado di svolgere tutte le attività necessarie per monitorare l'efficace attuazione del presente regolamento per quanto riguarda i modelli di IA per finalità generali. Dovrebbe essere in grado di svolgere indagini su eventuali violazioni delle norme applicabili ai fornitori di modelli di IA per finalità generali sia di propria iniziativa, a seguito dei risultati delle sue attività di monitoraggio, sia su richiesta delle autorità di vigilanza del mercato in linea con le condizioni stabilite nel presente regolamento. Per sostenere un monitoraggio efficace dell'ufficio per l'IA, esso dovrebbe prevedere la possibilità che i fornitori a valle presentino reclami in merito a possibili violazioni delle norme applicabili ai fornitori di modelli e sistemi di IA per finalità generali.
(163)
Bil-ħsieb li jikkomplementa s-sistemi ta' governanza għall-mudelli tal-IA bi skop ġenerali, jenħtieġ li l-bord jappoġġa l-attivitajiet ta' monitoraġġ tal-Uffiċċju għall-IA u jista', f'ċerti każijiet, jipprovdi allerti kwalifikati lill-Uffiċċju għall-IA li jiskattaw segwitu bħal investigazzjonijiet. Dan jenħtieġ li jkun il-każ meta l-bord ikollu raġuni biex jissuspetta li mudell tal-IA bi skop ġenerali joħloq riskju konkret u identifikabbli fil-livell tal-Unjoni. Barra minn hekk, dan jenħtieġ li jkun il-każ meta l-bord ikollu raġuni biex jissuspetta li mudell tal-IA bi skop ġenerali jissodisfa l-kriterji li jwasslu għal klassifikazzjoni bħala mudell tal-IA bi skop ġenerali b'riskju sistemiku. Sabiex il-bord ikollu l-informazzjoni meħtieġa għat-twettiq ta' dawk il-kompiti, jenħtieġ li jkun hemm mekkaniżmu li permezz tiegħu l-bord ikun jista' jitlob lill-Kummissjoni titlob dokumentazzjoni jew informazzjoni mingħand fornitur.
(163)
Al fine di integrare i sistemi di governance per i modelli di IA per finalità generali, il gruppo di esperti scientifici dovrebbe sostenere le attività di monitoraggio dell'ufficio per l'IA e può, in alcuni casi, fornire segnalazioni qualificate all'ufficio per l'IA che avviano attività di follow-up quali indagini. Ciò dovrebbe valere quando il gruppo di esperti scientifici ha motivo di sospettare che un modello di IA per finalità generali rappresenti un rischio concreto e identificabile a livello dell'Unione. Inoltre, ciò dovrebbe verificarsi nel caso in cui il gruppo di esperti scientifici abbia motivo di sospettare che un modello di IA per finalità generali soddisfa i criteri che comporterebbero una classificazione come modello di IA per finalità generali con rischio sistemico. Per dotare il gruppo di esperti scientifici delle informazioni necessarie per lo svolgimento di tali compiti, è opportuno prevedere un meccanismo in base al quale il gruppo di esperti scientifici può chiedere alla Commissione di esigere da un fornitore documentazione o informazioni.
(164)
Jenħtieġ li l-Uffiċċju għall-IA jkun jista' jieħu l-azzjonijiet meħtieġa biex jimmonitorja l-implimentazzjoni effettiva u l-konformità mal-obbligi għall-fornituri ta' mudelli tal-IA bi skop ġenerali stabbiliti f'dan ir-Regolament. Jenħtieġ li l-Uffiċċju għall-IA jkun jista' jinvestiga ksur possibbli f'konformità mas-setgħat previsti f'dan ir-Regolament, inkluż billi jitlob dokumentazzjoni u informazzjoni, billi jwettaq evalwazzjonijiet, kif ukoll billi jitlob miżuri mill-fornituri ta' mudelli tal-IA bi skop ġenerali. Meta jwettaq l-evalwazzjonijiet, sabiex isir użu minn kompetenza esperta indipendenti, jenħtieġ li l-Uffiċċju għall-IA jkun jista' jinvolvi esperti indipendenti biex iwettqu l-evalwazzjonijiet f'ismu. Jenħtieġ li l-konformità mal-obbligi tkun infurzabbli, fost l-oħrajn, permezz ta' talbiet biex jittieħdu miżuri xierqa, inkluż miżuri ta' mitigazzjoni tar-riskju fil-każ ta' riskji sistemiċi identifikati kif ukoll ir-restrizzjoni tad-disponibbiltà fis-suq, l-irtirar jew is-sejħa lura tal-mudell. Bħala salvagwardja, fejn meħtieġ lil hinn mid-drittijiet proċedurali previsti f'dan ir-Regolament, jenħtieġ li l-fornituri ta' mudelli tal-IA bi skop ġenerali jkollhom id-drittijiet proċedurali previsti fl-Artikolu 18 tar-Regolament (UE) 2019/1020, li għandhom japplikaw mutatis mutandis, mingħajr preġudizzju għal drittijiet proċedurali aktar speċifiċi previsti minn dan ir-Regolament.
(164)
L'ufficio per l'IA dovrebbe essere in grado di adottare le misure necessarie per monitorare l'efficace attuazione e il rispetto degli obblighi dei fornitori di modelli di IA per finalità generali di cui al presente regolamento. L'ufficio per l'IA dovrebbe essere in grado di svolgere indagini su possibili violazioni conformemente ai poteri previsti dal presente regolamento, anche richiedendo documentazione e informazioni, effettuando valutazioni ed esigendo l'adozione di misure da parte dei fornitori di modelli di IA per finalità generali. Nell'effettuare le valutazioni, al fine di avvalersi di competenze indipendenti, l'ufficio per l'IA dovrebbe potersi rivolgere a esperti indipendenti che svolgano le valutazioni per suo conto. Il rispetto degli obblighi dovrebbe essere reso esecutivo, tra l'altro, mediante richieste di adottare misure adeguate, comprese misure di attenuazione dei rischi nel caso di rischi sistemici individuati, nonché limitando la messa a disposizione sul mercato, ritirando o richiamando il modello. A titolo di salvaguardia, ove ciò sia necessario al di là dei diritti procedurali di cui al presente regolamento, i fornitori di modelli di IA per finalità generali dovrebbero godere dei diritti procedurali di cui all'articolo 18 del regolamento (UE) 2019/1020, che dovrebbero applicarsi mutatis mutandis, fatti salvi i diritti procedurali più specifici previsti dal presente regolamento.
(165)
L-iżvilupp ta' sistemi tal-IA minbarra sistemi tal-IA b'riskju għoli f'konformità mar-rekwiżiti ta' dan ir-Regolament, jista' jwassal għal użu akbar ta' IA etika u affidabbli fl-Unjoni. Jenħtieġ li l-fornituri ta' sistemi tal-IA li mhumiex b'riskju għoli jiġu mħeġġa joħolqu kodiċijiet tal-kondotta, inkluż mekkaniżmi ta' governanza relatati, maħsuba biex irawmu l-applikazzjoni volontarja ta' xi wħud mir-rekwiżiti obbligatorji jew tar-rekwiżiti kollha applikabbli għas-sistemi tal-IA b'riskju għoli, adattati fid-dawl tal-għan maħsub tas-sistemi u r-riskju aktar baxx involut u filwaqt li jitqiesu s-soluzzjonijiet tekniċi disponibbli u l-aħjar prattiki tal-industrija bħal kards mudell u kards tad-data. Jenħtieġ li l-fornituri u, kif xieraq, l-implimentaturi tas-sistemi kollha tal-IA, b'riskju għoli jew le, u l-mudelli tal-IA jiġu wkoll mħeġġa japplikaw fuq bażi volontarja rekwiżiti addizzjonali relatati, pereżempju, mal-elementi tal-Linji Gwida tal-Unjoni dwar l-Etika għal IA Affidabbli, sostenibbiltà ambjentali, miżuri ta' litteriżmu fl-IA, disinn u żvilupp inklużivi u diversi tas-sistemi tal-IA, inkluż l-attenzjoni għall-persuni vulnerabbli u l-aċċessibbiltà għall-persuni b'diżabbiltà, il-parteċipazzjoni tal-partijiet ikkonċernati bl-involviment kif xieraq, tal-partijiet ikkonċernati rilevanti bħall-organizzazzjonijiet tan-negozju u tas-soċjetà ċivili, id-dinja akkademika, l-organizzazzjonijiet tar-riċerka, it-trade unions u l-organizzazzjonijiet tal-protezzjoni tal-konsumatur fid-disinn u l-iżvilupp tas-sistemi tal-IA, u d-diversità tat-timijiet tal-iżvilupp, inkluż il-bilanċ bejn il-ġeneri. Sabiex jiġi żgurat li l-kodiċijiet ta' kondotta volontarji jkunu effettivi, jenħtieġ li jkunu bbażati fuq objettivi ċari u indikaturi ewlenin tal-prestazzjoni biex titkejjel il-kisba ta' dawk l-objettivi. Jenħtieġ li dawn jiġu żviluppati wkoll b'mod inklużiv, kif xieraq, bl-involviment tal-partijiet ikkonċernati rilevanti bħall-organizzazzjonijiet tan-negozju u tas-soċjetà ċivili, id-dinja akkademika, l-organizzazzjonijiet tar-riċerka, it-trade unions u l-organizzazzjonijiet tal-protezzjoni tal-konsumatur. Il-Kummissjoni tista' tiżviluppa inizjattivi, inkluż ta' natura settorjali, biex tiffaċilita t-tnaqqis tax-xkiel tekniku li jfixkel l-iskambju transfruntier tad-data għall-iżvilupp tal-IA, inkluż dwar l-infrastruttura tal-aċċess għad-data, u l-interoperabbiltà semantika u teknika ta' tipi differenti ta' data.
(165)
Lo sviluppo di sistemi di IA diversi dai sistemi di IA ad alto rischio in conformità dei requisiti del presente regolamento può portare a una più ampia adozione nell'Unione di un'IA etica e affidabile. I fornitori di sistemi di IA non ad alto rischio dovrebbero essere incoraggiati a creare codici di condotta, che includano meccanismi di governance connessi, volti a promuovere l'applicazione volontaria di alcuni o tutti i requisiti obbligatori applicabili ai sistemi di IA ad alto rischio, adattati in funzione della finalità prevista dei sistemi e del minor rischio connesso e tenendo conto delle soluzioni tecniche disponibili e delle migliori pratiche del settore, come modelli e schede dati. I fornitori e, se del caso, i deployer di tutti i sistemi di IA, ad alto rischio o meno, e modelli di IA dovrebbero inoltre essere incoraggiati ad applicare su base volontaria requisiti supplementari relativi, ad esempio, agli elementi degli orientamenti etici dell'Unione per un'IA affidabile, alla sostenibilità ambientale, alle misure di alfabetizzazione in materia di IA, alla progettazione e allo sviluppo inclusivi e diversificati dei sistemi di IA, anche prestando attenzione alle persone vulnerabili e all'accessibilità per le persone con disabilità, la partecipazione dei portatori di interessi, con il coinvolgimento, se del caso, dei portatori di interessi pertinenti quali le organizzazioni imprenditoriali e della società civile, il mondo accademico, le organizzazioni di ricerca, i sindacati e le organizzazioni per la tutela dei consumatori nella progettazione e nello sviluppo dei sistemi di IA, e alla diversità dei gruppi di sviluppo, compreso l'equilibrio di genere. Per essere efficaci, i codici di condotta volontari dovrebbero basarsi su obiettivi chiari e indicatori chiave di prestazione che consentano di misurare il conseguimento di tali obiettivi. Essi dovrebbero inoltre essere elaborati in modo inclusivo, se del caso, con il coinvolgimento dei portatori di interessi pertinenti, quali le organizzazioni imprenditoriali e della società civile, il mondo accademico, le organizzazioni di ricerca, i sindacati e le organizzazioni per la tutela dei consumatori. La Commissione può elaborare iniziative, anche di natura settoriale, per agevolare la riduzione degli ostacoli tecnici che ostruiscono lo scambio transfrontaliero di dati per lo sviluppo dell'IA, anche per quanto riguarda l'infrastruttura di accesso ai dati e l'interoperabilità semantica e tecnica dei diversi tipi di dati.
(166)
Hu importanti li s-sistemi tal-IA relatati ma' prodotti li mhumiex b'riskju għoli f'konformità ma' dan ir-Regolament, u għalhekk ma għandhomx għalfejn jikkonformaw mar-rekwiżiti stipulati għal sistemi tal-IA b'riskju għoli, xorta waħda jkunu sikuri meta jiġu introdotti fis-suq jew meta jitqiegħdu fis-servizz. B'kontribut għal dan l-objettiv, ir-Regolament (UE) 2023/988 tal-Parlament Ewropew u tal-Kunsill (53) japplika bħala xibka ta' sikurezza.
(166)
È importante che i sistemi di IA collegati a prodotti che non sono ad alto rischio in conformità del presente regolamento e che pertanto non sono tenuti a rispettare i requisiti stabiliti per i sistemi di IA ad alto rischio siano comunque sicuri al momento dell'immissione sul mercato o della messa in servizio. Per contribuire a tale obiettivo, sarebbe opportuno applicare come rete di sicurezza il regolamento (UE) 2023/988 del Parlamento europeo e del Consiglio (53).
(167)
Sabiex tkun żgurata kooperazzjoni fiduċjuża u kostruttiva tal-awtoritajiet kompetenti fil-livell tal-Unjoni u dak nazzjonali, jenħtieġ li l-partijiet kollha involuti fl-applikazzjoni ta' dan ir-Regolament jirrispettaw il-kunfidenzjalità tal-informazzjoni u tad-data miksuba fit-twettiq tal-kompiti tagħhom, f'konformità mal-liġi tal-Unjoni jew il-liġi nazzjonali. Jenħtieġ li jwettqu l-kompiti u l-attivitajiet tagħhom b'tali mod li jipproteġu, b'mod partikolari, id-drittijiet tal-proprjetà intellettwali, l-informazzjoni kummerċjali kunfidenzjali u s-sigrieti kummerċjali, l-implimentazzjoni effettiva ta' dan ir-Regolament, l-interessi tas-sigurtà pubblika u nazzjonali, l-integrità tal-proċedimenti kriminali u amministrattivi, u l-integrità tal-informazzjoni klassifikata.
(167)
Al fine di garantire una cooperazione affidabile e costruttiva delle autorità competenti a livello dell'Unione e nazionale, è opportuno che tutte le parti coinvolte nell'applicazione del presente regolamento rispettino la riservatezza delle informazioni e dei dati ottenuti nell'assolvimento dei loro compiti, in conformità del diritto dell'Unione o nazionale. Dovrebbero svolgere i loro compiti e le loro attività in modo da proteggere, in particolare, i diritti di proprietà intellettuale, le informazioni commerciali riservate e i segreti commerciali, l'efficace attuazione del presente regolamento, gli interessi pubblici e di sicurezza nazionale, l'integrità del procedimento penale o amministrativo e l'integrità delle informazioni classificate.
(168)
Għalhekk jenħtieġ li l-konformità ma' dan ir-Regolament tkun infurzabbli permezz tal-impożizzjoni ta' penali u miżuri ta' infurzar oħra. Jenħtieġ li l-Istati Membri jieħdu l-miżuri meħtieġa kollha biex jiżguraw li d-dispożizzjonijiet ta' dan ir-Regolament jiġu implimentati, inkluż billi jistabbilixxu penali effettivi, proporzjonati u dissważivi għall-ksur tagħhom, u biex jiġi rrispettat il-prinċipju ta' ne bis in idem. Sabiex jissaħħu u jiġu armonizzati l-penali amministrattivi għall-ksur ta' dan ir-Regolament, jenħtieġ li jiġu stabbiliti l-limiti massimi għall-istabbiliment tal-multi amministrattivi għal ċertu ksur speċifiku. Meta jivvalutaw l-ammont tal-multi, jenħtieġ li l-Istati Membri, f'kull każ individwali, iqisu ċ-ċirkostanzi rilevanti kollha tas-sitwazzjoni speċifika, b'kunsiderazzjoni xierqa b'mod partikolari għan-natura, il-gravità u d-durata tal-ksur u tal-konsegwenzi tiegħu u għad-daqs tal-fornitur, b'mod partikolari jekk il-fornitur ikun SME jew negozju ġdid. Jenħtieġ li l-Kontrollur Ewropew għall-Protezzjoni tad-Data jkollu s-setgħa jimponi multi fuq l-istituzzjonijiet, l-aġenziji u l-korpi tal-Unjoni li jaqgħu fil-kamp ta' applikazzjoni ta' dan ir-Regolament.
(168)
Il rispetto del presente regolamento dovrebbe essere reso esecutivo mediante l'imposizione di sanzioni e di altre misure di esecuzione. Gli Stati membri dovrebbero adottare tutte le misure necessarie per assicurare l'attuazione delle disposizioni di cui al presente regolamento, anche stabilendo sanzioni effettive, proporzionate e dissuasive in caso di violazione, anche nel rispetto del principio ne bis in idem. Al fine di rafforzare e armonizzare le sanzioni amministrative in caso di violazione del presente regolamento, è opportuno stabilire limiti massimi per la fissazione delle sanzioni amministrative pecuniarie per talune violazioni specifiche. Nel valutare l'importo delle sanzioni amministrative pecuniarie, gli Stati membri dovrebbero, in ogni singolo caso, tenere conto di tutte le circostanze pertinenti della situazione specifica, in particolare, della natura, della gravità e della durata della violazione e delle sue conseguenze e delle dimensioni del fornitore, in particolare se si tratta di una PMI, compresa una start-up. Il Garante europeo della protezione dei dati dovrebbe disporre del potere di infliggere sanzioni pecuniarie alle istituzioni, alle agenzie e agli organismi dell'Unione che rientrano nell'ambito di applicazione del presente regolamento.
(169)
Jenħtieġ li l-konformità mal-obbligi fuq il-fornituri ta' mudelli tal-IA bi skop ġenerali imposti skont dan ir-Regolament tkun infurzabbli, fost l-oħrajn, permezz ta' multi. Għal dak l-għan, jenħtieġ li jiġu stabbiliti wkoll livelli xierqa ta' multi għall-ksur ta' dawk l-obbligi, inkluż in-nuqqas ta' konformità mal-miżuri mitluba mill-Kummissjoni f'konformità ma' dan ir-Regolament, soġġett għal perjodi ta' limitazzjoni xierqa f'konformità mal-prinċipju tal-proporzjonalità. Id-deċiżjonijiet kollha meħuda mill-Kummissjoni skont dan ir-Regolament huma soġġetti għal rieżami mill-Qorti tal-Ġustizzja tal-Unjoni Ewropea f'konformità mat-TFUE, inkluża l-ġuriżdizzjoni illimitata tal-Qorti tal-Ġustizzja fir-rigward tal-penali skontl-Artikolu 261 TFUE.
(169)
Il rispetto degli obblighi imposti ai fornitori di modelli di IA per finalità generali a norma del presente regolamento dovrebbe essere reso esecutivo, tra l'altro, mediante sanzioni pecuniarie. A tal fine è opportuno stabilire livelli adeguati di sanzioni pecuniarie anche in caso di violazione di tali obblighi, tra cui il mancato rispetto delle misure richieste dalla Commissione a norma del presente regolamento, fatti salvi adeguati termini di prescrizione conformemente al principio di proporzionalità. Tutte le decisioni prese dalla Commissione a norma del presente regolamento sono soggette al controllo della Corte di giustizia dell'Unione europea conformemente al TFUE, compresa la giurisdizione, anche di merito, della Corte di giustizia riguardo alle sanzioni ai sensi dell'articolo 261 TFUE
(170)
Il-liġi tal-Unjoni u l-liġi nazzjonali diġà jipprovdu rimedji effettivi għall-persuni fiżiċi u ġuridiċi li d-drittijiet u l-libertajiet tagħhom jiġu affettwati b'mod negattiv mill-użu tas-sistemi tal-IA. Mingħajr preġudizzju għal dawk ir-rimedji, jenħtieġ li kwalunkwe persuna fiżika jew ġuridika li jkollha raġunijiet biex tqis li kien hemm ksur ta' dan ir-Regolament tkun intitolata tressaq ilment lill-awtorità tas-sorveljanza tas-suq rilevanti.
(170)
Il diritto dell'Unione e nazionale prevedono già mezzi di ricorso efficaci per le persone fisiche e giuridiche sui cui diritti e sulle cui libertà incide negativamente l'uso dei sistemi di IA. Fatti salvi tali mezzi di ricorso, qualsiasi persona fisica o giuridica che abbia motivo di ritenere che vi sia stata una violazione del presente regolamento dovrebbe avere il diritto di presentare un reclamo alla pertinente autorità di vigilanza del mercato.
(171)
Jenħtieġ li l-persuni affettwati jkollhom id-dritt li jiksbu spjegazzjoni meta deċiżjoni tal-implimentatur tkun ibbażata prinċipalment fuq l-output minn ċerti sistemi tal-IA b'riskju għoli li jaqgħu fil-kamp ta' applikazzjoni ta' dan ir-Regolament u meta dik id-deċiżjoni tipproduċi effetti legali jew taffettwa b'mod sinifikanti b'mod simili lil dawk il-persuni b'mod li jqisu li għandu impatt negattiv fuq is-saħħa, is-sikurezza jew id-drittijiet fundamentali tagħhom. Jenħtieġ li dik l-ispjegazzjoni tkun ċara u sinifikanti u jenħtieġ li tipprovdi bażi li fuqha l-persuni affettwati jkunu jistgħu jeżerċitaw id-drittijiet tagħhom. Jenħtieġ li d-dritt li tinkiseb spjegazzjoni ma japplikax għall-użu ta' sistemi tal-IA li fir-rigward tagħhom joħorġu eċċezzjonijiet jew restrizzjonijiet mil-liġi tal-Unjoni jew dik nazzjonali u jenħtieġ li japplika biss sa fejn dan id-dritt ma jkunx diġà previst fil-liġi tal-Unjoni.
(171)
Le persone interessate dovrebbero avere il diritto di ottenere una spiegazione qualora la decisione di un deployer si basi principalmente sugli output di determinati sistemi di IA ad alto rischio che rientrano nell'ambito di applicazione del presente regolamento e qualora tale decisione produca effetti giuridici o in modo analogo incida significativamente su tali persone in un modo che esse ritengano avere un impatto negativo sulla loro salute, sicurezza o sui loro diritti fondamentali. Tale spiegazione dovrebbe essere chiara e significativa e fornire una base su cui le persone interessate possano esercitare i loro diritti. Il diritto di ottenere una spiegazione non dovrebbe applicarsi all'uso di sistemi di IA per i quali il diritto dell'Unione o nazionale prevede eccezioni o restrizioni e dovrebbe applicarsi solo nella misura in cui tale diritto non sia già previsto dal diritto dell'Unione.
(172)
Jenħtieġ li l-persuni li jaġixxu bħala informaturi dwar il-ksur ta' dan ir-Regolament jiġu protetti skont il-liġi tal-Unjoni. Għalhekk, jenħtieġ li d-Direttiva (UE) 2019/1937 tal-Parlament Ewropew u tal-Kunsill (54) tapplika għar-rappurtar ta' ksur ta' dan ir-Regolament u għall-protezzjoni tal-persuni li jirrappurtaw tali ksur.
(172)
Le persone che agiscono in qualità di informatori in merito alle violazioni del presente regolamento dovrebbero essere protette a norma del diritto dell'Unione. La direttiva (UE) 2019/1937 del Parlamento europeo e del Consiglio (54) dovrebbe pertanto applicarsi alla segnalazione di violazioni del presente regolamento e alla protezione delle persone che segnalano tali violazioni.
(173)
Sabiex ikun żgurat li l-qafas regolatorju jista' jiġi adattat fejn meħtieġ, jenħtieġ li s-setgħa li jiġu adottati atti f'konformità mal-Artikolu 290 TFUE tiġi ddelegata lill-Kummissjoni biex temenda l-kundizzjonijiet li taħthom sistema tal-IA ma titqiesx li tkun ta' riskju għoli, il-lista tas-sistemi tal-IA b'riskju għoli, id-dispożizzjonijiet dwar id-dokumentazzjoni teknika, il-kontenut tad-dikjarazzjoni ta' konformità tal-UE, id-dispożizzjonijiet dwar il-proċeduri ta' valutazzjoni tal-konformità, id-dispożizzjonijiet li jistabbilixxu s-sistemi tal-IA b'riskju għoli li għalihom jenħtieġ tapplika l-proċedura ta' valutazzjoni tal-konformità bbażata fuq il-valutazzjoni tas-sistema ta' ġestjoni tal-kwalità u fuq il-valutazzjoni tad-dokumentazzjoni teknika, il-limitu massimu, il-paramentri referenzjarji u l-indikaturi, inkluż billi jiġu ssupplimentati dawk il-paramentri referenzjarji u l-indikaturi fir-regoli għall-klassifikazzjoni ta' mudelli tal-IA bi skop ġenerali b'riskju sistemiku, il-kriterji għad-deżinjazzjoni ta' mudelli tal-IA bi skop ġenerali b'riskju sistemiku, id-dokumentazzjoni teknika għall-fornituri ta' mudelli tal-IA bi skop ġenerali u t-trasparenza tal-informazzjoni għall-fornituri ta' mudelli tal-IA bi skop ġenerali. Hu partikolarment importanti li tul il-ħidma preparatorja tagħha, il-Kummissjoni twettaq konsultazzjonijiet xierqa, inkluż fil-livell ta' esperti, u li dawk il-konsultazzjonijiet isiru f'konformità mal-prinċipji stabbiliti fil-Ftehim Interistituzzjonali tat-13 ta' April 2016 dwar it-Tfassil Aħjar tal-Liġijiet (55). B'mod partikolari, biex tiġi żgurata parteċipazzjoni ugwali fit-tħejjija tal-atti delegati, il-Parlament Ewropew u l-Kunsill jirċievu d-dokumenti kollha fl-istess ħin li jirċevuhom l-esperti tal-Istati Membri, u l-esperti tagħhom sistematikament ikollhom aċċess għal-laqgħat tal-gruppi ta' esperti tal-Kummissjoni li jittrattaw it-tħejjija ta' atti delegati.
(173)
Al fine di garantire che il quadro normativo possa essere adeguato ove necessario, è opportuno delegare alla Commissione il potere di adottare atti conformemente all'articolo 290 TFUE per modificare le condizioni alle quali un sistema di IA non dovrebbe essere considerato ad alto rischio, l'elenco dei sistemi di IA ad alto rischio, le disposizioni relative alla documentazione tecnica, il contenuto della dichiarazione di conformità UE, le disposizioni relative alle procedure di valutazione della conformità, le disposizioni che stabiliscono i sistemi di IA ad alto rischio cui dovrebbe applicarsi la procedura di valutazione della conformità sulla base della valutazione del sistema di gestione della qualità e della valutazione della documentazione tecnica, la soglia, i parametri di riferimento e gli indicatori, anche integrando tali parametri di riferimento e indicatori, nelle regole per la classificazione di un modello di IA per finalità generali con rischio sistemico, i criteri per la designazione dei modelli di IA per finalità generali con rischio sistemico, la documentazione tecnica per i fornitori di modelli di IA per finalità generali e le informazioni sulla trasparenza per i fornitori di modelli di IA per finalità generali. È di particolare importanza che durante i lavori preparatori la Commissione svolga adeguate consultazioni, anche a livello di esperti, nel rispetto dei principi stabiliti nell'accordo interistituzionale «Legiferare meglio» del 13 aprile 2016 (55). In particolare, al fine di garantire la parità di partecipazione alla preparazione degli atti delegati, il Parlamento europeo e il Consiglio ricevono tutti i documenti contemporaneamente agli esperti degli Stati membri, e i loro esperti hanno sistematicamente accesso alle riunioni dei gruppi di esperti della Commissione incaricati della preparazione di tali atti delegati.
(174)
Minħabba l-iżviluppi teknoloġiċi rapidi u l-kompetenza esperta teknika meħtieġa biex dan ir-Regolament jiġi implimentat b’mod effettiv, jenħtieġ li l-Kummissjoni tevalwa u tirrieżamina dan ir-Regolament sat-2 ta’ Awwissu 2029 u kull erba' snin minn hemm 'il quddiem u tirrapporta lura lill-Parlament Ewropew u lill-Kunsill. Barra minn hekk, filwaqt li tqis l-implikazzjonijiet għall-kamp ta' applikazzjoni ta' dan ir-Regolament, jenħtieġ li l-Kummissjoni twettaq valutazzjoni tal-ħtieġa li darba fis-sena jiġu emendati l-lista tas-sistemi tal-IA b'riskju għoli u l-lista ta' prattiki pprojbiti. Barra minn hekk, sat-2 ta’ Awwissu 2028 u kull erba' snin wara dan, jenħtieġ li l-Kummissjoni tevalwa u tirrapporta lura lill-Parlament Ewropew u lill-Kunsill dwar il-ħtieġa li jiġu emendati l-lista tal-intestaturi ta’ oqsma b'riskju għoli fl-anness ta' dan ir-Regolament, is-sistemi tal-IA fil-kamp ta' applikazzjoni tal-obbligi tat-trasparenza, l-effettività tas-sistema tas-superviżjoni u tal-governanza u l-progress fl-iżvilupp ta' strumenti ta' standardizzazzjoni dwar l-iżvilupp effiċjenti fl-użu tal-enerġija ta' mudelli tal-IA bi skop ġenerali, inkluż il-ħtieġa għal aktar miżuri jew azzjonijiet. Fl-aħħar nett, sat-2 ta’ Awwissu 2028 u kull tliet snin minn hemm 'il quddiem, jenħtieġ li l-Kummissjoni tevalwa l-impatt u l-effettività tal-kodiċijiet tal-kondotta volontarji biex trawwem l-applikazzjoni tar-rekwiżiti previsti għas-sistemi tal-IA b'riskju għoli fil-każ ta' sistemi tal-IA għajr sistemi tal-IA b'riskju għoli u possibbilment rekwiżiti addizzjonali oħra għal tali sistemi tal-IA.
(174)
Dati i rapidi sviluppi tecnologici e le competenze tecniche necessarie per l'efficace applicazione del presente regolamento, la Commissione dovrebbe valutare e riesaminare il presente regolamento entro il 2 agosto 2029 e successivamente ogni quattro anni e presentare una relazione al Parlamento europeo e al Consiglio. Inoltre, tenuto conto delle implicazioni per l'ambito di applicazione del presente regolamento, la Commissione dovrebbe effettuare, una volta all'anno, una valutazione della necessità di modificare l'elenco dei sistemi di IA ad alto rischio e l'elenco delle pratiche vietate. Inoltre, entro il 2 agosto 2028 e successivamente ogni quattro anni, la Commissione dovrebbe valutare la necessità di modificare l'elenco delle rubriche dei settori ad alto rischio di cui all'allegato del presente regolamento, i sistemi di IA che rientrano nell'ambito di applicazione degli obblighi di trasparenza, l'efficacia del sistema di supervisione e governance e i progressi compiuti riguardo allo sviluppo di prodotti della normazione relativi allo sviluppo efficiente sotto il profilo energetico di modelli di IA per finalità generali, compresa la necessità di ulteriori misure o azioni, e riferire al Parlamento europeo e al Consiglio in merito. Entro il 2 agosto 2028 e successivamente ogni tre anni la Commissione dovrebbe valutare l'impatto e l'efficacia dei codici di condotta volontari per la promozione dell'applicazione dei requisiti previsti per i sistemi di IA ad alto rischio nel caso di sistemi di IA diversi dai sistemi di IA ad alto rischio ed eventualmente di altri requisiti supplementari per tali sistemi di IA.
(175)
Sabiex ikunu żgurati kundizzjonijiet uniformi għall-implimentazzjoni ta' dan ir-Regolament, jenħtieġ li l-Kummissjoni tingħata setgħat ta' implimentazzjoni. Jenħtieġ li dawk is-setgħat ikunu eżerċitati f'konformità mar-Regolament (UE) Nru 182/2011 tal-Parlament Ewropew u tal-Kunsill (56).
(175)
È opportuno attribuire alla Commissione competenze di esecuzione al fine di garantire condizioni uniformi di esecuzione del presente regolamento. È altresì opportuno che tali competenze siano esercitate conformemente al regolamento (UE) n, 182/2011 del Parlamento europeo e del Consiglio (56).
(176)
Minħabba li l-objettiv ta' dan ir-Regolament, jiġifieri li jtejjeb il-funzjonament tas-suq intern u jippromwovi l-adozzjoni ta' IA ċċentrata fuq il-bniedem u affidabbli, filwaqt li jiżgura livell għoli ta' protezzjoni tas-saħħa, tas-sikurezza u tad-drittijiet fundamentali minquxa fil-Karta, inkluż id-demokrazija, l-istat tad-dritt u l-protezzjoni ambjentali kontra l-effetti ta' ħsara tas-sistemi tal-IA fl-Unjoni u jappoġġa l-innovazzjoni, ma jistax jinkiseb b'mod suffiċjenti mill-Istati Membri u jista' pjuttost, minħabba l-iskala jew l-effetti tal-azzjoni, jinkiseb aħjar fil-livell tal-Unjoni, l-Unjoni tista' tadotta miżuri f'konformità mal-prinċipju ta’ sussidjarjetà kif stabbilit fl-Artikolu 5 TUE. F'konformità mal-prinċipju ta’ proporzjonalità, kif stabbilit f'dak l-Artikolu, dan ir-Regolament ma jmurx lil hinn minn dak meħtieġ sabiex jinkiseb dak l-objettiv.
(176)
Poiché l'obiettivo del presente regolamento, vale a dire migliorare il funzionamento del mercato interno e promuovere la diffusione di un'IA antropocentrica e affidabile, garantendo nel contempo un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta, compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, contro gli effetti nocivi dei sistemi di IA nell'Unione e promuovendo l'innovazione, non può essere conseguito in misura sufficiente dagli Stati membri ma, a motivo della portata o degli effetti dell'azione, può essere conseguito meglio a livello di Unione, quest'ultima può intervenire in base al principio di sussidiarietà sancito dall'articolo 5 TUE. Il presente regolamento si limita a quanto è necessario per conseguire tale obiettivo in ottemperanza al principio di proporzionalità enunciato nello stesso articolo.
(177)
sabiex tiġi żgurata ċ-ċertezza legali, jiġi żgurat perjodu ta' adattament xieraq għall-operaturi u jiġi evitat tfixkil fis-suq, inkluż billi tiġi żgurata l-kontinwità tal-użu tas-sistemi tal-IA, jixraq li dan ir-Regolament japplika għas-sistemi tal-IA b'riskju għoli li jkunu ġew introdotti fis-suq jew tqiegħdu fis-servizz qabel id-data ġenerali tal-applikazzjoni tagħhom, biss jekk, minn dik id-data, dawk is-sistemi jkunu soġġetti għal bidliet sinifikanti fid-disinn jew fl-għan maħsub tagħhom. Jixraq li jiġi ċċarat li, f'dan ir-rigward, il-kunċett ta' bidla sinifikanti jenħtieġ li jinftiehem bħala ekwivalenti fis-sustanza għall-kunċett ta' modifika sostanzjali, li jintuża biss fir-rigward tas-sistemi tal-IA b'riskju għoli skont dan ir-Regolament. Fuq bażi eċċezzjonali u fid-dawl tal-obbligu ta' responsabbiltà pubblika, jenħtieġ li l-operaturi ta' sistemi tal-IA li huma komponenti tas-sistemi tal-IT fuq skala kbira stabbiliti bl-atti legali elenkati f'anness ta' dan ir-Regolament u l-operaturi tas-sistemi tal-IA b'riskju għoli li huma maħsuba biex jintużaw mill-awtoritajiet pubbliċi jieħdu l-passi meħtieġa, rispettivament, biex jikkonformaw mar-rekwiżiti ta' dan ir-Regolament sa tmiem l-2030 u sat-2 ta’ Awwissu 2030.
(177)
Al fine di garantire la certezza del diritto, assicurare un adeguato periodo di adattamento per gli operatori ed evitare perturbazioni del mercato, anche garantendo la continuità dell'uso dei sistemi di IA, è opportuno che il presente regolamento si applichi ai sistemi di IA ad alto rischio che sono stati immessi sul mercato o messi in servizio prima della data generale di applicazione dello stesso, solo se, a decorrere da tale data, tali sistemi sono soggetti a modifiche significative della loro progettazione o finalità prevista. È opportuno precisare che, a tale riguardo, il concetto di modifica significativa dovrebbe essere inteso come equivalente nella sostanza alla nozione di modifica sostanziale, utilizzata solo per i sistemi di IA ad alto rischio a norma del presente regolamento. In via eccezionale e alla luce della responsabilità pubblica, gli operatori di sistemi di IA che sono componenti di sistemi IT su larga scala istituiti dagli atti giuridici elencati in un allegato del presente regolamento e gli operatori di sistemi di IA ad alto rischio destinati a essere utilizzati dalle autorità pubbliche dovrebbero adottare le misure necessarie per conformarsi ai requisiti del presente regolamento, rispettivamente, entro la fine del 2030 ed entro il 2 agosto 2030.
(178)
Il-fornituri ta' sistemi tal-IA b'riskju għoli huma mħeġġa biex matul il-perjodu tranżitorju jibdew diġà jikkonformaw, fuq bażi volontarja, mal-obbligi rilevanti ta' dan ir-Regolament.
(178)
I fornitori di sistemi di IA ad alto rischio sono incoraggiati a iniziare a rispettare, su base volontaria, i pertinenti obblighi del presente regolamento già durante il periodo transitorio.
(179)
Jenħtieġ li dan ir-Regolament japplika mit-2 ta’ Awwissu 2026. Madankollu, b'kunsiderazzjoni għar-riskju inaċċettabbli assoċjat mal-użu tal-IA b'ċerti modi, jenħtieġ li l-projbizzjonijiet kif ukoll id-dispożizzjonijiet ġenerali ta’ dan ir-Regolament japplikaw diġà mit-2 ta’ Frar 2025. Filwaqt li l-effett sħiħ ta' dawk il-projbizzjonijiet isegwi bl-istabbiliment tal-governanza u l-infurzar ta' dan ir-Regolament, l-antiċipazzjoni tal-applikazzjoni tal-projbizzjonijiet hija importanti biex jitqiesu r-riskji inaċċettabbli u biex ikollha effett fuq proċeduri oħra, bħal fid-dritt ċivili. Barra minn hekk, jenħtieġ li l-infrastruttura relatata mal-governanza u mas-sistema tal-valutazzjoni tal-konformità tkun operattiva qabel it-2 ta’ Awwissu 2026, u għalhekk jenħtieġ li d-dispożizzjonijiet dwar il-korpi notifikati u l-istruttura ta' governanza japplikaw mit-2 ta’ Awwissu 2025. Minħabba l-pass mgħaġġel tal-avvanzi teknoloġiċi u l-adozzjoni ta' mudelli tal-IA bi skop ġenerali, jenħtieġ li l-obbligi għall-fornituri ta' mudelli tal-IA bi skop ġenerali japplikaw mit-2 ta’ Awwissu 2025. Jenħtieġ li l-kodiċijiet ta' prattika jkunu lesti sat-2 ta’ Mejju 2025 bil-ħsieb li l-fornituri jkunu jistgħu juru l-konformità fil-ħin. Jenħtieġ li l-Uffiċċju għall-IA jiżgura li r-regoli u l-proċeduri ta' klassifikazzjoni jkunu aġġornati fid-dawl tal-iżviluppi teknoloġiċi. Barra minn hekk, jenħtieġ li l-Istati Membri jistabbilixxu u jinnotifikaw lill-Kummissjoni r-regoli dwar il-penali, inkluż il-multi amministrattivi, u jiżguraw li dawn jiġu implimentati sew u b'mod effettiv sad-data tal-applikazzjoni ta' dan ir-Regolament. Għalhekk jenħtieġ li d-dispożizzjonijiet dwar il-penali japplikaw mit-2 ta’ Awwissu 2025.
(179)
Il presente regolamento si dovrebbe applicare a decorrere dal 2 agosto 2026. Tuttavia, tenuto conto del rischio inaccettabile associato all'uso dell'IA in determinati modi, i divieti nonché le disposizioni generali del presente regolamento dovrebbero applicarsi già a decorrere dal 2 febbraio 2025. Sebbene la piena efficacia di tali divieti discenda dall'istituzione della governance e dall'esecuzione del presente regolamento, è importante anticipare l'applicazione di detti divieti per tenere conto dei rischi inaccettabili e avere un effetto su altre procedure, ad esempio nel diritto civile. È inoltre opportuno che l'infrastruttura relativa alla governance e al sistema di valutazione della conformità sia operativa prima del 2 agosto 2026, pertanto le disposizioni sugli organismi notificati e sulla struttura di governance dovrebbero applicarsi a decorrere dal 2 agosto 2025. In considerazione del rapido ritmo dello sviluppo tecnologico e dell'adozione di modelli di IA per finalità generali, gli obblighi per i fornitori di modelli di IA per finalità generali dovrebbero applicarsi a decorrere dal 2 agosto 2025. I codici di buone pratiche dovrebbero essere pronti entro 2 agosto 2025 al fine d consentire ai fornitori di dimostrare la conformità «in tempo utile». L'ufficio per l'IA dovrebbe garantire che le norme e le procedure di classificazione siano aggiornate alla luce degli sviluppi tecnologici. Gli Stati membri dovrebbero inoltre stabilire e notificare alla Commissione la normativa relativa alle sanzioni, comprese le sanzioni amministrative pecuniarie, e garantire che essa sia attuata in modo corretto ed efficace entro la data di applicazione del presente regolamento. Le disposizioni relative alle sanzioni dovrebbero pertanto applicarsi a decorrere dal 2 agosto 2025.
(180)
Il-Kontrollur Ewropew għall-Protezzjoni tad-Data u l-Bord Ewropew għall-Protezzjoni tad-Data ġew ikkonsultati f'konformità mal-Artikolu 42(1) u (2) tar-Regolament (UE) 2018/1725 u taw l-opinjoni konġunta tagħhom fit-18 ta' Ġunju 2021,
(180)
Conformemente all'articolo 42, paragrafi 1 e 2, del regolamento (UE) 2018/1725, il Garante europeo della protezione dei dati e il comitato europeo per la protezione dei dati sono stati consultati e hanno formulato il loro parere congiunto il 18 giugno 2021,
ADOTTAW DAN IR-REGOLAMENT:
HANNO ADOTTATO IL PRESENTE REGOLAMENTO:
KAPITOLU I
CAPO I
DISPOŻIZZJONIJIET ĠENERALI
DISPOSIZIONI GENERALI
Artikolu 1
Articolo 1
Suġġett
Oggetto
1. Dan ir-Regolament għandu l-għan li jtejjeb il-funzjonament tas-suq intern u li jippromwovi l-użu ta' intelliġenza artifiċjali (IA) iċċentrata fuq il-bniedem u affidabbli, filwaqt li jiġi żgurat livell għoli ta' protezzjoni tas-saħħa, tas-sikurezza, tad-drittijiet fundamentali minquxa fil-Karta, inkluż id-demokrazija, l-istat tad-dritt u l-protezzjoni ambjentali, kontra l-effetti ta' ħsara tas-sistemi tal-IA fl-Unjoni u li tiġi appoġġata l-innovazzjoni.
1. Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno e promuovere la diffusione di un'intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, contro gli effetti nocivi dei sistemi di IA nell'Unione, e promuovendo l'innovazione.
2. Dan ir-Regolament jistabbilixxi:
2. Il presente regolamento stabilisce:
(a)
regoli armonizzati għall-introduzzjoni fis-suq, għat-tqegħid fis-servizz u għall-użu ta' sistemi tal-IA fl-Unjoni;
a)
regole armonizzate per l'immissione sul mercato, la messa in servizio e l'uso dei sistemi di IA nell'Unione;
(b)
projbizzjonijiet ta' ċerti prattiki tal-IA;
b)
divieti di talune pratiche di IA;
(c)
rekwiżiti speċifiċi għas-sistemi tal-IA b'riskju għoli u obbligi għall-operaturi ta' dawn is-sistemi;
c)
requisiti specifici per i sistemi di IA ad alto rischio e obblighi per gli operatori di tali sistemi;
(d)
regoli ta' trasparenza armonizzati għal ċerti sistemi tal-IA;
d)
regole di trasparenza armonizzate per determinati sistemi di IA;
(e)
regoli armonizzati għall-introduzzjoni fis-suq ta' mudelli tal-IA bi skop ġenerali;
e)
regole armonizzate per l'immissione sul mercato di modelli di IA per finalità generali;
(f)
regoli dwar il-monitoraġġ tas-suq, il-governanza tas-sorveljanza tas-suq u l-infurzar;
f)
regole in materia di monitoraggio del mercato, vigilanza del mercato, governance ed esecuzione;
(g)
miżuri b'appoġġ għall-innovazzjoni b'enfasi partikolari fuq l-SMEs, inkluż in-negozji ġodda.
g)
misure a sostegno dell'innovazione, con particolare attenzione alle PMI, comprese le start-up.
Artikolu 2
Articolo 2
Kamp ta' applikazzjoni
Ambito di applicazione
1. Dan ir-Regolament japplika għal:
1. Il presente regolamento si applica:
(a)
il-fornituri li jintroduċu fis-suq jew li jqiegħdu fis-servizz sistemi tal-IA jew li jintroduċu fis-suq mudelli tal-IA bi skop ġenerali fl-Unjoni, irrispettivament minn jekk dawk il-fornituri jkunux stabbiliti jew ikunux jinsabu fl-Unjoni jew f'pajjiż terz;
a)
ai fornitori che immettono sul mercato o mettono in servizio sistemi di IA o immettono sul mercato modelli di IA per finalità generali nell'Unione, indipendentemente dal fatto che siano stabiliti o ubicati nell'Unione o in un paese terzo;
(b)
l-implimentaturi ta' sistemi tal-IA li għandhom il-post ta' stabbiliment tagħhom fl-Unjoni jew li jinsabu fiha;
b)
ai deployer dei sistemi di IA che hanno il loro luogo di stabilimento o sono situati all'interno dell'Unione;
(c)
il-fornituri u l-implimentaturi ta' sistemi tal-IA li għandhom il-post ta' stabbiliment f'pajjiż terz jew li jinsabu f'pajjiż terz, meta l-output prodott mis-sistema tal-IA jintuża fl-Unjoni;
c)
ai fornitori e ai deployer di sistemi di IA che hanno il loro luogo di stabilimento o sono situati in un paese terzo, laddove l'output prodotto dal sistema di IA sia utilizzato nell'Unione;
(d)
l-importaturi u d-distributuri ta' sistemi tal-IA;
d)
agli importatori e ai distributori di sistemi di IA;
(e)
il-manifatturi tal-prodotti li jintroduċu fis-suq jew li jqiegħdu fis-servizz sistema tal-IA flimkien mal-prodott tagħhom u taħt isimhom jew bit-trademark tagħhom stess;
e)
ai fabbricanti di prodotti che immettono sul mercato o mettono in servizio un sistema di IA insieme al loro prodotto e con il loro nome o marchio;
(f)
ir-rappreżentanti awtorizzati tal-fornituri, li mhumiex stabbiliti fl-Unjoni;
f)
ai rappresentanti autorizzati di fornitori, non stabiliti nell'Unione;
(g)
il-persuni affettwati li jinsabu fl-Unjoni.
g)
alle persone interessate che si trovano nell'Unione.
2. Għas-sistemi tal-IA klassifikati bħala sistemi tal-IA b'riskju għoli f'konformità mal-Artikolu 6(1) relatati ma' prodotti koperti bil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fit-Taqsima B tal-Anness I, japplikaw biss l-Artikolu 6(1), l-Artikoli 102 sa 109 u l- Artikolu 112. L-Artikolu 57 japplika biss sa fejn ir-rekwiżiti għas-sistemi tal-IA b'riskju għoli skont dan ir-Regolament ikunu ġew integrati f'dik il-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni.
2. Ai sistemi di IA classificati come ad alto rischio ai sensi dell'articolo 6, paragrafo 1, relativo a prodotti disciplinati dalla normativa di armonizzazione dell'Unione elencata nell'allegato I, sezione B, si applicano unicamente l’articolo 6, paragrafo 1, gli articoli da 102 a 109 e l'articolo 112. L'articolo 57 si applica solo nella misura in cui i requisiti per i sistemi di IA ad alto rischio a norma del presente regolamento siano stati integrati in tale normativa di armonizzazione dell'Unione.
3. Dan ir-Regolament ma japplikax għal oqsma barra mill-kamp ta' applikazzjoni tad-dritt tal-Unjoni, u ma għandux, fi kwalunkwe każ, jaffettwa l-kompetenzi tal-Istati Membri fir-rigward tas-sigurtà nazzjonali, irrispettivament mit-tip ta' entità fdata mill-Istati Membri biex twettaq il-kompiti fir-rigward ta' dawk il-kompetenzi.
3. Il presente regolamento non si applica a settori che non rientrano nell'ambito di applicazione del diritto dell'Unione e, in ogni caso, non pregiudica le competenze degli Stati membri in materia di sicurezza nazionale, indipendentemente dal tipo di entità incaricata dagli Stati membri di svolgere compiti in relazione a tali competenze.
Dan ir-Regolament ma japplikax għal sistemi tal-IA fejn u sakemm jiġu introdotti fis-suq, jitqiegħdu fis-servizz jew jintużaw b'modifika jew mingħajr modifika esklużivament għal fini militari, ta' difiża jew ta' sigurtà nazzjonali, irrispettivament mit-tip tal-entità li twettaq dawk l-attivitajiet.
Il presente regolamento non si applica ai sistemi di IA se e nella misura in cui sono immessi sul mercato, messi in servizio o utilizzati con o senza modifiche esclusivamente per scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività.
Dan ir-Regolament ma japplikax għal sistemi tal-IA li ma jiġux introdotti fis-suq jew imqiegħda fis-servizz fl-Unjoni, meta l-output jintuża fl-Unjoni esklużivament għal fini militari, ta' difiża jew ta' sigurtà nazzjonali, irrispettivament mit-tip tal-entità li twettaq dawk l-attivitajiet.
Il presente regolamento non si applica ai sistemi di IA che non sono immessi sul mercato o messi in servizio nell'Unione, qualora l'output sia utilizzato nell'Unione esclusivamente per scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività.
4. Dan ir-Regolament la japplika għal awtoritajiet pubbliċi f'pajjiż terz u lanqas għal organizzazzjonijiet internazzjonali li jaqgħu fil-kamp ta' applikazzjoni ta' dan ir-Regolament skont il-paragrafu 1, meta dawk l-awtoritajiet jew l-organizzazzjonijiet jużaw sistemi tal-IA fil-qafas ta' kooperazzjoni jew ftehimiet internazzjonali għall-infurzar tal-liġi u l-kooperazzjoni ġudizzjarja mal-Unjoni jew ma' Stat Membru wieħed jew aktar, dment li tali pajjiż terz jew organizzazzjoni internazzjonali tipprovdi salvagwardji adegwati fir-rigward tal-protezzjoni tad-drittijiet fundamentali u l-libertajiet tal-individwi.
4. Il presente regolamento non si applica alle autorità pubbliche di un paese terzo né alle organizzazioni internazionali che rientrano nell'ambito di applicazione del presente regolamento a norma del paragrafo 1, laddove tali autorità o organizzazioni utilizzino i sistemi di IA nel quadro della cooperazione o di accordi internazionali per la cooperazione delle autorità di contrasto e giudiziarie con l'Unione o con uno o più Stati membri, a condizione che tale paese terzo o organizzazione internazionale fornisca garanzie adeguate per quanto riguarda la protezione dei diritti e delle libertà fondamentali delle persone.
5. Dan ir-Regolament ma għandux jaffettwa l-applikazzjoni tad-dispożizzjonijiet dwar ir-responsabbiltà tal-fornituri tas-servizzi intermedjarji kif stipulat fil-Kapitolu II tar-Regolament (UE) 2022/2065.
5. Il presente regolamento non pregiudica l'applicazione delle disposizioni sulla responsabilità dei prestatori di servizi intermediari di cui al capo II del regolamento (UE) 2022/2065.
6. Dan ir-Regolament ma japplikax għal sistemi jew mudelli tal-IA, inkluż l-output tagħhom, speċifikament żviluppati u mqiegħda fis-servizz għall-iskop uniku tar-riċerka u l-iżvilupp xjentifiċi.
6. Il presente regolamento non si applica ai sistemi di IA o modelli di IA, ivi compresi i loro output, specificamente sviluppati e messi in servizio al solo scopo di ricerca e sviluppo scientifici.
7. Il-liġi tal-Unjoni dwar il-protezzjoni ta' data personali, il-privatezza u l-kunfidenzjalità tal-komunikazzjoni tapplika għal data personali pproċessata b'rabta mad-drittijiet u l-obbligi stabbiliti f'dan ir-Regolament. Dan ir-Regolament ma għandux jaffettwa r-Regolament (UE) 2016/679 jew (UE) 2018/1725 jew id-Direttiva 2002/58/KE jew (UE) 2016/680, mingħajr preġudizzju għall-Artikolu 10(5) u l-Artikolu 59 ta' dan ir-Regolament.
7. Il diritto dell'Unione in materia di protezione dei dati personali, della vita privata e della riservatezza delle comunicazioni si applica ai dati personali trattati in relazione ai diritti e agli obblighi stabiliti dal presente regolamento. Il presente regolamento lascia impregiudicati il regolamento (UE) 2016/679 o (UE) 2018/1725 o la direttiva 2002/58/CE o (UE) 2016/680, fatti salvi l'articolo 10, paragrafo 5, e l'articolo 59 del presente regolamento.
8. Dan ir-Regolament ma japplika għall-ebda attività ta' riċerka, ittestjar jew żvilupp fir-rigward ta' sistemi tal-IA jew mudelli tal-IA qabel ma jiġu introdotti fis-suq jew jitqiegħdu fis-servizz. Tali attivitajiet għandhom jitwettqu f'konformità mal-liġi tal-Unjoni applikabbli. L-ittestjar fil-kundizzjonijiet tad-dinja reali ma għandux ikun kopert minn dik l-esklużjoni.
8. Il presente regolamento non si applica alle attività di ricerca, prova o sviluppo relative a sistemi di IA o modelli di IA prima della loro immissione sul mercato o messa in servizio. Tali attività sono svolte in conformità del diritto dell'Unione applicabile. Le prove in condizioni reali non rientrano in tale esclusione.
9. Dan ir-Regolament huwa mingħajr preġudizzju għar-regoli stabbiliti minn atti legali oħra tal-Unjoni relatati mal-protezzjoni tal-konsumatur u s-sikurezza tal-prodotti.
9. Il presente regolamento lascia impregiudicate le norme stabilite da altri atti giuridici dell'Unione in materia di protezione dei consumatori e di sicurezza dei prodotti.
10. Dan ir-Regolament ma japplikax għall-obbligi ta' implimentaturi li huma persuni fiżiċi li jużaw sistemi tal-IA waqt attività purament personali mhux professjonali.
10. Il presente regolamento non si applica agli obblighi dei deployer che sono persone fisiche che utilizzano sistemi di IA nel corso di un'attività non professionale puramente personale.
11. Dan ir-Regolament ma jipprekludix lill-Unjoni jew lill-Istati Membri milli jżommu jew jintroduċu liġijiet, regolamenti jew dispożizzjonijiet amministrattivi li huma aktar favorevoli għall-ħaddiema f'termini ta' protezzjoni tad-drittijiet tagħhom fir-rigward tal-użu tas-sistemi tal-IA mill-impjegaturi, jew milli jħeġġu jew jippermettu l-applikazzjoni ta' ftehimiet kollettivi li huma aktar favorevoli għall-ħaddiema.
11. Il presente regolamento non osta a che l'Unione o gli Stati membri mantengano o introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai lavoratori in termini di tutela dei loro diritti in relazione all'uso dei sistemi di IA da parte dei datori di lavoro, o incoraggino o consentano l'applicazione di contratti collettivi più favorevoli ai lavoratori.
12. Dan ir-Regolament ma japplikax għas-sistemi tal-IA rilaxxati b'liċenzji liberi u b'sors miftuħ sakemm ma jiġux introdotti fis-suq jew mqiegħda fis-servizz bħala sistemi tal-IA b'riskju għoli jew bħala sistema tal-IA li taqa' taħt l-Artikolu 5 jew 50.
12. Il presente regolamento non si applica ai sistemi di IA rilasciati con licenza libera e open source, a meno che non siano immessi sul mercato o messi in servizio come sistemi di IA ad alto rischio o come sistema di IA rientrante nell'ambito di applicazione dell'articolo 5 o 50.
Artikolu 3
Articolo 3
Definizzjonijiet
Definizioni
Għall-finijiet ta' dan ir-Regolament, japplikaw id-definizzjonijiet li ġejjin:
Ai fini del presente regolamento si applicano le definizioni seguenti:
(1)
“sistema tal-IA” tfisser sistema bbażata fuq magna li hija mfassla biex topera b'livelli differenti ta' awtonomija u li tista' turi adattabbiltà wara l-implimentazzjoni, u li, għal objettivi espliċiti jew impliċiti, tinferixxi, mill-input li tirċievi, kif tiġġenera outputs bħal previżjonijiet, kontenut, rakkomandazzjonijiet jew deċiżjonijiet li jistgħu jinfluwenzaw ambjenti fiżiċi jew virtwali;
1)
«sistema di IA»: un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali;
(2)
“riskju” tfisser il-kombinazzjoni tal-probabbiltà li sseħħ ħsara u s-severità ta' dik il-ħsara;
2)
«rischio»: la combinazione della probabilità del verificarsi di un danno e la gravità del danno stesso;
(3)
“fornitur” tfisser persuna fiżika jew ġuridika, awtorità pubblika, aġenzija jew korp ieħor li jiżviluppa sistema tal-IA jew mudell tal-IA bi skop ġenerali jew li jikkummissjona l-iżvilupp ta' sistema tal-IA jew mudell tal-IA bi skop ġenerali u jintroduċih fis-suq jew iqiegħed is-sistema tal-IA fis-servizz taħt ismu jew bit-trademark tiegħu stess, kemm jekk bi ħlas kif ukoll jekk mingħajr ħlas;
3)
«fornitore»: una persona fisica o giuridica, un'autorità pubblica, un'agenzia o un altro organismo che sviluppa un sistema di IA o un modello di IA per finalità generali o che fa sviluppare un sistema di IA o un modello di IA per finalità generali e immette tale sistema o modello sul mercato o mette in servizio il sistema di IA con il proprio nome o marchio, a titolo oneroso o gratuito;
(4)
“implimentatur” tfisser persuna fiżika jew ġuridika, awtorità pubblika, aġenzija jew korp ieħor li juża' sistema tal-IA taħt l-awtorità tiegħu stess ħlief meta s-sistema tal-IA tintuża waqt attività personali mhux professjonali;
4)
«deployer»: una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale;
(5)
“rappreżentant awtorizzat” tfisser persuna fiżika jew ġuridika li tkun tinsab jew li hija stabbilita fl-Unjoni li tkun irċeviet u aċċettat mandat bil-miktub mingħand fornitur ta' sistema tal-IA jew ta' mudell tal-IA bi skop ġenerali biex, rispettivament, teżegwixxi u twettaq f'ismu l-obbligi u l-proċeduri stabbiliti minn dan ir-Regolament;
5)
«rappresentante autorizzato»: una persona fisica o giuridica ubicata o stabilita nell'Unione che ha ricevuto e accettato un mandato scritto da un fornitore di un sistema di IA o di un modello di IA per finalità generali al fine, rispettivamente, di adempiere ed eseguire per suo conto gli obblighi e le procedure stabiliti dal presente regolamento;
(6)
“importatur” tfisser persuna fiżika jew ġuridika li tkun tinsab jew li hija stabbilita fl-Unjoni li tintroduċi fis-suq sistema tal-IA li jkollha l-isem jew it-trademark ta' persuna fiżika jew ġuridika stabbilita f'pajjiż terz;
6)
«importatore»: una persona fisica o giuridica ubicata o stabilita nell'Unione che immette sul mercato un sistema di IA recante il nome o il marchio di una persona fisica o giuridica stabilita in un paese terzo;
(7)
“distributur” tfisser persuna fiżika jew ġuridika fil-katina tal-provvista, għajr il-fornitur jew l-importatur, li tqiegħed is-sistema tal-IA disponibbli fis-suq tal-Unjoni;
7)
«distributore»: una persona fisica o giuridica nella catena di approvvigionamento, diversa dal fornitore o dall'importatore, che mette a disposizione un sistema di IA sul mercato dell'Unione;
(8)
“operatur” tfisser fornitur, manifattur tal-prodott, implimentatur, rappreżentant awtorizzat, importatur jew distributur;
8)
«operatore»: un fornitore, un fabbricante del prodotto, un deployer, un rappresentante autorizzato, un importatore o un distributore;
(9)
“introduzzjoni fis-suq” tfisser l-ewwel darba li sistema tal-IA jew mudell tal-IA bi skop ġenerali ssir disponibbli fis-suq tal-Unjoni;
9)
«immissione sul mercato»: la prima messa a disposizione di un sistema di IA o di un modello di IA per finalità generali sul mercato dell'Unione;
(10)
“tqegħid għad-dispożizzjoni fis-suq” tfisser il-forniment ta' sistema tal-IA jew ta' mudell tal-IA bi skop ġenerali għad-distribuzzjoni jew għall-użu fis-suq tal-Unjoni waqt attività kummerċjali, kemm jekk bi ħlas kif ukoll jekk mingħajr ħlas;
10)
«messa a disposizione sul mercato»: la fornitura di un sistema di IA o di un modello di IA per finalità generali per la distribuzione o l'uso sul mercato dell'Unione nel corso di un'attività commerciale, a titolo oneroso o gratuito;
(11)
“tqegħid fis-servizz” tfisser il-forniment ta' sistema tal-IA għall-ewwel użu direttament lill-implimentatur jew għall-użu proprju fl-Unjoni għall-għan maħsub tagħha;
11)
«messa in servizio»: la fornitura di un sistema di IA direttamente al deployer per il primo uso o per uso proprio nell'Unione per la finalità prevista;
(12)
“għan maħsub” tfisser l-użu li għalih sistema tal-IA tkun maħsuba mill-fornitur, inkluż il-kuntest speċifiku u l-kundizzjonijiet tal-użu, kif speċifikati fl-informazzjoni pprovduta mill-fornitur fl-istruzzjonijiet għall-użu, fil-materjali u fid-dikjarazzjonijiet promozzjonali jew tal-bejgħ, kif ukoll fid-dokumentazzjoni teknika;
12)
«finalità prevista»: l'uso di un sistema di IA previsto dal fornitore, compresi il contesto e le condizioni d'uso specifici, come dettagliati nelle informazioni comunicate dal fornitore nelle istruzioni per l'uso, nel materiale promozionale o di vendita e nelle dichiarazioni, nonché nella documentazione tecnica;
(13)
“użu ħażin raġonevolment prevedibbli” tfisser l-użu ta' sistema tal-IA b'mod li ma jkunx f'konformità mal-għan maħsub tagħha, iżda li jista' jirriżulta minn imġiba tal-bniedem jew interazzjoni ma' sistemi oħra, inkluż sistemi oħra tal-IA, raġonevolment prevedibbli;
13)
«uso improprio ragionevolmente prevedibile»: l'uso di un sistema di IA in un modo non conforme alla sua finalità prevista, ma che può derivare da un comportamento umano o da un'interazione con altri sistemi, ivi compresi altri sistemi di IA, ragionevolmente prevedibile;
(14)
“komponent tas-sikurezza” tfisser komponent ta' prodott jew ta' sistema tal-IA li jaqdi funzjoni tas-sikurezza għal dak il-prodott jew għal dik is-sistema tal-IA, jew li l-falliment jew il-funzjonament ħażin tiegħu jipperikola s-saħħa u s-sikurezza tal-persuni jew ta' proprjetà;
14)
«componente di sicurezza»: un componente di un prodotto o di un sistema di IA che svolge una funzione di sicurezza per tale prodotto o sistema di IA o il cui guasto o malfunzionamento mette in pericolo la salute e la sicurezza di persone o beni;
(15)
“struzzjonijiet għall-użu” tfisser l-informazzjoni pprovduta mill-fornitur biex jinforma lill-implimentatur, b’mod partikolari, dwar l-għan maħsub u l-użu xieraq ta' sistema tal-IA;
15)
«istruzioni per l'uso»: le informazioni comunicate dal fornitore per informare il deployer in particolare della finalità prevista e dell'uso corretto di un sistema di IA;
(16)
“sejħa lura ta' sistema tal-IA” tfisser kwalunkwe miżura mmirata lejn il-kisba tar-ritorn lill-fornitur jew it-tneħħija mis-servizz jew id-diżattivazzjoni tal-użu ta' sistema tal-IA mqiegħda għad-dispożizzjoni tal-implimentaturi;
16)
«richiamo di un sistema di IA»: qualsiasi misura volta a ottenere la restituzione al fornitore, la messa fuori servizio o la disabilitazione dell'uso di un sistema di IA messo a disposizione dei deployer;
(17)
“irtirar ta' sistema tal-IA” tfisser kwalunkwe miżura maħsuba biex iżżomm sistema tal-IA fil-katina tal-provvista milli ssir disponibbli fis-suq;
17)
«ritiro di un sistema di IA»: qualsiasi misura volta a impedire che un sistema di IA nella catena di approvvigionamento sia messo a disposizione sul mercato;
(18)
“prestazzjoni ta' sistema tal-IA” tfisser il-kapaċità ta' sistema tal-IA li tilħaq l-għan maħsub tagħha;
18)
«prestazioni di un sistema di IA»: la capacità di un sistema di IA di conseguire la finalità prevista;
(19)
“awtorità tan-notifika” tfisser l-awtorità nazzjonali responsabbli għall-istabbiliment u t-twettiq tal-proċeduri meħtieġa għall-valutazzjoni, id-deżinjazzjoni u n-notifika tal-korpi ta' valutazzjoni tal-konformità u għall-monitoraġġ tagħhom;
19)
«autorità di notifica»: l'autorità nazionale responsabile dell'istituzione e dell'esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio;
(20)
“valutazzjoni tal-konformità” tfisser il-proċess biex jintwera jekk ir-rekwiżiti stipulati fil-Kapitolu III, it-Taqsima 2 relatati ma' sistema tal-IA b'riskju għoli ġewx issodisfati;
20)
«valutazione della conformità»: la procedura atta a dimostrare se i requisiti di cui al capo III, sezione 2, relativi a un sistema di IA ad alto rischio sono stati soddisfatti;
(21)
“korp ta' valutazzjoni tal-konformità” tfisser korp li jwettaq attivitajiet ta' valutazzjoni tal-konformità ta' parti terza, inkluż l-ittestjar, iċ-ċertifikazzjoni u l-ispezzjoni;
21)
«organismo di valutazione della conformità»: un organismo che svolge per conto di terzi attività di valutazione della conformità, incluse prove, certificazioni e ispezioni;
(22)
“korp notifikat” tfisser korp ta' valutazzjoni tal-konformità notifikat f'konformità ma' dan ir-Regolament u ma' leġiżlazzjoni rilevanti oħra tal-Unjoni dwar l-armonizzazzjoni;
22)
«organismo notificato»: un organismo di valutazione della conformità notificato in conformità del presente regolamento e di altre pertinenti normative di armonizzazione dell'Unione;
(23)
“modifika sostanzjali” tfisser bidla f'sistema tal-IA wara l-introduzzjoni tagħha fis-suq jew it-tqegħid tagħha fis-servizz li ma tkunx prevista jew ippjanata fil-valutazzjoni tal-konformità inizjali li tkun saret mill-fornitur u li b'riżultat tagħha tiġi affettwata l-konformità tas-sistema tal-IA mar-rekwiżiti stipulati fil-Kapitolu III, it-Taqsima 2, jew li tirriżulta f'modifika fl-għan maħsub li għalih tkun ġiet ivvalutata s-sistema tal-IA;
23)
«modifica sostanziale»: una modifica di un sistema di IA a seguito della sua immissione sul mercato o messa in servizio che non è prevista o programmata nella valutazione iniziale della conformità effettuata dal fornitore e che ha l'effetto di incidere sulla conformità del sistema di IA ai requisiti di cui al capo III, sezione 2, o comporta una modifica della finalità prevista per la quale il sistema di IA è stato valutato;
(24)
“markatura CE” tfisser marka li permezz tagħha fornitur jindika li sistema tal-IA hi konformi mar-rekwiżiti stipulati fil-Kapitolu III, it-Taqsima 2 u ma' leġiżlazzjoni applikabbli oħra tal-Unjoni dwar l-armonizzazzjoni, li tipprevedi t-twaħħil tagħha;
24)
«marcatura CE»: una marcatura mediante la quale un fornitore indica che un sistema di IA è conforme ai requisiti stabiliti al capo III, sezione 2, e in altre normative di armonizzazione dell'Unione applicabili e che ne prevedono l'apposizione;
(25)
“sistema ta' sorveljanza ta' wara t-tqegħid fis-suq” tfisser l-attivitajiet kollha mwettqa mill-fornituri tas-sistemi tal-IA biex jiġbru u jirrieżaminaw l-esperjenza miksuba mill-użu tas-sistemi tal-IA li jintroduċu fis-suq jew iqiegħdu fis-servizz bl-għan li jidentifikaw xi ħtieġa li japplikaw minnufih azzjoni korrettiva jew preventiva meħtieġa;
25)
«sistema di monitoraggio successivo all'immissione sul mercato»: tutte le attività svolte dai fornitori di sistemi di IA al fine diraccogliere e analizzare l'esperienza maturata tramite l'uso dei sistemi di IA che immettono sul mercato o che mettono in servizio, al fine di individuare eventuali necessità di immediate azioni correttive o preventive;
(26)
“awtorità tas-sorveljanza tas-suq” tfisser l-awtorità nazzjonali li twettaq l-attivitajiet u li tieħu l-miżuri skont ir-Regolament (UE) 2019/1020;
26)
«autorità di vigilanza del mercato»: l'autorità nazionale che svolge le attività e adotta le misure a norma del regolamento (UE) 2019/1020;
(27)
“standard armonizzat” tfisser standard Ewropew kif definit fl-Artikolu 2(1), il-punt (c) tar-Regolament (UE) Nru 1025/2012;
27)
«norma armonizzata»: la norma armonizzata di cui all'articolo 2, punto 1), lettera c), del regolamento (UE) n, 1025/2012;
(28)
“speċifikazzjoni komuni” tfisser sett ta' speċifikazzjonijiet tekniċi, kif definit fl-Artikolu 2, il-punt (4) tar-Regolament (UE) Nru 1025/2012, li tipprovdi mezz biex jiġu ssodisfati ċerti rekwiżiti stabbiliti taħt dan ir-Regolament;
28)
«specifiche comuni»: un insieme di specifiche tecniche quali definite all'articolo 2, punto 4), del regolamento (UE) n, 1025/2012, che forniscono i mezzi persoddisfare determinati requisitistabiliti a norma del presente regolamento;
(29)
“data għat-taħriġ” tfisser data użata għat-taħriġ ta' sistema tal-IA bl-attrezzar tal-parametri tagħha li jistgħu jiġu mgħallma;
29)
«dati di addestramento»: i dati utilizzati per addestrare un sistema di IA adattandone i parametri che può apprendere;
(30)
“data għall-validazzjoni” tfisser data użata biex tiġi provduta evalwazzjoni tas-sistema tal-IA mħarrġa u għall-irfinar tal-parametri tagħha li ma jistgħux jiġu mgħallma u tal-proċess tat-tagħlim tagħha, sabiex, fost affarijiet oħra, jiġi evitat attrezzar insuffiċjenti jew attrezzar żejjed;
30)
«dati di convalida»: i dati utilizzati per fornire una valutazione del sistema di IA addestrato e per metterne a punto, tra l'altro, i parametri che non può apprendere e il processo di apprendimento, al fine tra l'altro di evitare lo scarso (underfitting) o l'eccessivo (overfitting) adattamento ai dati di addestramento;
(31)
“sett ta' data ta' validazzjoni” tfisser sett ta' data separat jew parti mis-sett ta' data dwar it-taħriġ, bħala qsim fissa jew varjabbli;
31)
«set di dati di convalida»: un set di dati distinto o costituito da una partizione fissa o variabile del set di dati di addestramento;
(32)
“data għall-ittestjar” tfisser data użata biex tiġi pprovduta evalwazzjoni indipendenti tas-sistema tal-IA sabiex tiġi kkonfermata l-prestazzjoni mistennija ta' dik is-sistema qabel ma tiġi introdotta fis-suq jew imqiegħda fis-servizz;
32)
«dati di prova»: i dati utilizzati per fornire una valutazione indipendente delsistema di IA al fine di confermarne le prestazioni attese prima della sua immissione sul mercato o messa in servizio;
(33)
“data tal-input” tfisser data pprovduta lil sistema tal-IA jew akkwistata direttament minnha li, abbażi tagħha, is-sistema tipproduċi output;
33)
«dati di input»: i dati forniti a un sistema di IA o direttamente acquisiti dallo stesso, in base ai quali il sistema produce un output;
(34)
“data bijometrika” tfisser data personali li tirriżulta mill-ipproċessar tekniku speċifiku relatat mal-karatteristiċi fiżiċi, fiżjoloġiċi jew komportamentali ta' persuna fiżika, bħal immaġnijiet tal-wiċċ jew data dattiloskopika;
34)
«dati biometrici»: i dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica,quali le immagini facciali o i dati dattiloscopici;
(35)
“identifikazzjoni bijometrika” tfisser ir-rikonoxximent awtomatizzat ta' karatteristiċi fiżiċi, fiżjoloġiċi, komportamentali jew psikoloġiċi tal-bniedem għall-fini li tiġi stabbilita l-identità ta' persuna fiżika permezz tat-tqabbil tad-data bijometrika ta' dak l-individwu mad-data bijometrika ta' individwi maħżuna f'bażi tad-data;
35)
«identificazione biometrica»: il riconoscimento automatizzato delle caratteristiche umane fisiche, fisiologiche, comportamentali o psicologiche allo scopo di determinare l'identità di una persona fisica confrontando i suoi dati biometrici con quelli di individui memorizzati in una banca dati;
(36)
“verifika bijometrika” tfisser il-verifika awtomatizzata, “one-to-one”, inkluż l-awtentikazzjoni, tal-identità tal-persuni fiżiċi permezz tat-tqabbil tad-data bijometrika tagħhom mad-data bijometrika pprovduta preċedentement;
36)
«verifica biometrica»: la verifica automatizzata e uno a uno, inclusa l'autenticazione, dell'identità di persone fisiche mediante il confronto dei loro dati biometrici con i dati biometrici forniti in precedenza;
(37)
“kategoriji speċjali ta' data personali” tfisser il-kategoriji ta' data personali msemmija fl-Artikolu 9(1) tar-Regolament (UE) 2016/679, l-Artikolu 10 tad-Direttiva (UE) 2016/680 u l-Artikolu 10(1) tar-Regolament (UE) 2018/1725;
37)
«categorie particolari di dati personali»: le categorie di dati personali di cui all'articolo 9, paragrafo 1, del regolamento (UE) 2016/679, all'articolo 10 della direttiva (UE) 2016/680 e all'articolo 10, paragrafo 1, del regolamento (UE) 2018/1725;
(38)
“data operazzjonali sensittiva” tfisser data operazzjonali relatata ma' attivitajiet ta' prevenzjoni, kxif, investigazzjoni jew prosekuzzjoni ta' reati kriminali, li d-divulgazzjoni tagħha tista' tipperikola l-integrità tal-proċedimenti kriminali;
38)
«dati operativi sensibili»: dati operativi relativi ad attività di prevenzione, accertamento, indagine o perseguimento di reati, la cui divulgazione potrebbe compromettere l'integrità dei procedimenti penali;
(39)
“sistema ta' rikonoxximent tal-emozzjonijiet” tfisser sistema tal-IA għall-fini tal-identifikazzjoni jew tal-inferiment tal-emozzjonijiet jew tal-intenzjonijiet ta' persuni fiżiċi abbażi tad-data bijometrika tagħhom;
39)
«sistema di riconoscimento delle emozioni»: un sistema di IA finalizzato all'identificazione o all'inferenza di emozioni o intenzioni di persone fisiche sulla base dei loro dati biometrici;
(40)
“sistema ta' kategorizzazzjoni bijometrika” tfisser sistema tal-IA bil-għan li persuni fiżiċi jiġu assenjati f'kategoriji speċifiċi abbażi tad-data bijometrika tagħhom, dment li ma tkunx anċillari għal servizz kummerċjali ieħor u strettament meħtieġa għal raġunijiet tekniċi oġġettivi;
40)
«sistema di categorizzazione biometrica»: un sistema di IA che utilizza i dati biometrici di persone fisiche al fine di assegnarle a categorie specifiche, a meno che non sia accessorio a un altro servizio commerciale e strettamente necessario per ragioni tecniche oggettive;
(41)
“sistema ta' identifikazzjoni bijometrika remota” tfisser sistema tal-IA għall-fini tal-identifikazzjoni ta' persuni fiżiċi, mingħajr l-involviment attiv tagħhom, tipikament mill-bogħod permezz tat-tqabbil tad-data bijometrika ta' persuna mad-data bijometrika li tkun tinsab f'bażi ta' data ta' referenza;
41)
«sistema di identificazione biometrica remota»: un sistema di IA finalizzato all'identificazione di persone fisiche, senza il loro coinvolgimento attivo, tipicamente a distanza mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento;
(42)
“sistema ta' identifikazzjoni bijometrika remota ‘fil-ħin reali’” tfisser sistema ta' identifikazzjoni bijometrika remota, li biha l-qbid tad-data bijometrika, it-tqabbil u l-identifikazzjoni kollha jseħħu mingħajr dewmien sinifikanti, li tinkludi mhux biss identifikazzjoni istantanja, iżda wkoll dewmien qasir limitat sabiex tiġi evitata ċ-ċirkomvenzjoni;
42)
«sistema di identificazione biometrica remota in tempo reale»: un sistema di identificazione biometrica remota in cui il rilevamento dei dati biometrici, il confronto e l'identificazione avvengono senza ritardi significativi, il quale comprende non solo le identificazioni istantanee, ma anche quelle che avvengono con brevi ritardi limitati al fine di evitare l'elusione;
(43)
“sistema ta' identifikazzjoni bijometrika remota ‘f'ħin aktar tard’” tfisser sistema ta' identifikazzjoni bijometrika remota minbarra sistema ta' identifikazzjoni bijometrika remota “fil-ħin reali”;
43)
«sistema di identificazione biometrica remota a posteriori»: un sistema di identificazione biometrica remota diverso da un sistema di identificazione biometrica remota «in tempo reale»;
(44)
“spazju aċċessibbli għall-pubbliku” tfisser kwalunkwe post fiżiku bi sjieda pubblika jew privata aċċessibbli għal għadd indeterminat ta' persuni fiżiċi, irrispettivament minn jekk japplikawx ċerti kundizzjonijiet għall-aċċess, u irrispettivament mir-restrizzjonijiet potenzjali fuq il-kapaċità;
44)
«spazio accessibile al pubblico»: qualsiasi luogo fisico di proprietà pubblica o privata accessibile a un numero indeterminato di persone fisiche, indipendentemente dal fatto che possano applicarsi determinate condizioni di accesso e indipendentemente dalle potenziali restrizioni di capacità;
(45)
“awtorità tal-infurzar tal-liġi” tfisser:
45)
«autorità di contrasto»:
(a)
kwalunkwe awtorità pubblika kompetenti għall-prevenzjoni, l-investigazzjoni, il-kxif jew il-prosekuzzjoni ta' reati kriminali jew għall-eżekuzzjoni ta' pieni kriminali, inkluż is-salvagwardja kontra u l-prevenzjoni ta' theddidiet għas-sigurtà pubblika; jew
a)
qualsiasi autorità pubblica competente in materia di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse; oppure
(b)
kwalunkwe korp jew entità oħra fdata bil-liġi ta' Stat Membru biex teżerċita awtorità pubblika u setgħat pubbliċi għall-finijiet tal-prevenzjoni, l-investigazzjoni, il-kxif jew il-prosekuzzjoni ta' reati kriminali jew tal-eżekuzzjoni ta' pieni kriminali, inkluż is-salvagwardja kontra u l-prevenzjoni ta' theddidiet għas-sigurtà pubblika;
b)
qualsiasi altro organismo o entità incaricati dal diritto dello Stato membro di esercitare l'autorità pubblica e i poteri pubblici a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse;
(46)
“infurzar tal-liġi” tfisser attivitajiet imwettqa mill-awtoritajiet tal-infurzar tal-liġi jew f'isimhom għall-prevenzjoni, l-investigazzjoni, il-kxif jew il-prosekuzzjoni ta' reati kriminali jew għall-eżekuzzjoni ta' pieni kriminali, inkluż is-salvagwardja kontra u l-prevenzjoni ta' theddidiet għas-sigurtà pubblika;
46)
«attività di contrasto»: le attività svolte dalle autorità di contrasto o per loro conto a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse;
(47)
“Uffiċċju għall-IA” tfisser il-funzjoni tal-Kummissjoni li tikkontribwixxi għall-implimentazzjoni, il-monitoraġġ u s-superviżjoni tas-sistemi tal-IA u tal-mudelli tal-IA bi skop ġenerali, u l-governanza tal-IA, prevista fid-Deċiżjoni tal-Kummissjoni tal-24 ta’ Jannar 2024; ir-referenzi f'dan ir-Regolament għall-Uffiċċju għall-IA għandhom jinftiehmu bħala referenzi għall-Kummissjoni;
47)
«ufficio per l'IA»: la funzione della Commissione volta a contribuire all'attuazione, al monitoraggio e alla supervisione dei sistemi di IA e dei modelli di IA per finalità generali, e della governance dell'IA prevista dalla decisione della Commissione del 24 gennaio 2024. I riferimenti all'ufficio per l'IA contenuti nel presente regolamento si intendono fatti alla Commissione;
(48)
“awtorità nazzjonali kompetenti” tfisser awtorità tan-notifika jew awtorità tas-sorveljanza tas-suq; fir-rigward tas-sistemi tal-IA mqiegħda fis-servizz jew użati mill-istituzzjonijiet, l-aġenziji, l-uffiċċji u l-korpi tal-Unjoni, ir-referenzi għall-awtoritajiet nazzjonali kompetenti jew għall-awtoritajiet tas-sorveljanza tas-suq f'dan ir-Regolament għandhom jitqiesu bħala refernzai għall-Kontrollur Ewropew għall-Protezzjoni tad-Data;
48)
«autorità nazionale competente»: un'autorità di notifica o un'autorità di vigilanza del mercato; per quanto riguarda i sistemi di IA messi in servizio o utilizzati da istituzioni, organi e organismi dell'Unione, i riferimenti alle autorità nazionali competenti o alle autorità di vigilanza del mercato contenuti nel presente regolamento si intendono fatti al Garante europeo della protezione dei dati;
(49)
“inċident serju” tfisser inċident jew ħsara ta' sistema tal-IA li direttament jew indirettament twassal għal wieħed jew waħda minn dawn:
49)
«incidente grave»: un incidente o malfunzionamento di un sistema di IA che, direttamente o indirettamente, causa una delle conseguenze seguenti:
(a)
il-mewt ta' persuna jew ħsara serja għas-saħħa ta' persuna;
a)
il decesso di una persona o gravi danni alla salute di una persona;
(b)
tfixkil serju u irriversibbli fil-ġestjoni jew it-tħaddim ta' infrastruttura kritika.
b)
una perturbazione grave e irreversibile della gestione o del funzionamento delle infrastrutture critiche;
(c)
il-ksur ta' obbligi skont il-liġi tal-Unjoni maħsuba biex jipproteġu d-drittijiet fundamentali;
c)
la violazione degli obblighi a norma del diritto dell'Unione intesi a proteggere i diritti fondamentali;
(d)
ħsara serja lil proprjetà jew lill-ambjent;
d)
gravi danni alle cose o all'ambiente;
(50)
“data personali” tfisser data kif definit fl-Artikolu 4, il-punt (1), tar-Regolament (UE) 2016/679;
50)
«dati personali»: i dati personali quali definiti all'articolo 4, punto 1), del regolamento (UE) 2016/679;
(51)
“data mhux personali” tfisser data li mhijiex data personali, kif definita fl-Artikolu 4, punt (1) tar-Regolament (UE) 2016/679;
51)
«dati non personali»: dati diversi dai dati personali di cui all'articolo 4, punto 1), del regolamento (UE) 2016/679;
(52)
“tfassil tal-profil” tfisser it-tfassil tal-profil kif definit fl-Artikolu 4, il-punt (4), tar-Regolament (UE) 2016/679;
52)
«profilazione»: la profilazione quale definita all'articolo 4, punto 4), del regolamento (UE) 2016/679;
(53)
“pjan ta' ttestjar fid-dinja reali” tfisser dokument li jiddeskrivi l-objettivi, il-metodoloġija, l-ambitu ġeografiku, tal-popolazzjoni u dak temporali, il-monitoraġġ, l-organizzazzjoni u t-twettiq tal-ittestjar f'kundizzjonijiet tad-dinja reali;
53)
«piano di prova in condizioni reali»: un documento che descrive gli obiettivi, la metodologia, l'ambito geografico, della popolazione e temporale, il monitoraggio, l'organizzazione e lo svolgimento della prova in condizioni reali;
(54)
“pjan tal-ambjent ta' esperimentazzjoni” tfisser dokument maqbul bejn il-fornitur parteċipanti u l-awtorità kompetenti li jiddeskrivi l-objettivi, il-kundizzjonijiet, il-perjodu ta' żmien, il-metodoloġija u r-rekwiżiti għall-attivitajiet imwettqa fl-ambjent ta' esperimentazzjoni;
54)
«piano dello spazio di sperimentazione»: un documento concordato tra il fornitore partecipante e l'autorità competente in cui sono descritti gli obiettivi, le condizioni, il calendario, la metodologia e i requisiti relativamente alle attività svolte all'interno dello spazio di sperimentazione;
(55)
“ambjent ta' esperimentazzjoni regolatorja għall-IA” tfisser qafas ikontrollat stabbilit minn awtorità nazzjonali kompetenti li joffri lill-fornituri jew lil fornituri prospettivi ta' sistemi tal-IA l-possibbiltà li jiżviluppaw, iħarrġu, jivvalidaw u jittestjaw, meta xieraq fil-kundizzjonijiet tad-dinja reali, sistema innovattiva tal-IA, skont pjan ta' esperimentazzjoni għal żmien limitat taħt superviżjoni regolatorja;
55)
«spazio di sperimentazione normativa per l'IA»: un quadro controllato istituito da un'autorità competente che offre ai fornitori o potenziali fornitori di sistemi di IA la possibilità di sviluppare, addestrare, convalidare e provare, se del caso in condizioni reali, un sistema di IA innovativo, conformemente a un piano dello spazio di sperimentazione per un periodo di tempo limitato sotto supervisione regolamentare;
(56)
“litteriżmu fl-IA” tfisser ħiliet, għarfien u fehim li jippermetti lill-fornituri, lill-implimentaturi u lill-persuni affettwati, b'kunsiderazzjoni għad-drittijiet u l-obbligi rispettivi tagħhom fil-kuntest ta' dan ir-Regolament, jagħmlu użu infurmat tas-sistemi tal-IA, kif ukoll jsiru konxji tal-opportunitajiet u r-riskji tal-IA u l-ħsara possibbli li tista' tikkawża;
56)
«alfabetizzazione in materia di IA»: le competenze, le conoscenze e la comprensione che consentono ai fornitori, ai deployer e alle persone interessate, tenendo conto dei loro rispettivi diritti e obblighi nel contesto del presente regolamento, di procedere a una diffusione informata dei sistemi di IA, nonché di acquisire consapevolezza in merito alle opportunità e ai rischi dell'IA e ai possibili danni che essa può causare;
(57)
“ittestjar f'kundizzjonijiet tad-dinja reali” tfisser l-ittestjar temporanju ta' sistema tal-IA għall-għan maħsub tagħha f'kundizzjonijiet tad-dinja reali barra minn laboratorju jew ambjent simulat b'xi mod ieħor, bil-ħsieb li tinġabar data affidabbli u robusta u biex tiġi vvalutata u vverifikata l-konformità tas-sistema tal-IA mar-rekwiżiti ta' dan ir-Regolament u ma jikkwalifikax bħala li qed jintroduċi s-sistema tal-IA fis-suq jew fis-servizz skont it-tifsira ta' dan ir-Regolament, dment li jiġu ssodisfati l-kundizzjonijiet kollha stabbiliti fl-Artikolu 57 jew 60;
57)
«prova in condizioni reali»: la prova temporanea di un sistema di IA per la sua finalità prevista in condizioni reali al di fuori di un laboratorio o di un ambiente altrimenti simulato al fine di raccogliere dati affidabili e solidi e di valutare e verificare la conformità del sistema di IA ai requisiti del presente regolamento e che non è considerata immissione sul mercato o messa in servizio del sistema di IA ai sensi del presente regolamento, purché siano soddisfatte tutte le condizioni di cui all'articolo 57 o 60;
(58)
“suġġett” għall-fini tal-ittestjar fid-dinja reali tfisser persuna fiżika li tieħu sehem fl-ittestjar fil-kundizzjonijiet tad-dinja reali;
58)
«soggetto»: ai fini della prova in condizioni reali, una persona fisica che partecipa a prove in condizioni reali;
(59)
“kunsens infurmat” tfisser l-espressjoni mogħtija liberament, speċifika, mhux ambigwa u volontarja ta' suġġett tar-rieda tiegħu li jieħu sehem f'ittestjar partikolari fil-kundizzjonijiet tad-dinja reali, wara li jkun ġie infurmat dwar l-aspetti kollha tal-ittestjar li huma rilevanti għad-deċiżjoni tas-suġġett li jieħu sehem;
59)
«consenso informato»: l'espressione libera, specifica, inequivocabile e volontaria di un soggetto della propria disponibilità a partecipare a una determinata prova in condizioni reali, dopo essere stato informato di tutti gli aspetti della prova rilevanti per la sua decisione di partecipare;
(60)
“deepfake” tfisser immaġni, kontenut awdjo jew vidjo ġġenerat jew manipulat minn IA li jixbah lil persuni, oġġetti, postijiet, entitajiet jew avvenimenti oħra li jeżistu u li jidher li huwa awtentiku u veritier għall-persuna li tarah;
60)
«deep fake»: un'immagine o un contenuto audio o video generato o manipolato dall'IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a una persona;
(61)
“ksur mifrux” tfisser kwalunkwe att jew ommissjoni li jmur kontra d-dritt tal-Unjoni li jipproteġi l-interessi tal-individwi, li:
61)
«infrazione diffusa»: qualsiasi azione od omissione contraria al diritto dell'Unione che tutela gli interessi delle persone:
(a)
ikun għamel ħsara jew li x'aktarx ser jagħmel ħsara lill-interessi kollettivi tal-individwi residenti f'mill-inqas żewġ Stat Membri minbarra l-Istat Membru, fejn:
a)
che abbia arrecato o possa arrecare un danno agli interessi collettivi di persone che risiedono in almeno due Stati membri diversi dallo Stato membro in cui:
(i)
oriġina jew seħħ l-att jew l-ommissjoni;
i)
ha avuto origine o si è verificato l'azione o l'omissione in questione;
(ii)
jinsab jew huwa stabbilit il-fornitur ikkonċernat, jew, meta applikabbli, ir-rappreżentant awtorizzat tiegħu; jew
ii)
è ubicato o stabilito il fornitore interessato o, se del caso, il suo rappresentante autorizzato; oppure
(iii)
huwa stabbilit l-implimentatur, meta l-ksur jitwettaq mill-implimentatur;
iii)
è stabilito il deployer, quando la violazione è commessa dal deployer;
(b)
ikun ikkawża, jikkawża jew x'aktarx ser jikkawża ħsara lill-interessi kollettivi tal-individwi u għandu karatteristiċi komuni, inkluż l-istess prattika illegali, qed jikser l-istess interess u qed iseħħ fl-istess ħin, imwettaq mill-istess operatur, f'mill-inqas tliet Stati Membri;
b)
che abbia arrecato, arrechi o possa arrecare un danno agli interessi collettivi di persone e che presenti caratteristiche comuni, compresa la stessa pratica illecita e lo stesso interesse leso e che si verifichi simultaneamente, commessa dal medesimo operatore, in almeno tre Stati membri;
(62)
“infrastruttura kritika” tfisser infrastruttura kritika kif definita fl-Artikolu 2, il-punt (4), tad-Direttiva (UE) 2022/2557;
62)
«infrastruttura critica»: infrastruttura critica quale definita all'articolo 2, punto 4), della direttiva (UE) 2022/2557;
(63)
“mudell tal-IA bi skop ġenerali” tfisser mudell tal-IA, inkluż meta tali mudell tal-IA jitħarreġ b'ammont kbir ta' data bl-użu ta' awtosuperviżjoni fuq skala kbira, li juri ġeneralità sinifikanti u li jkun kapaċi jwettaq b'mod kompetenti firxa wiesgħa ta' kompiti distinti rrispettivament mill-mod kif il-mudell jiġi introdott fis-suq u li jista' jiġi integrat f'varjetà ta' sistemi jew applikazzjonijiet downstream, ħlief mudelli tal-IA li jintużaw għal attivitajiet ta' riċerka, żvilupp jew prototipar qabel ma jiġu introdotti fis-suq;
63)
«modello di IA per finalità generali»: un modello di IA, anche laddove tale modello di IA sia addestrato con grandi quantità di dati utilizzando l'autosupervisione su larga scala, che sia caratterizzato una generalità significativa e sia in grado di svolgere con competenza un'ampia gamma di compiti distinti, indipendentemente dalle modalità con cui il modello è immesso sul mercato, e che può essere integrato in una varietà di sistemi o applicazioni a valle, ad eccezione dei modelli di IA utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato;
(64)
“kapaċitajiet b'impatt kbir” tfisser kapaċitajiet li jaqblu mal-kapaċitajiet irreġistrati fl-aktar mudelli avvanzati tal-IA bi skop ġenerali jew jaqbżuhom;
64)
«capacità di impatto elevato»: capacità che corrispondono o superano le capacità registrate nei modelli di IA per finalità generali più avanzati;
(65)
“riskju sistemiku” tfisser riskju li huwa speċifiku għall-kapaċitajiet b'impatt kbir tal-mudelli tal-IA bi skop ġenerali, li jkollu impatt sinifikanti fuq is-suq tal-Unjoni minħabba l-firxa tiegħu, jew minħabba effetti negattivi reali jew raġonevolment prevedibbli fuq is-saħħa pubblika, is-sikurezza, is-sigurtà pubblika, id-drittijiet fundamentali jew is-soċjetà inġenerali, li jista' jiġi propogat fuq skala kbira tul il-katina tal-valur;
65)
«rischio sistemico»: un rischio specifico per le capacità di impatto elevato dei modelli di IA per finalità generali, avente un impatto significativo sul mercato dell'Unione a causa della sua portata o di effetti negativi effettivi o ragionevolmente prevedibili sulla salute pubblica, la sicurezza, i diritti fondamentali o la società nel suo complesso, che può propagarsi su larga scala lungo l'intera catena del valore;
(66)
“sistema tal-IA bi skop ġenerali” tfisser sistema tal-IA li hija bbażata fuq mudell tal-IA bi skop ġenerali u li għandha l-kapaċità li taqdi varjetà ta' skopijiet, kemm għall-użu dirett kif ukoll għall-integrazzjoni f'sistemi tal-IA oħra;
66)
«sistema di IA per finalità generali»: un sistema di IA basato su un modello di IA per finalità generali e che ha la capacità di perseguire varie finalità, sia per uso diretto che per integrazione in altri sistemi di IA;
(67)
“operazzjoni b'punt varjabbli” tfisser kwalunkwe operazzjoni jew assenjazzjoni matematika li tinvolvi numri b'punt varjabbli, li huma subsett tan-numri reali tipikament rappreżentati fuq il-kompjuters minn numru sħiħ ta' preċiżjoni fissa skalat minn esponent ta' numru sħiħ ta' bażi fissa;
67)
«operazione in virgola mobile»: qualsiasi operazione o assegnazione matematica che comporta numeri in virgola mobile, un sottoinsieme dei numeri reali generalmente rappresentati sui computer mediante un numero intero con precisione fissa avente come fattore di scala un esponente intero di una base fissa;
(68)
“fornitur downstream” tfisser fornitur ta' sistema tal-IA, inkluż sistema tal-IA bi skop ġenerali, li tintegra mudell tal-IA, irrispettivament minn jekk il-mudell tal-IA jkunx provdut minnu stess u integrat vertikalment jew provdut minn entità oħra abbażi ta' relazzjonijiet kuntrattwali.
68)
«fornitore a valle»: un fornitore di un sistema di IA, compreso un sistema di IA per finalità generali, che integra un modello di IA, indipendentemente dal fatto che il modello di IA sia fornito dallo stesso e integrato verticalmente o fornito da un'altra entità sulla base di relazioni contrattuali.
Artikolu 4
Articolo 4
Litteriżmu fl-IA
Alfabetizzazione in materia di IA
Il-fornituri u l-implimentaturi ta' sistemi tal-IA għandhom jieħdu miżuri biex jiżguraw, sa fejn jistgħu, li l-persunal tagħhom u persuni oħra li jkollhom x'jaqsmu mat-tħaddim u l-użu ta' sistemi tal-IA f'isimhom ikollhom livell suffiċjenti ta' litteriżmu fl-IA, filwaqt li jitqiesu l-għarfien, l-esperjenza, l-edukazzjoni u t-taħriġ tekniku tagħhom u l-kuntest li fih ikunu ser jintużaw is-sistemi tal-IA, u b'kunsiderazzjoni għall-persuni jew il-gruppi ta' persuni li s-sistemi tal-IA jkunu ser jintużaw fuqhom.
I fornitori e i deployer dei sistemi di IA adottano misure per garantire nella misura del possibile un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell'utilizzo dei sistemi di IA per loro conto, prendendo in considerazione le loro conoscenze tecniche, la loro esperienza, istruzione e formazione, nonché il contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone o dei gruppi di persone su cui i sistemi di IA devono essere utilizzati.
KAPITOLU II
CAPO II
PRATTIKI PPROJBITI TAL-IA
PRATICHE DI IA VIETATE
Artikolu 5
Articolo 5
Prattiki tal-IA pprojbiti
Pratiche di IA vietate
1. Il-prattiki tal-IA li ġejjin għandhom ikunu pprojbiti:
1. Sono vietate le pratiche di IA seguenti:
(a)
l-introduzzjoni fis-suq, it-tqegħid fis-servizz jew l-użu ta' sistema tal-IA li tuża tekniki subliminali li persuna ma tkunx konxja tagħhom jew tekniki intenzjonalment manipulattivi jew qarrieqa, bil-għan jew bir-riżultat li materjalment ifixklu l-imġiba ta' persuna jew ta' grupp ta' persuni billi jdgħajfu b'mod sinifikanti l-abbiltà tagħha li tieħu deċiżjoni infurmata, u minħabba f'hekk huma jieħdudeċiżjoni li kieku ma kinux jieħdu b'mod li jikkawża jew li aktarx raġonevolament jikkawża ħsara sinifikanti lil dik il-persuna, lil persuna oħra jew lil grupp ta' persuni;
a)
l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole o tecniche volutamente manipolative o ingannevoli aventi lo scopo o l'effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone, pregiudicando in modo considerevole la loro capacità di prendere una decisione informata, inducendole pertanto a prendere una decisione che non avrebbero altrimenti preso, in un modo che provochi o possa ragionevolmente provocare a tale persona, a un'altra persona o a un gruppo di persone un danno significativo;
(b)
l-introduzzjoni fis-suq, it-tqegħid fis-servizz jew l-użu ta' sistema tal-IA li tisfrutta kwalunkwe waħda mill-vulnerabbiltajiet ta' persuna fiżika jew ta' grupp speċifiku ta' persuni minħabba l-età, diżabbiltà jew sitwazzjoni soċjali jew ekonomika speċifika, bl-għan jew bir-riżultat li tfixkel materjalment l-imġiba ta' dik il-persuna jew ta' persuna li tappartjeni għal dak il-grupp b'mod li jikkawża jew li raġonevolment aktarx jikkawża ħsara sinifikanti lil dik il-persuna jew lil persuna oħra;
b)
l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che sfrutta le vulnerabilità di una persona fisica o di uno specifico gruppo di persone, dovute all'età, alla disabilità o a una specifica situazione sociale o economica, con l'obiettivo o l'effetto di distorcere materialmente il comportamento di tale persona o di una persona che appartiene a tale gruppo in un modo che provochi o possa ragionevolmente provocare a tale persona o a un'altra persona un danno significativo;
(c)
l-introduzzjoni fis-suq, it-tqegħid fis-servizz jew l-użu ta' sistemi tal-IA għall-evalwazzjoni jew il-klassifikazzjoni ta' persuni fiżiċi jew gruppi ta' persuni tul ċertu perjodu ta' żmien abbażi tal-imġiba soċjali tagħhom jew ta' karatteristiċi personali jew tal-personalità magħrufa, inferiti jew previsti, fejn il-punteġġ għaċ-ċittadini jwassal għal wieħed minn dawn li ġejjin jew għat-tnejn li huma:
c)
l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IAper la valutazione o la classificazione delle persone fisiche o di gruppi di persone per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note, inferite o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di uno o di entrambi gli scenari seguenti:
(i)
trattament detrimentali jew mhux favorevoli ta' ċerti persuni fiżiċi jew ta' gruppi ta' persuni f'kuntesti soċjali li mhumiex relatati mal-kuntesti li fihom id-data kienet oriġinarjament iġġenerata jew miġbura;
i)
un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti;
(ii)
trattament detrimentali jew mhux favorevoli ta' ċerti persuni fiżiċi jew ta' gruppi ta' persuni li ma jkunx ġustifikat jew li jkun sproporzjonat għall-imġiba soċjali tagħhom jew għall-gravità tagħha;
ii)
un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità;
(d)
l-introduzzjoni fis-suq, it-tqegħid fis-servizz għal dan l-għan speċifiku, jew l-użu ta' sistema tal-IA biex isiru valutazzjonijiet tar-riskju ta' persuni fiżiċi sabiex jiġi vvalutat jew imbassar ir-riskju li persuna fiżika twettaq reat kriminali, abbażi biss tat-tfassil ta' profil ta' persuna fiżika jew fuq il-valutazzjoni tal-karatteristiċi tal-personalità tagħha; din il-projbizzjoni ma għandhiex tapplika għas-sistemi tal-IA użati biex jappoġġaw il-valutazzjoni mill-bniedem tal-involviment ta' persuna f'attività kriminali, li diġà hija bbażata fuq fatti oġġettivi u verifikabbli marbuta direttament ma' attività kriminali;
d)
l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di un sistema di IA per effettuare valutazioni del rischio relative a persone fisiche al fine di valutare o prevedere il rischio che una persona fisica commetta un reato, unicamente sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità; tale divieto non si applica ai sistemi di IA utilizzati a sostegno della valutazione umana del coinvolgimento di una persona in un'attività criminosa, che si basa già su fatti oggettivi e verificabili direttamente connessi a un'attività criminosa;
(e)
l-introduzzjoni fis-suq, it-tqegħid fis-servizz għal dan l-għan speċifiku, jew l-użu ta' sistemi tal-IA li joħolqu jew jespandu l-bażijiet tad-data tar-rikonoxximent tal-wiċċ permezz ta' scraping mhux immirat tal-immaġnijiet tal-wiċċ mill-internet jew minn filmati tas-CCTV;
e)
l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di IA che creano o ampliano le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso;
(f)
l-introduzzjoni fis-suq, it-tqegħid fis-servizz għal dan l-għan speċifiku, jew l-użu ta' sistemi tal-IA biex jiġu inferiti l-emozzjonijiet ta' persuna fiżika fl-oqsma tal-post tax-xogħol u tal-istituzzjonijiet edukattivi ħlief fejn l-użu tas-sistema tal-IA jkun maħsub biex tiġi introdotta fis-suq jew mqiegħda fis-servizz għal raġunijiet mediċi jew ta' sikurezza;
f)
l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di IA per inferire le emozioni di una persona fisica nell'ambito del luogo di lavoro e degli istituti di istruzione, tranne laddove l'uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza;
(g)
l-introduzzjoni fis-suq jew it-tqegħid fis-servizz għal dan l-iskop speċifiku, jew l-użu ta' sistemi ta' kategorizzazzjoni bijometrika li jikkategorizzaw individwalment lill-persuni fiżiċi abbażi tad-data bijometrika tagħhom biex jiddeduċu jew jinferixxu r-razza, l-opinjonijiet politiċi, is-sħubija fi trade union, it-twemmin reliġjuż jew filosofiku, il-ħajja sesswali jew l-orjentazzjoni sesswali tagħhom; din il-projbizzjoni ma tkopri l-ebda tikkettar jew iffiltrar ta' settijiet tad-data bijometrika miksuba legalment, bħal immaġnijiet, ibbażati fuq data bijometrika jew kategorizzazzjoni ta' data bijometrika fil-qasam tal-infurzar tal-liġi;
g)
l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di categorizzazione biometrica che classificano individualmente le persone fisiche sulla base dei loro dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale; tale divieto non riguarda l'etichettatura o il filtraggio di set di dati biometrici acquisiti legalmente, come le immagini, sulla base di dati biometrici o della categorizzazione di dati biometrici nel settore delle attività di contrasto;
(h)
l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” f'żoni aċċessibbli għall-pubbliku għall-finijiet tal-infurzar tal-liġi, dment li u sakemm dan l-użu jkun strettament meħtieġ għal wieħed mill-objettivi li ġejjin:
h)
l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrastoa meno che, e nella misura in cui, tale uso sia strettamente necessario per uno degli obiettivi seguenti:
(i)
it-tfittxija mmirata għal vittmi speċifiċi ta' ħtif, traffikar ta' bnedmin jew sfruttament sesswali ta' bnedmin kif ukoll it-tfittxija għal persuni neqsin;
i)
la ricerca mirata di specifichevittime di sottrazione, tratta di esseri umani o sfruttamento sessuale di esseri umani, nonché la ricerca di persone scomparse;
(ii)
il-prevenzjoni ta' theddida speċifika, sostanzjali u imminenti għall-ħajja jew għas-sikurezza fiżika ta' persuni fiżiċi jew theddida ġenwina u preżenti jew ġenwina u prevedibbli ta' attakk terroristiku;
ii)
la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone fisiche o di una minaccia reale e attuale o reale e prevedibile di un attacco terroristico;
(iii)
il-lokalizzazzjoni jew l-identifikazzjoni ta' persuna suspettata li wettqet reat kriminali, għall-fini tat-twettiq ta' investigazzjoni kriminali jew il-prosekuzzjoni jew l-eżekuzzjoni ta' piena kriminali għal reati, imsemmija fl-Anness II u punibbli fl-Istat Membru kkonċernat b'sentenza ta' kustodja jew ordni ta' detenzjoni għal perjodu massimu ta' mill-inqas erba' snin.
iii)
lalocalizzazione o l'identificazione di una persona sospettata di aver commesso un reato, ai fini dello svolgimento di un'indagine penale, o dell'esercizio di un'azione penale o dell'esecuzione di una sanzione penale per i reati di cui all'allegato II, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno quattro anni.
Il-punt (h) tal-ewwel subparagrafu huwa mingħajr preġudizzju għall-Artikolu 9 tar-Regolament (UE) 2016/679 għall-ipproċessar ta' data bijometrika għal finijiet oħra għajr l-infurzar tal-liġi.
La lettera h) del primo comma lascia impregiudicato l'articolo 9 del regolamento (UE) 2016/679 per quanto riguarda il trattamento dei dati biometrici a fini diversi dall'attività di contrasto.
2. L-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għall-finijiet tal-infurzar tal-liġi għal kwalunkwe wieħed mill-objettivi msemmija fil-paragrafu 1, l-ewwel subparagrafu, il-punt (h) għandu jiġi implimentat għall-finijiet stipulati f’ dak biss biex tiġi kkonfermata l-identità tal-individwu speċifikament taħt mira u għandu jqis l-elementi li ġejjin:
2. L'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto per uno qualsiasi degli obiettivi di cui al paragrafo 1, primo comma, lettera h), è applicato ai fini di cui a tale lettera, solo per confermare l'identità della persona specificamente interessata e tiene conto degli elementi seguenti:
(a)
in-natura tas-sitwazzjoni li twassal għall-użu possibbli, b'mod partikolari s-serjetà, il-probabbiltà u l-iskala tal-ħsara li kienet tiġi kkawżata kieku s-sistema ma ntużatx;
a)
la natura della situazione che dà luogo al possibile uso, in particolare la gravità, la probabilità e l'entità del danno che sarebbe causato in caso di mancato uso del sistema;
(b)
il-konsegwenzi tal-użu tas-sistema għad-drittijiet u l-libertajiet tal-persuni kollha kkonċernati, b'mod partikolari s-serjetà, il-probabbiltà u l-iskala ta' dawk il-konsegwenzi.
b)
le conseguenze dell'uso del sistema per i diritti e le libertà di tutte le persone interessate, in particolare la gravità, la probabilità e l'entità di tali conseguenze.
Barra minn hekk, l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għall-finijiet tal-infurzar tal-liġi għal kwalunkwe wieħed mill-objettivi msemmija fil-paragrafu 1, l-ewwel subparagrafu, il-punt (h) ta' dan l-Artikolu għandu jikkonforma mas-salvagwardji u l-kundizzjonijiet meħtieġa u proporzjonati fir-rigward tal-użu f'konformità mal-liġi nazzjonali li tawtorizza l-użu tagħhom, b'mod partikolari fir-rigward tal-limitazzjonijiet temporali, ġeografiċi u personali. L-użu tas-sistema ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għandu jiġi awtorizzat biss jekk l-awtorità tal-infurzar tal-liġi tkun lestiet valutazzjoni tal-impatt fuq id-drittijiet fundamentali kif previst fl-Artikolu 27 u tkun irreġistrat is-sistema fil-bażi tad-data tal-UE skont l-Artikolu 49. Madankollu, f'każijiet ta' urġenza debitament ġustifikati, l-użu ta' tali sistemi jista' jinbeda mingħajr ir-reġistrazzjoni fil-bażi tad-data tal-UE, dment li tali reġistrazzjoni titlesta mingħajr dewmien żejjed.
L'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto per uno qualsiasi degli obiettivi di cui al paragrafo 1, primo comma, lettera h), del presente articolo rispetta inoltre le tutele e le condizioni necessarie e proporzionate in relazione all'uso, conformemente al diritto nazionale che autorizza tale uso, in particolare per quanto riguarda le limitazioni temporali, geografiche e personali. L'uso del sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico è autorizzato solo se l'autorità di contrasto ha completato una valutazione d'impatto sui diritti fondamentali come previsto all'articolo 27 e ha registrato il sistema nella banca dati UE conformemente all'articolo 49. Tuttavia, in situazioni di urgenza debitamente giustificate, è possibile iniziare a usare tali sistemi senza la registrazione nella banca dati dell'UE, a condizione che tale registrazione sia completata senza indebito ritardo.
3. Għall-finijiet tal-paragrafu 1, l-ewwel subparagrafu, il-punt (h) u l-paragrafu 2, kull użu għall-finijiet tal-infurzar tal-liġi ta' sistema ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għandu jkun soġġett għal awtorizzazzjoni minn qabel mogħtija minn awtorità ġudizzjarja jew awtorità amministrattiva indipendenti li d-deċiżjoni tagħha hija vinkolanti tal-Istat Membru li fih ser isir l-użu, maħruġa wara talba motivata u f'konformità mar-regoli dettaljati tal-liġi nazzjonali msemmija fil-paragrafu 5. Madankollu, f'sitwazzjoni ta' urġenza debitament ġustifikata, l-użu ta' tali sistema jista' jinbeda mingħajr awtorizzazzjoni dment li dik l-awtorizzazzjoni tintalab mingħajr dewmien żejjed, sa mhux aktar tard minn 24 siegħa wara. Jekk tali awtorizzazzjoni tiġi rrifjutata, l-użu għandu jitwaqqaf b'effett immedjat u d-data kollha, kif ukoll ir-riżultati u l-outputs ta' dak l-użu għandhom jiġu skartati u mħassra minnufih.
3. Ai fini del paragrafo 1, primo comma, lettera h), e del paragrafo 2, ogniuso di un sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto è subordinato a un'autorizzazione preventiva rilasciata da un'autorità giudiziaria oda un'autorità amministrativa indipendente, la cui decisione è vincolante, dello Stato membro in cui deve avvenire l'uso, rilasciata su richiesta motivata e in conformità delle regole dettagliate del diritto nazionale di cui al paragrafo 5. Tuttavia, in una situazione di urgenza debitamente giustificata, è possibile iniziare a usare il sistema senza autorizzazione a condizione che tale autorizzazione sia richiesta senza indebito ritardo, al più tardi entro 24 ore. Se tale autorizzazione è respinta, l'uso è interrotto con effetto immediato e tutti i dati nonché i risultati e gli output di tale uso sono immediatamente eliminati e cancellati.
L-awtorità ġudizzjarja kompetenti jew awtorità amministrattiva indipendenti li d-deċiżjoni tagħha tkun vinkolanti għandha tagħti l-awtorizzazzjoni biss meta tkun sodisfatta, abbażi ta' evidenza oġġettiva jew indikazzjonijiet ċari ppreżentati lilha, li l-użu tas-sistema ta’ identifikazzjoni bijometrika remota “fil-ħin reali” ikkonċernata hu meħtieġ u proporzjonat biex jintlaħaq wieħed mill-objettivi speċifikati fil-paragrafu 1, l-ewwel subparagrafu, il-punt (h), kif identifikat fit-talba u, b'mod partikolari, jibqa' limitat għal dak li huwa strettament meħtieġ fir-rigward tat-tul ta' żmien u l-firxa ġeografika u personali. Meta tiddeċiedi dwar it-talba, dik l-awtorità għandha tqis l-elementi msemmijin fil-paragrafu 2. L-ebda deċiżjoni li tipproduċi effett legali negattiv fuq persuna ma tista' tittieħed abbażi biss tal-output tas-sistema ta’ identifikazzjoni bijometrika remota “fil-ħin reali”.
L'autorità giudiziaria competente o un'autorità amministrativa indipendente la cui decisione è vincolante rilascia l'autorizzazione solo se ha accertato, sulla base di prove oggettive o indicazioni chiare che le sono state presentate, che l'uso del sistema di identificazione biometrica remota «in tempo reale» in questione è necessario e proporzionato al conseguimento di uno degli obiettivi di cui al paragrafo 1, primo comma, lettera h), come indicato nella richiesta e, in particolare, rimane limitato a quanto strettamente necessario per quanto riguarda il periodo di tempo e l'ambito geografico e personale. Nel decidere in merito alla richiesta, tale autorità tiene conto degli elementi di cui al paragrafo 2. Nessuna decisione che produca effetti giuridici negativi su una persona può essere presa unicamente sulla base dell'output del sistema di identificazione biometrica remota «in tempo reale».
4. Mingħajr preġudizzju għall-paragrafu 3, kull użu ta' sistema ta' identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għal finijiet tal-infurzar tal-liġi għandu jiġi notifikat lill-awtorità tas-sorveljanza tas-suq rilevanti u lill-awtorità nazzjonali għall-protezzjoni tad-data f'konformità mar-regoli nazzjonali msemmija fil-paragrafu 5. Bħala minimu, in-notifika għandha tinkludi l-informazzjoni speċifikata fil-paragrafu 6 u ma għandhiex tinkludi data operazzjonali sensittiva.
4. Fatto salvo il paragrafo 3, ogni uso di un sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto è notificato alla pertinente autorità di vigilanza del mercato e all'autorità nazionale per la protezione dei dati conformemente alle regole nazionali di cui al paragrafo 5. La notifica contiene almeno le informazioni di cui al paragrafo 6 e non include dati operativi sensibili.
5. Stat Membru jista' jiddeċiedi li jipprevedi l-possibbiltà li jawtorizza għalkollox jew parzjalment l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għall-finijiet tal-infurzar tal-liġi skont il-limiti u l-kundizzjonijiet elenkati fil-paragrafu 1, l-ewwel subparagrafu, il-punt (h), u l-paragrafi 2 u 3. L-Istati Membri kkonċernati għandhom jistabbilixxu fil-liġi nazzjonali tagħhom ir-regoli dettaljati meħtieġa għat-talba, il-ħruġ u l-eżerċitar tal-awtorizzazzjonijiet imsemmija fil-paragrafu 3, kif ukoll għas-superviżjoni u r-rappurtar relatati magħhom. Dawk ir-regoli għandhom jispeċifikaw ukoll fir-rigward ta' liema objettivi elenkati fil-paragrafu 1, l-ewwel subparagrafu, il-punt (h), inkluż liema reati kriminali msemmija fil-punt (h)(iii) tiegħu, l-awtoritajiet kompetenti jistgħu jkunu awtorizzati jużaw dawk is-sistemi għall-finijiet tal-infurzar tal-liġi. L-Istati Membri għandhom jinnotifikaw dawk ir-regoli lill-Kummissjoni sa mhux aktar tard minn 30 jum wara l-adozzjoni tagħhom. L-Istati Membri jistgħu jintroduċu, f'konformità mal-liġi tal-Unjoni, liġijiet aktar restrittivi dwar l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota.
5. Uno Stato membro può decidere di prevedere la possibilità di autorizzare in tutto o in parte l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto, entro i limiti e alle condizioni di cui al paragrafo 1, primo comma, lettera h), e ai paragrafi 2 e 3. Gli Stati membri interessati stabiliscono nel proprio diritto nazionale le necessarie regole dettagliate per la richiesta, il rilascio, l'esercizio delle autorizzazioni di cui al paragrafo 3, nonché per le attività di controllo e comunicazione ad esse relative. Tali regole specificano inoltre per quali degli obiettivi elencati al paragrafo 1, primo comma, lettera h), compresi i reati di cui alla lettera h), punto iii), le autorità competenti possono essere autorizzate ad utilizzare tali sistemi a fini di attività di contrasto. Gli Stati membri notificano tali regole alla Commissione al più tardi 30 giorni dopo la loro adozione. Gli Stati membri possono introdurre, in conformità del diritto dell'Unione, disposizioni più restrittive sull'uso dei sistemi di identificazione biometrica remota.
6. L-awtoritajiet nazzjonali tas-sorveljanza tas-suq u l-awtoritajiet nazzjonali tal-protezzjoni tad-data tal-Istati Membri li ġew notifikati dwar l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għal finijiet tal-infurzar tal-liġi skont il-paragrafu 4 għandhom jippreżentaw lill-Kummissjoni rapporti annwali dwar it-tali użu. Għal dak il-għan, il-Kummissjoni għandha tipprovdi lill-Istati Membri u lill-awtoritajiet nazzjonali tas-sorveljanza tas-suq u tal-protezzjoni tad-data, mudell, fejn jinkludi informazzjoni dwar l-għadd tad-deċiżjonijiet meħuda mill-awtoritajiet ġudizzjarji kompetenti jew awtorità amministrattiva indipendenti li d-deċiżjoni tagħha hija vinkolanti fuq talbiet għal awtorizzazzjonijiet f'konformità mal-paragrafu 3 u r-riżultat tagħhom.
6. Le autorità nazionali di vigilanza del mercato e le autorità nazionali per la protezione dei dati degli Stati membri cui è stato notificato l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto a norma del paragrafo 4, presentano alla Commissione relazioni annuali su tale uso. A tal fine, la Commissione fornisce agli Stati membri e alle autorità nazionali di vigilanza del mercato e di protezione dei dati un modello comprendente informazioni sul numero di decisioni che le autorità giudiziarie competenti, o un'autorità amministrativa indipendente la cui decisione è vincolante, hanno adottato in risposta alle richieste di autorizzazione a norma del paragrafo 3 e il loro esito.
7. Il-Kummissjoni għandha tippubblika rapporti annwali dwar l-użu ta' sistemi ta’ identifikazzjoni bijometrika remota “fil-ħin reali” fi spazji aċċessibbli għall-pubbliku għal finijiet tal-infurzar tal-liġi abbażi tad-data aggregata fl-Istati Membri bbażati fuq ir-rapporti annwali msemmija fil-paragrafu 6. Dawk ir-rapporti annwali ma għandhomx jinkludu data operazzjonali sensittiva tal-attivitajiet relatati tal-infurzar tal-liġi.
7. La Commissione pubblica relazioni annuali sull'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto, fondate sui dati aggregati negli Stati membri sulla base delle relazioni annuali di cui al paragrafo 6. Tali relazioni annuali non includono dati operativi sensibili delle relative attività di contrasto.
8. Dan l-Artikolu ma għandux jaffettwa l-projbizzjonijiet li japplikaw meta prattika tal-IA tikser liġi oħra tal-Unjoni.
8. Il presente articolo lascia impregiudicati i divieti che si applicano qualora una pratica di IA violi altre disposizioni di diritto dell'Unione.
KAPITOLU III
CAPO III
SISTEMI TAL-IA B'RISKJU GĦOLI
SISTEMI DI IA AD ALTO RISCHIO
TAQSIMA 1
SEZIONE 1
Klassifikazzjoni tas-sistemi tal-IA bħala b'riskju għoli
Classificazione dei sistemi di IA come «ad alto rischio»
Artikolu 6
Articolo 6
Regoli ta' klassifikazzjoni għas-sistemi tal-IA b'riskju għoli
Regole di classificazione per i sistemi di IA ad alto rischio
1. Irrispettivament minn jekk sistema tal-IA tiġix introdotta fis-suq jew imqiegħda fis-servizz b'mod indipendenti mill-prodotti msemmija fil-punti (a) u (b), dik is-sistema tal-IA għandha titqies bħala riskju għoli jekk tkun tissodisfa ż-żewġ kundizzjonijiet li ġejjin:
1. A prescindere dal fatto che sia immesso sul mercato o messo in servizio indipendentemente dai prodotti di cui alle lettere a) e b), un sistema di IA è considerato ad alto rischio se sono soddisfatte entrambe le condizioni seguenti:
(a)
is-sistema tal-IA hija maħsuba biex tintuża bħala komponent tas-sikurezza ta' prodott, jew is-sistema tal-IA tkun hi stess prodott, kopert bil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fl-Anness I;
a)
il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o il sistema di IA è esso stesso un prodotto, disciplinato dalla normativa di armonizzazione dell'Unione elencata nell'allegato I;
(b)
il-prodott li l-komponent tas-sikurezza tiegħu skont il-punt (a) huwa s-sistema tal-IA, jew is-sistema tal-IA hi stess bħala prodott, jeħtieġ issirlu valutazzjoni tal-konformità minn parti terza, bil-ħsieb li dak il-prodott jiġi introdott fis-suq jew imqiegħed fis-servizz skont il-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fl-Anness I.
b)
il prodotto, il cui componente di sicurezza a norma della lettera a) è il sistema di IA, o il sistema di IA stesso in quanto prodotto, è soggetto a una valutazione della conformità da parte di terzi ai fini dell'immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell'Unione elencata nell'allegato I.
2. Minbarra s-sistemi tal-IA b'riskju għoli msemmija fil-paragrafu 1, is-sistemi tal-IA msemmija fl-Anness III għandhom ukoll jitqiesu bħala b'riskju għoli.
2. Oltre ai sistemi di IA ad alto rischio di cui al paragrafo 1, sono considerati ad alto rischio anche i sistemi di IA di cui all'allegato III.
3. B'deroga mill-paragrafu 2, sistema tal-IA msemmija fl-Anness III ma għandhiex titqies bħala b'riskju għoli fejn ma toħloqx riskju sinifikanti ta' ħsara, għas-saħħa, għas-sikurezza jew għad-drittijiet fundamentali tal-persuni fiżiċi, inkluż billi ma tinfluwenzax materjalment l-eżitu tat-teħid tad-deċiżjonijiet.
3. In deroga al paragrafo 2, un sistema di IA di cui all’allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale.
L-ewwel subparagrafu għandu japplika fejn tiġi ssodisfata kwalunkwe waħda mill-kundizzjonijiet li ġejjin:
Il primo comma si applica quando è soddisfatta almeno una qualsiasi delle condizioni seguenti:
(a)
is-sistema tal-IA hija maħsuba biex twettaq kompitu proċedurali ristrett;
a)
il sistema di IA è destinato a eseguire un compito procedurale limitato;
(b)
is-sistema tal-IA hija maħsuba biex ittejjeb ir-riżultat ta' attività mill-bniedem li tkun tlestiet qabel;
b)
il sistema di IA è destinato a migliorare il risultato di un'attività umana precedentemente completata;
(c)
is-sistema tal-IA hija maħsuba biex tikxef xejriet ta' teħid ta' deċiżjonijiet jew devjazzjonijiet minn xejriet ta' teħid ta' deċiżjonijiet preċedenti u mhijiex maħsuba biex tissostitwixxi jew tinfluwenza l-valutazzjoni mill-bniedem li tkun tlestiet qabel, mingħajr rieżami xieraq mill-bniedem; jew
c)
il sistema di IA è destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non è finalizzato a sostituire o influenzare la valutazione umana precedentemente completata senza un'adeguata revisione umana; o
(d)
is-sistema tal-IA hija maħsuba biex twettaq kompitu preparatorju għal valutazzjoni rilevanti għall-finijiet tal-każijiet ta' użu elenkati fl-Anness III.
d)
il sistema di IA è destinato a eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d'uso elencati nell'allegato III.
Minkejja l-ewwel subparagrafu, sistema tal-IA msemmija fl-Anness III għandha dejjem titqies bħala b'riskju għoli meta s-sistema tal-IA twettaq tfassil tal-profili ta' persuni fiżiċi.
Fatto salvo il primo comma, un sistema di IA di cui all'allegato III è sempre considerato ad alto rischio qualora esso effettui profilazione di persone fisiche.
4. Fornitur li jqis li sistema tal-IA msemmija fl-Anness III mhix b'riskju għoli għandu jiddokumenta l-valutazzjoni tiegħu qabel ma dik is-sistema tiġi introdotta fis-suq jew titqiegħed fis-servizz. Tali fornitur għandu jkun soġġett għall-obbligu ta' reġistrazzjoni stipulat fl-Artikolu 49(2). Fuq talba tal-awtoritajiet nazzjonali kompetenti, il-fornitur għandu jipprovdi d-dokumentazzjoni tal-valutazzjoni.
4. Un fornitore che ritiene che un sistema di IA di cui all'allegato III non sia ad alto rischio ne documenta la valutazione prima che tale sistema sia immesso sul mercato oppure messo in servizio. Tale fornitore è soggetto all'obbligo di registrazione di cui all'articolo 49, paragrafo 2. Su richiesta delle autorità nazionali competenti, il fornitore mette a disposizione la documentazione relativa alla valutazione.
5. Il-Kummissjoni għandha, wara li tikkonsulta lill-Bord Ewropew għall-Intelliġenza Artifiċjali (il-“Bord”), u mhux aktar tard mit-2 ta’ Frar 2026, tipprovdi linji gwida li jispeċifikaw l-implimentazzjoni prattika ta' dan l-Artikolu f'konformità mal-Artikolu 96 flimkien ma' lista komprensiva ta' eżempji prattiċi ta' każijiet ta' użu ta' sistemi tal-IA b'riskju għoli u mingħajr riskju għoli.
5. Dopo aver consultato il consiglio europeo per l'intelligenza artificiale («consiglio per l'IA»), ed entro il 2 febbraio 2026, la Commissione fornisce orientamenti che specificano l'attuazione pratica del presente articolo in linea con l'articolo 96, insieme a un elenco esaustivo di esempi pratici di casi d'uso di sistemi di IA ad alto rischio e non ad alto rischio.
6. Il-Kummissjoni għandha tadotta atti delegati f'konformità mal-Artikolu 97 biex temenda l-kundizzjonijiet stabbiliti fil-paragrafu 3, l-ewwel subparagrafu, ta' dan l-Artikolu. Il-Kummissjoni tingħata s-setgħa li tadotta atti delegati f'konformità mal-Artikolu 97 sabiex temenda l-paragrafu 3, it-tieni subparagrafu, ta’ dan l-Artikolu billi żżid kundizzjonijiet ġodda ma' dawk stabbiliti fih, jew billi timmodifikahom, meta jkun hemm evidenza konkreta u affidabbli tal-eżistenza ta' sistemi tal-IA li jaqgħu fil-kamp ta' applikazzjoni tal-Anness III iżda li ma joħolqux riskju sinifikanti ta' ħsara għas-saħħa, għas-sikurezza jew għad-drittijiet fundamentali ta' persuni fiżiċi.
6. Alla Commissione è conferito il potere di adottare atti delegati in conformità dell'articolo 97 al fine di modificare il paragrafo 3, secondo comma, del presente articolo aggiungendo nuove condizioni a quelle ivi stabilite, oppure modificandole, qualora vi siano prove concrete e affidabili dell'esistenza di sistemi di IA che rientrano nell'ambito di applicazione dell'allegato III ma non presentano un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche.
7. Il-Kummissjoni għandha tadotta atti delegati f'konformità mal-Artikolu 97 sabiex temenda l-paragrafu 3, it-tieni subparagrafu, ta’ dan l-Artikolu billi tħassar kwalunkwe waħda mill-kundizzjonijiet stabbiliti fih, fejn ikun hemm evidenza konkreta u affidabbli li dan ikun meħtieġ biex jinżamm il-livell ta' protezzjoni tas-saħħa, tas-sikurezza u tad-drittijiet fundamentali previsti f’dan ir-Regolament.
7. La Commissione adotta atti delegati in conformità dell'articolo 97 al fine di modificare il paragrafo 3, secondo comma, del presente articolo sopprimendo qualsiasi condizione ivi stabilita, qualora vi siano prove concrete e affidabili che è necessario al fine di mantenere il livello di protezione della salute, della sicurezza e dei diritti fondamentali previsto dal presente regolamento.
8. Kwalunkwe emenda għall-kundizzjonijiet stabbiliti fil-paragrafu 3, it-tieni subparagrafu, adottati f’konformità mal-paragrafi 6 u 7 ta’ dan l-Artikolu, ma għandhiex tnaqqas il-livell ġenerali ta' protezzjoni tas-saħħa, tas-sikurezza u tad-drittijiet fundamentali previsti f’dan ir-Regolament u għandha tiżgura konsistenza mal-atti delegati adottati skont l-Artikolu 7(1), u tqis l-iżviluppi teknoloġiċi u tas-suq.
8. Eventuali modifiche alle condizioni di cui al paragrafo 3, secondo comma, adottate in conformità dei paragrafi 6 e 7 del presente articolo non riducono il livello globale di protezione della salute, della sicurezza e dei diritti fondamentali nell'Unione previsto dal presente regolamento e garantiscono la coerenza con gli atti delegati adottati a norma dell'articolo 7, paragrafo 1, e tengono conto degli sviluppi tecnologici e del mercato.
Artikolu 7
Articolo 7
Emendi għall-Anness III
Modifiche dell'allegato III
1. Il-Kummissjoni għandha s-setgħa li tadotta atti delegati f'konformità mal-Artikolu 97 biex temenda l-Anness III billi żżid jew timmodifika każijiet ta' użu ta' sistemi tal-IA b'riskju għoli meta ż-żewġ kundizzjonijiet li ġejjin huma ssodisfati:
1. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 97 al fine di modificare l'allegato III aggiungendo o modificando i casi d'uso dei sistemi di IA ad alto rischio se sono soddisfatte entrambe le condizioni seguenti:
(a)
is-sistemi tal-IA jkunu maħsuba biex jintużaw f'xi waħda miż-żoni elenkati fl-Anness III;
a)
i sistemi di IA sono destinati a essere usati in uno dei settori elencati nell'allegato III;
(b)
is-sistemi tal-IA joħolqu riskju ta' ħsara għas-saħħa u s-sikurezza, jew ta' impatt negattiv fuq id-drittijiet fundamentali, u dak ir-riskju huwa ekwivalenti jew akbar mir-riskju ta' ħsara jew ta' impatt negattiv maħluq mis-sistemi tal-IA b'riskju għoli diġà msemmija fl-Anness III.
b)
i sistemi di IA presentano un rischio di danno per la salute e la sicurezza, o di impatto negativo sui diritti fondamentali, e tale rischio è equivalente o superiore al rischio di danno o di impatto negativo presentato dai sistemi di IA ad alto rischio di cui all'allegato III.
2. Meta tivvaluta l-kundizzjoni skont il-paragrafu 1, il-punt (b), il-Kummissjoni għandha tqis il-kriterji li ġejjin:
2. Nel valutare la condizione di cui al paragrafo 1, lettera b), la Commissione tiene conto dei criteri seguenti:
(a)
l-għan maħsub tas-sistema tal-IA;
a)
la finalità prevista del sistema di IA;
(b)
il-punt sa fejn intużat jew aktarx tintuża sistema tal-IA;
b)
la misura in cui un sistema di IA è stato usato o è probabile che sarà usato;
(c)
in-natura u l-ammont tad-data pproċessata u użata mis-sistema tal-IA, b'mod partikolari jekk jiġux ipproċessati kategoriji speċjali ta' data personali;
c)
la natura e la quantità di dati trattati e utilizzati dal sistema di IA, in particolare l'eventualità che siano trattate categorie particolari di dati personali;
(d)
il-punt sa fejn is-sistema tal-IA taġixxi b'mod awtonomu u l-possibbiltà li bniedem jegħleb deċiżjoni jew rakkomandazzjonijiet li jistgħu jwasslu għal ħsara potenzjali;
d)
la misura in cui il sistema di IA agisce autonomamente e la possibilità che un essere umano annulli una decisione o una raccomandazione che potrebbe causare un danno potenziale;
(e)
il-punt sa fejn l-użu ta' sistema tal-IA diġà kkawża ħsara għas-saħħa u s-sikurezza, kellu impatt negattiv fuq id-drittijiet fundamentali jew wassal għal tħassib sinifikanti fir-rigward tal-materjalizzazzjoni ta' din il-ħsara jew l-impatt negattiv, kif muri, pereżempju, minn rapporti jew allegazzjonijiet dokumentati ppreżentati lill-awtoritajiet nazzjonali kompetenti jew minn rapporti oħra, skont il-każ;
e)
la misura in cui l'uso di un sistema di IA ha già causato un danno alla salute e alla sicurezza, ha avuto un impatto negativo sui diritti fondamentali o ha suscitato gravi preoccupazioni in relazione alla probabilità di tale danno o impatto negativo, come dimostrato, ad esempio, da relazioni o da prove documentate presentate alle autorità nazionali competenti o da altre relazioni, a seconda dei casi;
(f)
il-firxa potenzjali ta' din il-ħsara jew ta' dan l-impatt negattiv, b'mod partikolari f'termini tal-intensità tiegħu u l-kapaċità tiegħu li jaffettwa diversi persuni jew li jaffettwa b'mod sproporzjonat grupp partikolari ta' persuni;
f)
la portata potenziale di tale danno o di tale impatto negativo, in particolare in termini di intensità e capacità di incidere su più persone o di incidere in modo sproporzionato su un particolare gruppo di persone;
(g)
il-punt sa fejn il-persuni li potenzjalment issirilhom ħsara jew isofru impatt negattiv ikunu dipendenti fuq l-eżitu prodott b'sistema tal-IA, b'mod partikolari meta għal raġunijiet prattiċi jew legali ma jkunx raġonevolment possibbli li persuna tagħżel li teskludi lilha nnifisha minn dak l-eżitu;
g)
la misura in cui le persone che potrebbero subire il danno o l'impatto negativo dipendono dal risultato prodotto da un sistema di IA, in particolare in ragione del fatto che per motivi pratici o giuridici non è ragionevolmente possibile sottrarsi a tale risultato;
(h)
il-punt sa fejn jeżisti żbilanċ ta' poter, jew il-persuni li potenzjalment issirilhom ħsara jew isofru impatt negattiv ikunu f'pożizzjoni vulnerabbli fir-rigward tal-implimentatur ta' sistema tal-IA, b'mod partikolari minħabba status, awtorità, għarfien, ċirkostanzi ekonomiċi jew soċjali, jew età;
h)
la misura in cui esiste uno squilibrio di potere o le persone che potrebbero subire il danno o l'impatto negativo si trovano in una posizione vulnerabile rispetto al deployer di un sistema di IA, in particolare a causa della condizione, dell’autorità, della conoscenza, della situazione economica o sociale o dell’età;
(i)
il-punt sa fejn l-eżitu prodott bl-involviment ta' sistema tal-IA jista' faċilment jiġi kkoreġut jew imreġġa' lura, b'kunsiderazzjoni għas-soluzzjonijiet tekniċi disponibbli biex jiġi kkoreġut jew mreġġa' lura, fejn l-eżiti li jkollhom impatt negattiv fuq is-saħħa, is-sikurezza jew id-drittijiet fundamentali, ma għandhomx jitqiesu bħala li jistgħu jiġu kkoreġuti jew mreġġgħin lura faċilment;
i)
la misura in cui il risultato prodotto con il coinvolgimento di un sistema di IA è facilmente correggibile o reversibile, tenendo conto delle soluzioni tecniche disponibili per correggerlo o ribaltarlo, considerando non facilmente correggibili o reversibili i risultati che hanno un impatto negativo sulla salute, sulla sicurezza o sui diritti fondamentali;
(j)
il-kobor u l-probabbiltà tal-benefiċċju mill-implimentazzjoni tas-sistema tal-IA għal individwi, gruppi jew għas-soċjetà inġenerali, inkluż titjib possibbli fis-sikurezza tal-prodott;
j)
l'entità e la probabilità dei benefici derivanti dalla diffusione del sistema di IA per le persone, i gruppi o la società in generale, compresi i possibili miglioramenti della sicurezza del prodotto;
(k)
il-punt sa fejn il-liġi eżistenti tal-Unjoni tipprevedi:
k)
la misura in cui il vigente diritto dell'Unione prevede:
(i)
miżuri effettivi ta' rimedju fir-rigward tar-riskji maħluqa minn sistema tal-IA, bl-esklużjoni ta' pretensjonijiet għal danni;
i)
misure di ricorso efficaci in relazione ai rischi presentati da un sistema di IA, ad esclusione delle richieste di risarcimento del danno;
(ii)
miżuri effettivi għall-prevenzjoni jew il-minimizzazzjoni sostanzjali ta' dawk ir-riskji.
ii)
misure efficaci per prevenire o ridurre sostanzialmente tali rischi.
3. Il-Kummissjoni għandha s-setgħa li tadotta atti delegati f'konformità mal-Artikolu 97 biex temenda l-lista fl-Anness III billi tneħħi sistemi tal-IA b'riskju għoli meta ż-żewġ kundizzjonijiet li ġejjin huma ssodisfati:
3. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 97 al fine di modificare l'elenco di cui all'allegato III rimuovendo sistemi di IA ad alto rischio se sono soddisfatte entrambe le condizioni seguenti:
(a)
is-sistema tal-IA b'riskju għoli kkonċernata ma tibqax toħloq riskji sinifikanti għad-drittijiet fundamentali, għas-saħħa jew għas-sikurezza, b'kunsiderazzjoni għall-kriterji elenkati fil-paragrafu 2;
a)
il sistema di IA ad alto rischio interessato non pone più rischi significativi per i diritti fondamentali, la salute o la sicurezza, tenendo conto dei criteri elencati al paragrafo 2;
(b)
it-tħassir ma jnaqqasx il-livell ġenerali ta' protezzjoni tas-saħħa, tas-sikurezza u tad-drittijiet fundamentali skont il-liġi tal-Unjoni.
b)
la soppressione non riduce il livello generale di protezione della salute, della sicurezza e dei diritti fondamentali a norma del diritto dell'Unione.
TAQSIMA 2
SEZIONE 2
Rekwiżiti għal sistemi b'riskju għoli
Requisiti per i sistemi di IA ad alto rischio
Artikolu 8
Articolo 8
Konformità mar-rekwiżiti
Conformità ai requisiti
1. Is-sistemi tal-IA b'riskju għoli għandhom jikkonformaw mar-rekwiżiti stabbiliti f'din it-Taqsima, b'kunsiderazzjoni tal-għan maħsub tagħhom kif ukoll tal-ogħla żvilupp tekniku ġeneralment rikonoxxut fir-rigward tal-IA u teknoloġiji relatati mal-IA. Meta tkun qed tiġi żgurata l-konformità ma' dawk ir-rekwiżiti għandha titqies is-sistema ta' ġestjoni tar-riskju msemmija fl-Artikolu 9.
1. I sistemi di IA ad alto rischio rispettano i requisiti stabiliti nella presente sezione, tenendo conto delle loro previste finalità nonché dello stato dell'arte generalmente riconosciuto in materia di IA e di tecnologie correlate all'IA. Nel garantire conformità a tali requisiti si tiene conto del sistema di gestione dei rischi di cui all'articolo 9.
2. Meta prodott ikun fih sistema tal-IA, li għaliha japplikaw ir-rekwiżiti ta' dan ir-Regolament kif ukoll ir-rekwiżiti tal-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkati fit-Taqsima A tal-Anness I, il-fornituri għandhom ikunu responsabbli biex jiżguraw li l-prodott tagħhom ikun kompletament konformi mar-rekwiżiti applikabbli kollha skont il-leġiżlazzjoni applikabbli tal-Unjoni dwar l-armonizzazzjoni. Meta jkunu qed jiżguraw il-konformità ta' sistemi tal-IA b'riskju għoli msemmija fil-paragrafu 1 mar-rekwiżiti stipulati f'din it-Taqsima, u sabiex jiżguraw il-konsistenza, jevitaw id-duplikazzjonijiet u jimminimizzaw il-piżijiet addizzjonali, il-fornituri għandu jkollhom għażla li jintegraw, skont il-każ, il-proċessi ta' ttestjar u ta' rapportar, l-informazzjoni u d-dokumentazzjoni meħtieġa li jipprovdu fir-rigward tal-prodott tagħhom fid-dokumentazzjoni u l-proċeduri diġà eżistenti u li huma meħtieġa skont il-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fit-Taqsima A tal-Anness I.
2. Se un prodotto contiene un sistema di IA cui si applicano i requisiti del presente regolamento e i requisiti della normativa di armonizzazione dell'Unione elencata nell'allegato I, sezione A, i fornitori sono responsabili di garantire che il loro prodotto sia pienamente conforme a tutti i requisiti applicabili previsti dalla normativa di armonizzazione dell'Unione applicabile. Nel garantire la conformità dei sistemi di IA ad alto rischio di cui al paragrafo 1 ai requisiti di cui alla presente sezione e al fine di garantire la coerenza, evitare duplicazioni e ridurre al minimo gli oneri aggiuntivi, i fornitori possono scegliere di integrare, se del caso, i necessari processi di prova e di comunicazione nonché le informazioni e la documentazione che forniscono relativamente al loro prodotto nella documentazione e nelle procedure esistenti e richieste in conformità della normativa di armonizzazione dell'Unione elencata nell'allegato I, sezione A.
Artikolu 9
Articolo 9
Sistema ta' ġestjoni tar-riskju
Sistema di gestione dei rischi
1. Għandha tiġi stabbilita, implimentata, dokumentata u miżmuma sistema ta' ġestjoni tar-riskju fir-rigward tas-sistemi tal-IA b'riskju għoli.
1. In relazione ai sistemi di IA ad alto rischio è istituito, attuato, documentato e mantenuto un sistema di gestione dei rischi.
2. Is-sistema ta' ġestjoni tar-riskju għandha tinftiehem bħala proċess iterattiv kontinwu ppjanat u li jseħħ tul iċ-ċiklu tal-ħajja kollu ta' sistema tal-IA b'riskju għoli, li jirrikjedi rieżami u aġġornament sistematiċi regolari. Għandu jkun fiha l-passi li ġejjin:
2. Il sistema di gestione dei rischi è inteso come un processo iterativo continuo pianificato ed eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un riesame e un aggiornamento costanti e sistematici. Esso comprende le fasi seguenti:
(a)
l-identifikazzjoni u l-analiżi tar-riskji magħrufa u raġonevolment prevedibbli li s-sistema tal-IA b'riskju għoli tista' toħloq għas-saħħa, għas-sikurezza jew għad-drittijiet fundamentali meta s-sistema tal-IA b'riskju għoli tintuża f'konformità mal-għan maħsub tagħha;
a)
identificazione e analisi dei rischi noti e ragionevolmente prevedibili che il sistema di IA ad alto rischio può porre per la salute, la sicurezza e i diritti fondamentali quando il sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista;
(b)
l-istima u l-evalwazzjoni tar-riskji li jistgħu jitfaċċaw meta s-sistema tal-IA b'riskju għoli tintuża f'konformità mal-għan maħsub tagħha u f'kundizzjonijiet ta' użu ħażin raġonevolment prevedibbli;
b)
stima e valutazione dei rischi che possono emergere quando il sistema di IA ad alto rischio è usato conformemente alla sua finalità prevista e in condizioni di uso improprio ragionevolmente prevedibile;
(c)
l-evalwazzjoni ta' riskji oħra li jistgħu jinħolqu abbażi tal-analiżi tad-data miġbura mis-sistema ta' sorveljanza ta' wara t-tqegħid fis-suq imsemmija fl-Artikolu 72;
c)
valutazione di altri eventuali rischi derivanti dall'analisi dei dati raccolti dal sistema di monitoraggio successivo all'immissione sul mercato di cui all'articolo 72;
(d)
l-adozzjoni ta' miżuri ta' ġestjoni tar-riskju xierqa u mmirati mfassla biex jindirizzaw ir-riskji identifikati skont il-punt (a).
d)
adozione di misure di gestione dei rischi opportune e mirate intese ad affrontare i rischi individuati ai sensi della lettera a).
3. Ir-riskji msemmija f'dan l-Artikolu għandhom jikkonċernaw biss dawk li jistgħu jiġu mitigati jew eliminati b'mod raġonevoli bl-iżvilupp jew id-disinn tas-sistema tal-IA b'riskju għoli, jew bl-għoti ta' informazzjoni teknika adegwata.
3. I rischi di cui al presente articolo riguardano solo quelli che possono essere ragionevolmente attenuati o eliminati attraverso lo sviluppo o la progettazione del sistema di IA ad alto rischio o la fornitura di informazioni tecniche adeguate.
4. Il-miżuri ta' ġestjoni tar-riskju msemmija fil-paragrafu 2, il-punt (d) għandhom iqisu kif xieraq l-effetti u l-interazzjoni possibbli li jirriżultaw mill-applikazzjoni kkombinata tar-rekwiżiti stipulati f'din it-Taqsima, bil-għan li jiġu minimizzati r-riskji b'mod aktar effettiv filwaqt li jinkiseb bilanċ xieraq fl-implimentazzjoni tal-miżuri biex jiġu ssodisfati dawk ir-rekwiżiti.
4. Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), tengono in debita considerazione gli effetti e la possibile interazione derivanti dall'applicazione combinata dei requisiti di cui alla presente sezione, al fine di ridurre al minimo i rischi con maggiore efficacia e raggiungere nel contempo un equilibrio adeguato nell'attuazione delle misure volte a soddisfare tali requisiti.
5. Il-miżuri ta' ġestjoni tar-riskju msemmija fil-paragrafu 2, il-punt (d) għandhom ikunu tali li r-riskju residwu rilevanti assoċjat ma' kull periklu kif ukoll ir-riskju residwu ġenerali tas-sistemi tal-IA b'riskju għoli jitqies aċċettabbli.
5. Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), sono tali che i pertinenti rischi residui associati a ciascun pericolo nonché il rischio residuo complessivo dei sistemi di IA ad alto rischio sono considerati accettabili.
Fl-identifikazzjoni tal-aktar miżuri xierqa ta' ġestjoni tar-riskju, għandu jkun żgurat dan li ġej:
Nell'individuare le misure di gestione dei rischi più appropriate, occorre garantire quanto segue:
(a)
l-eliminazzjoni jew it-tnaqqis tar-riskji identifikati u evalwati skont il-paragrafu 2 sa fejn hu teknikament possibbli permezz ta' disinn u żvilupp adegwati tas-sistema tal-IA b'riskju għoli;
a)
l'eliminazione o la riduzione dei rischi individuati e valutati a norma del paragrafo 2, per quanto possibile dal punto di vista tecnico attraverso un'adeguata progettazione e fabbricazione del sistema di IA ad alto rischio;
(b)
meta xieraq, l-implimentazzjoni ta' miżuri adegwati ta' mitigazzjoni u ta' kontroll li jindirizzaw ir-riskji li ma jistgħux jiġu eliminati;
b)
ove opportuno, l'attuazione di adeguate misure di attenuazione e di controllo nell'affrontare i rischi che non possono essere eliminati;
(c)
l-għoti ta' informazzjoni meħtieġa skont l-Artikolu 13, u, meta xieraq, taħriġ lill-implimentaturi.
c)
la fornitura delle informazioni richieste a norma dell'articolo 13 e, ove opportuno, la formazione dei deployer.
Bil-ħsieb tal-eliminazzjoni jew it-tnaqqis tar-riskji relatati mal-użu tas-sistema tal-IA b'riskju għoli, għandha tingħata kunsiderazzjoni dovuta lill-għarfien tekniku, l-esperjenza, l-edukazzjoni, it-taħriġ li għandu jkun mistenni mill-implimentatur u l-kuntest preżunt li fih tkun maħsuba li tintuża s-sistema.
Al fine di eliminare o ridurre i rischi connessi all'uso del sistema di IA ad alto rischio, si tengono debitamente in considerazione le conoscenze tecniche, l'esperienza, l'istruzione e la formazione che ci si può aspettare dal deployer e il contesto presumibile in cui il sistema è destinato ad essere usato.
6. Is-sistemi tal-IA b'riskju għoli għandhom jiġu ttestjati għall-finit tal-identifikazzjoni tal-aktar miżuri ta' ġestjoni tar-riskju xierqa u mmirati. L-ittestjar għandu jiżgura li s-sistemi tal-IA b'riskju għoli jaħdmu b'mod konsistenti għall-għan maħsub tagħhom u li jkunu konformi mar-rekwiżiti stipulati f'din it-Taqsima.
6. I sistemi di IA ad alto rischio sono sottoposti a prova al fine di individuare le misure di gestione dei rischi più appropriate e mirate. Le prove garantiscono che i sistemi di IA ad alto rischio funzionino in modo coerente per la finalità prevista e che siano conformi ai requisiti di cui alla presente sezione.
7. Il-proċeduri tal-ittestjar jistgħu jinkludu ttestjar fil-kundizzjonijiet tad-dinja reali skont l-Artikolu 60.
7. Le procedure di prova possono comprendere prove in condizioni reali conformemente all'articolo 60.
8. L-ittestjar ta' sistemi tal-IA b'riskju għoli għandu jitwettaq, kif xieraq, fi kwalunkwe ħin matul il-proċess ta' żvilupp, u, fi kwalunkwe każ, qabel l-introduzzjoni tagħhom fis-suq jew it-tqegħid fis-servizz. L-ittestjar għandu jitwettaq ma' metrika definita minn qabel u limiti massimi probabilistiċi li huma adattati għall-għan maħsub tas-sistema tal-IA b'riskju għoli.
8. Le prove dei sistemi di IA ad alto rischio sono effettuate, a seconda dei casi, in un qualsiasi momento dell'intero processo di sviluppo e, in ogni caso, prima della loro immissione sul mercato o messa in servizio. Le prove sono effettuate sulla base di metriche e soglie probabilistiche definite precedentemente e adeguate alla finalità prevista perseguita dal sistema di IA ad alto rischio.
9. Meta jkunu qed jimplimentaw is-sistema ta' ġestjoni tar-riskju kif previst fil-paragrafi 1 sa 7, il-fornituri għandhom iqisu jekk, fid-dawl tal-għan maħsub tagħha, is-sistema tal-IA b'riskju għoli x'aktarx ikollha impatt negattiv fuq il-persuni taħt it-18-il sena u, kif xieraq, fuq gruppi oħra vulnerabbli.
9. Nell'attuare il sistema di gestione dei rischi di cui ai paragrafi da 1 a 7, i fornitori prestano attenzione, nell'ottica della sua finalità prevista, all'eventualità che il sistema di IA ad alto rischio possa avere un impatto negativo sulle persone di età inferiore a 18 anni o, a seconda dei casi, su altri gruppi vulnerabili.
10. Għall-fornituri ta' sistemi tal-IA b'riskju għoli li huma soġġetti għal rekwiżiti rigward il-proċessi ta' ġestjoni tar-riskju interni skont dispożizzjonijiet rilevanti oħra tal-liġi tal-Unjoni, l-aspetti previsti fil-paragrafi 1 sa 9 jistgħu jkunu parti mill-proċeduri ta' ġestjoni tar-riskju stabbiliti skont dik il-liġi, jew ikkombinati magħhom.
10. Per i fornitori di sistemi di IA ad alto rischio soggetti ai requisiti relativi ai processi interni di gestione dei rischi a norma di altre disposizioni pertinenti del diritto dell'Unione, gli aspetti di cui ai paragrafi da 1 a 9 possono far parte delle procedure di gestione dei rischi stabilite a norma di tale diritto oppure essere combinati con le stesse.
Artikolu 10
Articolo 10
Data u governanza tad-data
Dati e governance dei dati
1. Sistemi tal-IA b'riskju għoli li jagħmlu użu minn tekniki li jinvolvu t-taħriġ ta' mudelli tal-IA b'data għandhom jiġu żviluppati abbażi ta' settijiet tad-data għal taħriġ, validazzjoni u ttestjar li jissodisfaw il-kriterji tal-kwalità msemmija fil-paragrafi 2 sa 5, kull meta jintużaw dawn is-settijiet tad-data.
1. I sistemi di IA ad alto rischio che utilizzano tecniche che prevedono l'uso di dati per l'addestramento di modelli di IA sono sviluppati sulla base di set di dati di addestramento, convalida e prova che soddisfano i criteri di qualità di cui ai paragrafi da 2 a 5 ogniqualvolta siano utilizzati tali set di dati.
2. Is-settijiet tad-data għal taħriġ, validazzjoni u ttestjar għandhom ikunu soġġetti għal prattiki ta' governanza u ġestjoni tad-data xierqa għall-għan maħsub tas-sistema tal-IA b'riskju għoli. Dawk il-prattiki għandhom jikkonċernaw b'mod partikolari:
2. I set di dati di addestramento, convalida e prova sono soggetti a pratiche di governance e gestione dei dati adeguate alla finalità prevista del sistema di IA ad alto rischio. Tali pratiche riguardano in particolare:
(a)
l-għażliet ta' disinn rilevanti;
a)
le scelte progettuali pertinenti;
(b)
il-proċessi tal-ġbir tad-data u l-oriġini tad-data, u fil-każ ta' data personali, l-iskop oriġinali tal-ġbir tad-data;
b)
i processi di raccolta dei dati e l'origine dei dati, nonché la finalità originaria della raccolta nel caso di dati personali;
(c)
operazzjonijiet rilevanti ta' pproċessar ta' tħejjija tad-data, bħall-annotazzjoni, it-tikkettar, it-tindif, l-aġġornament, l-arrikkiment u l-aggregazzjoni;
c)
le operazioni di trattamento pertinenti ai fini della preparazione dei dati, quali annotazione, etichettatura, pulizia, aggiornamento, arricchimento e aggregazione;
(d)
il-formulazzjoni ta' suppożizzjonijiet, b'mod partikolari fir-rigward tal-informazzjoni li d-data suppost tkejjel u tirrappreżenta;
d)
la formulazione di ipotesi, in particolare per quanto riguarda le informazioni che si presume che i dati misurino e rappresentino;
(e)
valutazzjoni tad-disponibbiltà, il-kwantità u l-adegwatezza tas-settijiet tad-data li huma meħtieġa;
e)
una valutazione della disponibilità, della quantità e dell'adeguatezza dei set di dati necessari;
(f)
l-eżami fid-dawl ta' preġudizzji possibbli li x'aktarx jaffettwaw is-saħħa u s-sikurezza tal-persuni, ikollhom impatt negattiv fuq id-drittijiet fundamentali jew iwasslu għal diskriminazzjoni pprojbita skont il-liġi tal-Unjoni, speċjalment fejn l-outputs tad-data jinfluwenzaw l-inputs għal operazzjonijiet futuri;
f)
un esame atto a valutare le possibili distorsioni suscettibili di incidere sulla salute e sulla sicurezza delle persone, di avere un impatto negativo sui diritti fondamentali o di comportare discriminazioni vietate dal diritto dell'Unione, specie laddove gli output di dati influenzano gli input per operazioni future;
(g)
miżuri xierqa għall-kxif, il-prevenzjoni u l-mitigazzjoni tal-preġudizzji possibbli identifikati skont il-punt (f);
g)
le misure adeguate per individuare, prevenire e attenuare le possibili distorsioni individuate conformemente alla lettera f);
(h)
l-identifikazzjoni ta' lakuni jew nuqqasijiet rilevanti fid-data li jfixklu l-konformità ma' dan ir-Regolament, u kif dawk il-lakuni u n-nuqqasijiet jistgħu jiġu indirizzati.
h)
l'individuazione di lacune o carenze pertinenti nei dati tali da pregiudicare il rispetto del presente regolamento e il modo in cui tali lacune e carenze possono essere colmate.
3. Is-settijiet tad-data għal taħriġ, validazzjoni u ttestjar għandhom ikunu rilevanti, rappreżentattivi biżżejjed, u kemm jista' jkun possibbli, mingħajr żbalji u kompluti fid-dawl tal-għan maħsub. Għandu jkollhom il-proprjetajiet statistiċi adatti, inkluż, fejn applikabbli, fir-rigward tal-persuni jew il-gruppi ta' persuni fir-rigward ta' min is-sistema tal-IA b'riskju għoli tkun maħsuba li tintuża. Dawk il-karatteristiċi tas-settijiet tad-data jistgħu jiġu ssodisfati fil-livell ta' settijiet tad-data individwali jew fil-livell ta' taħlita tagħhom.
3. I set di dati di addestramento, convalida e prova sono pertinenti, sufficientemente rappresentativi e, nella misura del possibile, esenti da errori e completi nell'ottica della finalità prevista. Essi possiedono le proprietà statistiche appropriate anche, ove applicabile, per quanto riguarda le persone o i gruppi di persone relativamente ai quali il sistema di IA ad alto rischio è destinato a essere usato. Queste caratteristiche dei set di dati possono essere soddisfatte a livello di singoli set di dati o a livello di una combinazione degli stessi.
4. Is-settijiet tad-data għandhom iqisu, sa fejn ikun mitlub mill-għan maħsub, il-karatteristiċi jew l-elementi li jkunu partikolari għall-ambjent ġeografiku, kuntestwali, komportamentali jew funzjonali speċifiku li fih tkun maħsuba li tintuża s-sistema tal-IA b'riskju għoli.
4. I set di dati tengono conto, nella misura necessaria per la finalità prevista, delle caratteristiche o degli elementi particolari dello specifico ambito geografico, contestuale, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere usato.
5. Sal-punt li jkun strettament meħtieġ għall-fini li jiġu żgurati l-kxif u l-korrezzjoni tal-preġudizzju fir-rigward tas-sistemi tal-IA b'riskju għoli f'konformità mal-paragrafu (2), il-punti (f) u (g) ta' dan l-Artikolu, il-fornituri ta' tali sistemi jistgħu jipproċessaw b'mod eċċezzjonali kategoriji speċjali ta' data personali, soġġett għal salvagwardji xierqa għad-drittijiet u l-libertajiet fundamentali tal-persuni fiżiċi. Minbarra d-dispożizzjonijiet stipulati fir-Regolamenti (UE) 2016/679 u (UE) 2018/1725, id-Direttiva (UE) 2016/680, sabiex iseħħ tali pproċessar iridu jiġu ssodisfati l-kundizzjonijiet kollha li ġejjin:
5. Nella misura in cui ciò sia strettamente necessario al fine di garantireil rilevamento e la correzione delle distorsioni in relazione ai sistemi di IA ad alto rischio in conformità del paragrafo 2, lettere f) e g), del presente articolo, i fornitori di tali sistemi possono eccezionalmente trattare categorie particolari di dati personali, fatte salve le tutele adeguate per i diritti e le libertà fondamentali delle persone fisiche. Oltre alle disposizioni di cui ai regolamenti (UE) 2016/679 e (UE) 2018/1725 e alla direttiva (UE) 2016/680 devono essere soddisfatte, affinché tale trattamento avvenga, tutte le condizioni seguenti:
(a)
il-kxif u l-korrezzjoni ta' preġudizzju ma jistgħux jiġu ssodisfati b'mod effettiv bl-ipproċessar ta' data oħra, inkluż data sintetika jew anonimizzata;
a)
il rilevamento e la correzione delle distorsioni non possono essere realizzati efficacemente mediante il trattamento di altri dati, compresi i dati sintetici o anonimizzati;
(b)
il-kategoriji speċjali ta' data personali huma soġġetti għal limitazzjonijiet tekniċi fuq l-użu mill-ġdid tad-data personali u miżuri ta' sigurtà u preservazzjoni tal-privatezza tal-ogħla livell ta' żvilupp tekniku, inkluża l-psewdonimizzazzjoni;
b)
le categorie particolari di dati personali sono soggette a limitazioni tecniche relative al riutilizzo dei dati personali, nonché a misure più avanzate di sicurezza e di tutela della vita privata, compresa la pseudonimizzazione;
(c)
il-kategoriji speċjali ta' data personali huma soġġetti għal miżuri biex jiġi żgurat li d-data personali pproċessata tkun sigura, protetta, soġġetta għal salvagwardji xierqa, inkluż kontrolli stretti u dokumentazzjoni tal-aċċess, biex jiġi evitat l-użu ħażin u jiġi żgurat li persuni awtorizzati biss jkollhom aċċess għal dik id-data personali b'obbligi xierqa ta' kunfidenzjalità;
c)
le categorie particolari di dati personali sono soggette a misure tese a garantire che i dati personali trattati siano resi sicuri e protetti nonché soggetti a garanzie adeguate, ivi compresi controlli e documentazione rigorosi dell'accesso, al fine di evitare abusi e garantire che solo le persone autorizzate e sottostanti a opportuni obblighi di riservatezza abbiano accesso a tali dati personali;
(d)
il-kategoriji speċjali ta' data personali ma għandhomx jiġu trażmessi, trasferiti jew aċċessati b'xi mod ieħor minn partijiet oħra;
d)
le categorie particolari di dati personali non devono essere trasmesse, trasferite o altrimenti consultate da terzi;
(e)
il-kategoriji speċjali ta' data personali jitħassru ladarba l-preġudizzju jkun ġie kkoreġut jew id-data personali tkun laħqet tmiem il-perjodu ta' żamma tagħha, skont liema jiġi l-ewwel;
e)
le categorie particolari di dati personali vengono cancellate dopo che la distorsione è stata corretta oppure i dati personali hanno raggiunto la fine del loro periodo di conservazione, a seconda di quale delle due condizioni si verifica per prima;
(f)
ir-rekords tal-attivitajiet ta' pproċessar skont ir-Regolamenti (UE) 2016/679 u (UE) 2018/1725 u d-Direttiva (UE) 2016/680 jinkludu r-raġunijiet għaliex l-ipproċessar ta' kategoriji speċjali ta' data personali kien strettament meħtieġ biex jinkixfu u jiġu kkoreġuti l-preġudizzji u għaliex dak l-objettiv ma setax jintlaħaq bl-ipproċessar ta' data oħra.
f)
i registri delle attività di trattamento a norma dei regolamenti (UE) 2016/679 e (UE) 2018/1725 e della direttiva (UE) 2016/680 comprendono i motivi per cui il trattamento delle categorie particolari di dati personali era strettamente necessario per rilevare e correggere distorsioni e i motivi per cui tale obiettivo non poteva essere raggiunto mediante il trattamento di altri dati.
6. Għall-iżvilupp ta' sistemi tal-IA b'riskju għoli li ma jużawx tekniki li jinvolvu t-taħriġ ta' mudelli tal-IA, il-paragrafi 2 sa 5 japplikaw biss għas-settijiet tad-data tal-ittestjar.
6. Per lo sviluppo di sistemi di IA ad alto rischio che non utilizzano tecniche che prevedono l'addestramento di modelli di IA, i paragrafi da 2 a 5 si applicano solo ai set di dati di prova.
Artikolu 11
Articolo 11
Dokumentazzjoni teknika
Documentazione tecnica
1. Id-dokumentazzjoni teknika ta' sistema tal-IA b'riskju għoli għandha titfassal qabel ma dik is-sistema tiġi introdotta fis-suq jew titqiegħed fis-servizz u għandha tinżamm aġġornata.
1. La documentazione tecnica di un sistema di IA ad alto rischio è redatta prima dell'immissione sul mercato o della messa in servizio di tale sistema ed è tenuta aggiornata.
Id-dokumentazzjoni teknika għandha titfassal b'mod li turi li s-sistema tal-IA b'riskju għoli tikkonforma mar-rekwiżiti stipulati f'din it-Taqsima u tipprovdi lill-awtoritajiet kompetenti nazzjonali u lill-korpi notifikati bl-informazzjoni meħtieġa f'forma ċara u komprensiva biex tiġi vvalutata l-konformità tas-sistema tal-IA ma' dawk ir-rekwiżiti. Bħala minimu, għandu jkun fiha l-elementi stipulati fl-Anness IV. L-SMEs, inkluż in-negozji ġodda, jistgħu jipprovdu l-elementi tad-dokumentazzjoni teknika speċifikata fl-Anness IV b'mod simplifikat. Għal dan il-għan, il-Kummissjoni għandha tistabbilixxi formola simplifikata ta' dokumentazzjoni teknika mmirata lejn il-ħtiġijiet tal-intrapriżi żgħar u mikro. Meta SME, inkluż negozju ġdid, tagħżel li tipprovdi l-informazzjoni rikjesta fl-Anness IV b'mod simplifikat, hija għandha tuża l-formola msemmija f'dan il-paragrafu. Il-korpi notifikati għandhom jaċċettaw il-formola għall-finijiet tal-valutazzjoni tal-konformità.
La documentazione tecnica è redatta in modo da dimostrare che il sistema di IA ad alto rischio è conforme ai requisiti di cui alla presente sezione e da fornire alle autorità nazionali competenti e agli organismi notificati, in forma chiara e comprensibile, le informazioni necessarie per valutare la conformità del sistema di IA a tali requisiti. Essa contiene almeno gli elementi di cui all'allegato IV. Le PMI, comprese le start-up, possono fornire in modo semplificato gli elementi della documentazione tecnica specificati nell'allegato IV. A tal fine la Commissione definisce un modulo di documentazione tecnica semplificata che risponda alle esigenze delle piccole imprese e delle microimprese. Qualora una PMI, compresa una start-up, decida di fornire in modo semplificato le informazioni richieste nell'allegato IV, utilizza il modulo di cui al presente paragrafo. Gli organismi notificati accettano il modulo ai fini della valutazione della conformità.
2. Meta sistema tal-IA b'riskju għoli relatata ma' prodott kopert mil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fit-Taqsima A tal-Anness I tiġi introdotta fis-suq jew titqiegħed fis-servizz, għandu jitfassal sett uniku ta' dokumentazzjoni teknika bl-informazzjoni kollha stipulata fil-paragrafu 1, kif ukoll l-informazzjoni meħtieġa skont dawk l-atti legali.
2. Se è immesso sul mercato o messo in servizio un sistema di IA ad alto rischio connesso a un prodotto contemplato dalla normativa di armonizzazione dell'Unione elencata nell'allegato I, sezione A, si redige un'unica documentazione tecnica contenente tutte le informazioni di cui al paragrafo 1 e le informazioni necessarie a norma di tali atti giuridici.
3. Il-Kummissjoni għandha s-setgħa li tadotta atti delegati f'konformità mal-Artikolu 97 sabiex temenda l-Anness IV, meta meħtieġ, biex tiżgura li, fid-dawl tal-progress tekniku, id-dokumentazzjoni teknika tipprovdi l-informazzjoni kollha meħtieġa għal valutazzjoni tal-konformità tas-sistema mar-rekwiżiti stipulati f'din it-Taqsima.
3. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 97 al fine di modificare l'allegato IV ove necessario per garantire che, alla luce del progresso tecnico, la documentazione tecnica fornisca tutte le informazioni necessarie per valutare la conformità del sistema ai requisiti di cui alla presente sezione.
Artikolu 12
Articolo 12
Żamma tar-rekords
Conservazione delle registrazioni
1. Is-sistemi tal-IA b'riskju għoli għandhom teknikament jippermettu r-reġistrazzjoni awtomatika tal-avvenimenti (reġistri) tul iċ-ċiklu tal-ħajja tas-sistema.
1. I sistemi di IA ad alto rischio consentono a livello tecnico la registrazione automatica degli eventi («log») per la durata del ciclo di vita del sistema.
2. Sabiex jiġi żgurat livell ta' traċċabbiltà tal-funzjonament ta' sistema tal-IA b'riskju għoli li jkun xieraq għall-għan maħsub tas-sistema, il-kapaċitajiet ta' reġistrar għandhom jiffaċilitaw r-reġistrazzjoni tal-avvenimenti rilevanti għal:
2. Al fine di garantire un livello di tracciabilità del funzionamento del sistema di IA ad alto rischio adeguato alla finalità prevista del sistema, le capacità di registrazione consentono la registrazione di eventi pertinenti per:
(a)
l-identifikazzjoni ta' sitwazzjonijiet li jistgħu jwasslu biex is-sistema tal-IA b'riskju għoli tippreżenta riskju skont it-tifsira tal-Artikolu 79(1) jew f'modifika sostanzjali;
a)
l'individuazione di situazioni che possono far sì che il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 79, paragrafo 1, o determinare una modifica sostanziale;
(b)
il-faċilitazzjoni tas-sorveljanza ta' wara t-tqegħid fis-suq imsemmija fl-Artikolu 72; u
b)
l'agevolazione del monitoraggio successivo all'immissione sul mercato di cui all'articolo 72; e
(c)
il-monitoraġġ tat-tħaddim tas-sistemi tal-IA b'riskju għoli msemmija fl-Artikolu 26(5).
c)
il monitoraggio del funzionamento dei sistemi di IA ad alto rischio di cui all'articolo 26, paragrafo 5.
3. Għas-sistemi tal-IA b'riskju għoli msemmija fil-punt 1(a), tal-Anness III, il-kapaċitajiet ta' reġistrar għandhom jipprovdu, bħala minimu:
3. Per i sistemi di IA ad alto rischio di cui all'allegato III, punto 1, lettera a), le capacità di registrazione comprendono almeno i dati seguenti:
(a)
ir-reġistrazzjoni tal-perjodu ta' kull użu tas-sistema (id-data u l-ħin tal-bidu u d-data u l-ħin tat-tmiem ta' kull użu);
a)
la registrazione del periodo di ciascun utilizzo del sistema (data e ora di inizio e di fine di ciascun utilizzo);
(b)
il-bażi ta' data ta' referenza li magħha tiġi vverifikata d-data tal-input mis-sistema;
b)
la banca dati di riferimento utilizzata dal sistema per verificare i dati di input;
(c)
id-data tal-input li magħha t-tfittxija wasslet għal konkordanza;
c)
i dati di input per i quali la ricerca ha portato a una corrispondenza;
(d)
l-identifikazzjoni tal-persuni fiżiċi involuti fil-verifika tar-riżultati, kif imsemmija fl-Artikolu 14(5).
d)
l'identificativo delle persone fisiche che partecipano alla verifica dei risultati di cui all'articolo 14, paragrafo 5.
Artikolu 13
Articolo 13
Trasparenza u għoti tal-informazzjoni lill-implimentaturi
Trasparenza e fornitura di informazioni ai deployer
1. Is-sistemi tal-IA b'riskju għoli għandhom jiġu ddisinjati u żviluppati b'tali mod li jkun żgurat li t-tħaddim tagħhom ikun trasparenti biżżejjed biex l-implimentaturi jkunu jistgħu jinterpretaw output ta' sistema u jużawh sew. Għandhom jiġu żgurati tip u livell xierqa ta' trasparenza bil-ħsieb li tinkiseb konformità mal-obbligi rilevanti tal-fornitur u l-implimentatur stipulati fit-Taqsima 3.
1. I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire ai deployer di interpretare l'output del sistema e utilizzarlo adeguatamente. Sono garantiti un tipo e un livello di trasparenza adeguati, che consentano di conseguire il rispetto dei pertinenti obblighi del fornitore e del deployer di cui alla sezione 3.
2. Mas-sistemi tal-IA b'riskju għoli għandhom jingħataw struzzjonijiet għall-użu b'format diġitali xieraq jew b'xi format ieħor li jinkludu informazzjoni konċiża, kompluta, korretta u ċara li tkun rilevanti, aċċessibbli u li tinftiehem mill-implimentaturi.
2. I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l'uso, in un formato appropriato digitale o non digitale, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per i deployer.
3. L-istruzzjonijiet għall-użu għandu jkun fihom mill-anqas l-informazzjoni li ġejja:
3. Le istruzioni per l'uso contengono almeno le informazioni seguenti:
(a)
l-identità u d-dettalji ta' kuntatt tal-fornitur u, meta applikabbli, tar-rappreżentant awtorizzat tiegħu;
a)
l'identità e i dati di contatto del fornitore e, ove applicabile, del suo rappresentante autorizzato;
(b)
il-karatteristiċi, il-kapaċitajiet u l-limitazzjonijiet tal-prestazzjoni tas-sistema tal-IA b'riskju għoli, inkluż:
b)
le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui:
(i)
l-għan maħsub tagħha;
i)
la finalità prevista;
(ii)
il-livell ta' akkuratezza, inkluż il-metrika, ir-robustezza u ċ-ċibersigurtà tagħha msemmija fl-Artikolu 15 li abbażi tiegħu tkun ġiet ittestjata u vvalidata s-sistema tal-IA b'riskju għoli u li jista' jkun mistenni, u kull ċirkostanza magħrufa u prevedibbli li tista' tħalli impatt fuq dak il-livell mistenni ta' akkuratezza, robustezza u ċibersigurtà;
ii)
il livello di accuratezza che ci si può attendere, comprese le metriche, di robustezza e cibersicurezza di cui all'articolo 15 rispetto al quale il sistema di IA ad alto rischio è stato sottoposto a prova e convalidato, e qualsiasi circostanza nota e prevedibile che possa avere un impatto sul livello atteso di accuratezza, robustezza e cibersicurezza;
(iii)
kwalunkwe ċirkostanza magħrufa jew prevedibbli, relatata mal-użu tas-sistema tal-IA b'riskju għoli f'konformità mal-għan maħsub tagħha jew f'kundizzjonijiet ta' użu ħażin raġonevolment prevedibbli, li tista' twassal għal riskji għas-saħħa u s-sikurezza jew għad-drittijiet fundamentali msemmija fl-Artikolu 9(2);
iii)
qualsiasi circostanza nota o prevedibile connessa all'uso del sistema di IA ad alto rischio in conformità della sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile che possa comportare rischi per la salute e la sicurezza o per i diritti fondamentali di cui all'articolo 9, paragrafo 2;
(iv)
meta applikabbli, il-kapaċitajiet u l-karatteristiċi tekniċi tas-sistema tal-IA b'riskju għoli biex tkun provduta informazzjoni li tkun rilevanti biex tispjega l-output tagħha;
iv)
se del caso, le capacità e caratteristiche tecniche del sistema di IA ad alto rischio connesse alla fornitura di informazioni pertinenti per spiegarne l'output;
(v)
fejn xieraq, il-prestazzjoni tagħha fir-rigward ta' persuni speċifiċi jew gruppi ta' persuni speċifiċi li s-sistema hi maħsuba li tintuża fuqhom;
v)
ove opportuno, le sue prestazioni per quanto riguarda le persone o i gruppi di persone specifici sui quali il sistema è destinato a essere utilizzato;
(vi)
meta xieraq, l-ispeċifikazzjonijiet għad-data tal-input, jew kull informazzjoni rilevanti oħra f'termini tas-settijiet tad-data għal taħriġ, validazzjoni u ttestjar użati, filwaqt li jitqies l-għan maħsub tas-sistema tal-IA b'riskju għoli;
vi)
ove opportuno, le specifiche per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova, tenendo conto della finalità prevista del sistema di IA ad alto rischio;
(vii)
fejn applikabbli, informazzjoni li tippermetti lill-implimentaturi jinterpretaw l-output tas-sistema tal-IA b'riskju għoli u jużawh b'mod xieraq;
vii)
se del caso, informazioni che consentano ai deployer di interpretare l'output del sistema di IA ad alto rischio e di usarlo in modo opportuno;
(c)
il-bidliet fis-sistema tal-IA b'riskju għoli u fil-prestazzjoni tagħha li jkunu ġew determinati minn qabel mill-fornitur fil-mument tal-valutazzjoni tal-konformità inizjali, jekk ikun hemm;
c)
le eventuali modifiche apportate al sistema di IA ad alto rischio e alle sue prestazioni, che sono state predeterminate dal fornitore al momento della valutazione iniziale della conformità;
(d)
il-miżuri ta' sorveljanza mill-bniedem msemmija fl-Artikolu 14, inkluż il-miżuri tekniċi stabbiliti biex jiffaċilitaw l-interpretazzjoni tal-outputs ta' sistemi tal-IA b'riskju għoli mill-implimentaturi;
d)
le misure di sorveglianza umana di cui all'articolo 14, comprese le misure tecniche poste in essere per facilitare l'interpretazione degli output dei sistemi di IA ad alto rischio da parte dei deployer;
(e)
ir-riżorsi komputazzjonali u ta' hardware meħtieġa, il-ħajja mistennija tas-sistema tal-IA b'riskju għoli u kwalunkwe miżura ta' manutenzjoni u kura meħtieġa, inkluż il-frekwenza tagħhom, biex ikun żgurat il-funzjonament tajjeb ta' dik is-sistema tal-IA, inkluż fir-rigward tal-aġġornamenti tas-software;
e)
le risorse computazionali e di hardware necessarie, la durata prevista del sistema di IA ad alto rischio e tutte le misure di manutenzione e cura, compresa la relativa frequenza, necessarie per garantire il corretto funzionamento di tale sistema, anche per quanto riguarda gli aggiornamenti software;
(f)
fejn ikun rilevanti, deskrizzjoni tal-mekkaniżmi inklużi fis-sistema tal-IA b'riskju għoli li tippermetti lill-implimentaturi jiġbru, jaħżnu u jinterpretaw tajjeb ir-reġistri f'konformità mal-Artikolu 12.
f)
se del caso, una descrizione dei meccanismi inclusi nel sistema di IA ad alto rischio che consente ai deployer di raccogliere, conservare e interpretare correttamente i log in conformità dell'articolo 12.
Artikolu 14
Articolo 14
Sorveljanza mill-bniedem
Sorveglianza umana
1. Is-sistemi tal-IA b'riskju għoli għandhom jiġu ddisinjati u żviluppati b'tali mod, inkluż b'għodod xierqa ta' interfaċċa bejn il-bniedem u l-magna, li jistgħu jiġu sorveljati b'mod effettiv minn persuni fiżiċi waqt il-perjodu li jintużaw.
1. I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso.
2. Is-sorveljanza mill-bniedem għandu jkollha l-għan li tipprevjeni jew timminimizza r-riskji għas-saħħa, is-sikurezza jew id-drittijiet fundamentali li jistgħu jinħolqu waqt l-użu tas-sistema tal-IA b'riskju għoli f'konformità mal-għan maħsub tagħha jew f'kundizzjonijiet ta' użu ħażin raġonevolment prevedibbli, b'mod partikolari meta dawn ir-riskji jissoktaw minkejja l-applikazzjoni ta' rekwiżiti oħra stipulati f'din it-Taqsima.
2. La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare qualora tali rischi persistano nonostante l'applicazione di altri requisiti di cui alla presente sezione.
3. Il-miżuri ta' sorveljanza għandhom ikunu proporzjonati għar-riskji, il-livell ta' awtonomija u l-kuntest tal-użu tas-sistema tal-IA b'riskju għoli u għandhom jiġu żgurati permezz ta' tip wieħed ta' miżuri li ġejjin jew mit-tnejn li huma:
3. Le misure di sorveglianza sono commisurate ai rischi, al livello di autonomia e al contesto di utilizzo del sistema di IA ad alto rischio e sono garantite mediante almeno uno dei tipi di misure seguenti:
(a)
miżuri identifikati u mibnija, meta teknikament fattibbli, fis-sistema tal-IA b'riskju għoli mill-fornitur qabel ma tiġi introdotta fis-suq jew titqiegħed fis-servizz;
a)
misure individuate e integrate nel sistema di IA ad alto rischio dal fornitore prima della sua immissione sul mercato o messa in servizio, ove tecnicamente possibile;
(b)
miżuri identifikati mill-fornitur qabel l-introduzzjoni tas-sistema tal-IA b'riskju għoli fis-suq jew titqiegħed fis-servizz u li huma xierqa biex jiġu implimentati mill-implimentatur.
b)
misure individuate dal fornitore prima dell'immissione sul mercato o della messa in servizio del sistema di IA ad alto rischio, adatte ad essere attuate dal deployer.
4. Għall-fini tal-implimentazzjoni tal-paragrafi 1, 2 u 3, is-sistema tal-IA b'riskju għoli għandha tiġi pprovduta lill-implimentatur b’tali mod li l-persuni fiżiċi li lilhom tiġi assenjata s-sorveljanza mill-bniedem ikunu jistgħu, kif xieraq u b'mod proporzjonat:
4. Ai fini dell'attuazione dei paragrafi 1, 2 e 3, il sistema di IA ad alto rischio è fornito al deployer in modo tale che le persone fisiche alle quali è affidata la sorveglianza umana abbiano la possibilità, ove opportuno e proporzionato, di:
(a)
jifhmu sew il-kapaċitajiet u l-limitazzjonijiet rilevanti tas-sistema tal-IA b'riskju għoli u jkunu jistgħu jimmonitorjaw kif dovut l-operat tagħha, inkluż bil-ħsieb li jikxfu u jindirizzaw anomaliji, disfunzjonijiet u prestazzjoni mhux mistennija;
a)
comprendere correttamente le capacità e i limiti pertinenti del sistema di IA ad alto rischio ed essere in grado di monitorarne debitamente il funzionamento, anche al fine di individuare e affrontare anomalie, disfunzioni e prestazioni inattese;
(b)
jibqgħu konxji tat-tendenza possibbli li wieħed iserraħ awtomatikament jew li jserraħ wisq fuq l-output prodott minn sistema tal-IA b'riskju għoli (preġudizzju tal-awtomatizzazzjoni), b'mod partikolari għal sistemi tal-IA b'riskju għoli użati biex jipprovdu informazzjoni jew rakkomandazzjonijiet għal deċiżjonijiet li jridu jittieħdu minn persuni fiżiċi;
b)
restare consapevole della possibile tendenza a fare automaticamente affidamento o a fare eccessivo affidamento sull'output prodotto da un sistema di IA ad alto rischio («distorsione dell'automazione»), in particolare in relazione ai sistemi di IA ad alto rischio utilizzati per fornire informazioni o raccomandazioni per le decisioni che devono essere prese da persone fisiche;
(c)
jinterpretaw b'mod korrett l-output tas-sistema IA b'riskju għoli, filwaqt li jqisu, pereżempju, l-għodod u l-metodi ta' interpretazzjoni disponibbli;
c)
interpretare correttamente l'output del sistema di IA ad alto rischio, tenendo conto ad esempio degli strumenti e dei metodi di interpretazione disponibili;
(d)
jiddeċiedu, fi kwalunkwe sitwazzjoni partikolari, li ma jużawx is-sistema tal-IA b'riskju għoli jew li jinjoraw, iwarrbu jew ireġġgħu lura l-output tas-sistema tal-IA b'riskju għoli;
d)
decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l'output del sistema di IA ad alto rischio;
(e)
jintervjenu fit-tħaddim tas-sistema tal-IA b'riskju għoli jew jinterrompuha permezz ta' buttuna “stop” jew proċedura simili li permezz tagħha s-sistema tkun tista' tieqaf mingħajr periklu.
e)
intervenire sul funzionamento del sistema di IA ad alto rischio o interrompere il sistema mediante un pulsante di «arresto» o una procedura analoga che consenta al sistema di arrestarsi in condizioni di sicurezza.
5. Għas-sistemi tal-IA b'riskju għoli msemmija fil-punt 1(a) tal-Anness III, il-miżuri msemmija fil-paragrafu 3 ta' dan l-Artikolu għandhom ikunu tali li jiżguraw li, barra minn hekk, ma tittieħed l-ebda azzjoni jew deċiżjoni mill-implimentatur abbażi tal-identifikazzjoni li tirriżulta mis-sistema sakemm dik l-identifikazzjoni ma tkunx ġiet verifikata u kkonfermata separatament minn tal-anqas żewġ persuni fiżiċi bil-kompetenza, it-taħriġ u l-awtorità meħtieġa.
5. In aggiunta, per i sistemi di IA ad alto rischio di cui all'allegato III, punto 1, lettera a), le misure di cui al paragrafo 3 del presente articolo sono tali da garantire che il deployer non compia azioni o adotti decisioni sulla base dell'identificazione risultante dal sistema, a meno che tale identificazione non sia stata verificata e confermata separatamente da almeno due persone fisiche dotate della necessaria competenza, formazione e autorità.
Ir-rekwiżit għal verifika separata minn mill-inqas żewġ persuni fiżiċi ma għandux japplika għal sistemi tal-IA b'riskju għoli użati għall-finijiet tal-infurzar tal-liġi, tal-migrazzjoni, tal-kontroll fil-fruntieri jew tal-ażil, fejn il-liġi tal-Unjoni jew dik nazzjonali tqis li l-applikazzjoni ta' dan ir-rekwiżit hija sproporzjonata.
Il requisito di una verifica separata da parte di almeno due persone fisiche non si applica ai sistemi di IA ad alto rischio utilizzati a fini di contrasto, migrazione, controllo delle frontiere o asilo, qualora il diritto dell'Unione o nazionale ritenga sproporzionata l'applicazione di tale requisito.
Artikolu 15
Articolo 15
Akkuratezza, robustezza u ċibersigurtà
Accuratezza, robustezza e cibersicurezza
1. Is-sistemi tal-IA b'riskju għoli għandhom jiġu ddisinjati u żviluppati b'tali mod li jiksbu livell xieraq ta' akkuratezza, robustezza u ċibersigurtà, u li l-prestazzjoni tagħhom fir-rigward ta' dawk l-aspetti tkun konsistenti tul iċ-ċiklu tal-ħajja tagħhom.
1. I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da conseguire un adeguato livello di accuratezza, robustezza e cibersicurezza e da operare in modo coerente con tali aspetti durante tutto il loro ciclo di vita.
2. Sabiex tindirizza l-aspetti tekniċi ta' kif jitkejlu l-livelli xierqa ta' akkuratezza u robustezza stipulati fil-paragrafu 1 u kwalunkwe metrika tal-prestazzjoni rilevanti oħra, il-Kummissjoni għandha, f'kooperazzjoni mal-partijiet ikkonċernati u l-organizzazzjonijiet rilevanti bħall-metroloġija u l-awtoritajiet tal-valutazzjoni komparattiva, tħeġġeġ kif xieraq, l-iżvilupp ta' parametri referenzjarji u metodoloġiji tal-kejl.
2. Al fine di affrontare gli aspetti tecnici relativi alle modalità di misurazione degli adeguati livelli di accuratezza e robustezza di cui al paragrafo 1 e altre metriche di prestazione pertinenti, la Commissione, in cooperazione con i portatori di interessi e le organizzazioni pertinenti, quali le autorità di metrologia e di analisi comparativa, incoraggia, se del caso, lo sviluppo di parametri di riferimento e metodologie di misurazione.
3. Il-livelli ta' akkuratezza u l-metrika tal-akkuratezza rilevanti tas-sistemi tal-IA b'riskju għoli għandhom jiġu dikjarati fl-istruzzjonijiet tal-użu li jakkumpanjawhom.
3. I livelli di accuratezza e le pertinenti metriche di accuratezza dei sistemi di IA ad alto rischio sono dichiarati nelle istruzioni per l'uso che accompagnano il sistema.
4. Is-sistemi tal-IA b'riskju għoli għandhom ikunu kemm jista' jkun reżiljenti fir-rigward ta' żbalji, ħsarat jew inkonsistenzi li jistgħu jseħħu fis-sistema jew fl-ambjent li fih topera s-sistema, b'mod partikolari minħabba l-interazzjoni tagħhom ma' persuni fiżiċi jew ma' sistemi oħra. F'dan ir-rigward għandhom jittieħdu miżuri tekniċi u organizzattivi.
4. I sistemi di IA ad alto rischio sono il più resilienti possibile per quanto riguarda errori, guasti o incongruenze che possono verificarsi all'interno del sistema o nell'ambiente in cui esso opera, in particolare a causa della loro interazione con persone fisiche o altri sistemi. A tale riguardo sono adottate misure tecniche e organizzative.
Ir-robustezza tas-sistemi tal-IA b'riskju għoli tista' tinkiseb b'soluzzjonijiet tekniċi ta' ridondanza, li jistgħu jinkludu pjanijiet ta' backup jew ta' fail-safe.
La robustezza dei sistemi di IA ad alto rischio può essere conseguita mediante soluzioni tecniche di ridondanza, che possono includere piani di backup o fail-safe.
Is-sistemi tal-IA b'riskju għoli li jkomplu jitgħallmu wara li jiġu introdotti fis-suq jew jitqiegħdu fis-servizz għandhom jiġu żviluppati b'tali mod li jeliminaw jew inaqqsu kemm jista' jkun ir-riskju li outputs possibbilment ippreġudikati jinfluwenzaw l-input għal operazzjonijiet futuri (“feedback loops”), u biex jiġi żgurat li kwalunkwe feedback loop bħal dan jiġi indirizzat kif xieraq b'miżuri ta' mitigazzjoni xierqa.
I sistemi di IA ad alto rischio che proseguono il loro apprendimento dopo essere stati immessi sul mercato o messi in servizio sono sviluppati in modo tale da eliminare o ridurre il più possibile il rischio di output potenzialmente distorti che influenzano gli input per operazioni future (feedback loops - «circuiti di feedback») e garantire che tali circuiti di feedback siano oggetto di adeguate misure di attenuazione.
5. Is-sistemi tal-IA b'riskju għoli għandhom ikunu reżiljenti kontra tentattivi minn partijiet terzi mhux awtorizzati biex ibiddlu l-użu, l-outputs jew il-prestazzjoni tagħhom billi jisfruttaw il-vulnerabbiltajiet tas-sistema.
5. I sistemi di IA ad alto rischio sono resilienti ai tentativi di terzi non autorizzati di modificarne l'uso, gli output o le prestazioni sfruttando le vulnerabilità del sistema.
Is-soluzzjonijiet tekniċi mmirati biex jiżguraw iċ-ċibersigurtà tas-sistemi tal-IA b'riskju għoli għandhom ikunu xierqa għaċ-ċirkostanzi rilevanti u għar-riskji.
Le soluzioni tecniche volte a garantire la cibersicurezza dei sistemi di IA ad alto rischio sono adeguate alle circostanze e ai rischi pertinenti.
Is-soluzzjonijiet tekniċi biex jiġu indirizzati vulnerabbiltajiet speċifiċi tal-IA għandhom jinkludu, fejn xieraq, miżuri għall-prevenzjoni, il-kxif, ir-rispons għal, ir-riżoluzzjoni u l-kontroll ta' attakki li jippruvaw jimmanipulaw is-sett tad-data għat-taħriġ (avvelenament tad-data), jew komponenti mħarrġa minn qabel użati fit-taħriġ (avvelenament tal-mudell), inputs imfassla biex jġiegħlu lill-mudell tal-IA jiżbalja (eżempji kontradittorji jew evażjoni tal-mudell), attakki fuq il-kunfidenzjalità jew difetti fil-mudell.
Le soluzioni tecniche finalizzate ad affrontare le vulnerabilità specifiche dell'IA includono, ove opportuno, misure volte a prevenire, accertare, rispondere, risolvere e controllare gli attacchi che cercano di manipolare il set di dati di addestramento (data poisoning - «avvelenamento dei dati») o i componenti preaddestrati utilizzati nell'addestramento (model poisoning - «avvelenamento dei modelli»), gli input progettati in modo da far sì che il modello di IA commetta un errore (adversarial examples - «esempi antagonistici», o model evasion, - «evasione dal modello»), gli attacchi alla riservatezza o i difetti del modello.
TAQSIMA 3
SEZIONE 3
Obbligi tal-fornituri u tal-implimentaturi ta' sistemi tal-IA b'riskju għoli u partijiet oħra
Obblighi dei fornitori e dei deployer dei sistemi di IA ad alto rischio e di altre parti
Artikolu 16
Articolo 16
Obbligi tal-fornituri tas-sistemi tal-IA b'riskju għoli
Obblighi dei fornitori dei sistemi di IA ad alto rischio
Il-fornituri tas-sistemi tal-IA b'riskju għoli għandhom:
I fornitori dei sistemi di IA ad alto rischio:
(a)
jiżguraw li s-sistemi tal-IA b'riskju għoli tagħhom ikunu konformi mar-rekwiżiti stipulati fit-Taqsima 2;
a)
garantiscono che i loro sistemi di IA ad alto rischio siano conformi ai requisiti di cui alla sezione 2;
(b)
jindikaw fuq is-sistema tal-IA b'riskju għoli jew, meta dan ma jkunx possibbli, fuq l-imballaġġ tagħha jew id-dokumentazzjoni ta' akkumpanjament tagħha, kif applikabbli, isimhom, l-isem kummerċjali rreġistrat jew it-trademark irreġistrata tagħhom, l-indirizz fejn jistgħu jiġu kkuntattjati;
b)
indicano sul sistema di IA ad alto rischio oppure, ove ciò non sia possibile, sul suo imballaggio o sui documenti di accompagnamento, a seconda dei casi, il loro nome, la loro denominazione commerciale registrata o il loro marchio registrato e l'indirizzo al quale possono essere contattati;
(c)
ikollhom fis-seħħ sistema ta' ġestjoni tal-kwalità li tikkonforma mal-Artikolu 17;
c)
dispongono di un sistema di gestione della qualità conforme all'articolo 17;
(d)
iżommu d-dokumentazzjoni teknika msemmija fl-Artikolu 18;
d)
conservano la documentazione di cui all'articolo 18;
(e)
meta jkunu fil-kontroll tagħhom, iżommu r-reġistri ġġenerati awtomatikament mis-sistemi tal-IA b'riskju għoli tagħhom kif imsemmi fl-Artikolu 19;
e)
quando sono sotto il loro controllo, conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio di cui all'articolo 19;
(f)
jiżguraw li s-sistema tal-IA b'riskju għoli tgħaddi mill-proċedura rilevanti ta' valutazzjoni tal-konformità kif imsemmi fl-Artikolu 43, qabel ma tiġi introdotta fis-suq jew imqiegħda fis-servizz;
f)
garantiscono che il sistema di IA ad alto rischio sia sottoposto alla pertinente procedura di valutazione della conformità di cui all'articolo 43 prima che sia immesso sul mercato o messo in servizio;
(g)
ifasslu dikjarazzjoni tal-konformità tal-UE f'konformità mal-Artikolu 47;
g)
elaborano una dichiarazione di conformità UE a norma dell'articolo 47;
(h)
iwaħħlu l-markatura CE mas-sistema tal-IA b'riskju għoli jew, meta dan ma jkunx possibbli, fuq l-imballaġġ tagħha jew id-dokumentazzjoni li takkumpanjaha, biex tindika l-konformità ma' dan ir-Regolament, f'konformità mal-Artikolu 48;
h)
appongono la marcatura CE sul sistema di IA ad alto rischio oppure, ove ciò non sia possibile, sul suo imballaggio o sui documenti di accompagnamento per indicare la conformità al presente regolamento a norma dell'articolo 48;
(i)
jikkonformaw mal-obbligi tar-reġistrazzjoni msemmija fl-Artikolu 49(1);
i)
rispettano gli obblighi di registrazione di cui all'articolo 49, paragrafo 1;
(j)
jieħdu l-azzjonijiet korrettivi meħtieġa u jipprovdu informazzjoni kif meħtieġ fl-Artikolu 20;
j)
adottano le necessarie misure correttive e forniscono le informazioni necessarie in conformità dell'articolo 20;
(k)
fuq talba motivata ta' awtorità nazzjonali kompetenti, juru l-konformità tas-sistema tal-IA b'riskju għoli mar-rekwiżiti stipulati fit-Taqsima 2;
k)
su richiesta motivata di un'autorità nazionale competente, dimostrano la conformità del sistema di IA ad alto rischio ai requisiti di cui alla sezione 2;
(l)
jiżguraw li s-sistema tal-IA b'riskju għoli tikkonforma mar-rekwiżiti ta' aċċessibbiltà f'konformità mad-Direttivi (UE) 2016/2102 u (UE) 2019/882.
l)
garantiscono che il sistema di IA ad alto rischio sia conforme ai requisiti di accessibilità in conformità delle direttive (UE) 2016/2102 e (UE) 2019/882.
Artikolu 17
Articolo 17
Sistema ta' ġestjoni tal-kwalità
Sistema di gestione della qualità
1. Il-fornituri tas-sistemi tal-IA b'riskju għoli għandhom jistabbilixxu sistema ta' ġestjoni tal-kwalità li tiżgura l-konformità ma' dan ir-Regolament. Dik is-sistema għandha tiġi dokumentata b'mod sistematiku u ordnat fil-forma ta' politiki, proċeduri u struzzjonijiet bil-miktub, u għandha tinkludi mill-inqas l-aspetti li ġejjin:
1. I fornitori di sistemi di IA ad alto rischio istituiscono un sistema di gestione della qualità che garantisce la conformità al presente regolamento. Tale sistema è documentato in modo sistematico e ordinato sotto forma di politiche, procedure e istruzioni scritte e comprende almeno gli aspetti seguenti:
(a)
strateġija għall-konformità regolatorja, inkluż il-konformità mal-proċeduri ta' valutazzjoni tal-konformità u mal-proċeduri għall-ġestjoni tal-modifiki fis-sistema tal-IA b'riskju għoli;
a)
una strategia per la conformità normativa, compresa la conformità alle procedure di valutazione della conformità e alle procedure per la gestione delle modifiche dei sistemi di IA ad alto rischio;
(b)
it-tekniki, il-proċeduri u l-azzjonijiet sistematiċi li għandhom jintużaw għad-disinn, il-kontroll tad-disinn u l-verifika tad-disinn tas-sistema tal-IA b'riskju għoli;
b)
le tecniche, le procedure e gli interventi sistematici da utilizzare per la progettazione, il controllo della progettazione e la verifica della progettazione del sistema di IA ad alto rischio;
(c)
it-tekniki, il-proċeduri u l-azzjonijiet sistematiċi li jridu jintużaw għall-iżvilupp, il-kontroll tal-kwalità u l-garanzija tal-kwalità tas-sistema tal-IA b'riskju għoli;
c)
le tecniche, le procedure e gli interventi sistematici da utilizzare per lo sviluppo e per il controllo e la garanzia della qualità del sistema di IA ad alto rischio;
(d)
il-proċeduri ta' eżaminazzjoni, ittestjar u validazzjoni li għandhom jitwettqu qabel, waqt u wara l-iżvilupp tas-sistema tal-IA b'riskju għoli, u l-frekwenza li biha jridu jsiru;
d)
le procedure di esame, prova e convalida da effettuare prima, durante e dopo lo sviluppo del sistema di IA ad alto rischio e la frequenza con cui devono essere effettuate;
(e)
l-ispeċifikazzjonijiet tekniċi, inkluż l-istandards, li għandhom jiġu applikati u, meta l-istandards armonizzati rilevanti ma jiġux applikati b'mod sħiħ, jew ma jkoprux ir-rekwiżiti rilevanti kollha stipulati fit-Taqsima 2, il-mezzi li għandhom jintużaw biex jiġi żgurat li s-sistema tal-IA b'riskju għoli tikkonforma ma' dawk ir-rekwiżiti;
e)
le specifiche tecniche, comprese le norme, da applicare e, qualora le pertinenti norme armonizzate non siano applicate integralmente, o non includano tutti i requisiti pertinenti di cui alla sezione 2, i mezzi da usare per garantire che il sistema di IA ad alto rischio sia conforme a tali requisiti;
(f)
is-sistemi u l-proċeduri għall-ġestjoni tad-data, inkluż l-akwiżizzjoni tad-data, il-ġbir tad-data, l-analiżi tad-data, it-tikkettar tad-data, il-ħżin tad-data, il-filtrazzjoni tad-data, l-estrazzjoni tad-data, l-aggregazzjoni tad-data, iż-żamma tad-data u kwalunkwe operazzjoni oħra rigward id-data li titwettaq qabel u għall-fini tal-introduzzjoni fis-suq jew it-tqegħid fis-servizz ta' sistemi tal-IA b'riskju għoli;
f)
i sistemi e le procedure per la gestione dei dati, compresa l'acquisizione, la raccolta, l'analisi, l'etichettatura, l'archiviazione, la filtrazione, l'estrazione, l'aggregazione, la conservazione dei dati e qualsiasi altra operazione riguardante i dati effettuata prima e ai fini dell'immissione sul mercato o della messa in servizio di sistemi di IA ad alto rischio;
(g)
is-sistema ta' ġestjoni tar-riskju msemmija fl-Artikolu 9;
g)
il sistema di gestione dei rischi di cui all'articolo 9;
(h)
l-istabbiliment, l-implimentazzjoni u l-manutenzjoni ta' sorveljanza ta' wara t-tqegħid fis-suq, f'konformità mal-Artikolu 72;
h)
la predisposizione, l'attuazione e la manutenzione di un sistema di monitoraggio successivo all'immissione sul mercato a norma dell'articolo 72;
(i)
il-proċeduri relatati mar-rappurtar ta' inċident serju f'konformità mal-Artikolu 73;
i)
le procedure relative alla segnalazione di un incidente grave a norma dell'articolo 73;
(j)
it-trattament tal-komunikazzjoni mal-awtoritajiet nazzjonali kompetenti, ma' awtoritajiet rilevanti oħra, inkluż dawk li jipprovdu jew jappoġġaw l-aċċess għad-data, mal-korpi notifikati, ma' operaturi oħra, mal-klijenti jew ma' partijiet interessati oħra;
j)
la gestione della comunicazione con le autorità nazionali competenti, altre autorità pertinenti, comprese quelle che forniscono o sostengono l'accesso ai dati, gli organismi notificati, altri operatori, clienti o altre parti interessate;
(k)
is-sistemi u l-proċeduri għaż-żamma tar-rekords tad-dokumentazzjoni u l-informazzjoni rilevanti kollha;
k)
i sistemi e le procedure per la conservazione delle registrazioni e di tutte le informazioni e la documentazione pertinenti;
(l)
il-ġestjoni tar-riżorsi, li tinkludi miżuri relatati mas-sigurtà tal-provvista;
l)
la gestione delle risorse, comprese le misure relative alla sicurezza dell'approvvigionamento;
(m)
qafas ta' responsabbiltà li jistabbilixxi r-responsabbiltajiet tal-maniġment u ta' persunal ieħor fir-rigward tal-aspetti kollha elenkati f'dan il-paragrafu.
m)
un quadro di responsabilità che definisca le responsabilità della dirigenza e di altro personale per quanto riguarda tutti gli aspetti elencati nel presente paragrafo.
2. L-implimentazzjoni tal-aspetti msemmija fil-paragrafu 1 għandha tkun proporzjonata għad-daqs tal-organizzazzjoni tal-fornitur. Fi kwalunkwe każ, il-fornituri għandhom jirrispettaw il-grad ta' rigorożità u l-livell ta' protezzjoni meħtieġa biex tiġi żgurata l-konformità tas-sistemi tal-IA b'riskju għoli tagħhom ma' dan ir-Regolament.
2. L'attuazione degli aspetti di cui al paragrafo 1 è proporzionata alle dimensioni dell'organizzazione del fornitore. I fornitori rispettano, in ogni caso, il grado di rigore e il livello di protezione necessari per garantire la conformità dei loro sistemi di IA ad alto rischio al presente regolamento.
3. Fornituri ta' sistemi tal-IA b'riskju għoli li huma soġġetti għal obbligi rigward sistemi ta' ġestjoni tal-kwalità jew funzjoni ekwivalenti skont il-liġi settorjali rilevanti tal-Unjoni jistgħu jinkludu l-aspetti elenkati fil-paragrafu 1 bħala parti mis-sistemi ta' ġestjoni tal-kwalità skont dik il-liġi.
3. I fornitori di sistemi di IA ad alto rischio soggetti agli obblighi relativi ai sistemi di gestione della qualità o a una funzione equivalente a norma del pertinente diritto settoriale dell'Unione possono includere gli aspetti elencati al paragrafo 1 nell'ambito dei sistemi di gestione della qualità stabiliti a norma di tale diritto.
4. Għal fornituri li huma istituzzjonijiet finanzjarji soġġetti għal rekwiżiti dwar il-governanza, l-arranġamenti jew il-proċessi interni tagħhom skont il-liġi tal-Unjoni dwar is-servizzi finanzjarji, l-obbligu li jdaħħlu fis-seħħ sistema ta' ġestjoni tal-kwalità bl-eċċezzjoni tal-paragrafu 1, il-punti (g), (h) u (i) ta' dan l-Artikolu għandu jitqies ssodisfat bil-konformità mar-regoli dwar l-arranġamenti jew il-proċessi ta' governanza interna skont il-liġi rilevanti tal-Unjoni dwar is-servizzi finanzjarji. Għal dan il-għan, għandu jitqies kwalunkwe standard armonizzat imsemmi fl-Artikolu 40.
4. Per i fornitori che sono istituti finanziari soggetti a requisiti in materia di governance, dispositivi o processi interni stabiliti a norma del diritto dell'Unione in materia di servizi finanziari, l'obbligo di istituire un sistema di gestione della qualità, ad eccezione del paragrafo 1, lettere g), h) e i), del presente articolo, si considera soddisfatto se sono soddisfatte le regole sui dispositivi o i processi di governance interna a norma del pertinente diritto dell'Unione in materia di servizi finanziari. A tal fine, si tiene conto delle norme armonizzate di cui all'articolo 40.
Artikolu 18
Articolo 18
Żamma tad-dokumentazzjoni
Conservazione dei documenti
1. Il-fornitur għandu, għal perjodu li jintemm 10 snin wara li s-sistema tal-IA b'riskju għoli tkun ġiet introdotta fis-suq jew tqiegħdet fis-servizz, iżomm għad-dispożizzjoni tal-awtoritajiet nazzjonali kompetenti:
1. Il fornitore, per un periodo che termina 10 anni dopo che il sistema di IA ad alto rischio è stato immesso sul mercato o messo in servizio, tiene a disposizione delle autorità nazionali competenti:
(a)
id-dokumentazzjoni teknika msemmija fl-Artikolu 11;
a)
la documentazione tecnica di cui all'articolo 11;
(b)
id-dokumentazzjoni dwar is-sistema ta' ġestjoni tal-kwalità msemmija fl-Artikolu 17;
b)
la documentazione relativa al sistema di gestione della qualità di cui all'articolo 17;
(c)
id-dokumentazzjoni dwar il-bidliet approvati mill-korpi notifikati meta applikabbli;
c)
la documentazione relativa alle modifiche approvate dagli organismi notificati, ove applicabile;
(d)
id-deċiżjonijiet u dokumenti oħrajn maħruġa mill-korpi notifikati meta applikabbli;
d)
le decisioni e gli altri documenti rilasciati dagli organismi notificati, ove applicabile;
(e)
id-dikjarazzjoni ta' konformità tal-UE msemmija fl-Artikolu 47.
e)
la dichiarazione di conformità UE di cui all'articolo 47.
2. Kull Stat Membru għandu jiddetermina l-kundizzjonijiet skont liema d-dokumentazzjoni msemmija fil-paragrafu 1 tibqa' għad-dispożizzjoni tal-awtoritajiet kompetenti nazzjonali għall-perjodu indikat f'dak il-paragrafu għall-każijiet meta fornitur jew ir-rappreżentant awtorizzat tiegħu stabbilit fit-territorju tiegħu jfalli jew iwaqqaf l-attività tiegħu qabel tmiem dak il-perjodu.
2. Ciascuno Stato membro stabilisce le condizioni alle quali la documentazione di cui al paragrafo 1 resta a disposizione delle autorità nazionali competenti per il periodo indicato in tale paragrafo nel caso in cui il prestatore o il rappresentante autorizzato stabilito nel suo territorio fallisca o cessi la sua attività prima della fine di tale periodo.
3. Fornituri li huma istituzzjonijiet finanzjarji soġġetti għal rekwiżiti rigward il-governanza, l-arranġamenti jew il-proċessi interni tagħhom skont il-liġi tal-Unjoni dwar is-servizzi finanzjarji għandhom iżommu d-dokumentazzjoni teknika bħala parti mid-dokumentazzjoni miżmuma skont il-liġi rilevanti tal-Unjoni dwar is-servizzi finanzjarji.
3. I fornitori che sono istituti finanziari soggetti a requisiti in materia di governance, dispositivi o processi interni stabiliti a norma del diritto dell'Unione in materia di servizi finanziari, conservano la documentazione tecnica nell'ambito della documentazione conservata a norma del pertinente diritto dell'Unione in materia di servizi finanziari.
Artikolu 19
Articolo 19
Reġistri ġġenerati awtomatikament
Log generati automaticamente
1. Il-fornituri ta' sistemi tal-IA b'riskju għoli għandhom iżommu r-reġistri msemmija fl-Artikolu 12(1), iġġenerati awtomatikament minn dawk is-sistemi tal-IA b'riskju għoli, sakemm dawn ir-reġistri jkunu fil-kontroll tagħhom. Mingħajr preġudizzju għal-liġi tal-Unjoni jew dik nazzjonali applikabbli, ir-reġistri għandhom jinżammu għal perjodu xieraq għall-għan maħsub tas-sistema tal-IA b'riskju għoli, ta' mill-inqas sitt xhur, dment li ma jkunx previst mod ieħor fil-liġi tal-Unjoni jew dik nazzjonali applikabbli, b'mod partikolari fil-liġi tal-Unjoni dwar il-protezzjoni tad-data personali.
1. I fornitori di sistemi di IA ad alto rischio conservano i log di cui all'articolo 12, paragrafo 1, generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo. Fatto salvo il diritto dell'Unione o nazionale applicabile, i log sono conservati per un periodo adeguato alla finalità prevista del sistema di IA ad alto rischio, della durata di almeno sei mesi, salvo diversamente disposto dal diritto dell'Unione o nazionale applicabile, in particolare dal diritto dell'Unione in materia di protezione dei dati personali.
2. Fornituri li huma istituzzjonijiet finanzjarji soġġetti għal rekwiżiti rigward il-governanza, l-arranġamenti jew il-proċessi interni tagħhom skont il-liġi tal-Unjoni dwar is-servizzi finanzjarji għandhom iżommu r-reġistri ġġenerati awtomatikament mis-sistemi tal-IA b'riskju għoli tagħhom bħala parti mid-dokumentazzjoni miżmuma skont il-liġi rilevanti dwar is-servizzi finanzjarji.
2. I fornitori che sono istituti finanziari soggetti a requisiti in materia di governance, a dispositivi o a processi interni stabiliti a norma del diritto dell'Unione in materia di servizi finanziari, conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio nell'ambito della documentazione conservata a norma del pertinente diritto in materia di servizi finanziari.
Artikolu 20
Articolo 20
Azzjonijiet korrettivi u dmir ta' informazzjoni
Misure correttive e dovere di informazione
1. Il-fornituri ta' sistemi tal-IA b'riskju għoli li jqisu jew li jkollhom raġuni biex iqisu li sistema tal-IA b'riskju għoli li jkunu introduċew fis-suq jew li jkunu qiegħdu fis-servizz ma tkunx f'konformità ma' dan ir-Regolament, għandhom minnufih jieħdu l-azzjonijiet korrettivi meħtieġa biex dik is-sistema tinġieb f'konformità, biex ineħħuha, biex jiddiżattivawha, jew biex isejħuha lura, skont il-każ. Dawn għandhom jinfurmaw lid-distributuri tas-sistema tal-IA b'riskju għoli kkonċernati u, meta applikabbli, lill-implimentaturi, lir-rappreżentat awtorizzat u lill-importaturi dwar dan.
1. I fornitori di sistemi di IA ad alto rischio che ritengono o hanno motivo di ritenere che un sistema di IA ad alto rischio da essi immesso sul mercato o messo in servizio non sia conforme al presente regolamento adottano immediatamente le misure correttive necessarie per rendere conforme tale dispositivo, ritirarlo, disabilitarlo o richiamarlo, a seconda dei casi. Essi informano di conseguenza i distributori del sistema di IA ad alto rischio interessato e, ove applicabile, i deployer, il rappresentante autorizzato e gli importatori.
2. Meta s-sistema tal-IA b'riskju għoli tippreżenta riskju skont it-tifsira tal-Artikolu 79(1) u l-fornitur isir konxju minn dak ir-riskju, il-fornitur għandu minnufih jinvestiga l-kawżi, f'kollaborazzjoni mal-implimentatur li jirrapporta, meta applikabbli, u jinforma lill-awtoritajiet tas-sorveljanza tas-suq kompetenti għas-sistema tal-IA b'riskju għoli kkonċernata u, fejn applikabbli, lill-korp notifikat li ħareġ ċertifikat għal dik is-sistema tal-IA b'riskju għoli f'konformità mal-Artikolu 44, b'mod partikolari, dwar in-natura tan-nuqqas ta' konformità u dwar kwalunkwe azzjoni korrettiva meħuda.
2. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 79, paragrafo 1, e il fornitore ne venga a conoscenza, tale fornitore indaga immediatamente sulle cause, in collaborazione con il deployer che ha effettuato la segnalazione, se del caso, e ne informa le autorità di vigilanza del mercato competenti per il sistema di IA ad alto rischio interessato e, ove applicabile, l'organismo notificato che ha rilasciato un certificato per il sistema di IA ad alto rischio in conformità dell'articolo 44, in particolare in merito alla natura della non conformità e all'eventuale misura correttiva pertinente adottata.
Artikolu 21
Articolo 21
Kooperazzjoni mal-awtoritajiet kompetenti
Cooperazione con le autorità competenti
1. Il-fornituri ta' sistemi tal-IA b'riskju għoli għandhom, fuq talba motivata minn awtorità kompetenti, jipprovdu lil dik l-awtorità bl-informazzjoni u bid-dokumentazzjoni kollha meħtieġa biex tintwera l-konformità tas-sistema tal-IA b'riskju għoli mar-rekwiżiti stipulati fit-Taqsima 2, b'lingwa li tista' tinftiehem faċilment mill-awtorità b'waħda mil-lingwi uffiċjali tal-istituzzjonijiet tal-Unjoni kif indikat mill-Istat Membru kkonċernat.
1. I fornitori di sistemi di IA ad alto rischio, su richiesta motivata di un'autoritàcompetente, forniscono a tale autorità tutte le informazioni e la documentazione necessarie per dimostrare la conformità del sistema di IA ad alto rischio ai requisiti di cui alla sezione 2, in una lingua che può essere compresa facilmente dall'autorità in una delle lingue ufficiali delle istituzioni dell'Unione indicata dallo Stato membro interessato.
2. Fuq talba motivata minn awtorità kompetenti, il-fornituri għandhom jagħtu wkoll lill-awtorità kompetenti rikjedenti, kif applikabbli, aċċess għar-reġistri ġġenerati awtomatikament tas-sistema tal-IA b'riskju għoli msemmija fl-Artikolu 12(1), sa fejn dawn ir-reġistri jkunu fil-kontroll tagħhom.
2. Su richiesta motivata di un'autorità competente, i fornitori concedono inoltre all'autorità competente richiedente, a seconda dei casi, l'accesso ai log generati automaticamente del sistema di IA ad alto rischio di cui all'articolo 12, paragrafo 1, nella misura in cui tali log sono sotto il loro controllo.
3. Kwalunkwe informazzjoni miksuba minn awtorità kompetenti skont dan l-Artikolu għandha tiġi ttrattata f'konformità mal-obbligi ta' kunfidenzjalità stipulati fl-Artikolu 78.
3. Qualsiasi informazione ottenuta da un'autorità competente a norma del presente articolo è trattata in conformità degli obblighi di riservatezza di cui all'articolo 78.
Artikolu 22
Articolo 22
Rappreżentanti awtorizzati tal-fornituri ta' sistemi tal-IA b'riskju għoli
Rappresentanti autorizzati dei fornitori dei sistemi di IA ad alto rischio
1. Qabel ma jqiegħdu s-sistemi tal-IA b'riskju għoli tagħhom fis-suq tal-Unjoni, il-fornituri stabbiliti f'pajjiżi terzi għandhom, b'mandat bil-miktub, jaħtru rappreżentant awtorizzat li jkun stabbilit fl-Unjoni.
1. Prima di mettere a disposizione i sistemi di IA ad alto rischio sul mercato dell'Unione, i fornitori stabiliti in paesi terzi nominano, mediante mandato scritto, un rappresentante autorizzato stabilito nell'Unione.
2. Il-fornitur għandu jippermetti lir-rappreżentant awtorizzat tiegħu jwettaq il-kompiti speċifikati fil-mandat li jirċievi mingħand il-fornitur.
2. Il fornitore consente al suo rappresentante autorizzato di eseguire i compiti specificati nel mandato ricevuto dal fornitore.
3. Ir-rappreżentant awtorizzat għandu jwettaq il-kompiti speċifikati fil-mandat li jirċievi mingħand il-fornitur. Huwa għandu jipprovdi kopja tal-mandat lill-awtoritajiet tas-sorveljanza tas-suq fuq talba, b'waħda mil-lingwi uffiċjali tal-istituzzjonijiet tal-Unjoni, kif indikat mill-awtorità kompetenti. Għall-finijiet ta' dan ir-Regolament, il-mandat għandu jagħti s-setgħa lir-rappreżentant awtorizzat biex iwettaq il-kompiti li ġejjin:
3. Il rappresentante autorizzato esegue i compiti specificati nel mandato ricevuto dal fornitore. Fornisce una copia del mandato alle autorità di vigilanza del mercato, su richiesta, in una delle lingue ufficiali delle istituzioni dell'Unione indicata dall'autorità competente. Ai fini del presente regolamento, il mandato consente al rappresentante autorizzato di eseguire i compiti seguenti:
(a)
jivverifika li d-dikjarazzjoni ta' konformità tal-UE msemmija fl-Artikolu 47 u d-dokumentazzjoni teknika msemmija fl-Artikolu 11 ikunu tfasslu u li l-fornitur ikun wettaq proċedura ta' valutazzjoni tal-konformità xierqa;
a)
verificare che la dichiarazione di conformità UE di cui all’articolo 47 e la documentazione tecnica di cui all'articolo 11 siano state redatte e che il fornitore abbia eseguito un'appropriata procedura di valutazione della conformità;
(b)
iżomm għad-dispożizzjoni tal-awtoritajiet kompetenti u l-awtoritajiet jew il-korpi nazzjonali msemmija fl-Artikolu 74(10), għal perjodu ta' 10 snin wara li s-sistema tal-IA b'riskju għoli tkun ġiet introdotta fis-suq jew tqiegħdet fis-servizz, id-dettalji ta' kuntatt tal-fornitur li jkun ħatar ir-rappreżentant awtorizzat, kopja tad-dikjarazzjoni ta' konformità tal-UE msemmija fl-Artikolu 47, id-dokumentazzjoni teknika u, jekk applikabbli, iċ-ċertifikat maħruġ mill-korp notifikat;
b)
tenere a disposizione delle autorità competenti e delle autorità o degli organismi nazionali di cui all'articolo 74, paragrafo 10, per un periodo di 10 anni dopo la data di immissione sul mercato o di messa in servizio del sistema di IA ad alto rischio, i dati di contatto del fornitore che ha nominato il rappresentante autorizzato, una copia della dichiarazione di conformità UE di cui all’articolo 47, la documentazione tecnica e, se del caso, il certificato rilasciato dall'organismo notificato;
(c)
jipprovdi lil awtorità kompetenti, fuq talba motivata, bl-informazzjoni u bid-dokumentazzjoni kollha, inkluż dak imsemmi fil-punt (b) ta' dan is-subparagrafu, meħtieġa biex turi l-konformità ta' sistema tal-IA b'riskju għoli mar-rekwiżiti stipulati fit-Taqsima 2, inkluż l-aċċess għar-reġistri, kif imsemmija fl-Artikolu 12(1), iġġenerati awtomatikament mis-sistema tal-IA b'riskju għoli sal-punt li tali reġistri jkunu fil-kontroll tal-fornitur;
c)
fornire all'autorità competente, su richiesta motivata, tutte le informazioni e la documentazione, comprese quelle di cui alla lettera b) del presente comma, necessarie per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui alla sezione 2, compreso l'accesso ai log, di cui all'articolo 12, paragrafo 1, generati automaticamente dal sistema di IA ad alto rischio nella misura in cui tali log sono sotto il controllo del fornitore;
(d)
jikkoopera mal-awtoritajiet kompetenti, fuq talba motivata, f'kull azzjoni li dawn tal-aħħar jieħdu fir-rigward tas-sistema tal-IA b'riskju għoli, b'mod partikolari biex inaqqsu u jimmitigaw ir-riskji ppreżentati minn sistema tal-IA b'riskju għoli;
d)
cooperare con le autoritàcompetenti, su richiesta motivata, in merito a qualsiasi azione intrapresa da queste ultime in relazione al sistema di IA ad alto rischio, in particolare per ridurre e attenuare i rischi posti dal sistema di IA ad alto rischio;
(e)
meta applikabbli, jikkonforma mal-obbligi ta' reġistrazzjoni msemmija fl-Artikolu 49(1), jew, jekk ir-reġistrazzjoni titwettaq mill-fornitur innifsu, jiżgura li l-informazzjoni msemmija fil-punt 3 tat-Taqsima A tal-Anness VIII tkun korretta.
e)
ove applicabile, rispettare gli obblighi di registrazione di cui all'articolo 49, paragrafo 1, o, se la registrazione è effettuata dal fornitore stesso, garantire la correttezza delle informazioni di cui all'allegato VIII, sezione A, punto 3.
Il-mandat għandu jagħti s-setgħa lir-rappreżentant awtorizzat li jiġi indirizzat, flimkien mal-fornitur jew minfloku, mill-awtoritajiet kompetenti, dwar il-kwistjonijiet kollha relatati mal-iżgurar tal-konformità ma' dan ir-Regolament.
Il mandato consente al rappresentante autorizzato di fare da interlocutore, in aggiunta o in sostituzione del fornitore, con le autorità competenti per tutte le questioni relative al rispetto del presente regolamento.
4. Ir-rappreżentant awtorizzat għandu jtemm il-mandat jekk iqis jew ikollu raġuni biex iqis li l-fornitur qed jaġixxi kontra l-obbligi tiegħu skont dan ir-Regolament. F'każ bħal dan, għandu jinforma minnufih lill-awtorità tas-sorveljanza tas-suq rilevanti, kif ukoll, fejn applikabbli, lill-korp notifikat rilevanti, dwar it-terminazzjoni tal-mandat u r-raġunijiet għal dan.
4. Il rappresentante autorizzato pone fine al mandato se ritiene o ha motivi per ritenere che il fornitore agisca in contrasto con i propri obblighi a norma del presente regolamento. In tal caso, comunica immediatamente alla pertinente autorità di vigilanza del mercato, nonché, se del caso, all'organismo notificato pertinente, la cessazione del mandato e i relativi motivi.
Artikolu 23
Articolo 23
Obbligi tal-importaturi
Obblighi degli importatori
1. Qabel ma jintroduċu sistema tal-IA b'riskju għoli fis-suq, l-importaturi għandhom jiżguraw li s-sistema tkun f'konformità ma' dan ir-Regolament billi jivverifikaw li:
1. Prima di immettere sul mercato un sistema di IA ad alto rischio, gli importatori garantiscono che il sistema sia conforme al presente regolamento verificando che:
(a)
il-proċedura rilevanti ta' valutazzjoni tal-konformità msemmija fl-Artikolu 43 twettqet mill-fornitur tas-sistema tal-IA b'riskju għoli;
a)
il fornitore di tale sistema di IA ad alto rischio abbia eseguito la pertinente procedura di valutazione della conformità di cui all'articolo 43;
(b)
il-fornitur ikun fassal id-dokumentazzjoni teknika f'konformità mal-Artikolu 11 u l-Anness IV;
b)
il fornitore abbia redatto la documentazione tecnica conformemente all'articolo 11 e all'allegato IV;
(c)
is-sistema jkollha l-markatura CE meħtieġa u tkun akkumpanjata mid-dikjarazzjoni tal-konformità tal-UE msemmija fl-Artikolu 47 u l-istruzzjonijiet tal-użu;
c)
il sistema rechi la necessaria marcatura CE e sia accompagnato dalla dichiarazione di conformità UE di cui all’articolo 47 e dalle istruzioni per l'uso;
(d)
il-fornitur ikun ħatar rappreżentant awtorizzat f'konformità mal-Artikolu 22(1).
d)
il fornitore abbia nominato un rappresentante autorizzato conformemente all'articolo 22, paragrafo 1.
2. Meta importatur ikollu raġuni biżżejjed biex iqis li sistema tal-IA b'riskju għoli ma tkunx konformi ma' dan ir-Regolament, jew hija ffalsifikata, jew akkumpanjata minn dokumentazzjoni ffalsifikata, dan m'għandux jintroduċi s-sistema fis-suq qabel ma tkun inġiebet f'konformità. Meta s-sistema tal-IA b'riskju għoli tippreżenta riskju skont it-tifsira tal-Artikolu 79(1), l-importatur għandu jinforma lill-fornitur tas-sistema, lir-rappreżentanti awtorizzati u lill-awtoritajiet tas-sorveljanza tas-suq dwar dan.
2. Qualora abbia motivo sufficiente di ritenere che un sistema di IA ad alto rischio non sia conforme al presente regolamento, ovvero sia falsificato o sia accompagnato da una documentazione falsificata, un importatore non lo immette sul mercato fino a quando non sia stato reso conforme. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 79, paragrafo 1, l'importatore ne informa il fornitore del sistema, i rappresentanti autorizzati e le autorità di vigilanza del mercato.
3. L-importaturi għandhom iniżżlu isimhom, l-isem kummerċjali rreġistrat jew it-trademark irreġistrata tagħhom, u l-indirizz li fuqu jistgħu jiġu kkuntattjati dwar is-sistema tal-IA b'riskju għoli u fuq l-imballaġġ tagħha jew fid-dokumentazzjoni li takkumpanjaha, fejn applikabbli.
3. Gli importatori indicano il loro nome, la loro denominazione commerciale registrata o il loro marchio registrato e l'indirizzo al quale possono essere contattati, sul sistema di IA ad alto rischio e sul suo imballaggio o in un documento di accompagnamento, ove applicabile.
4. L-importaturi għandhom jiżguraw li, waqt li sistema tal-IA b'riskju għoli tkun fir-responsabbiltà tagħhom, il-kundizzjonijiet tal-ħżin jew tat-trasport, fejn applikabbli, ma jipperikolawx il-konformità tagħha mar-rekwiżiti stipulati fit-Taqsima 2.
4. Gli importatori garantiscono che, fintantoché un sistema di IA ad alto rischio è sotto la loro responsabilità, le condizioni di stoccaggio o di trasporto, ove applicabili, non pregiudichino la conformità ai requisiti di cui alla sezione 2.
5. L-importaturi għandhom iżommu, għal perjodu ta' 10 snin wara li s-sistema tal-IA b'riskju għoli tkun ġiet introdotta fis-suq jew imqiegħda fis-servizz, kopja taċ-ċertifikat maħruġ mill-korp notifikat, meta applikabbli, tal-istruzzjonijiet għall-użu u tad-dikjarazzjoni ta' konformità tal-UE msemmija fl-Artikolu 47.
5. Gli importatori conservano, per un periodo di 10 anni dalla data di immissione sul mercato o di messa in servizio del sistema di IA ad alto rischio, una copia del certificato rilasciato dall'organismo notificato, se del caso, delle istruzioni per l'uso e della dichiarazione di conformità UE di cui all’articolo 47.
6. L-importaturi għandhom jipprovdu lill-awtoritajiet kompetenti rilevanti, fuq talba motivata, bl-informazzjoni u d-dokumentazzjoni kollha meħtieġa, inkluż dik msemmija fil-paragrafu 5, biex juru l-konformità ta' sistema tal-IA b'riskju għoli mar-rekwiżiti stipulati fit-Taqsima 2 b'lingwa li tkun tista' tinftiehem faċilment minnhom. Għal dan il-għan, għandhom jiżguraw ukoll li d-dokumentazzjoni teknika tkun tista' titqiegħed għad-dispożizzjoni ta' dawk l-awtoritajiet.
6. Gli importatori forniscono alla pertinente autorità competente, su richiesta motivata, tutte le informazioni e la documentazione, comprese quelle di cui al paragrafo 5, necessarie per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui alla sezione 2 in una lingua che può essere compresa facilmente da tale autorità nazionale competente. A tal fine garantiscono altresì che la documentazione tecnica possa essere messa a disposizione di tale autorità.
7. L-importaturi għandhom jikkooperaw mal-awtoritajiet kompetenti rilevanti fi kwalunkwe azzjoni li dawk l-awtoritajiet jieħdu fir-rigward ta' sistema tal-IA b'riskju għoli introdotta fis-suq mill-importaturi, b'mod partikolari biex inaqqsu u jimmitigaw ir-riskji li din tippreżenta.
7. Gli importatori cooperano con le pertinenti autorità competenti in qualsiasi azione intrapresa da tali autorità in relazione a un sistema di IA ad alto rischio immesso sul mercato dagli importatori, in particolare per ridurre e attenuare i rischi che esso comporta.
Artikolu 24
Articolo 24
Obbligi tad-distributuri
Obblighi dei distributori
1. Qabel ma jagħmlu sistema tal-IA b'riskju għoli disponibbli fis-suq, id-distributuri għandhom jivverifikaw li jkollha l-markatura CE meħtieġa, li tkun akkumpanjata minn kopja tad-dikjarazzjoni ta' konformità tal-UE msemmija fl-Artikolu 47 u mill-istruzzjonijiet għall-użu, u li l-fornitur u l-importatur ta’ dik is-sistema, kif applikabbli, ikunu ssodisfaw l-obbligi rispettivi tagħhom kif stabbiliti fl-Artikolu 16, il-punti (b) u (c) u fl-Artikolu 23(3).
1. Prima di mettere a disposizione sul mercato un sistema di IA ad alto rischio, i distributori verificano che esso rechi la necessaria marcatura CE, che sia accompagnato da una copia della dichiarazione di conformità UE di cui all’articolo 47 e dalle istruzioni per l'uso e che il fornitore e l'importatore di tale sistema, a seconda dei casi, abbiano rispettato i loro rispettivi obblighi di cui all'articolo 16, lettere b) e c), e all'articolo 23, paragrafo 3.
2. Meta distributur iqis jew ikollu raġuni biex iqis, abbażi tal-informazzjoni fil-pussess tiegħu, li sistema tal-IA b'riskju għoli ma tkunx konformi mar-rekwiżiti stipulati fit-Taqsima 2, m'għandux jagħmel is-sistema tal-IA b'riskju għoli disponibbli fis-suq sakemm is-sistema tkun inġiebet f'konformità ma' dawk ir-rekwiżiti. Barra minn hekk, meta s-sistema tal-IA b'riskju għoli tippreżenta riskju skont it-tifsira tal-Artikolu 79(1), id-distributur għandu jinforma lill-fornitur jew lill-importatur tas-sistema, kif ikun applikabbli, b'dan.
2. Qualora ritenga o abbia motivo di ritenere, sulla base delle informazioni in suo possesso, che un sistema di IA ad alto rischio non sia conforme ai requisiti di cui alla sezione 2, un distributore non lo mette a disposizione sul mercato fino a quando tale sistema di IA ad alto rischio non sia stato reso conforme a tali requisiti. Inoltre, qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 79, paragrafo 1, il distributore ne informa il fornitore o l'importatore del sistema, a seconda dei casi.
3. Id-distributuri għandhom jiżguraw li, waqt li sistema tal-IA b'riskju għoli tkun fir-responsabbiltà tagħhom, il-kundizzjonijiet tal-ħżin jew tat-trasport, fejn applikabbli, ma jipperikolawx il-konformità tas-sistema mar-rekwiżiti stipulati fit-Taqsima 2.
3. I distributori garantiscono che, fintantoché un sistema di IA ad alto rischio è sotto la loro responsabilità, le condizioni di stoccaggio o di trasporto, ove applicabili, non pregiudichino la conformità del sistema ai requisiti di cui alla sezione 2.
4. Distributur li jqis jew li jkollu raġuni biex iqis, abbażi tal-informazzjoni fil-pussess tiegħu, li sistema tal-IA b'riskju għoli li jkun għamel disponibbli fis-suq ma tkunx konformi mar-rekwiżiti stipulati fit-Taqsima 2, għandu jieħu l-azzjonijiet korrettivi meħtieġa biex iġib dik is-sistema f'konformità ma' dawk ir-rekwiżiti, biex jirtiraha jew isejjaħha lura jew għandu jiżgura li l-fornitur, l-importatur jew kwalunkwe operatur rilevanti, kif xieraq, jieħu dawk l-azzjonijiet korrettivi. Meta s-sistema tal-IA b'riskju għoli tippreżenta riskju skont it-tifsira tal-Artikolu 79(1), id-distributur għandu jinforma minnufih lill-fornitur jew importatur tas-sistema u lill-awtoritajiet kompetenti għas-sistema tal-IA b’riskju għoli kkonċernata, u jagħti d-dettalji, b'mod partikolari, dwar in-nuqqas ta' konformità u kwalunkwe azzjoni korrettiva meħuda.
4. Un distributore che ritiene o ha motivo di ritenere, sulla base delle informazioni in suo possesso, che un sistema di IA ad alto rischio che ha messo a disposizione sul mercato non sia conforme ai requisiti di cui alla sezione 2, adotta le misure correttive necessarie per rendere tale sistema conforme a tali requisiti, ritirarlo o richiamarlo o garantisce che il fornitore, l'importatore o qualsiasi operatore pertinente, a seconda dei casi, adotti tali misure correttive. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 79, paragrafo 1, il distributore ne informa immediatamente il fornitore o l'importatore del sistema e le autorità competenti per il sistema di IA ad alto rischio interessate fornendo in particolare informazioni precise sulla non conformità e sulle eventuali misure correttive adottate.
5. Fuq talba motivata minn awtorità kompetenti rilevanti, id-distributuri ta' sistema tal-IA b'riskju għoli għandhom jipprovdu lil dik l-awtorità bl-informazzjoni u bid-dokumentazzjoni kollha neċessarja dwar l-attivitajiet tagħhom skont il-paragrafi 1 sa 4 biex juru l-konformità ta' dik is-sistema mar-rekwiżiti stipulati fit-Taqsima 2.
5. Su richiesta motivata di una pertinente autorità competente, i distributori di un sistema di IA ad alto rischio forniscono a tale autorità tutte le informazioni e la documentazione concernenti le sue azioni a norma dei paragrafi da 1 a 4 necessarie per dimostrare la conformità di tale sistema ai requisiti di cui alla sezione 2.
6. Id-distributuri għandhom jikkooperaw mal-awtoritajiet kompetenti rilevanti fi kwalunkwe azzjoni li dawk l-awtoritajiet jieħdu fir-rigward ta' sistema tal-IA b'riskju għoli introdotta fis-suq mid-distributuri, b'mod partikolari biex inaqqsu jew jimmitigaw ir-riskju li din tippreżenta.
6. I distributori cooperano con le pertinenti autorità competenti in qualsiasi azione intrapresa da tali autorità in relazione a un sistema di IA ad alto rischio messo a disposizione sul mercato dai distributori, in particolare per ridurre e attenuare il rischio che esso comporta.
Artikolu 25
Articolo 25
Responsabbiltajiet tul il-katina tal-valur tal-IA
Responsabilità lungo la catena del valore dell'IA
1. Kwalunkwe distributur, importatur, implimentatur jew parti terza oħra għandhom jitqiesu bħala fornitur ta' sistema tal-IA b'riskju għoli għall-finijiet ta' dan ir-Regolament u għandhom ikunu soġġetti għall-obbligi tal-fornitur skont l-Artikolu 16, fi kwalunkwe waħda miċ-ċirkostanzi li ġejjin:
1. Qualsiasi distributore, importatore, deployer o altro terzo è considerato fornitore di un sistema di IA ad alto rischio ai fini del presente regolamento ed è soggetto agli obblighi del fornitore a norma dell'articolo 16, nelle circostanze seguenti:
(a)
ipoġġu isimhom jew it-trademark tagħhom fuq sistema tal-IA b'riskju għoli diġà introdotta fis-suq jew imqiegħda fis-servizz, mingħajr preġudizzju għal ftehimiet kuntrattwali li jistipulaw li l-obbligi jiġu allokati b'mod ieħor;
a)
se appone il proprio nome o marchio su un sistema di IA ad alto rischio già immesso sul mercato o messo in servizio, fatti salvi accordi contrattuali che prevedano una diversa ripartizione degli obblighi al riguardo;
(b)
jagħmlu modifika sostanzjali f'sistema tal-IA b'riskju għoli li tkun diġà ġiet introdotta fis-suq jew diġà tqiegħdet fis-servizz b'tali mod li tibqa' sistema tal-IA b'riskju għoli skont l-Artikolu 6;
b)
se apporta una modifica sostanziale a un sistema di IA ad alto rischio già immesso sul mercato o già messo in servizio in modo tale che resti un sistema di IA ad alto rischio a norma dell'articolo 6;
(c)
jimmodifikaw l-għan maħsub ta' sistema tal-IA, inkluż sistema tal-IA bi skop ġenerali, li ma tkunx ġiet ikklassifikata bħala ta' riskju għoli u li tkun diġà ġiet introdotta fis-suq jew imqiegħda fis-servizz b'tali mod li s-sistema tal-IA kkonċernata ssir sistema tal-IA b'riskju għoli skont l-Artikolu 6.
c)
se modifica la finalità prevista di un sistema di IA, anche un sistema per finalità generali, che non è stato classificato come ad alto rischio e che è già stato immesso sul mercato o messo in servizio in modo tale che il sistema di IA interessato diventi un sistema di IA ad alto rischio a norma dell'articolo 6.
2. Meta jseħħu ċ-ċirkostanzi msemmijin fil-paragrafu 1, il-fornitur li inizjalment ikun introduċa s-sistema tal-IA fis-suq jew qegħedha fis-servizz m'għandux jibqa' jitqies bħala fornitur ta' dik is-sistema speċifika tal-IA għall-finijiet ta' dan ir-Regolament. Dak il-fornitur inizjali għandu jikkoopera mill-qrib ma fornituri ġodda u għandu jagħmel disponibbli l-informazzjoni meħtieġa u jipprovdi l-aċċess tekniku raġonevolment mistenni u assistenza oħra meħtieġa għat-twettiq tal-obbligi stipulati f'dan ir-Regolament, b'mod partikolari fir-rigward tal-konformità mal-valutazzjoni tal-konformità tas-sistemi tal-IA b'riskju għoli. Dan il-paragrafu m'għandux japplika f'każijiet fejn il-fornitur inizjali jkun speċifika b'mod ċar li s-sistema tal-IA tiegħu m'għandhiex tinbidel f'sistema tal-IA b'riskju għoli u għalhekk ma taqax taħt l-obbligu li jgħaddi d-dokumentazzjoni.
2. Qualora si verifichino le circostanze di cui al paragrafo 1, il fornitore che ha inizialmente immesso sul mercato o messo in servizio il sistema di IA non è più considerato fornitore di quel determinato sistema di IA ai fini del presente regolamento. Tale fornitore iniziale coopera strettamente con i nuovi fornitori e mette a disposizione le informazioni necessarie nonché fornisce l'accesso tecnico ragionevolmente atteso e qualsiasi altra forma di assistenza che sono richiesti per l'adempimento degli obblighi di cui al presente regolamento, in particolare per quanto riguarda la conformità alla valutazione della conformità dei sistemi di IA ad alto rischio. Il presente paragrafo non si applica nei casi in cui il fornitore iniziale abbia chiaramente specificato che il suo sistema di IA non deve essere trasformato in un sistema di IA ad alto rischio e pertanto non sia soggetto all'obbligo di consegnare la documentazione.
3. Fil-każ ta' sistemi tal-IA b'riskju għoli li huma komponenti tas-sikurezza ta' prodotti koperti mil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fit-Taqsima A tal-Anness I, il-manifattur tal-prodott għandu jitqies bħala l-fornitur tas-sistema tal-IA b'riskju għoli u għandu jkun soġġett għall-obbligi skont l-Artikolu 16 fi kwalunkwe waħda miċ-ċirkostanzi li ġejjin:
3. Nel caso dei sistemi di IA ad alto rischio che sono componenti di sicurezza di prodotti disciplinati dalla normativa di armonizzazione dell'Unione elencata nell'allegato I, sezione A, il fabbricante del prodotto è considerato il fornitore del sistema di IA ad alto rischio ed è soggetto agli obblighi di cui all'articolo 16, in una delle circostanze seguenti:
(a)
is-sistema tal-IA b'riskju għoli tiġi introdotta fis-suq flimkien mal-prodott taħt l-isem jew it-trademark tal-manifattur tal-prodott;
a)
se il sistema di IA ad alto rischio è immesso sul mercato insieme al prodotto con il nome o il marchio del fabbricante del prodotto;
(b)
is-sistema tal-IA b'riskju għoli titqiegħed fis-servizz taħt l-isem jew it-trademark tal-manifattur tal-prodott wara li l-prodott ikun ġie introdott fis-suq.
b)
se il sistema di IA ad alto rischio è messo in servizio con il nome o il marchio del fabbricante del prodotto dopo che il prodotto è stato immesso sul mercato.
4. Il-fornitur ta' sistema tal-IA b'riskju għoli u l-parti terza li tforni sistema tal-IA, għodod, servizzi, komponenti jew proċessi li jintużaw jew jiġu integrati f'sistema tal-IA b'riskju għoli għandhom, bi ftehim bil-miktub, jispeċifikaw l-informazzjoni, il-kapaċitajiet u l-aċċess tekniku meħtieġa, u assistenza oħra abbażi tal-ogħla livell ta' żvilupp tekniku rikonoxxut b'mod ġenerali, sabiex il-fornitur tas-sistema tal-IA b'riskju għoli jkun jista' jikkonforma bis-sħiħ mal-obbligi stipulati f'dan ir-Regolament. Dan il-paragrafu m'għandux japplika għal partijiet terzi li jagħmlu aċċessibbli għall-pubbliku għodod, servizzi, proċessi, jew komponenti li mhumiex mudelli tal-IA bi skop ġenerali b'liċenzja libera u b’sors miftuħ.
4. Il fornitore di un sistema di IA ad alto rischio e il terzo che fornisce un sistema di IA, strumenti, servizi, componenti o processi utilizzati o integrati in un sistema di IA ad alto rischio precisano, mediante accordo scritto, le informazioni, le capacità, l'accesso tecnico e qualsiasi altra forma di assistenza necessari, sulla base dello stato dell'arte generalmente riconosciuto per permettere al fornitore del sistema di IA ad alto rischio di adempiere pienamente agli obblighi di cui al presente regolamento. Il presente paragrafo non si applica ai terzi che rendono accessibili al pubblico strumenti, servizi, processi o componenti, diversi dai modelli di IA per finalità generali, con licenza libera e open source.
L-Uffiċċju għall-IA jista' jiżviluppa u jirrakkomanda mudelli volontarji ta' termini għal kuntratti bejn il-fornituri ta' sistemi tal-IA b'riskju għoli u l-partijiet terzi li jipprovdu għodod, servizzi, komponenti jew proċessi li jintużaw għal sistemi tal-IA b'riskju għoli jew jiġu integrati fihom. Meta jiżviluppa dawk il-mudelli volontarji ta' termini, l-Uffiċċju għall-IA għandu jqis ir-rekwiżiti kuntrattwali possibbli applikabbli f'setturi jew każijiet ta' negozju speċifiċi. Il-mudelli volontarji ta' termini kuntrattwali għandhom jiġu ppubblikati u jkunu disponibbli mingħajr ħlas f'format elettroniku li jista' jintuża faċilment.
L'ufficio per l'IA può elaborare e raccomandare clausole contrattuali tipo volontarie tra i fornitori di sistemi di IA ad alto rischio e i terzi che forniscono strumenti, servizi, componenti o processi utilizzati o integrati in sistemi di IA ad alto rischio. Nell'elaborare tali clausole contrattuali tipo volontarie, l'ufficio per l'IA tiene conto dei possibili requisiti contrattuali applicabili in determinati settori o casi commerciali. Le clausole contrattuali tipo volontarie sono pubblicati e disponibili gratuitamente in un formato elettronico facilmente utilizzabile.
5. Il-paragrafi 2 u 3 huma mingħajr preġudizzju għall-ħtieġa li jiġu rrispettati u protetti d-drittijiet tal-proprjetà intellettwali, l-informazzjoni kummerċjali kunfidenzjali u s-sigrieti kummerċjali f'konformità mal-liġi tal-Unjoni u l-liġi nazzjonali.
5. I paragrafi 2 e 3 lasciano impregiudicata la necessità di rispettare e proteggere i diritti di proprietà intellettuale, le informazioni commerciali riservate e i segreti commerciali conformemente al diritto dell'Unione e nazionale.
Artikolu 26
Articolo 26
Obbligi tal-implimentaturi ta' sistemi tal-IA b'riskju għoli
Obblighi dei deployer dei sistemi di IA ad alto rischio
1. L-implimentaturi ta' sistemi tal-IA b'riskju għoli għandhom jieħdu miżuri tekniċi u organizzazzjonali xierqa biex jiżguraw li jużaw dawn is-sistemi f'konformità mal-istruzzjonijiet għall-użu li jakkumpanjaw is-sistemi, skont il-paragrafi 3 u 6.
1. I deployer di sistemi di IA ad alto rischio adottano idonee misure tecniche e organizzative per garantire di utilizzare tali sistemi conformemente alle istruzioni per l'uso che accompagnano i sistemi, a norma dei paragrafi 3 e 6.
2. L-implimentaturi għandhom jassenjaw sorveljanza mill-bniedem lil persuni fiżiċi li għandhom il-kompetenza, it-taħriġ u l-awtorità meħtieġa, kif ukoll l-appoġġ meħtieġ.
2. I deployer affidano la sorveglianza umana a persone fisiche che dispongono della competenza, della formazione e dell'autorità necessarie nonché del sostegno necessario.
3. L-obbligi stipulati fil-paragrafi 1 u 2, huma mingħajr preġudizzju għal obbligi oħra tal-implimentatur skont il-liġi tal-Unjoni jew il-liġi nazzjonali u għal-libertà tal-implimentatur li jorganizza r-riżorsi u l-attivitajiet proprji tiegħu għall-fini tal-implimentazzjoni tal-miżuri tas-sorveljanza mill-bniedem indikati mill-fornitur.
3. Gli obblighi di cui ai paragrafi 1 e 2 lasciano impregiudicati gli altri obblighi dei deployer previsti dal diritto dell'Unione o nazionale e la libertà del deployer di organizzare le proprie risorse e attività al fine di attuare le misure di sorveglianza umana indicate dal fornitore.
4. Mingħajr preġudizzju għall-paragrafi 1 u 2, sa fejn l-implimentatur jeżerċita kontroll fuq id-data tal-input, dak l-implimentatur għandu jiżgura li d-data tal-input tkun rilevanti u rappreżentattiva biżżejjed fid-dawl tal-għan maħsub tas-sistema tal-IA b'riskju għoli.
4. Fatti salvi i paragrafi 1 e 2, nella misura in cui esercita il controllo sui dati di input, il deployer garantisce che tali dati di input siano pertinenti e sufficientemente rappresentativi alla luce della finalità prevista del sistema di IA ad alto rischio.
5. L-implimentaturi għandhom jimmonitorjaw it-tħaddim tas-sistema tal-IA b'riskju għoli abbażi tal-istruzzjonijiet għall-użu u, meta rilevanti, jinfurmaw lill-fornituri f'konformità mal-Artikolu 72. Meta l-implimentaturi jkollhom raġuni biex iqisu li l-użu tas-sistema tal-IA b'riskju għoli f'konformità mal-istruzzjonijiet jista' jirriżulta f’dik is-sistema tal-IA tippreżenta riskju skont it-tifsira tal-Artikolu 79(1), huma għandhom, mingħajr dewmien żejjed, jinfurmaw lill-fornitur jew lid-distributur u lill-awtorità tas-sorveljanza tas-suq rilevanti u għandhom jissospendu l-użu ta' dik is-sistema. Meta l-implimentaturi jkunu identifikaw inċident serju, huma għandhom jinfurmaw minnufih ukoll l-ewwel lill-fornitur, u mbagħad lill-importatur jew lid-distributur u lill-awtoritajiet rilevanti tas-sorveljanza tas-suq dwar dak l-inċident. F'każ li l-implimentatur ma jkunx jista' jikkuntattja lill-fornitur, l-Artikolu 73 għandu japplika mutatis mutandis. Dan l-obbligu ma għandux ikopri data operazzjonali sensittiva tal-implimentaturi tas-sistemi tal-IA li huma awtoritajiet tal-infurzar tal-liġi.
5. I deployer monitorano il funzionamento del sistema di IA ad alto rischio sulla base delle istruzioni per l'uso e, se del caso, informano i fornitori a tale riguardo conformemente all'articolo 72. Qualora abbiano motivo di ritenere che l'uso del sistema di IA ad alto rischio in conformità delle istruzioni possa comportare che il sistema di IA presenti un rischio ai sensi dell'articolo 79, paragrafo 1, i deployer ne informano, senza indebito ritardo, il fornitore o il distributore e la pertinente autorità di vigilanza del mercato e sospendono l'uso di tale sistema. Qualora abbiano individuato un incidente grave, i deployer ne informano immediatamente anche il fornitore, in primo luogo, e successivamente l'importatore o il distributore e le pertinenti autorità di vigilanza del mercato. Nel caso in cui il deployer non sia in grado di raggiungere il fornitore, si applica mutatis mutandis l'articolo 73. Tale obbligo non riguarda i dati operativi sensibili dei deployer dei sistemi di IA che sono autorità di contrasto.
Għall-implimentaturi li huma istituzzjonijiet finanzjarji soġġetti għal rekwiżiti rigward il-governanza, l-arranġamenti jew il-proċessi interni tagħhom skont il-liġi tal-Unjoni dwar is-servizzi finanzjarji, l-obbligu ta' monitoraġġ stipulat fl-ewwel subparagrafu għandu jitqies issodisfat billi jiġu konformi mar-regoli dwar l-arranġamenti, il-proċessi u l-mekkaniżmi ta' governanza interna skont il-liġi rilevanti dwar is-servizzi finanzjarji.
Per i deployer che sono istituti finanziari soggetti a requisiti in materia di governance, di dispositivi o di processi interni stabiliti a norma del diritto dell'Unione in materia di servizi finanziari, l'obbligo di monitoraggio di cui al primo comma si considera soddisfatto se sono soddisfatte le regole sui dispositivi, sui processi e sui meccanismi di governance interna a norma del pertinente diritto in materia di servizi finanziari.
6. L-implimentaturi tas-sistemi tal-IA b'riskju għoli għandhom iżommu r-reġistri ġġenerati awtomatikament minn dik is-sistema tal-IA b'riskju għoli sa fejn dawn ir-reġistri jkunu fil-kontroll tagħhom għal perjodu xieraq għall-għan maħsub tas-sistema tal-IA b'riskju għoli, ta' mill-inqas sitt xhur, sakemm ma jkunx previst mod ieħor fil-liġi tal-Unjoni jew dik nazzjonali applikabbli, b’mod partikolari fil-liġi tal-Unjoni dwar il-protezzjoni tad-data personali.
6. I deployer di sistemi di IA ad alto rischio conservano i log generati automaticamente da tale sistema di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo, per un periodo adeguato alla prevista finalità del sistema di IA ad alto rischio, di almeno sei mesi, salvo diversamente disposto dal diritto dell'Unione o nazionale applicabile, in particolare dal diritto dell'Unione in materia di protezione dei dati personali.
L-implimentaturi li huma istituzzjonijiet finanzjarji soġġetti għal rekwiżiti rigward il-governanza, l-arranġamenti jew il-proċessi interni tagħhom skont il-liġi tal-Unjoni dwar is-servizzi finanzjarji għandhom iżommu r-reġistri bħala parti mid-dokumentazzjoni miżmuma skont il-liġi rilevanti tal-Unjoni dwar is-servizzi finanzjarji.
I deployer che sono istituti finanziari soggetti a requisiti in materia di governance, di dispositivi o di processi interni stabiliti a norma del diritto dell'Unione in materia di servizi finanziari conservano i log come parte della documentazione conservata a norma del pertinente diritto dell'Unione in materia di servizi finanziari.
7. Qabel ma jqiegħdu fis-servizz jew jużaw sistema tal-IA b’riskju għoli fuq il-post tax-xogħol, l-implimentaturi li jkunu impjegaturi għandhom jinfurmaw lir-rappreżentanti tal-ħaddiema u lill-ħaddiema affettwati li ser ikunu soġġetti għall-użu tas-sistema tal-AI b’riskju għoli. Din l-informazzjoni għandha tingħata, fejn applikabbli, f’konformità mar-regoli u l-proċeduri stipulati fil-liġi u l-prattika tal-Unjoni u nazzjonali dwar l-informazzjoni tal-ħaddiema u r-rappreżentanti tagħhom.
7. Prima di mettere in servizio o utilizzare un sistema di IA ad alto rischio sul luogo di lavoro, i deployer che sono datori di lavoro informano i rappresentanti dei lavoratori e i lavoratori interessati che saranno soggetti all'uso del sistema di IA ad alto rischio. Tali informazioni sono fornite, se del caso, conformemente alle norme e alle procedure stabilite dal diritto e dalle prassi dell'Unione e nazionali in materia di informazione dei lavoratori e dei loro rappresentanti.
8. L-implimentaturi ta’ sistemi tal-IA b’riskju għoli li huma awtoritajiet pubbliċi jew istituzzjonijiet, korpi, uffiċċji jew aġenziji tal-Unjoni għandhom jikkonformaw mal-obbligi tar-reġistrazzjoni msemmija fl-Artikolu 49. Meta dawn l-implimentaturi jsibu li s-sistema tal-IA b’riskju għoli li beħsiebhom jużaw ma tkunx ġiet irreġistrata fil-bażi tad-data tal-UE msemmija fl-Artikolu 71, ma għandhomx jużaw dik is-sistema u għandhom jinfurmaw lill-fornitur jew lid-distributur.
8. I deployer di sistemi di IA ad alto rischio che sono autorità pubbliche o istituzioni, organi e organismi dell'Unione rispettano gli obblighi di registrazione di cui all'articolo 49. Ove accertino che il sistema di IA ad alto rischio che intendono utilizzare non è stato registrato nella banca dati dell'UE di cui all'articolo 71, tali deployer non utilizzano tale sistema e ne informano il fornitore o il distributore.
9. Fejn applikabbli, l-implimentaturi ta’ sistemi tal-IA b’riskju għoli għandhom jużaw l-informazzjoni pprovduta skont l-Artikolu 13 ta’ dan ir-Regolament biex jikkonformaw mal-obbligu tagħhom li jwettqu valutazzjoni tal-impatt fuq il-protezzjoni tad-data skont l-Artikolu 35 tar-Regolament (UE) 2016/679 jew l-Artikolu 27 tad-Direttiva (UE) 2016/680.
9. Se del caso, i deployer di sistemi di IA ad alto rischio usano le informazioni fornite a norma dell'articolo 13 del presente regolamento per adempiere al loro obbligo di effettuare una valutazione d'impatto sulla protezione dei dati a norma dell'articolo 35 del regolamento (UE) 2016/679 o dell'articolo 27 della direttiva (UE) 2016/680.
10. Mingħajr preġudizzju għad-Direttiva (UE) 2016/680, fil-qafas ta’ investigazzjoni għat-tfittxija mmirata ta’ persuna ssuspettata jew ikkundannata li wettqet reat kriminali, l-implimentatur ta’ sistema tal-IA b’riskju għoli għall-identifikazzjoni bijometrika remota “f’ħin aktar tard” għandu jitlob awtorizzazzjoni, ex ante, jew mingħajr dewmien żejjed u mhux aktar tard minn 48 siegħa, minn awtorità ġudizzjarja jew awtorità amministrattiva li d-deċiżjoni tagħha tkun vinkolanti u soġġetta għal rieżami ġudizzjarju, għall-użu ta’ dik is-sistema, ħlief meta tintuża għall-identifikazzjoni inizjali ta’ persuna suspettata potenzjali abbażi ta’ fatti oġġettivi u verifikabbli marbuta direttament mar-reat. Kull użu għandu jkun limitat għal dak li huwa strettament meħtieġ għall-investigazzjoni ta’ reat kriminali speċifiku.
10. Fatta salva la direttiva (UE) 2016/680, nel quadro di un'indagine per la ricerca mirata di una persona sospettata o condannata per aver commesso un reato, il deployer di un sistema di IA ad alto rischio per l'identificazione biometrica remota a posteriori chiede un'autorizzazione, ex ante o senza indebito ritardo ed entro 48 ore, da parte di un'autorità giudiziaria o amministrativa la cui decisione è vincolante e soggetta a controllo giurisdizionale, per l'uso di tale sistema, tranne quando è utilizzato per l'identificazione iniziale di un potenziale sospetto sulla base di fatti oggettivi e verificabili direttamente connessi al reato. Ogni uso è limitato a quanto strettamente necessario per le indagini su uno specifico reato.
Jekk l-awtorizzazzjoni mitluba skont l-ewwel subparagrafu tiġi rrifjutata, l-użu tas-sistema ta’ identifikazzjoni bijometrika remota “f’ħin aktar tard” marbuta ma’ dik l-awtorizzazzjoni mitluba għandu jitwaqqaf b’effett immedjat u d-data personali marbuta mal-użu tas-sistema tal-IA b’riskju għoli li għaliha tkun intalbet l-awtorizzazzjoni għandha titħassar.
Se l'autorizzazione richiesta a norma del primo comma è respinta, l'uso del sistema di identificazione biometrica remota a posteriori collegato a tale autorizzazione richiesta è interrotto con effetto immediato e i dati personali connessi all'uso del sistema di IA ad alto rischio per il quale è stata richiesta l'autorizzazione sono cancellati.
Tali sistema tal-IA b’riskju għoli għall-identifikazzjoni bijometrika remota “f’ħin aktar tard” fl-ebda każ ma għandha tintuża għal finijiet ta’ infurzar tal-liġi b’mod mhux immirat, mingħajr ebda rabta ma’ reat kriminali, proċediment kriminali, theddida ġenwina u preżenti jew ġenwina u prevedibbli ta’ reat kriminali jew it-tfittxija għal persuna nieqsa speċifika. Għandu jiġi żgurat li l-ebda deċiżjoni li tipproduċi effett legali negattiv fuq persuna ma tista’ tittieħed mill-awtoritajiet tal-infurzar tal-liġi abbażi biss tal-output ta’ dawn is-sistemi ta’ identifikazzjoni bijometrika remota “f’ħin aktar tard”.
In nessun caso tale sistema di IA ad alto rischio per l'identificazione biometrica remota a posteriori è utilizzato a fini di contrasto in modo non mirato, senza alcun collegamento con un reato, un procedimento penale, una minaccia reale e attuale o reale e prevedibile di un reato o la ricerca di una determinata persona scomparsa. Occorre garantire che nessuna decisione che produca effetti giuridici negativi su una persona possa essere presa dalle autorità di contrasto unicamente sulla base dell'output di tali sistemi di identificazione biometrica remota a posteriori.
Dan il-paragrafu huwa mingħajr preġudizzju għall-Artikolu 9 tar-Regolament (UE) 2016/679 u l-Artikolu 10 tad-Direttiva (UE) 2016/680 għall-ipproċessar ta’ data bijometrika.
Il presente paragrafo lascia impregiudicati l'articolo 9 del regolamento (UE) 2016/679 e l'articolo 10 della direttiva (UE) 2016/680 riguardo al trattamento dei dati biometrici.
Irrispettivament mill-fini jew mill-implimentatur, kull użu ta’ dawn is-sistemi tal-IA b’riskju għoli għandu jiġi ddokumentat fil-fajl rilevanti tal-pulizija u għandu jsir disponibbli għall-awtorità tas-sorveljanza tas-suq rilevanti u għall-awtorità nazzjonali għall-protezzjoni tad-data fuq talba, bl-esklużjoni tad-divulgazzjoni ta’ data operazzjonali sensittiva relatata mal-infurzar tal-liġi. Dan is-subparagrafu għandu jkun mingħajr preġudizzju għas-setgħat mogħtija mid-Direttiva (UE) 2016/680 lill-awtoritajiet superviżorji.
Indipendentemente dalla finalità o dal deployer, ciascun uso di tali sistemi di IA ad alto rischio è documentato nel pertinente fascicolo di polizia e messo a disposizione della pertinente autorità di vigilanza del mercato e dell'autorità nazionale per la protezione dei dati, su richiesta, escludendo la divulgazione di dati operativi sensibili relativi alle attività di contrasto. Il presente comma lascia impregiudicati i poteri conferiti alle autorità di controllo dalla direttiva (UE) 2016/680.
L-implimentaturi għandhom jippreżentaw rapporti annwali lill-awtoritajiet rilevanti tas-sorveljanza tas-suq u tal-protezzjoni tad-data nazzjonali dwar l-użu tagħhom tas-sistemi ta’ identifikazzjoni bijometrika remota “f’ħin aktar tard”, bl-esklużjoni tad-divulgazzjoni ta’ data operazzjonali sensittiva relatata mal-infurzar tal-liġi. Ir-rapporti jistgħu jiġu aggregati biex ikopru iktar minn implimentazzjoni waħda.
I deployer presentano alle pertinenti autorità di vigilanza del mercato e alle autorità nazionali per la protezione dei dati relazioni annuali sul loro uso di sistemi di identificazione biometrica remota a posteriori, escludendo la divulgazione di dati operativi sensibili relativi alle attività di contrasto. Le relazioni possono essere aggregate per coprire più di un utilizzo.
L-Istati Membri jistgħu jintroduċu, f’konformità mal-liġi tal-Unjoni, liġijiet aktar restrittivi dwar l-użu ta’ sistemi ta’ identifikazzjoni bijometrika remota “f’ħin aktar tard”.
Gli Stati membri possono introdurre, in conformità del diritto dell'Unione, disposizioni più restrittive sull'uso dei sistemi di identificazione biometrica remota a posteriori.
11. Mingħajr preġudizzju għall-Artikolu 50 ta’ dan ir-Regolament, l-implimentaturi ta’ sistemi tal-IA b’riskju għoli msemmija fl-Anness III, li jieħdu deċiżjonijiet jew jassistu fit-teħid ta’ deċiżjonijiet relatati ma’ persuni fiżiċi, għandhom jinfurmaw lill-persuni fiżiċi li huma soġġetti għall-użu tas-sistema tal-IA b’riskju għoli. Għal sistemi tal-IA b’riskju għoli użati għall-finijiet tal-infurzar tal-liġi, għandu japplika l-Artikolu 13 tad-Direttiva (UE) 2016/680.
11. Fatto salvo l'articolo 50, del presente regolamento i deployer dei sistemi di IA ad alto rischio di cui all'allegato III che adottano decisioni o assistono nell'adozione di decisioni che riguardano persone fisiche informano queste ultime che sono soggette all'uso del sistema di IA ad alto rischio. Per i sistemi di IA ad alto rischio utilizzati a fini di contrasto si applica l'articolo 13 della direttiva (UE) 2016/680.
12. L-implimentaturi għandhom jikkooperaw mal-awtoritajiet kompetenti rilevanti fi kwalunkwe azzjoni li dawk l-awtoritajiet jieħdu fir-rigward ta’ sistema tal-IA b’riskju għoli biex jimplimentaw dan ir-Regolament.
12. I deployer cooperano con le pertinenti autorità competenti in merito a qualsiasi azione intrapresa da dette autorità in relazione al sistema di IA ad alto rischio ai fini dell'attuazione del presente regolamento.
Artikolu 27
Articolo 27
Valutazzjoni tal-impatt fuq id-drittijiet fundamentali għas-sistemi tal-IA b’riskju għoli
Valutazione d'impatto sui diritti fondamentali per i sistemi di IA ad alto rischio
1. Qabel l-użu ta’ sistema tal-IA b’riskju għoli msemmija fl-Artikolu 6(2), bl-eċċezzjoni ta’ sistemi tal-IA b’riskju għoli maħsuba biex jintużaw fil-qasam elenkat fl-Anness III, il-punt 2, l-implimentaturi li huma korpi rregolati bil-liġi pubblika jew li huma entitajiet privati li jipprovdu servizzi pubbliċi u implimentaturi ta’ sistemi tal-IA b’riskju għoli msemmija fil-punti 5, (b) u (c) tal-Anness III, għandhom iwettqu valutazzjoni tal-impatt fuq id-drittijiet fundamentali li l-użu ta’ tali sistema jista’ jipproduċi. Għal dak il-għan, l-implimentaturi għandhom iwettqu valutazzjoni li jkun fiha:
1. Prima di utilizzare un sistema di IA ad alto rischio di cui all'articolo 6, paragrafo 2, ad eccezione dei sistemi di IA ad alto rischio destinati a essere usati nel settore elencati nell'allegato III, punto 2, i deployer che sono organismi di diritto pubblico o sono enti privati che forniscono servizi pubblici e i deployer di sistemi di IA ad alto rischio di cui all'allegato III, punto 5, lettere b) e c), effettuano una valutazione dell'impatto sui diritti fondamentali che l'uso di tale sistema può produrre. A tal fine, i deployer effettuano una valutazione che comprende gli elementi seguenti:
(a)
deskrizzjoni tal-proċessi tal-implimentatur li fihom ser tintuża s-sistema tal-IA b’riskju għoli skont l-għan maħsub tagħha;
a)
una descrizione dei processi del deployer in cui il sistema di IA ad alto rischio sarà utilizzato in linea con la sua finalità prevista;
(b)
deskrizzjoni tal-perjodu ta’ żmien li fih ikun maħsub li kull sistema tal-IA b’riskju għoli ser tintuża, u l-frekwenza ta’ dan l-użu;
b)
una descrizione del periodo di tempo entro il quale ciascun sistema di IA ad alto rischio è destinato a essere utilizzato e con che frequenza;
(c)
il-kategoriji ta’ persuni u gruppi fiżiċi li aktarx jiġu affettwati mill-użu tagħha fil-kuntest speċifiku;
c)
le categorie di persone fisiche e gruppi verosimilmente interessati dal suo uso nel contesto specifico;
(d)
ir-riskji speċifiċi ta’ ħsara li x’aktarx ikollhom impatt fuq il-kategoriji ta’ persuni fiżiċi jew gruppi ta’ persuni identifikati skont il-punt (c) ta’ dan il-paragrafu, b’kont meħud tal-informazzjoni mogħtija mill-fornitur skont l-Artikolu 13;
d)
i rischi specifici di danno che possono incidere sulle categorie di persone fisiche o sui gruppi di persone individuati a norma della lettera c), del presente paragrafo tenendo conto delle informazioni trasmesse dal fornitore a norma dell'articolo 13;
(e)
deskrizzjoni tal-implimentazzjoni tal-miżuri ta’ sorveljanza mill-bniedem, skont l-istruzzjonijiet għall-użu;
e)
una descrizione dell'attuazione delle misure di sorveglianza umana, secondo le istruzioni per l'uso;
(f)
il-miżuri li għandhom jittieħdu fil-każ tal-materjalizzazzjoni ta’ dawk ir-riskji, inkluż l-arranġamenti għall-governanza interna u l-mekkaniżmi tal-ilmenti.
f)
le misure da adottare qualora tali rischi si concretizzino, comprese le disposizioni relative alla governance interna e ai meccanismi di reclamo.
2. L-obbligu stipulat fil-paragrafu 1 japplika għall-ewwel użu tas-sistema tal-IA b’riskju għoli. L-implimentatur jista’, f’każijiet simili, jistrieħ fuq valutazzjonijiet tal-impatt fuq id-drittijiet fundamentali mwettqa qabel jew valutazzjonijiet tal-impatt eżistenti mwettqa mill-fornitur. Jekk, matul l-użu tas-sistema tal-IA b’riskju għoli, l-implimentatur iqis li xi wieħed mill-elementi elenkati fil-paragrafu 1 ikun inbidel jew m’għadux validu, l-implimentatur għandu jieħu l-passi meħtieġa biex jaġġorna l-informazzjoni.
2. L'obbligo di cui al paragrafo 1 si applica al primo uso del sistema di IA ad alto rischio. Il deployer può, in casi analoghi, basarsi su valutazioni d'impatto sui diritti fondamentali effettuate in precedenza o su valutazioni d'impatto esistenti effettuate da un fornitore. Se, durante l'uso del sistema di IA ad alto rischio, ritiene che uno qualsiasi degli elementi elencati al paragrafo 1 sia cambiato o non sia più aggiornato, il deployer adotta le misure necessarie per aggiornare le informazioni.
3. Ladarba tkun twettqet il-valutazzjoni msemmija fil-paragrafu 1 ta’ dan l-Artikolu, l-implimentatur għandu jinnotifika lill-awtorità tas-sorveljanza tas-suq bir-riżultati tagħha, fejn jippreżenta l-mudell mimli msemmi fil-paragrafu 5 ta’ dan l-Artikolu bħala parti min-notifika. Fil-każ imsemmi fl-Artikolu 46(1), l-implimentaturi jistgħu jiġu eżentati minn dak l-obbligu ta’ notifika.
3. Una volta effettuata la valutazione di cui al paragrafo 1 del presente articolo, il deployer notifica all'autorità di vigilanza del mercato i suoi risultati, presentando il modello compilato di cui al paragrafo 5 del presente articolo nell'ambito della notifica. Nel caso di cui all'articolo 46, paragrafo 1, i deployer possono essere esentati da tale obbligo di notifica.
4. Jekk diġà tkun saret konformità ma’ xi wieħed mill-obbligi stabbiliti f’dan l-Artikolu ’permezz tal-valutazzjoni tal-impatt fuq il-protezzjoni tad-data skont l-Artikolu 35 tar-Regolament (UE) 2016/679 jew l-Artikolu 27 tad-Direttiva (UE) 2016/680, il-valutazzjoni tal-impatt fuq id-drittijiet fundamentali msemmija fil-paragrafu 1 ta’ dan l-Artikolu għandha tikkomplementa dik il-valutazzjoni tal-impatt fuq il-protezzjoni tad-data.
4. Se uno qualsiasi degli obblighi di cui al presente articolo è già rispettato mediante la valutazione d'impatto sulla protezione dei dati effettuata a norma dell'articolo 35 del regolamento (UE) 2016/679 o dell'articolo 27 della direttiva (UE) 2016/680, la valutazione d'impatto sui diritti fondamentali di cui al paragrafo 1 del presente articolo integra tale valutazione d'impatto sulla protezione dei dati.
5. L-Uffiċċju għall-IA għandu jiżviluppa mudell għal kwestjonarju, inkluż permezz ta’ għodda awtomatizzata, biex ikun aktar faċli għall-implimentaturi biex jikkonformaw mal-obbligi tagħhom skont dan l-Artikolu b’mod simplifikat.
5. L'ufficio per l'IA elabora un modello di questionario, anche attraverso uno strumento automatizzato, per agevolare i deployer nell'adempimento dei loro obblighi a norma del presente articolo in modo semplificato.
TAQSIMA 4
SEZIONE 4
Awtoritajiet tan-notifika u korpi notifikati
Autorità di notifica e organismi notificati
Artikolu 28
Articolo 28
Awtoritajiet tan-notifika
Autorità di notifica
1. Kull Stat Membru għandu jiddeżinja jew jistabbilixxi mill-inqas awtorità tan-notifika waħda responsabbli għall-istabbiliment u għat-twettiq tal-proċeduri meħtieġa għall-valutazzjoni, id-deżinjazzjoni u n-notifika tal-korpi ta’ valutazzjoni tal-konformità u għall-monitoraġġ tagħhom. Dawk il-proċeduri għandhom jiġu żviluppati b’kooperazzjoni bejn l-awtoritajiet tan-notifika tal-Istati Membri kollha.
1. Ciascuno Stato membro designa o istituisce almeno un'autorità di notifica responsabile della predisposizione e dell'esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio. Tali procedure sono sviluppate nell'ambito della collaborazione tra le autorità di notifica di tutti gli Stati membri.
2. L-Istati Membri jistgħu jiddeċiedu li l-valutazzjoni u l-monitoraġġ imsemmija fil-paragrafu 1 għandhom jitwettqu minn korp nazzjonali ta’ akkreditazzjoni skont it-tifsira ta’, u f’konformità mar-Regolament (KE) Nru 765/2008 u f’konformità miegħu.
2. Gli Stati membri possono decidere che la valutazione e il monitoraggio di cui al paragrafo 1 siano eseguiti da un organismo nazionale di accreditamento ai sensi e in conformità del regolamento (CE) n, 765/2008.
3. L-awtoritajiet tan-notifika għandhom ikunu stabbiliti, organizzati u mħaddma b’tali mod li ma jinħoloq l-ebda kunflitt ta’ interess mal-korpi ta’ valutazzjoni tal-konformità, u li l-oġġettività u li l-imparzjalità tal-attivitajiet tagħhom għandhom ikunu salvagwardati.
3. Le autorità di notifica sono istituite, organizzate e gestite in modo tale che non sorgano conflitti di interesse con gli organismi di valutazione della conformità e che siano salvaguardate l'obiettività e l'imparzialità delle loro attività.
4. L-awtoritajiet tan-notifika għandhom ikunu organizzati b’tali mod li kull deċiżjoni relatata man-notifika tal-korpi ta’ valutazzjoni tal-konformità tittieħed minn persuna kompetenti differenti minn dawk li jkunu għamlu l-valutazzjoni ta’ dawk il-korpi.
4. Le autorità di notifica sono organizzate in modo che le decisioni relative alla notifica di un organismo di valutazione della conformità siano prese da persone competenti, diverse da quelle che hanno effettuato la valutazione.
5. L-awtoritajiet tan-notifika la għandhom joffru u lanqas jipprovdu xi attivitajiet li jwettqu l-korpi ta’ valutazzjoni tal-konformità u lanqas xi servizz ta’ konsulenza fuq bażi kummerċjali jew kompetittiva.
5. Le autorità di notifica non offrono né svolgono alcuna delle attività eseguite dagli organismi di valutazione della conformità, né servizi di consulenza su base commerciale o concorrenziale.
6. L-awtoritajiet tan-notifika għandhom jissalvagwardjaw il-kunfidenzjalità tal-informazzjoni li jiksbu, f’konformità mal-Artikolu 78.
6. Le autorità di notifica salvaguardano la riservatezza delle informazioni che ottengono conformemente all'articolo 78.
7. L-awtoritajiet tan-notifika għandu jkollhom għadd adegwat ta’ persunal kompetenti għad-dispożizzjoni tagħhom biex jagħmlu x-xogħol tagħhom sewwa. Il-persunal kompetenti għandu jkollu l-kompetenza esperta meħtieġa, fejn applikabbli, għall-funzjoni tiegħu, f’oqsma bħat-teknoloġiji tal-informazzjoni, l-IA u l-liġi, inkluż is-superviżjoni tad-drittijiet fundamentali.
7. Le autorità di notifica dispongono di un numero adeguato di dipendenti competenti per l'adeguata esecuzione dei relativi compiti. I dipendenti competenti dispongono, se del caso, delle competenze necessarie per svolgere le proprie funzioni in settori quali le tecnologie dell'informazione, l'IA e il diritto, compreso il controllo dei diritti fondamentali.
Artikolu 29
Articolo 29
Applikazzjoni ta’ korp ta’ valutazzjoni tal-konformità għan-notifika
Domanda di notifica presentata dagli organismi di valutazione della conformità
1. Il-korpi ta’ valutazzjoni tal-konformità għandhom jippreżentaw applikazzjoni għal notifika lill-awtorità tan-notifika tal-Istat Membru li fih ikunu stabbiliti.
1. Gli organismi di valutazione della conformità presentano una domanda di notifica all'autorità di notifica dello Stato membro in cui sono stabiliti.
2. L-applikazzjoni għal notifika għandha tkun akkumpanjata minn deskrizzjoni tal-attivitajiet ta’ valutazzjoni tal-konformità, il-modulu jew il-moduli ta’ valutazzjoni tal-konformità u t-tipi ta’ sistemi tal-IA li fir-rigward tagħhom il-korp ta’ valutazzjoni tal-konformità jgħid li huwa kompetenti, kif ukoll minn ċertifikat ta’ akkreditazzjoni, jekk ikun jeżisti wieħed, maħruġ minn korp nazzjonali ta’ akkreditazzjoni li jafferma li l-korp ta’ valutazzjoni tal-konformità jissodisfa r-rekwiżiti stipulati fl-Artikolu 31.
2. La domanda di notifica è accompagnata da una descrizione delle attività di valutazione della conformità, del modulo o dei moduli di valutazione della conformità e dei tipi di sistemi di IA per i quali tale organismo di valutazione della conformità dichiara di essere competente, nonché da un certificato di accreditamento, se disponibile, rilasciato da un organismo nazionale di accreditamento che attesti che l'organismo di valutazione della conformità è conforme ai requisiti di cui all'articolo 31.
Għandu jiżdied kull dokument validu relatat mad-deżinjazzjonijiet eżistenti tal-korp notifikat applikanti skont kwalunkwe leġiżlazzjoni oħra tal-Unjoni dwar l-armonizzazzjoni.
Sono aggiunti documenti validi relativi alle designazioni esistenti dell'organismo notificato richiedente ai sensi di qualsiasi altra normativa di armonizzazione dell'Unione.
3. Meta l-korp ta’ valutazzjoni tal-konformità kkonċernat ma jkunx jista’ jipprovdi ċertifikat ta’ akkreditazzjoni, dan għandu jipprovdi lill-awtorità tan-notifika l-evidenza dokumentata kollha meħtieġa għall-verifika, ir-rikonoxximent u l-monitoraġġ regolari tal-konformità tiegħu mar-rekwiżiti stabbiliti fl-Artikolu 31.
3. Qualora non possa fornire un certificato di accreditamento, l'organismo di valutazione della conformità interessato fornisce all'autorità di notifica tutte le prove documentali necessarie per la verifica, il riconoscimento e il monitoraggio periodico della sua conformità ai requisiti di cui all'articolo 31.
4. Għall-korpi notifikati deżinjati skont xi leġiżlazzjoni oħra tal-Unjoni dwar l-armonizzazzjoni, id-dokumenti u ċ-ċertifikati kollha marbuta ma’ dawk id-deżinjazzjonijiet jistgħu jintużaw biex jappoġġaw il-proċedura tad-deżinjazzjoni tagħhom skont dan ir-Regolament, skont il-każ. Il-korp notifikat għandu jaġġorna d-dokumentazzjoni msemmija fil-paragrafi 2 u 3 ta’ dan l-Artikolu kull fejn isiru bidliet rilevanti, sabiex l-awtorità responsabbli għall-korpi notifikati tkun tista’ timmonitorja u tivverifika l-konformità kontinwa mar-rekwiżiti kollha stabbiliti fl-Artikolu 31.
4. Per gli organismi notificati designati ai sensi di qualsiasi altra normativa di armonizzazione dell'Unione, tutti i documenti e i certificati connessi a tali designazioni possono essere utilizzati a sostegno della loro procedura di designazione a norma del presente regolamento, a seconda dei casi. L'organismo notificato aggiorna la documentazione di cui ai paragrafi 2 e 3 del presente articolo ogni volta che si verificano cambiamenti di rilievo, al fine di consentire all'autorità responsabile degli organismi notificati di monitorare e verificare il continuo rispetto di tutte le prescrizioni di cui all'articolo 31.
Artikolu 30
Articolo 30
Proċedura ta’ notifika
Procedura di notifica
1. L-awtoritajiet tan-notifika jistgħu jinnotifikaw biss lil korpi ta’ valutazzjoni tal-konformità li jkunu ssodisfaw ir-rekwiżiti stabbiliti fl-Artikolu 31.
1. Le autorità di notifica possononotificare solo gli organismi di valutazione della conformità che siano conformi alle prescrizioni di cui all'articolo 31.
2. L-awtoritajiet tan-notifika għandhom jinnotifikaw lill-Kummissjoni u lill-Istati Membri l-oħra permezz tal-għodda ta’ notifika elettronika żviluppata u ġestita mill-Kummissjoni, b’kull korp ta’ valutazzjoni tal-konformità msemmi fil-paragrafu 1.
2. Le autorità di notifica notificano alla Commissione e agli altri Stati membri, utilizzando lo strumento elettronico di notifica elaborato e gestito dalla Commissione, ogni organismo di valutazione della conformità di cui al paragrafo 1.
3. In-notifika msemmija fil-paragrafu 2 ta’ dan l-Artikolu għandha tinkludi d-dettalji kollha dwar l-attivitajiet ta’ valutazzjoni tal-konformità, il-modulu jew il-moduli ta’ valutazzjoni tal-konformità, it-tipi ta’ sistemi tal-IA ikkonċernat u l-attestazzjoni ta’ kompetenza rilevanti. Meta notifika ma tkunx ibbażata fuq ċertifikat ta’ akkreditazzjoni kif imsemmi fl-Artikolu 29(2), l-awtorità tan-notifika għandha tipprovdi lill-Kummissjoni u lill-Istati Membri l-oħra l-evidenza dokumentata li tafferma l-kompetenza tal-korp ta’ valutazzjoni tal-konformità u l-arranġamenti fis-seħħ biex ikun żgurat li dak il-korp ser jiġi monitorjat regolarment u ser ikompli jissodisfa r-rekwiżiti stabbiliti fl-Artikolu 31.
3. La notifica di cui al paragrafo 2 del presente articolo include tutti i dettagli riguardanti le attività di valutazione della conformità, il modulo o i moduli di valutazione della conformità, i tipi di sistemi di IA interessati, nonché la relativa attestazione di competenza. Qualora una notifica non sia basata su un certificato di accreditamento di cui all'articolo 29, paragrafo 2, l'autorità di notifica fornisce alla Commissione e agli altri Stati membri le prove documentali che attestino la competenza dell'organismo di valutazione della conformità nonché le misure predisposte per fare in modo che tale organismo sia monitorato periodicamente e continui a soddisfare i requisiti di cui all'articolo 31.
4. Il-korp ta’ valutazzjoni tal-konformità kkonċernat jista’ jwettaq l-attivitajiet ta’ korp notifikat biss meta ma titqajjem l-ebda oġġezzjoni mill-Kummissjoni jew mill-Istati Membri l-oħra fi żmien ġimagħtejn min-notifika minn awtorità tan-notifika meta din tinkludi ċertifikat ta’ akkreditazzjoni msemmi fl-Artikolu 29(2), jew fi żmien xahrejn min-notifika mill-awtorità tan-notifika meta din tinkludi evidenza dokumentarja msemmija fl-Artikolu 29(3).
4. L'organismo di valutazione della conformità interessato può eseguire le attività di un organismo notificato solo se non sono sollevate obiezioni da parte della Commissione o degli altri Stati membri entro due settimane dalla notifica da parte di un'autorità di notifica, qualora essa includa un certificato di accreditamento di cui all'articolo 29, paragrafo 2, o entro due mesi dalla notifica da parte dell'autorità di notifica, qualora essa includa le prove documentali di cui all'articolo 29, paragrafo 3.
5. Fejn jitressqu oġġezzjonijiet, il-Kummissjoni għandha, mingħajr dewmien, tidħol f’konsultazzjonijiet mal-Istati Membri rilevanti u mal-korp ta’ valutazzjoni tal-konformità. Fid-dawl ta’ dan, ’’il-Kummissjoni għandha tiddeċiedi jekk l-awtorizzazzjoni hix iġġustifikata. Il-Kummissjoni għandha tindirizza d-deċiżjoni tagħha lill-Istat Membru kkonċernat u lill-korp rilevanti ta’ valutazzjoni tal-konformità.
5. Se sono sollevate obiezioni, la Commissione avvia senza ritardo consultazioni con gli Stati membri pertinenti e l'organismo di valutazione della conformità. Tenutone debito conto, la Commissione decide se l'autorizzazione è giustificata. La Commissione trasmette la propria decisione allo Stato membro interessato e all'organismo di valutazione della conformità pertinente.
Artikolu 31
Articolo 31
Rekwiżiti relatati mal-korpi notifikati
Requisiti relativi agli organismi notificati
1. Korp notifikat għandu jkun stabbilit skont il-liġi nazzjonali ta’ Stat Membru u għandu jkollu personalità ġuridika.
1. Un organismo notificato è istituito a norma del diritto nazionale di uno Stato membro e ha personalità giuridica.
2. Il-korpi notifikati għandhom jissodisfaw ir-rekwiżiti organizzazzjonali, tal-ġestjoni tal-kwalità, tar-riżorsi u tal-proċessi li huma meħtieġa biex iwettqu l-kompiti tagħhom, kif ukoll ir-rekwiżiti taċ-ċibersigurtà adatti.
2. Gli organismi notificati soddisfano i requisiti organizzativi, di gestione della qualità e relativi alle risorse e ai processi necessari all'assolvimento dei loro compiti nonché i requisiti idonei di cibersicurezza.
3. L-istruttura organizzazzjonali, l-allokazzjoni tar-responsabbiltajiet, il-linji ġerarkiċi u l-ħidma tal-korpi notifikati għandhom jiżguraw il-fiduċja fil-prestazzjoni tagħhom, u fir-riżultati tal-attivitajiet ta’ valutazzjoni tal-konformità li l-korpi notifikati jwettqu.
3. La struttura organizzativa, l'assegnazione delle responsabilità, le linee di riporto e il funzionamento degli organismi notificati garantiscono la fiducia nelle loro prestazioni e nei risultati delle attività di valutazione della conformità che essi effettuano.
4. Il-korpi notifikati għandhom ikunu indipendenti mill-fornitur tas-sistema tal-IA b’riskju għoli li fir-rigward tagħha jwettqu attivitajiet ta’ valutazzjoni tal-konformità. Il-korpi notifikati għandhom ikunu indipendenti wkoll minn kwalunkwe operatur ieħor li jkollu interess ekonomiku f’sistemi tal-IA b’riskju għoli vvalutati, kif ukoll minn kwalunkwe kompetitur tal-fornitur. Dan ma għandux jipprekludi l-użu ta’ sistemi tal-IA b’riskju għoli vvalutati li huma meħtieġa għall-operazzjonijiet tal-korp ta’ valutazzjoni tal-konformità jew l-użu ta’ tali sistemi tal-IA b’riskju għoli għal skopijiet personali.
4. Gli organismi notificati sono indipendenti dal fornitore di un sistema di IA ad alto rischio in relazione al quale svolgono attività di valutazione della conformità. Gli organismi notificati sono inoltre indipendenti da qualsiasi altro operatore avente un interesse economico nei sistemi di IA ad alto rischio oggetto della valutazione, nonché da eventuali concorrenti del fornitore. Ciò non preclude l'uso dei sistemi di IA ad alto rischio oggetto della valutazione che sono necessari per il funzionamento dell'organismo di valutazione della conformità o l'uso di tali sistemi di IA ad alto rischio per scopi privati.
5. La l-korp ta’ valutazzjoni tal-konformità, il-maniġment superjuri tiegħu u lanqas il-persunal responsabbli għat-twettiq tal-kompiti ta’ valutazzjoni tal-konformità tiegħu ma għandhom ikunu involuti direttament fid-disinn, fl-iżvilupp, fil-kummerċjalizzazzjoni jew fl-użu ta’ sistemi tal-IA b’riskju għoli, u lanqas ma għandhom jirrappreżentaw lill-partijiet involuti f’dawk l-attivitajiet. Dawn ma għandhom jinvolvu ruħhom fl-ebda attività li tista’ tkun f’kunflitt mal-indipendenza tal-ġudizzju jew l-integrità tagħhom b’rabta mal-attivitajiet tal-valutazzjoni tal-konformità li għalihom jiġu notifikati. Dan għandu japplika b’mod partikolari għas-servizzi tal-konsulenza.
5. L'organismo di valutazione della conformità, i suoi alti dirigenti e il personale incaricato di svolgere i compiti di valutazione della conformità non intervengono direttamente nella progettazione, nello sviluppo, nella commercializzazione o nell'utilizzo di sistemi di IA ad alto rischio, né rappresentano i soggetti impegnati in tali attività. Essi non intraprendono alcuna attività che possa essere in conflitto con la loro indipendenza di giudizio o la loro integrità per quanto riguarda le attività di valutazione della conformità per le quali sono notificati. Ciò vale in particolare per i servizi di consulenza.
6. Il-korpi notifikati għandhom ikunu organizzati u jitħaddmu b’tali mod li jkunu ssalvagwardati l-indipendenza, l-oġġettività u l-imparzjalità tal-attivitajiet tagħhom. Il-korpi notifikati għandhom jiddokumentaw u jimplimentaw struttura u proċeduri biex jissalvagwardjaw l-imparzjalità u biex jippromwovu u japplikaw il-prinċipji ta’ imparzjalità fl-organizzazzjoni kollha tagħhom, fost il-persunal tagħhom u fl-attivitajiet ta’ valutazzjoni tagħhom.
6. Gli organismi notificati sono organizzati e gestiti in modo da salvaguardare l'indipendenza, l'obiettività e l'imparzialità delle loro attività. Gli organismi notificati documentano e attuano una struttura e procedure per salvaguardare l'imparzialità e per promuovere e applicare i principi di imparzialità in tutta l'organizzazione, tra il personale e nelle attività di valutazione.
7. Il-korpi notifikati għandu jkollhom fis-seħħ proċeduri dokumentati li jiżguraw li l-persunal, il-kumitati, is-sussidjarji, is-sottokuntratturi tagħhom, u kwalunkwe korp assoċjat jew persunal ta’ korpi esterni jżommu, f’konformità mal-Artikolu 78, il-kunfidenzjalità tal-informazzjoni li tiġi fil-pussess tagħhom waqt it-twettiq ta’ attivitajiet ta’ valutazzjoni tal-konformità, għajr meta d-divulgazzjoni tagħha tkun meħtieġa bil-liġi. Il-persunal ta’ korpi notifikati għandu jkun marbut li josserva s-segretezza professjonali fir-rigward tal-informazzjoni kollha miksuba waqt li jkun qed iwettaq il-kompiti tiegħu skont dan ir-Regolament, ħlief fir-rigward tal-awtoritajiet tan-notifika tal-Istat Membru li fih ikunu qed isiru l-attivitajiet tiegħu.
7. Gli organismi notificati dispongono di procedure documentate per garantire che il loro personale, i loro comitati, le affiliate, i subappaltatori e qualsiasi altra organizzazione associata o il personale di organismi esterni mantengano, conformemente all'articolo 78, la riservatezza delle informazioni di cui vengono in possesso nello svolgimento delle attività di valutazione della conformità, salvo quando la normativa ne prescriva la divulgazione. Il personale degli organismi notificati è tenuto a osservare il segreto professionale riguardo a tutte le informazioni ottenute nello svolgimento dei propri compiti a norma del presente regolamento, tranne che nei confronti delle autorità di notifica dello Stato membro in cui svolge le proprie attività.
8. Il-korpi notifikati għandu jkollhom proċeduri għat-twettiq ta’ attivitajiet li jqisu b’mod dovut id-daqs tal-fornitur, is-settur li fih jopera, l-istruttura tiegħu u l-livell ta’ kumplessità tas-sistema tal-IA kkonċernata.
8. Gli organismi notificati dispongono di procedure per svolgere le attività che tengono debitamente conto delle dimensioni di un fornitore, del settore in cui opera, della sua struttura e del grado di complessità del sistema di IA interessato.
9. Il-korpi notifikati għandhom jieħdu assigurazzjoni tar-responsabbiltà xierqa għall-attivitajiet ta’ valutazzjoni tal-konformità tagħhom, dment li r-responsabbiltà ma tkunx merfugħa mill-Istat Membru li fih ikunu stabbiliti f’konformità mal-liġi nazzjonali jew dment li dak l-Istat Membru ma jkunx hu stess responsabbli direttament għall-valutazzjoni tal-konformità.
9. Gli organismi notificati sottoscrivono un'adeguata assicurazione di responsabilità per le loro attività di valutazione della conformità, a meno che lo Stato membro in cui sono stabiliti non si assuma tale responsabilità a norma del diritto nazionale o non sia esso stesso direttamente responsabile della valutazione della conformità.
10. Il-korpi notifikati għandhom ikunu kapaċi jwettqu l-kompiti kollha tagħhom skont dan ir-Regolament bl-ogħla livell ta’ integrità professjonali u bil-kompetenza meħtieġa fil-qasam speċifiku, sew jekk dawk il-kompiti jitwettqu mill-korpi notifikati nnifishom jew f’isimhom u taħt ir-responsabbiltà tagħhom.
10. Gli organismi notificati sono in grado di eseguire tutti i compiti assegnati loro in forza del presente regolamento con il più elevato grado di integrità professionale e di competenza richiesta nel settore specifico, indipendentemente dal fatto che tali compiti siano eseguiti dagli organismi notificati stessi o per loro conto e sotto la loro responsabilità.
11. Il-korpi notifikati għandu jkollhom kompetenzi interni suffiċjenti biex ikunu jistgħu jevalwaw b’mod effettiv il-kompiti mwettqa minn partijiet esterni f’isimhom. Il-korp notifikat għandu jkollu disponibbiltà permanenti ta’ persunal amministrattiv, tekniku, legali u xjentifiku suffiċjenti bl-esperjenza u l-għarfien relatati mat-tipi ta’ sistemi tal-IA, id-data u l-computing tad-data rilevanti, u relatati mar-rekwiżiti stipulati fit-Taqsima 2.
11. Gli organismi notificati dispongono di sufficienti competenze interne per poter valutare efficacemente i compiti svolti da parti esterne per loro conto.Gli organismi notificati dispongono permanentemente di sufficiente personale amministrativo, tecnico, giuridico e scientifico dotato di esperienza e conoscenze relative ai tipi di sistemi di IA, ai dati, al calcolo dei dati pertinenti, nonché ai requisiti di cui alla sezione 2.
12. Il-korpi notifikati għandhom jieħdu sehem f’attivitajiet ta’ koordinazzjoni kif imsemmi fl-Artikolu 38. Dawn għandhom jieħdu sehem ukoll direttament jew ikunu rrappreżentati f’organizzazzjonijiet tal-istandardizzazzjoni Ewropej, jew jiżguraw li jkunu konxji u aġġornati fir-rigward tal-istandards rilevanti.
12. Gli organismi notificati partecipano alle attività di coordinamento di cui all'articolo 38. Inoltre essi partecipano direttamente o sono rappresentati in seno alle organizzazioni europee di normazione o garantiscono di essere informati e di mantenersi aggiornati in merito alle norme pertinenti.
Artikolu 32
Articolo 32
Preżunzjoni ta’ konformità mar-rekwiżiti relatati mal-korpi notifikati
Presunzione di conformità ai requisiti relativi agli organismi notificati
Meta korp ta’ valutazzjoni tal-konformità juri l-konformità tiegħu mal-kriterji stabbiliti fl-istandards armonizzati rilevanti jew partijiet minnhom, li r-referenzi tagħhom ikunu ġew ippubblikati f’Il-Ġurnal Uffiċjali tal-Unjoni Ewropea, għandu jkun preżunt li huwa konformi mar-rekwiżiti stipulati fl-Artikolu 31 sa fejn l-istandards armonizzati applikabbli jkopru dawk ir-rekwiżiti.
Qualora dimostri la propria conformità ai criteri stabiliti nelle pertinenti norme armonizzate o in parti di esse i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea, l'organismo di valutazione della conformità è considerato conforme ai requisiti di cui all'articolo 31 nella misura in cui le norme armonizzate applicabili coprano tali requisiti.
Artikolu 33
Articolo 33
Sussidjarji ta’ korpi notifikati u sottokuntrattar
Affiliate degli organismi notificati e subappaltatori
1. Meta korp notifikat jissottokuntratta kompiti speċifiċi marbuta mal-valutazzjoni tal-konformità jew jirrikorri għal sussidjarja, huwa għandu jiżgura li s-sottokuntrattur jew is-sussidjarja tissodisfa r-rekwiżiti stabbiliti fl-Artikolu 31 u għandu jinforma b’dan lill-awtorità tan-notifika.
1. L'organismo notificato, qualora subappalti compiti specifici connessi alla valutazione della conformità oppure ricorra a un'affiliata, garantisce che il subappaltatore o l'affiliata soddisfino i requisiti di cui all'articolo 31 e ne informa l'autorità di notifica.
2. Il-korpi notifikati għandhom jerfgħu responsabbiltà sħiħa għall-kompiti mwettqa minn kwalunkwe sottokuntrattur jew sussidjarja.
2. Gli organismi notificati si assumono la completa responsabilità dei compiti eseguiti da eventuali subappaltatori o affiliate.
3. L-attivitajiet jistgħu jiġu sottokuntrattati jew imwettqa minn sussidjarja bil-qbil tal-fornitur biss. Il-korpi notifikati għandhom jagħmlu lista tas-sussidjarji tagħhom disponibbli għall-pubbliku.
3. Le attività possono essere subappaltate o eseguite da un'affiliata solo con il consenso del fornitore. Gli organismi notificati mettono a disposizione del pubblico un elenco delle loro affiliate.
4. Id-dokumenti rilevanti li jikkonċernaw il-valutazzjoni tal-kwalifiki tas-sottokuntrattur jew tas-sussidjarja u tax-xogħol imwettaq minnhom skont dan ir-Regolament għandhom jinżammu għad-dispożizzjoni tal-awtorità tan-notifika għal perjodu ta’ ħames snin mid-data tat-tmiem tas-sottokuntrattar.
4. I documenti pertinenti riguardanti la valutazione delle qualifiche del subappaltatore o dell'affiliata e il lavoro da essi eseguito a norma del presente regolamento sono tenuti a disposizione dell'autorità di notifica per un periodo di cinque anni a decorrere dalla data in cui termina il contratto di subappalto.
Artikolu 34
Articolo 34
Obbligi operazzjonali tal-korpi notifikati
Obblighi operativi degli organismi notificati
1. Il-korpi notifikati għandhom jivverifikaw il-konformità tas-sistemi tal-IA b’riskju għoli f’konformità mal-proċeduri ta’ valutazzjoni tal-konformità stipulati fl-Artikolu 43.
1. Gli organismi notificati verificano la conformità dei sistemi di IA ad alto rischio secondo le procedure di valutazione della conformità di cui all'articolo 43.
2. Il-korpi notifikati għandhom jevitaw piżijiet bla bżonn għall-fornituri meta jwettqu l-attivitajiet tagħhom, u jqisu kif xieraq id-daqs tal-fornitur, is-settur li jopera fih, l-istruttura tiegħu u l-grad ta’ kumplessità tas-sistema tal-IA b’riskju għoli kkonċernata, b’mod partikolari bil-ħsieb li jiġu mminimizzati l-piżijiet amministrattivi u l-kostijiet tal-konformità għall-intrapriżi mikro u żgħar skont it-tifsira tar-Rakkomandazzjoni 2003/361/KE. Madankollu, il-korp notifikat għandu jirrispetta l-grad ta’ rigorożità u l-livell ta’ protezzjoni meħtieġa għall-konformità tas-sistema tal-IA b’riskju għoli mar-rekwiżiti ta’ dan ir-Regolament..
2. Gli organismi notificati evitano oneri inutili per i fornitori nello svolgimento delle loro attività e tengono debitamente conto delle dimensioni del fornitore, del settore in cui opera, della sua struttura e del grado di complessità del sistema di IA ad alto rischio interessato, in particolare al fine di ridurre al minimo gli oneri amministrativi e i costi di conformità per le microimprese e le piccole imprese ai sensi della raccomandazione 2003/361/CE. L'organismo notificato rispetta tuttavia il grado di rigore e il livello di tutela necessari per la conformità del sistema di IA ad alto rischio rispetto ai requisiti del presente regolamento.
3. Il-korpi notifikati għandhom jagħmlu disponibbli u meta jintalbu, jippreżentaw id-dokumentazzjoni rilevanti kollha, inkluż id-dokumentazzjoni tal-fornituri, lill-awtorità tan-notifika msemmija fl-Artikolu 28 biex dik l-awtorità tkun tista’ twettaq l-attivitajiet tagħha ta’ valutazzjoni, ta’ deżinjazzjoni, ta’ notifika u ta’ monitoraġġ u biex jiffaċilitaw il-valutazzjoni deskritta f’din it-Taqsima.
3. Gli organismi notificati mettono a disposizione e trasmettono su richiesta tutta la documentazione pertinente, inclusa la documentazione del fornitore, all'autorità di notifica di cui all'articolo 28 per consentirle di svolgere le proprie attività di valutazione, designazione, notifica e monitoraggio e per agevolare la valutazione di cui alla presente sezione.
Artikolu 35
Articolo 35
Numri tal-identifikazzjoni u listi tal-korpi notifikati
Numeri di identificazione ed elenchi di organismi notificati
1. Il-Kummissjoni għandha tassenja numru ta’ identifikazzjoni uniku lil kull korp notifikat, anke meta korp ikun notifikat taħt aktar minn att wieħed tal-Unjoni.
1. La Commissione assegna un numero di identificazione unico a ciascun organismo notificato, anche se un organismo è notificato a norma di più atti dell'Unione.
2. Il-Kummissjoni għandha tqiegħed il-lista tal-korpi notifikati skont dan ir-Regolament għad-dispożizzjoni tal-pubbliku, inkluż in-numri tal-identifikazzjoni tagħhom u l-attivitajiet li għalihom ikunu ġew notifikati. Il-Kummissjoni għandha tiżgura li l-lista tinżamm aġġornata.
2. La Commissione mette pubblicamente a disposizione l'elenco degli organismi notificati ai sensi del presente regolamento, inclusi i loro numeri di identificazione e le attività per le quali sono stati notificati. La Commissione garantisce che l'elenco sia tenuto aggiornato.
Artikolu 36
Articolo 36
Bidliet fin-notifiki
Modifiche delle notifiche
1. L-awtorità tan-notifika għandha tinnotifika lill-Kummissjoni u lill-Istati Membri l-oħra bi kwalunkwe bidla rilevanti fin-notifika ta’ korp notifikat permezz tal-għodda elettronika ta’ notifika msemmija fl-Artikolu 30(2).
1. L'autorità di notifica informa la Commissione e gli altri Stati membri di ogni pertinente modifica della notifica di un organismo notificato tramite lo strumento elettronico di notifica di cui all'articolo 30, paragrafo 2.
2. Il-proċeduri stabbiliti fl-Artikoli 29 u 30 għandhom japplikaw għal estensjonijiet tal-kamp ta’ applikazzjoni tan-notifika.
2. Le procedure di cui agli articoli 29 e 30 si applicano alle estensioni della portata della notifica.
Għal bidliet għan-notifika minbarra estensjonijiet tal-kamp ta’ applikazzjoni tagħha, għandhom japplikaw il-proċeduri stipulati fil-paragrafi (3) sa (9).
In caso di modifiche della notifica diverse dalle estensioni della sua portata, si applicano le procedure stabilite nei paragrafi da 3 a 9.
3. Fejn korp notifikat jiddeċiedi li jtemm l-attivitajiet tiegħu ta’ valutazzjoni tal-konformità, huwa għandu jinforma lill-awtorità tan-notifika u lill-fornituri kkonċernati malajr kemm jista’ jkun u fil-każ ta’ tmiem ippjanat mill-inqas sena qabel ma jtemm l-attivitajiet tiegħu. Iċ-ċertifikati tal-korp notifikat jistgħu jibqgħu validi għal perjodu ta’ disa’ xhur wara t-tmiem tal-attivitajiet tal-korp notifikat bil-kundizzjoni li korp notifikat ieħor ikun ikkonferma bil-miktub li ser jieħu r-responsabbiltà għas-sistemi tal-IA b’riskju għoli koperti minn dawk iċ-ċertifikati. Il-korp notifikat tal-aħħar għandu jlesti valutazzjoni sħiħa tas-sistemi tal-IA b’riskju għoli affettwati sa tmiem dak il-perjodu ta’ disa’ xhur qabel ma joħroġ ċertifikati ġodda għal dawk is-sistemi. Fejn il-korp notifikat ikun waqqaf l-attività tiegħu, l-awtorità tan-notifika għandha tirtira d-deżinjazzjoni.
3. Qualora decida di cessare le attività di valutazione della conformità, un organismo notificato ne informa l'autorità di notifica e i fornitori interessati quanto prima possibile e almeno un anno prima della cessazione delle attività qualora la cessazione sia stata programmata. I certificati dell'organismo notificato possono restare validi per un periodo di nove mesi dopo la cessazione delle attività dell'organismo notificato purché un altro organismo notificato abbia confermato per iscritto che assumerà la responsabilità per i sistemi di IA ad alto rischio coperti da tale certificato. Quest'ultimo organismo notificato completa una valutazione integrale dei sistemi di IA ad alto rischio coinvolti entro la fine del periodo di nove mesi indicato prima di rilasciare nuovi certificati per gli stessi sistemi. Qualora l'organismo notificato abbia cessato le proprie attività, l'autorità di notifica ritira la designazione.
4. Meta awtorità tan-notifika jkollha raġuni biżżejjed biex tqis li korp notifikat m’għadux jissodisfa r-rekwiżiti stabbiliti fl-Artikolu 31, jew li qed jonqos milli jissodisfa l-obbligi tiegħu, l-awtorità tan-notifika għandha, mingħajr dewmien, tinvestiga l-kwistjoni bl-akbar diliġenza possibbli. F’dak il-kuntest, hija għandha tinforma lill-korp notifikat ikkonċernat dwar l-oġġezzjonijiet imqajmin u tagħtih il-possibbiltà li jaqsam il-fehmiet tiegħu. Jekk l-awtorità tan-notifika tasal għall-konklużjoni li l-korp notifikat m’għadux jissodisfa r-rekwiżiti stabbiliti fl-Artikolu 31 jew li qed jonqos milli jissodisfa l-obbligi tiegħu, dan għandu jirrestrinġi, jissospendi jew jirtira d-deżinjazzjoni, kif xieraq, skont is-serjetà tan-nuqqas milli jissodisfa dawk ir-rekwiżiti jew dawk l-obbligi. Din għandha minnufih tinforma lill-Kummissjoni u lill-Istati Membri l-oħra dwar dan.
4. Qualora un'autorità di notifica abbia motivo sufficiente di ritenere che un organismo notificato non soddisfa più i requisiti di cui all'articolo 31 o non adempie i suoi obblighi, l'autorità di notifica indaga senza ritardo sulla questione con la massima diligenza. In tale contesto, essa informa l'organismo notificato interessato in merito alle obiezioni sollevate e gli dà la possibilità di esprimere il suo punto di vista. Se l'autorità di notifica conclude che l'organismo notificato non soddisfa più i requisiti di cui all'articolo 31 o non adempie i suoi obblighi, tale autorità limita, sospende o ritira ladesignazione, a seconda dei casi, in funzione della gravità del mancato rispetto di tali requisiti o dell'inadempimento di tali obblighi. Essa informa immediatamente la Commissione e gli altri Stati membri.
5. Meta d-deżinjazzjoni tiegħu tkun ġiet sospiża, ristretta, jew irtirata kompletament jew parzjalment, il-korp notifikat għandu jinforma lill-fornituri kkonċernati fi żmien 10 ijiem.
5. Qualora la sua designazione sia stata sospesa, limitata oppure ritirata interamente o in parte, l'organismo notificato informa i fornitori interessati al più tardi entro 10 giorni.
6. Fil-każ tar-restrizzjoni, is-sospensjoni jew l-irtirar ta’ deżinjazzjoni, l-awtorità tan-notifika għandha tieħu passi xierqa biex tiżgura li l-fajls tal-korp notifikat ikkonċernat jinżammu u li jitqiegħdu għad-dispożizzjoni tal-awtoritajiet tan-notifika fi Stati Membri oħra u tal-awtoritajiet tas-sorveljanza tas-suq fuq talba tagħhom.
6. In caso di limitazione, sospensione o ritiro di una designazione, l'autorità di notifica adotta le misure appropriate per far sì che i fascicoli dell'organismo notificato interessato siano conservati e messi a disposizione delle autorità di notifica in altri Stati membri nonché delle autorità di vigilanza del mercato, su richiesta.
7. Fil-każ ta’ restrizzjoni, sospensjoni jew irtirar ta’ deżinjazzjoni, l-awtorità tan-notifika għandha:
7. In caso di limitazione, sospensione o ritiro di una designazione, l'autorità di notifica:
(a)
tivvaluta l-impatt fuq iċ-ċertifikati maħruġa mill-korp notifikat;
a)
valuta l'impatto sui certificati rilasciati dall'organismo notificato;
(b)
tippreżenta rapport dwar is-sejbiet tagħha lill-Kummissjoni u lill-Istati Membri l-oħra fi żmien tliet xhur minn meta tkun innotifikat dwar il-bidliet fid-deżinjazzjoni;
b)
entro tre mesi dalla comunicazione delle modifiche della designazione, presenta alla Commissione e agli altri Stati membri una relazione sulle proprie constatazioni;
(c)
titlob lill-korp notifikat jissospendi jew jirtira, f’perjodu ta’ żmien raġonevoli determinat mill-awtorità, kwalunkwe ċertifikat maħruġ bi żball sabiex tkun żgurata l-konformità kontinwa tas-sistemi tal-IA b’riskju għoli fis-suq;
c)
impone all'organismo notificato di sospendere o ritirare, entro un periodo di tempo ragionevole stabilito dall'autorità, i certificati rilasciati indebitamente al fine di garantire la continua conformità dei sistemi di IA ad alto rischio sul mercato;
(d)
tinforma lill-Kummissjoni u lill-Istati Membri dwar ċertifikati li tkun talbet is-sospensjoni jew l-irtirar tagħhom;
d)
informa la Commissione e gli Stati membri in merito ai certificati di cui ha richiesto la sospensione o il ritiro;
(e)
tipprovdi lill-awtoritajiet nazzjonali kompetenti tal-Istat Membru li fih il-fornitur ikollu l-post tan-negozju rreġistrat tiegħu bl-informazzjoni rilevanti kollha dwar iċ-ċertifikati li għalihom tkun talbet is-sospensjoni jew l-irtirar; dik l-awtorità għandha tieħu l-miżuri xierqa, fejn meħtieġ, biex jiġi evitat riskju potenzjali għas-saħħa, is-sikurezza jew id-drittijiet fundamentali.
e)
fornisce alle autorità nazionali competenti dello Stato membro in cui ha sede il fornitore tutte le informazioni pertinenti sui certificati di cui ha richiesto la sospensione o il ritiro; tale autorità adotta le misure appropriate, laddove necessario, per evitare un rischio potenziale per la salute, la sicurezza o i diritti fondamentali.
8. Bl-eċċezzjoni ta’ ċertifikati maħruġa bi żball, u fejn deżinjazzjoni tkun ġiet sospiża jew ristretta, iċ-ċertifikati għandhom jibqgħu validi f’waħda miċ-ċirkostanzi li ġejjin:
8. Ad eccezione dei certificati rilasciati indebitamente, e ove la designazione sia stata sospesa o limitata, i certificati restano validi in uno dei casi seguenti:
(a)
l-awtorità tan-notifika tkun ikkonfermat, fi żmien xahar mis-sospensjoni jew ir-restrizzjoni, li ma hemm l-ebda riskju għas-saħħa, is-sikurezza jew id-drittijiet fundamentali b’rabta ma’ ċertifikati milquta mis-sospensjoni jew ir-restrizzjoni, u l-awtorità tan-notifika tkun fasslet skeda ta’ żmien għal azzjonijiet biex tiġi rimedjata s-sospensjoni jew ir-restrizzjoni; jew
a)
l'autorità di notifica ha confermato, entro un mese dalla sospensione o dalla limitazione, che sotto il profilo della salute, della sicurezza o dei diritti fondamentali non sussistono rischi per quanto riguarda i certificati oggetto di sospensione o limitazione e l'autorità di notifica ha predisposto un calendario di azioni al fine di porre rimedio alla sospensione o alla limitazione; oppure
(b)
l-awtorità tan-notifika tkun ikkonfermat li mhu ser jinħareġ, jiġi emendat jew jinħareġ mill-ġdid l-ebda ċertifikat rilevanti għas-sospensjoni matul is-sospensjoni jew ir-restrizzjoni, u tgħid jekk il-korp notifikat għandux il-kapaċità li jkompli jimmonitorja u jibqa’ responsabbli miċ-ċertifikati eżistenti maħruġa għall-perjodu tas-sospensjoni jew ir-restrizzjoni; fil-każ li l-awtorità tan-notifika tiddetermina li l-korp notifikat ma għandux il-kapaċità li jappoġġa ċ-ċertifikati eżistenti maħruġa, il-fornitur tas-sistema koperta miċ-ċertifikat għandu jikkonferma bil-miktub lill-awtoritajiet nazzjonali kompetenti tal-Istat Membru li fih ikollu l-post tan-negozju rreġistrat tiegħu, fi żmien tliet xhur mis-sospensjoni jew mir-restrizzjoni, li korp notifikat kwalifikat ieħor qed jassumi temporanjament il-funzjonijiet tal-korp notifikat biex jimmonitorja u jibqa’ responsabbli għaċ-ċertifikati matul il-perjodu ta’ sospensjoni jew restrizzjoni.
b)
l'autorità di notifica ha confermato che durante il periodo di sospensione o di limitazione non saranno rilasciati, modificati o rinnovati certificati attinenti alla sospensione e indica se l'organismo notificato è in grado di continuare a svolgere il monitoraggio e rimanere responsabile dei certificati esistenti rilasciati durante il periodo della sospensione o della limitazione; nel caso in cui l'autorità di notifica stabilisca che l'organismo notificato non è in grado di sostenere i certificati in vigore, il fornitore del sistema coperto dal certificato conferma per iscritto alle autorità nazionali competenti dello Stato membro in cui ha la propria sede, entro tre mesi dalla sospensione o dalla limitazione, che un altro organismo notificato qualificato assume temporaneamente le funzioni dell'organismo notificato di svolgere il monitoraggio e assume la responsabilità dei certificati durante il periodo di sospensione o limitazione.
9. Bl-eċċezzjoni ta’ ċertifikati li jkunu nħarġu bi żball, u meta deżinjazzjoni tkun ġiet irtirata, iċ-ċertifikati għandhom jibqgħu validi għal perjodu ta’ disa’ xhur fiċ-ċirkostanzi li ġejjin:
9. Ad eccezione dei certificati rilasciati indebitamente, e ove la designazione sia stata ritirata, i certificati restano validi per un periodo di nove mesi nei casi seguenti:
(a)
l-awtorità kompetenti nazzjonali tal-Istat Membru li fih il-fornitur tas-sistema tal-IA b’riskju għoli kopert miċ-ċertifikat ikollu l-post tan-negozju rreġistrat tiegħu tkun ikkonfermat li ma hemm l-ebda riskju għas-saħħa, is-sikurezza jew d-drittijiet fundamentali assoċjati mas-sistemi tal-IA b’riskju għoli kkonċernati; u
a)
l'autorità nazionale competente dello Stato membro in cui il fornitore del sistema di IA ad alto rischio coperto dal certificato ha la propria sede ha confermato che sotto il profilo della salute, della sicurezza o dei diritti fondamentali non sussistono rischi per quanto riguarda i sistemi di IA ad alto rischio interessati; e
(b)
korp notifikat ieħor ikun ikkonferma bil-miktub li ser jassumi minnufih ir-’responsabbiltà għal dawk is-sistemi tal-IA u jlesti l-valutazzjoni tiegħu fi żmien 12-il xahar mill-irtirar tad-deżinjazzjoni.
b)
un altro organismo notificato ha confermato per iscritto che assume immediatamente la responsabilità per tali sistemi di IA e completa la sua valutazione entro 12 mesi dal ritiro della designazione.
Fiċ-ċirkostanzi msemmija fl-ewwel subparagrafu, l-awtorità nazzjonali kompetenti tal-Istat Membru li fih il-fornitur tas-sistema kopert miċ-ċertifikat għandu l-post tan-negozju tiegħu tista’ testendi l-validità proviżorja taċ-ċertifikati għal perjodi addizzjonali ta’ tliet xhur, li b’kollox ma għandhomx jaqbżu t-12-il xahar.
Nei casi di cui al primo comma, l'autorità nazionale competente dello Stato membro in cui il fornitore del sistema coperto dal certificato ha la propria sede può prorogare la validità temporanea dei certificati di ulteriori periodi di tre mesi, per un totale non superiore a dodici mesi.
L-awtorità nazzjonali kompetenti jew il-korp notifikat li jassumi l-funzjonijiet tal-korp notifikat milqut mill-bidliet fid-deżinjazzjoni, għandu minnufih jinforma b’dan lill-Kummissjoni, lill-Istati Membri l-oħra u lill-korpi notifikati l-oħra.
L'autorità nazionale competente o l'organismo notificato che assume le funzioni dell'organismo notificato interessato dalla modifica della designazione informa immediatamente la Commissione, gli altri Stati membri e gli altri organismi notificati.
Artikolu 37
Articolo 37
Kontestazzjoni tal-kompetenza tal-korpi notifikati
Contestazione della competenza degli organismi notificati
1. Fejn meħtieġ, il-Kummissjoni għandha tinvestiga l-każijiet kollha meta jkun hemm raġunijiet biex tiġi ddubitata l-kompetenza ta’ korp notifikat jew jekk korp notifikat ikunx għadu jissodisfa r-rekwiżiti stabbiliti fl-Artikolu 31 u r-responsabbiltajiet applikabbli tiegħu.
1. Ove necessario, la Commissione indaga su tutti i casi in cui vi siano motivi di dubitare della competenza di un organismo notificato o della continuità dell’ottemperanza di un organismo notificato ai requisiti di cui all'articolo 31 e alle sue responsabilità applicabili.
2. L-awtorità tan-notifika għandha tipprovdi lill-Kummissjoni, fuq talba, l-informazzjoni rilevanti kollha dwar in-notifika jew iż-żamma tal-kompetenza tal-korp notifikat ikkonċernat.
2. L'autorità di notifica fornisce alla Commissione, su richiesta, tutte le informazioni relative alla notifica o al mantenimento della competenza dell'organismo notificato interessato.
3. Il-Kummissjoni għandha tiżgura li l-informazzjoni sensittiva kollha miksuba matul l-investigazzjonijiet tagħha skont dan l-Artikolu tiġi ttrattata b’mod kunfidenzjali f’konformità mal-Artikolu 78.
3. La Commissione provvede affinché tutte le informazioni sensibili ottenute nel corso delle sue indagini a norma del presente articolo siano trattate in maniera riservata in conformità dell'articolo 78.
4. Meta l-Kummissjoni taċċerta ruħha li korp notifikat ma jissodisfax, jew li ma jkunx għadu jissodisfa, ir-rekwiżiti għan-notifika tiegħu, hija għandha tinforma lill-Istat Membru tan-notifika b’dan u titolbu jieħu l-miżuri korrettivi meħtieġa, inkluż is-sospensjoni jew l-irtirar tan-notifika, jekk ikun meħtieġ. Meta l-Istat Membru jonqos milli jieħu l-miżuri korrettivi meħtieġa, il-Kummissjoni tista’, permezz ta’ att ta’ implimentazzjoni, tissospendi, tirrestrinġi jew tirtira d-deżinjazzjoni. Dak l-att ta’ implimentazzjoni għandu jiġi adottat f’konformità mal-proċedura ta’ eżami msemmija fl-Artikolu 98(2).
4. La Commissione, qualora accerti che un organismo notificato non soddisfa, o non soddisfa più, i requisiti per la sua notifica, informa di conseguenza lo Stato membro notificante e gli chiede di adottare le misure correttive necessarie compresa la sospensione o il ritiro della notifica. Se lo Stato membro non adotta le misure correttive necessarie, la Commissione può, mediante atto di esecuzione, sospendere, limitare o ritirare la designazione. Tale atto di esecuzione è adottato secondo la procedura d'esame di cui all'articolo 98, paragrafo 2.
Artikolu 38
Articolo 38
Koordinazzjoni tal-korpi notifikati
Coordinamento degli organismi notificati
1. Il-Kummissjoni għandha tiżgura li, fir-rigward ta’ sistemi tal-IA b’riskju għoli, jiġu stabbiliti koordinazzjoni u kooperazzjoni xierqa bejn il-korpi notifikati attivi fil-proċeduri ta’ valutazzjoni tal-konformità skont dan ir-Regolament u li dawn jitħaddmu kif xieraq fil-forma ta’ grupp settorjali ta’ korpi notifikati.
1. La Commissione garantisce che, per quanto riguarda i sistemi di IA ad alto rischio, siano istituiti e funzionino correttamente, in forma di gruppo settoriale di organismi notificati, un coordinamento e una cooperazione adeguati tra gli organismi notificati che partecipano alle procedure di valutazione della conformità a norma del presente regolamento.
2. Kull awtorità tan-notifika għandha tiżgura li l-korpi notifikati minnha jieħdu sehem fil-ħidma ta’ grupp imsemmi fil-paragrafu 1, b’mod dirett jew permezz ta’ rappreżentanti deżinjati.
2. Ciascuna autorità di notifica garantisce che gli organismi da essa notificati partecipino al lavoro di un gruppo di cui al paragrafo 1, direttamente o mediante rappresentanti designati.
3. Il-Kummissjoni għandha tipprevedi l-iskambju tal-għarfien u l-aħjar prattiki bejn l-awtoritajiet tan-notifika.
3. La Commissione provvede allo scambio di conoscenze e migliori pratiche tra le autorità di notifica.
Artikolu 39
Articolo 39
Korpi ta’ valutazzjoni tal-konformità minn pajjiżi terzi
Organismi di valutazione della conformità di paesi terzi
Il-korpi ta’ valutazzjoni tal-konformità stabbiliti skont il-liġi ta’ pajjiż terz li miegħu l-Unjoni tkun ikkonkludiet ftehim jistgħu jiġu awtorizzati biex iwettqu l-attivitajiet tal-korpi notifikati skont dan ir-Regolament, dment li dawn jissodisfaw ir-rekwiżiti stipulati fl-Artikolu 31, jew jiżguraw livell ekwivalenti ta’ konformità.
Gli organismi di valutazione della conformità istituiti a norma del diritto di un paese terzo con il quale l'Unione ha concluso un accordo possono essere autorizzati a svolgere le attività degli organismi notificati a norma del presente regolamento, a condizione che soddisfino i requisiti stabiliti all'articolo 31 o garantiscano un livello di conformità equivalente.
TAQSIMA 5
SEZIONE 5
Standards, valutazzjoni tal-konformità, ċertifikati, reġistrazzjoni
Norme, valutazione della conformità, certificati, registrazione
Artikolu 40
Articolo 40
Standards armonizzati u strumenti ta’ standardizzazzjoni
Norme armonizzate e prodotti della normazione
1. Is-sistemi tal-IA b’riskju għoli jew il-mudelli tal-IA bi skop ġenerali li jkunu konformi ma’ standards armonizzati jew ma’ partijiet minnhom, li r-referenzi tagħhom ikunu ġew ippubblikati f’Il-Ġurnal Uffiċjali tal-Unjoni Ewropea f’konformità mar-Regolament (UE) Nru 1025/2012 għandhom ikunu preżunti li huma konformi mar-rekwiżiti stipulati fit-Taqsima 2 ta’ dan il-Kapitolu jew, kif applikabbli, mal-obbligi stipulati fl-Kapitolu V, it-Taqsimiet 2 u 3 ta’ dan ir-Regolament, sa fejn dawk l-istandards ikopru dawk ir-rekwiżiti jew obbligi.
1. I sistemi di IA ad alto rischio o i modelli di IA per finalità generali che sono conformi alle norme armonizzate o a parti di esse i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea conformemente al regolamento (UE) n, 1025/2012 si presumono conformi ai requisiti di cui alla sezione 2 del presente capo o, se del caso, agli obblighi di cui al capo V, sezioni 2 e 3, del presente regolamento, nella misura in cui tali requisiti o obblighi sono contemplati da tali norme.
2. F’konformità mal-Artikolu 10 tar-Regolament (UE) Nru 1025/2012, il-Kummissjoni għandha toħroġ, mingħajr dewmien żejjed, talbiet għall-istandardizzazzjoni li jkopru r-rekwiżiti kollha stipulati fit-Taqsima 2 ta’ dan il-Kapitolu u, kif applikabbli, talbiet għall-istandardizzazzjoni li jkopru l-obbligi stipulati fil-Kapitolu V, it-Taqsimiet 2 u 3 ta’ dan ir-Regolament’. It-talba ta’ standardizzazzjoni għandha titlob ukoll strumenti għall-proċessi ta’ rappurtar u ta’ dokumentazzjoni biex tittejjeb il-prestazzjoni tar-riżorsi tas-sistemi tal-IA, bħat-tnaqqis fil-konsum tal-enerġija u ta’ riżorsi oħra tas-sistema tal-IA b’riskju għoli matul iċ-ċiklu tal-ħajja tagħha, u dwar l-iżvilupp tal-effiċjenza fl-użu tal-enerġija tal-mudelli tal-IA bi skop ġenerali. Meta tħejji talba ta’ standardizzazzjoni, il-Kummissjoni għandha tikkonsulta lill-Bord u lill-partijiet ikkonċernati rilevanti, inkluż il-forum konsultattiv.
2. In conformità dell’articolo 10 del regolamento (UE) n, 1025/2012, la Commissione presenta senza indebito ritardo richieste di normazione riguardanti tutti i requisiti di cui alla sezione 2 del presente capo e, se del caso, richieste di normazione riguardanti gli obblighi di cui al capo V, sezioni 2 e 3, del presente regolamento. La richiesta di normazione chiede inoltre prodotti relativi a processi di comunicazione e documentazione intesi a migliorare le prestazioni dei sistemi di IA in termini di risorse, come la riduzione del consumo di energia e di altre risorse del sistema di IA ad alto rischio durante il suo ciclo di vita, e allo sviluppo efficiente sotto il profilo energetico dei modelli di IA per finalità generali. Nel preparare una richiesta di normazione, la Commissione consulta il consiglio per l'IA e i pertinenti portatori di interessi, compreso il forum consultivo.
Meta toħroġ talba ta’ standardizzazzjoni lill-organizzazzjonijiet Ewropej tal-istandardizzazzjoni, il-Kummissjoni għandha tispeċifika li l-istandards iridu jkunu ċari, konsistenti, inkluż mal-istandards żviluppati fid-diversi setturi għall-prodotti koperti mil-leġiżlazzjoni eżistenti tal-Unjoni dwar l-armonizzazzjoni elenkata fl-Anness I, u bil-għan li jiżguraw li s-sistemi tal-IA b’riskju għoli jew il-mudelli tal-IA bi skop ġenerali introdotti fis-suq jew imqiegħda fis-servizz fl-Unjoni jissodisfaw ir-rekwiżiti rilevanti jew l-obbligi stabbiliti f’dan ir-Regolament.
Nel presentare una richiesta di normazione alle organizzazioni europee di normazione, la Commissione specifica che le norme devono essere chiare, coerenti, anche con le norme elaborate nei vari settori per i prodotti disciplinati dalla vigente normativa di armonizzazione dell'Unione elencata nell'allegato I, e volte a garantire che i sistemi di IA ad alto rischio o i modelli di IA per finalità generali immessi sul mercato o messi in servizio nell'Unione soddisfino i pertinenti requisiti od obblighi di cui al presente regolamento.
Il-Kummissjoni għandha titlob lill-organizzazzjonijiet Ewropej tal-istandardizzazzjoni biex jipprovdu evidenza tal-aħjar sforzi tagħhom biex jissodisfaw l-objettivi msemmija fl-ewwel u t-tieni subparagrafu ta’ dan il-paragrafu f’konformità mal-Artikolu 24 tar-Regolament (UE) 1025/2012.
La Commissione chiede alle organizzazioni europee di normazione di dimostrare che si adoperano al massimo per conseguire gli obiettivi di cui al primo e al secondo comma del presente paragrafo conformemente all'articolo 24 del regolamento (UE) n, 1025/2012.
3. Il-parteċipanti fil-proċess ta’ standardizzazzjoni għandhom ifittxu li jippromwovu l-investiment u l-innovazzjoni fl-IA, inkluż permezz ta’ żieda fiċ-ċertezza legali, kif ukoll il-kompetittività u t-tkabbir tas-suq tal-Unjoni, li jikkontribwixxu għat-tisħiħ tal-kooperazzjoni globali dwar l-istandardizzazzjoni u filwaqt li jqisu l-istandards internazzjonali eżistenti fil-qasam tal-IA li huma konsistenti mal-valuri, id-drittijiet fundamentali u l-interessi tal-Unjoni, u li jtejbu l-governanza b’diversi partijiet ikkonċernati li tiżgura rappreżentanza bbilanċjata tal-interessi u l-parteċipazzjoni effettiva tal-partijiet ikkonċernati rilevanti kollha f’konformità mal-Artikoli 5, 6 u 7 tar-Regolament (UE) Nru 1025/2012.
3. I partecipanti al processo di normazione cercano di promuovere gli investimenti e l'innovazione nell'IA, anche mediante una maggiore certezza del diritto, nonché la competitività e la crescita del mercato dell'Unione, di contribuire a rafforzare la cooperazione globale in materia di normazione e a tener conto delle norme internazionali esistenti nel settore dell'IA che sono coerenti con i valori, i diritti fondamentali e gli interessi dell'Unione, e di rafforzare la governance multipartecipativa garantendo una rappresentanza equilibrata degli interessi e l'effettiva partecipazione di tutti i portatori di interessi pertinenti conformemente agli articoli 5, 6 e 7 del regolamento (UE) n, 1025/2012.
Artikolu 41
Articolo 41
Speċifikazzjonijiet komuni
Specifiche comuni
1. Il-Kummissjoni tista’ tadotta atti ta’ implimentazzjoni li jistabbilixxu speċifikazzjonijiet komuni għar-rekwiżiti stipulati fit-Taqsima 2 ta’ dan il-Kapitolu jew, kif applikabbli, għall-obbligi stipulati fit-Taqsimiet 2 u 3 tal-Kapitolu V meta jkunu ġew issodisfati l-kundizzjonijiet li ġejjin:
1. La Commissione può adottare atti di esecuzione che stabiliscano specifiche comuni per i requisiti di cui alla sezione 2 del presente capo o, se del caso, per gli obblighi di cui al capo V, sezioni 2 e 3, se sono soddisfatte le condizioni seguenti:
(a)
il-Kummissjoni tkun talbet, skont l-Artikolu 10(1) tar-Regolament (UE) Nru 1025/2012, organizzazzjoni Ewropea tal-istandardizzazzjoni waħda jew aktar biex tabbozza standard armonizzat għar-rekwiżiti stipulati fit-Taqsima 2 ta’ dan il-Kapitolu, jew, kif applikabbli, għall-obbligi stipulati fit-Taqsimiet 2 u 3 tal-Kapitolu V, u:
a)
a norma dell'articolo 10, paragrafo 1, del regolamento (UE) n, 1025/2012, la Commissione ha chiesto a una o più organizzazioni europee di normazione di elaborare una norma armonizzata per i requisiti di cui alla sezione 2 del presente capo, o ove applicabile, per gli obblighi di cui al capo V, sezioni 2 e 3, e:
(i)
it-talba ma tkunx ġiet aċċettata minn ebda waħda mill-organizzazzjonijiet Ewropej tal-istandardizzazzjoni; jew
i)
la richiesta non è stata accettata da nessuna delle organizzazioni europee di normazione; o
(ii)
l-istandards armonizzati li jindirizzaw dik it-talba ma jkunux tfasslu sal-iskadenza stipulata f’konformità mal-Artikolu 10(1) tar-Regolament (UE) 1025/2012; jew
ii)
le norme armonizzate relative a tale richiesta non vengono presentate entro il termine fissato a norma dell'articolo 10, paragrafo 1, del regolamento (UE) n, 1025/2012; o
(iii)
l-istandards armonizzati rilevanti ma jindirizzawx biżżejjed it-tħassib dwar id-drittijiet fundamentali; jew
iii)
le pertinenti norme armonizzate non tengono sufficientemente conto delle preoccupazioni in materia di diritti fondamentali; o
(iv)
l-istandards armonizzati ma jkunux konformi mat-talba; u
iv)
le norme armonizzate non sono conformi alla richiesta; e
(b)
ma tkun ġiet ippubblikata l-ebda referenza għall-istandards armonizzati li jkopru r-rekwiżiti msemmija fit-Taqsima 2 ta’ dan il-Kapitolu jew, kif applikabbli, l-obbligi msemmija fit-Taqsimiet 2 u 3 tal-Kapitolu V, f’Il-Ġurnal Uffiċjali tal-Unjoni Ewropea f’konformità mar-Regolament (UE) 1025/2012 u l-ebda referenza bħal din ma tkun mistennija li tiġi ppubblikata fi żmien raġonevoli.
b)
nessun riferimento a norme armonizzate, che contemplino i requisiti di cui alla sezione 2 del presente capo o, ove applicabile, gli obblighi di cui al capo V, sezioni 2 e 3, è stato pubblicato nella Gazzetta ufficiale dell'Unione europea conformemente al regolamento (UE) n, 1025/2012 e non si prevede che un tale riferimento sia pubblicato entro un termine ragionevole.
Meta tabbozza l-ispeċifikazzjonijiet komuni, il-Kummissjoni għandha tikkonsulta lill-forum konsultattiv imsemmi fl-Artikolu 67.
Nel redigere le specifiche comuni, la Commissione consulta il forum consultivo di cui all'articolo 67.
L-atti ta’ implimentazzjoni msemmija fl-ewwel subparagrafu ta’ dan il-paragrafu għandhom jiġu adottati f’konformità mal-proċedura ta’ eżami msemmija fl-Artikolu 98(2).
Gli atti di esecuzione di cui al primo comma sono adottati secondo la procedura d'esame di cui all'articolo 98, paragrafo 2.
2. Qabel ma tħejji abbozz ta’ att ta’ implimentazzjoni, il-Kummissjoni għandha tinforma lill-kumitat imsemmi fl-Artikolu 22 tar-Regolament (UE) Nru 1025/2012 li hija tqis il-kundizzjonijiet stabbiliti fil-paragrafu 1 ta’ dan l-Artikolu li għandhom jiġu sodisfati.
2. Prima di preparare un progetto di atto di esecuzione, la Commissione informa il comitato di cui all'articolo 22 del regolamento (UE) n, 1025/2012 del fatto che ritiene soddisfatte le condizioni di cui al paragrafo 1 del presente articolo.
3. Is-sistemi tal-IA b’riskju għoli jew il-mudelli tal-IA bi skop ġenerali li jkunu konformi mal-ispeċifikazzjonijiet komuni msemmijin fil-paragrafu 1, jew partijiet minn dawk l-ispeċifikazzjonijiet, għandhom jiġu preżunti li huma konformi mar-rekwiżiti stipulati fit-Taqsima 2 ta’ dan il-Kapitolu jew, kif applikabbli, li huma konformi mal-obbligi msemmija fit-Taqsimiet 2 u 3 tal-Kapitolu V, sa fejn dawk l-ispeċifikazzjonijiet komuni jkopru dawk ir-rekwiżiti jew dawk l-obbligi.
3. I sistemi di IA ad alto rischio o i modelli di IA per finalità generali conformi alle specifiche comuni di cui al paragrafo 1, o a parti di tali specifiche, si presumono conformi ai requisiti di cui alla sezione 2 del presente capo o, ove applicabile, agli obblighi di cui al capo V, sezioni 2 e 3 nella misura in cui tali requisiti o tali obblighi sono contemplati da tali specifiche comuni.
4. Meta jiġi adottat standard armonizzat minn organizzazzjoni Ewropea tal-istandardizzazzjoni u dan jiġi propost lill-Kummissjoni għall-pubblikazzjoni tar-referenza tiegħu f’Il-Ġurnal Uffiċjali tal-Unjoni Ewropea, il-Kummissjoni għandha tivvaluta l-istandard armonizzat f’konformità mar-Regolament (UE) Nru 1025/2012. Meta r-referenza għal standard armonizzat tiġi ppubblikata f’Il-Ġurnal Uffiċjali tal-Unjoni Ewropea, il-Kummissjoni għandha tħassar l-atti ta’ implimentazzjoni msemmija fil-paragrafu 1, jew il-partijiet minnhom li jkopru l-istess rekwiżiti stipulati fit-Taqsima 2 ta’ dan il-Kapitolu jew, kif applikabbli, l-istess obbligi stipulati fit-Taqsimiet 2 u 3 tal-Kapitolu V.
4. Qualora una norma armonizzata sia adottata da un organismo europeo di normazione e proposta alla Commissione per la pubblicazione del suo riferimento nella Gazzetta ufficiale dell'Unione europea, la Commissione valuta la norma armonizzata conformemente al regolamento (UE) n, 1025/2012. Quando un riferimento a una norma armonizzata è pubblicato nella Gazzetta ufficiale dell'Unione europea, la Commissione abroga gli atti di esecuzione di cui al paragrafo 1 o le parti di tali atti che riguardano gli stessi requisiti di cui alla sezione 2 del presente capo o, ove applicabile, gli obblighi di cui al capo V, sezioni 2 e 3.
5. Meta l-fornituri ta’ sistemi tal-IA b’riskju għoli jew ta’ mudelli tal-IA bi skop ġenerali ma jikkonformawx mal-ispeċifikazzjonijiet komuni msemmijin fil-paragrafu 1, huma għandhom jiġġustifikaw kif xieraq li jkunu adottaw soluzzjonijiet tekniċi li jissodisfaw ir-rekwiżiti msemmija fit-Taqsima 2 ta’ dan il-Kapitolu jew, kif applikabbli, li jikkonformaw mal-obbligi stipulati fit-Taqsimiet 2 u 3 tal-Kapitolu V sa livell mill-inqas ekwivalenti għalihom.
5. Qualora non rispettino le specifiche comuni di cui al paragrafo 1, i fornitori di sistemi di IA ad alto rischio o di modelli di IA per finalità generali adottano soluzioni tecniche debitamente motivate che soddisfano i requisiti di cui alla sezione 2 del presente capo o, ove applicabile, gli obblighi di cui al capo V, sezioni 2 e 3, a un livello almeno equivalente.
6. Meta Stat Membru jqis li speċifikazzjoni komuni ma tissodisfax għalkollox ir-rekwiżiti stipulati fit-Taqsima 2 jew, kif applikabbli, li jikkonformaw mal-obbligi stipulati fit-Taqsimiet 2 u 3 tal-Kapitolu V, għandu jinforma lill-Kummissjoni dwar dan bi spjegazzjoni dettaljata. Il-Kummissjoni għandha tivvaluta dik l-informazzjoni u, jekk ikun xieraq, temenda l-att ta’ implimentazzjoni li jistabbilixxi l-ispeċifikazzjoni komuni kkonċernata.
6. Se uno Stato membro ritiene che una specifica comune non soddisfi interamente i requisiti di cui alla sezione 2 o, ove applicabile, non rispetti gli obblighi di cui al capo V, sezioni 2 e 3, ne informa la Commissione fornendo una spiegazione dettagliata. La Commissione valuta tali informazioni e, ove necessario, modifica l'atto di esecuzione che stabilisce la specifica comune interessata.
Artikolu 42
Articolo 42
Preżunzjoni tal-konformità ma’ ċerti rekwiżiti
Presunzione di conformità a determinati requisiti
1. Sistemi tal-IA b’riskju għoli li jkunu ġew imħarrġa u ttestjati fuq data li tirrifletti l-issettjar ġeografiku, komportamentali, kuntestwali jew funzjonali speċifiku li fih ikunu maħsuba li jintużaw għandhom jiġu preżunti li jikkonformaw mar-rekwiżiti rilevanti stabbiliti fl-Artikolu 10(4).
1. I sistemi di IA ad alto rischio che sono stati addestrati e sottoposti a prova con dati che rispecchiano il contesto geografico, comportamentale, contestuale o funzionale specifico all'interno del quale sono destinati a essere usati si presumono conformi ai pertinenti requisiti di cui all'articolo 10, paragrafo 4.
2. Sistemi tal-IA b’riskju għoli li jkunu ġew iċċertifikati jew li għalihom tkun inħarġet dikjarazzjoni ta’ konformità bi skema taċ-ċibersigurtà skont ir-Regolament (UE) 2019/881 u li r-referenzi tagħhom ikunu ġew ippubblikati f’Il-Ġurnal Uffiċjali tal-Unjoni Ewropea għandhom ikunu preżunti li jikkonformaw mar-rekwiżiti dwar iċ-ċibersigurtà stipulati fl-Artikolu 15 ta’ dan ir-Regolament sa fejn iċ-ċertifikat taċ-ċibersigurtà jew id-dikjarazzjoni ta’ konformità jew partijiet minnha jkopru dawk ir-rekwiżiti.
2. I sistemi di IA ad alto rischio che sono stati certificati o per i quali è stata rilasciata una dichiarazione di conformità nell'ambito di un sistema di cibersicurezza a norma del regolamento (UE) 2019/881 e i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea si presumono conformi ai requisiti di cibersicurezza di cui all'articolo 15 del presente regolamento, nella misura in cui tali requisiti siano contemplati nel certificato di cibersicurezza o nella dichiarazione di conformità o in parti di essi.
Artikolu 43
Articolo 43
Valutazzjoni tal-konformità
Valutazione della conformità
1. Għas-sistemi tal-IA b’riskju għoli elenkati fl-Anness III, il-punt 1, jekk meta kien qed juri l-konformità ta’ sistema tal-IA b’riskju għoli mar-rekwiżiti stipulati fit-Taqsima 2, il-fornitur applika standards armonizzati msemmija fl-Artikolu 40 jew, meta applikabbli, l-ispeċifikazzjonijiet komuni msemmija fl-Artikolu 41, il-fornitur għandu jagħżel waħda mill-proċeduri ta’ valutazzjoni tal-konformità li ġejjin abbażi ta’:
1. Per i sistemi di IA ad alto rischio elencati nell'allegato III, punto 1, se ha applicato le norme armonizzate di cui all'articolo 40 o, ove applicabile, le specifiche comuni di cui all'articolo 41, nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui alla sezione 2, il fornitore sceglie una delle seguenti procedure di valutazione della conformità basate sugli elementi qui di seguito:
(a)
il-kontroll intern imsemmi fl-Anness VI; jew
a)
il controllo interno di cui all'allegato VI; oppure
(b)
il-valutazzjoni tas-sistema ta’ ġestjoni tal-kwalità u l-valutazzjoni tad-dokumentazzjoni teknika, bl-involviment ta’ korp notifikat, imsemmija fl-Anness VII.
b)
la valutazione del sistema di gestione della qualità e la valutazione della documentazione tecnica, con il coinvolgimento di un organismo notificato, di cui all'allegato VII.
Meta juri l-konformità ta’ sistema tal-IA b’riskju għoli mar-rekwiżiti stipulati fit-Taqsima 2, il-fornitur għandu jsegwi l-proċedura tal-valutazzjoni tal-konformità stipulata fl-Anness VII fejn:
Nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui alla sezione 2, il fornitore segue la procedura di valutazione della conformità di cui all'allegato VII se:
(a)
ma jeżistux standards armonizzati kif imsemmija fl-Artikolu 40 u l-ispeċifikazzjonijiet komuni msemmija fl-Artikolu 41 ma jkunux disponibbli;
a)
non esistono le norme armonizzate di cui all'articolo 40 e non sono disponibili le specifiche comuni di cui all'articolo 41;
(b)
il-fornitur ma jkunx applika, jew applika biss parti, mill-istandard armonizzat;
b)
il fornitore non ha applicato la norma armonizzata o ne ha applicato solo una parte;
(c)
l-ispeċifikazzjonijiet komuni msemmija fil-punt (a) jkunu jeżistu iżda l-fornitur ma jkunx applikahom;
c)
esistono le specifiche comuni di cui alla lettera a), ma il fornitore non le ha applicate;
(d)
wieħed jew aktar mill-istandards armonizzati msemmija fil-punt (a) ikunu ġew ippubblikati b’restrizzjoni u biss fuq il-parti tal-istandard li kienet ġiet ristretta.
d)
una o più norme armonizzate di cui alla lettera a) sono state pubblicate con una limitazione e soltanto sulla parte della norma che è oggetto di limitazione.
Għall-finijiet tal-proċedura ta’ valutazzjoni tal-konformità msemmija fl-Anness VII, il-fornitur jista’ jagħżel kwalunkwe wieħed mill-korpi notifikati. Madankollu, meta s-sistema tal-IA b’riskju għoli tkun maħsuba biex titqiegħed fis-servizz minn awtoritajiet tal-infurzar tal-liġi, tal-immigrazzjoni jew tal-ażil jew minn istituzzjonijiet, korpi, uffiċċji jew aġenziji tal-Unjoni, l-awtorità tas-sorveljanza tas-suq imsemmija fl-Artikolu 74(8) jew (9), kif applikabbli, għandha taġixxi bħala korp notifikat.
Ai fini della procedura di valutazione della conformità di cui all'allegato VII, il fornitore può scegliere uno qualsiasi degli organismi notificati. Tuttavia, se il sistema di IA ad alto rischio è destinato ad essere messo in servizio dalle autorità competenti in materia di contrasto, di immigrazione o di asilo, nonché da istituzioni, organi o organismi dell'Unione, l'autorità di vigilanza del mercato di cui all'articolo 74, paragrafo 8 o 9, a seconda dei casi, agisce in qualità di organismo notificato.
2. Għas-sistemi tal-IA b’riskju għoli msemmija fl-Anness III, il-punti 2 sa 8, il-fornituri għandhom isegwu l-proċedura tal-valutazzjoni tal-konformità bbażata fuq il-kontroll intern kif imsemmi fl-Anness VI, li ma tipprevedix l-involviment ta’ korp notifikat.
2. Per i sistemi di IA ad alto rischio di cui all'allegato III, punti da 2 a 8, i fornitori seguono la procedura di valutazione della conformità basata sul controllo interno di cui all'allegato VI, che non prevede il coinvolgimento di un organismo notificato.
3. Għal sistemi tal-IA b’riskju għoli koperti bil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fl-Anness I, it-Taqsima A, il-fornitur għandu jsegwi l-proċedura ta’ valutazzjoni tal-konformità rilevanti kif meħtieġ skont dawk l-atti legali. Ir-rekwiżiti stipulati fit-Taqsima 2 ta’ dan il-Kapitolu għandhom japplikaw għal dawk is-sistemi tal-IA b’riskju għoli u għandhom ikunu parti minn dik il-valutazzjoni. Għandhom japplikaw ukoll il-punti 4.3., 4.4., 4.5. u l-ħames paragrafu tal-punt 4.6 tal-Anness VII.
3. Per i sistemi di IA ad alto rischio disciplinati dalla normativa di armonizzazione dell'Unione elencata nell'allegato I, sezione A, il fornitore segue la pertinente procedura di valutazione della conformità prevista da tali atti giuridici. I requisiti di cui alla sezione 2 del presente capo si applicano a tali sistemi di IA ad alto rischio e fanno parte di tale valutazione. Si applicano anche i punti 4.3, 4.4, 4.5 e il punto 4.6, quinto comma, dell'allegato VII.
Għall-finijiet ta’ dik il-valutazzjoni, il-korpi notifikati li jkunu ġew notifikati skont dawk l-atti legali għandhom ikunu intitolati li jikkontrollaw il-konformità tas-sistemi tal-IA b’riskju għoli mar-rekwiżiti stipulati fit-Taqsima 2, dment li l-konformità ta’ dawk il-korpi notifikati mar-rekwiżiti stipulati fl-Artikolu 31(4), (10) u (11) tkun ġiet ivvalutata fil-kuntest tal-proċedura ta’ notifika skont dawk l-atti legali.
Ai fini di tale valutazione, gli organismi notificati che sono stati notificati a norma di tali atti giuridici hanno la facoltà di controllare la conformità dei sistemi di IA ad alto rischio ai requisiti di cui alla sezione 2, a condizione che la conformità di tali organismi notificati ai requisiti di cui all'articolo 31, paragrafi 4, 10 e 11, sia stata valutata nel contesto della procedura di notifica a norma di tali atti giuridici.
Meta att legali elenkat fit-Taqsima A tal-Anness I,, jippermetti li l-manifattur tal-prodott ma jipparteċipax f’valutazzjoni tal-konformità minn parti terza, dment li dak il-manifattur ikun applika l-istandards armonizzati kollha li jkopru r-rekwiżiti rilevanti kollha, dak il-manifattur jista’ juża dik l-opzjoni biss jekk ikun applika wkoll standards armonizzati jew, meta applikabbli, l-ispeċifikazzjonijiet komuni msemmija fl-Artikolu 41, li jkopru r-rekwiżiti kollha stipulati fit-Taqsima 2 ta’ dan il-Kapitolu.
Qualora un atto giuridico elencato nell'allegato I, sezione A, consenta al fabbricante del prodotto di sottrarsi a una valutazione della conformità da parte di terzi, purché abbia applicato tutte le norme armonizzate che contemplano tutti i requisiti pertinenti, tale fabbricante può avvalersi di tale facoltà solo se ha applicato anche le norme armonizzate o, ove applicabili, le specifiche comuni di cui all'articolo 41, che contemplano tutti i requisiti di cui alla sezione 2 del presente capo.
4. Is-sistemi tal-IA b’riskju għoli li diġà ġew soġġetti għal proċedura tal-valutazzjoni tal-konformità għandhom jgħaddu minn proċedura ġdida ta’ valutazzjoni tal-konformità f’każ li ssir modifika sostanzjali, irrispettivament minn jekk is-sistema modifikata tkunx maħsuba li tkompli titqassam jew tkompli tintuża mill-implimentatur attwali.
4. I sistemi di IA ad alto rischio che sono già stati oggetto di una procedura di valutazione della conformità sono sottoposti a una nuova procedura di valutazione della conformità nel caso di una modifica sostanziale, indipendentemente dal fatto che il sistema modificato sia destinato a essere ulteriormente distribuito o continui a essere usato dal deployer attuale.
Għas-sistemi tal-IA b’riskju għoli li jkomplu jitgħallmu wara li jiġu introdotti fis-suq jew jitqiegħdu fis-servizz, il-bidliet fis-sistema tal-IA b’riskju għoli u fil-prestazzjoni tagħha li jkunu ġew determinati minn qabel mill-fornitur waqt il-valutazzjoni inizjali tal-konformità u li jkunu parti mill-informazzjoni li tinsab fid-dokumentazzjoni teknika msemmija fl-Anness IV, il-punt 2(f), m’għandhomx jikkostitwixxu modifika sostanzjali.
Per i sistemi di IA ad alto rischio che proseguono il loro apprendimento dopo essere stati immessi sul mercato o messi in servizio, le modifiche apportate al sistema di IA ad alto rischio e alle sue prestazioni che sono state predeterminate dal fornitore al momento della valutazione iniziale della conformità e fanno parte delle informazioni contenute nella documentazione tecnica di cui all'allegato IV, punto 2, lettera f), non costituiscono una modifica sostanziale.
5. Il-Kummissjoni għandha s-setgħa li tadotta atti delegati f’konformità mal-Artikolu 97 sabiex temenda l-Annessi VI u VII billi taġġornahom fid-dawl tal-progress tekniku.
5. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 97 al fine di modificare gli allegati VI e VII aggiornandoli alla luce del progresso tecnico.
6. Il-Kummissjoni għandha s-setgħa li tadotta atti delegati f’konformità mal-Artikolu 97 sabiex temenda l-paragrafi 1 u 2 ta’ dan l-Artikolu sabiex is-sistemi tal-IA b’riskju għoli msemmija fl-Anness III, il-punti 2 sa 8, jiġu soġġetti għall-proċedura ta’ valutazzjoni tal-konformità msemmija fl-Anness VII jew partijiet minnha. Il-Kummissjoni għandha tadotta tali atti delegati filwaqt li tqis l-effettività tal-proċedura ta’ valutazzjoni tal-konformità abbażi ta’ kontroll intern imsemmi fl-Anness VI fil-prevenzjoni jew fil-minimizzazzjoni tar-riskji għas-saħħa u s-sikurezza u fil-ħarsien tad-drittijiet fundamentali ppreżentati minn tali sistemi kif ukoll id-disponibbiltà ta’ kapaċitajiet u riżorsi adegwati fost il-korpi notifikati.
6. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 97 che modificano i paragrafi 1 e 2 del presente articolo per assoggettare i sistemi di IA ad alto rischio di cui all'allegato III, punti da 2 a 8, alla procedura di valutazione della conformità di cui all'allegato VII o a parti di essa. La Commissione adotta tali atti delegati tenendo conto dell'efficacia della procedura di valutazione della conformità basata sul controllo interno di cui all'allegato VI nel prevenire o ridurre al minimo i rischi per la salute, la sicurezza e la protezione dei diritti fondamentali posti da tali sistemi, nonché della disponibilità di capacità e risorse adeguate tra gli organismi notificati.
Artikolu 44
Articolo 44
Ċertifikati
Certificati
1. Iċ-ċertifikati maħruġa minn korpi notifikati f’konformità mal-Anness VII għandhom jitfasslu b’lingwa li tista’ faċilment tiġi mifhuma mill-awtoritajiet rilevanti fl-Istat Membru li fih ikun stabbilit il-korp notifikat.
1. I certificati rilasciati dagli organismi notificati a norma dell'allegato VII sono redatti in una lingua che può essere facilmente compresa dalle autorità pertinenti dello Stato membro in cui è stabilito l'organismo notificato.
2. Iċ-ċertifikati għandhom ikunu validi għall-perjodu li jindikaw, li ma għandux jaqbeż il-ħames snin għas-sistemi tal-IA koperti mill-Anness I u erba’ snin għas-sistemi tal-IA koperti mill-Anness III. Fuq talba tal-fornitur, il-validità ta’ ċertifikat tista’ tiġi estiża għal perjodi ulterjuri, li kull wieħed minnhom ma jaqbiżx il-ħames snin għas-sistemi tal-IA koperti mill-Anness I u erba’ snin għal sistemi tal-IA koperti mill-Anness III, abbażi ta’ valutazzjoni mill-ġdid f’konformità mal-proċeduri ta’ valutazzjoni tal-konformità applikabbli. Kwalunkwe suppliment ma’ ċertifikat għandu jibqa’ validu dment li jkun validu ċ-ċertifikat li jissupplimenta.
2. I certificati sono validi per il periodo da essi indicato che non supera i cinque anni per i sistemi di IA disciplinati dall'allegato I e i quattro anni per i sistemi di IA disciplinati dall'allegato III. Su domanda del fornitore, la validità di un certificato può essere prorogata per ulteriori periodi, ciascuno non superiore a cinque anni per i sistemi di IA disciplinati dall'allegato I e a quattro anni per i sistemi di IA disciplinati dall'allegato III, sulla base di una nuova valutazione secondo le procedure di valutazione della conformità applicabili. Ogni supplemento del certificato rimane valido purché sia valido il certificato cui si riferisce.
3. Meta korp notifikat isib li sistema tal-IA m’għadhiex tissodisfa r-rekwiżiti stipulati fit-Taqsima 2, filwaqt li jqis il-prinċipju tal-proporzjonalità għandu jissospendi jew jirtira ċ-ċertifikat maħruġ jew jimponi restrizzjonijiet fuqha, sakemm ma tkunx żgurata l-konformità ma’ dawk ir-rekwiżiti b’azzjoni korrettiva xierqa meħuda mill-fornitur tas-sistema sa data tal-iskadenza xierqa stabbilita mill-korp notifikat. Il-korp notifikat għandu jagħti r-raġunijiet għad-deċiżjoni tiegħu.
3. Qualora constati che il sistema di IA non soddisfa più i requisiti di cui alla sezione 2, l'organismo notificato, tenendo conto del principio di proporzionalità, sospende o ritira il certificato rilasciato o impone limitazioni, a meno che la conformità a tali requisiti sia garantita mediante opportune misure correttive adottate dal fornitore del sistema entro un termine adeguato stabilito dall'organismo notificato. L'organismo notificato motiva la propria decisione.
Għandha tkun disponibbli proċedura ta’ appell kontra d-deċiżjonijiet tal-korpi notifikati, inkluż dwar ċertifikati ta’ konformità maħruġa.
È disponibile una procedura di ricorso contro le decisioni degli organismi notificati, anche sui certificati di conformità rilasciati.
Artikolu 45
Articolo 45
Obbligi tal-informazzjoni tal-korpi notifikati
Obblighi di informazione degli organismi notificati
1. Il-korpi notifikati għandhom jinformaw lill-awtorità tan-notifika b’li ġej:
1. Gli organismi notificati informano l'autorità di notifica in merito a quanto segue:
(a)
kwalunkwe ċertifikat tal-valutazzjoni tad-dokumentazzjoni teknika tal-Unjoni, kwalunkwe suppliment għal dawk iċ-ċertifikati, u kwalunkwe approvazzjoni tas-sistema ta’ ġestjoni tal-kwalità maħruġa f’konformità mar-rekwiżiti tal-Anness VII;
a)
i certificati di valutazione della documentazione tecnica dell'Unione, i supplementi a tali certificati e le approvazioni dei sistemi di gestione della qualità rilasciati in conformità dei requisiti dell'allegato VII;
(b)
kwalunkwe rifjut, restrizzjoni, sospensjoni jew irtirar ta’ ċertifikat tal-valutazzjoni tad-dokumentazzjoni teknika tal-Unjoni jew approvazzjoni tas-sistema ta’ ġestjoni tal-kwalità maħruġa f’konformità mar-rekwiżiti tal-Anness VII;
b)
qualsiasi rifiuto, limitazione, sospensione o ritiro di un certificato di valutazione della documentazione tecnica dell'Unione o un'approvazione del sistema di gestione della qualità rilasciati in conformità dei requisiti dell'allegato VII;
(c)
kull ċirkostanza li taffettwa l-kamp ta’ applikazzjoni tan-notifika jew l-kundizzjonijiet tagħha;
c)
qualsiasi circostanza che influisca sull'ambito o sulle condizioni della notifica;
(d)
kwalunkwe talba għal informazzjoni li jkunu rċevew mingħand l-awtoritajiet tas-sorveljanza tas-suq rigward attivitajiet ta’ valutazzjoni tal-konformità;
d)
qualsiasi richiesta di informazioni che abbiano ricevuto dalle autorità di vigilanza del mercato, in relazione ad attività di valutazione della conformità;
(e)
meta mitluba, l-attivitajiet ta’ valutazzjoni tal-konformità mwettqa fil-ambitu tan-notifika tagħhom u kwalunkwe attività oħra mwettqa, inkluż attivitajiet transfruntieri u sottokuntrattar.
e)
su richiesta, le attività di valutazione della conformità effettuate nell'ambito della loro notifica e qualsiasi altra attività, incluse quelle transfrontaliere e il subappalto.
2. Kull korp notifikat għandu jinforma lill-korpi notifikati l-oħra dwar:
2. Ciascun organismo notificato informa gli altri organismi notificati in merito a quanto segue:
(a)
approvazzjonijiet tas-sistema ta’ ġestjoni tal-kwalità li jkun irrifjuta, issospenda jew irtira, u, meta jintalab, dwar l-approvazzjonijiet tas-sistema tal-kwalità li jkun ħareġ;
a)
le approvazioni dei sistemi di gestione della qualità da esso rifiutate, sospese o ritirate e, su richiesta, le approvazioni dei sistemi di qualità da esso rilasciate;
(b)
ċertifikati ta’ valutazzjoni tad-dokumentazzjoni teknika tal-Unjoni jew kwalunkwe suppliment għalihom li jkun irrifjuta, irtira, issospenda jew irrestrinġa b’xi mod ieħor, u, fuq talba, ċertifikati u/jew supplimenti tagħhom li jkun ħareġ.
b)
i certificati di valutazione della documentazione tecnica dell'Unione o i relativi supplementi da esso rifiutati, ritirati, sospesi o altrimenti limitati e, su richiesta, i certificati e/o i relativi supplementi da esso rilasciati.
3. Kull korp notifikat għandu jipprovdi lill-korpi notifikati l-oħra li jwettqu attivitajiet simili ta’ valutazzjoni tal-konformità li jkopru l-istess tipi ta’ sistemi tal-IA bl-informazzjoni rilevanti dwar kwistjonijiet relatati ma’ riżultati ta’ valutazzjoni tal-konformità negattivi u, fuq talba, dawk pożittivi.
3. Ciascun organismo notificato fornisce agli altri organismi notificati che svolgono attività simili di valutazione della conformità riguardanti gli stessi tipi di sistemi di IA informazioni pertinenti su questioni relative ai risultati negativi e, su richiesta, positivi della valutazione della conformità.
4. ’Il-korpi notifikati għandhom jissalvagwardaw il-kunfidenzjalità tal-informazzjoni li huma jiksbu, f’konformità mal-Artikolu 78.
4. Gli organismi notificati tutelano la riservatezza delle informazioni che ottengono in conformità dell'articolo 78.
Artikolu 46
Articolo 46
Deroga mill-proċedura ta’ valutazzjoni tal-konformità
Deroga alla procedura di valutazione della conformità
1. B’deroga mill-Artikolu 43 u fuq talba debitament ġustifikata, kwalunkwe awtorità tas-sorveljanza tas-suq tista’ tawtorizza l-introduzzjoni fis-suq jew it-tqegħid fis-servizz ta’ sistemi tal-IA b’riskju għoli speċifiċi fit-territorju tal-Istat Membru kkonċernat, għal raġunijiet eċċezzjonali ta’ sigurtà pubblika jew il-protezzjoni tal-ħajja u tas-saħħa tal-persuni, għall-ħarsien tal-ambjent jew għall-protezzjoni ta’ assi industrijali u infrastrutturali ewlenin. Dik l-awtorizzazzjoni għandha tkun għal perjodu limitat waqt li jkunu qed isiru l-proċeduri ta’ valutazzjoni tal-konformità meħtieġa, filwaqt li jitqiesu r-raġunijiet eċċezzjonali li jiġġustifikaw id-deroga. It-tlestija ta’ dawk il-proċeduri għandha ssir mingħajr dewmien żejjed.
1. In deroga all'articolo 43 e su richiesta debitamente giustificata, qualsiasi autorità di vigilanza del mercato può autorizzare l'immissione sul mercato o la messa in servizio di specifici sistemi di IA ad alto rischio nel territorio dello Stato membro interessato, per motivi eccezionali di sicurezza pubblica o di protezione della vita e della salute delle persone e di protezione dell'ambiente o dei principali beni industriali e infrastrutturali. Tale autorizzazione è valida per un periodo limitato, mentre sono in corso le necessarie procedure di valutazione della conformità, tenendo conto dei motivi eccezionali che giustificano la deroga. Il completamento di tali procedure è effettuato senza indebito ritardo.
2. F’sitwazzjoni ta’ urġenza debitament ġustifikata għal raġunijiet eċċezzjonali ta’ sigurtà pubblika jew fil-każ ta’ theddida speċifika, sostanzjali u imminenti għall-ħajja jew għas-sikurezza fiżika ta’ persuni fiżiċi, l-awtoritajiet tal-infurzar tal-liġi jew l-awtoritajiet tal-protezzjoni ċivili jistgħu jqiegħdu fis-servizz sistema speċifika tal-IA b’riskju għoli mingħajr l-awtorizzazzjoni msemmija fil-paragrafu 1 dment li tali awtorizzazzjoni tintalab matul jew wara l-użu mingħajr dewmien żejjed. Jekk l-awtorizzazzjoni msemmija fil-paragrafu 1 tiġi rrifjutata, l-użu tas-sistema tal-IA b’riskju għoli għandu jitwaqqaf b’effett immedjat u r-riżultati u l-outputs kollha ta’ dan l-użu għandhom jiġu skartati minnufih.
2. In una situazione di urgenza debitamente giustificata per motivi eccezionali di sicurezza pubblica o in caso di minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone fisiche, le autorità di contrasto o le autorità di protezione civile possono mettere in servizio uno specifico sistema di IA ad alto rischio senza l'autorizzazione di cui al paragrafo 1, a condizione che tale autorizzazione sia richiesta durante o dopo l'uso senza indebito ritardo. Se l'autorizzazione di cui al paragrafo 1 è rifiutata, l'uso del sistema di IA ad alto rischio è interrotto con effetto immediato e tutti i risultati e gli output di tale uso sono immediatamente eliminati.
3. L-awtorizzazzjoni msemmija fil-paragrafu 1 għandha tinħareġ biss jekk l-awtorità tas-sorveljanza tas-suq tikkonkludi li s-sistema tal-IA b’riskju għoli tikkonforma mar-rekwiżiti tat-Taqsima 2. L-awtorità tas-sorveljanza tas-suq għandha tinforma lill-Kummissjoni u lill-Istati Membri l-oħra dwar kwalunkwe awtorizzazzjoni maħruġa skont il-paragrafi 1 u 2. Dan l-obbligu ma għandux ikopri data operazzjonali sensittiva marbuta mal-attivitajiet tal-awtoritajiet tal-infurzar tal-liġi.
3. L'autorizzazione di cui al paragrafo 1 è rilasciata solo se l'autorità di vigilanza del mercato conclude che il sistema di IA ad alto rischio è conforme ai requisiti di cui alla sezione 2. L'autorità di vigilanza del mercato informa la Commissione e gli altri Stati membri di eventuali autorizzazioni rilasciate a norma dei paragrafi 1 e 2. Tale obbligo non riguarda i dati operativi sensibili in relazione alle attività delle autorità di contrasto.
4. Jekk, fi żmien 15-il jum tal-kalendarju minn meta tasal l-informazzjoni msemmija fil-paragrafu 3, ma tkun saret l-ebda oġġezzjoni minn xi Stat Membru jew mill-Kummissjoni rigward awtorizzazzjoni maħruġa minn awtorità tas-sorveljanza tas-suq ta’ Stat Membru f’konformità mal-paragrafu 1, dik l-awtorizzazzjoni għandha titqies iġġustifikata.
4. Se, entro 15 giorni di calendario dal ricevimento dell'informazione di cui al paragrafo 3, né gli Stati membri né la Commissione sollevano obiezioni in merito a un'autorizzazione rilasciata da un'autorità di vigilanza del mercato di uno Stato membro in conformità del paragrafo 1, tale autorizzazione è considerata giustificata.
5. Meta, fi żmien 15-il jum kalendarju minn meta tasal in-notifika msemmija fil-paragrafu 3, jitqajmu oġġezzjonijiet minn Stat Membru kontra awtorizzazzjoni maħruġa minn awtorità tas-sorveljanza tas-suq ta’ Stat Membru ieħor, jew meta l-Kummissjoni tqis li l-awtorizzazzjoni tmur kontra d-dritt tal-Unjoni jew il-konklużjoni tal-Istati Membri fir-rigward tal-konformità tas-sistema kif imsemmija fil-paragrafu 3 tkun bla bażi valida, il-Kummissjoni għandha, mingħajr dewmien, tidħol f’konsultazzjonijiet mal-Istat Membru rilevanti. L-operaturi kkonċernati għandhom jiġu kkonsultati u jkollhom il-possibbiltà li jippreżentaw il-fehmiet tagħhom. B’kunsiderazzjoni ta’ dan, il-Kummissjoni għandha tiddeċiedi jekk l-awtorizzazzjoni hix iġġustifikata jew le. Il-Kummissjoni għandha tindirizza d-deċiżjoni tagħha lill-Istat Membru kkonċernat u lill-operaturi rilevanti.
5. Se, entro 15 giorni di calendario dal ricevimento della notifica di cui al paragrafo 3, uno Stato membro solleva obiezioni in merito a un'autorizzazione rilasciata da un'autorità di vigilanza del mercato di un altro Stato membro, o se la Commissione ritiene che l'autorizzazione sia contraria al diritto dell'Unione o che la conclusione degli Stati membri riguardante la conformità del sistema di cui al paragrafo 3 sia infondata, la Commissione avvia senza ritardo consultazioni con lo Stato membro interessato. Gli operatori interessati sono consultati e hanno la possibilità di esprimere il loro parere. Tenuto conto di ciò, la Commissione decide se l'autorizzazione è giustificata. La Commissione trasmette la propria decisione allo Stato membro interessato e agli operatori pertinenti.
6. Meta l-Kummissjoni tqis li l-awtorizzazzjoni mhix iġġustifikata, din għandha tiġi rtirata mill-awtorità tas-sorveljanza tas-suq tal-Istat Membru kkonċernat.
6. Se la Commissione ritiene l'autorizzazione ingiustificata, essa è ritirata dall'autorità di vigilanza del mercato dello Stato membro interessato.
7. Għas-sistemi tal-IA b’riskju għoli relatati ma’ prodotti koperti mil-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni elenkata fl-Anness I, it-Taqsima A, għandhom japplikaw biss id-derogi mill-valutazzjoni tal-konformità stabbiliti f’dik il-leġiżlazzjoni tal-Unjoni dwar l-armonizzazzjoni.
7. Per i sistemi di IA ad alto rischio relativi a prodotti disciplinati dalla normativa di armonizzazione dell'Unione elencata nell'allegato I, sezione A, si applicano solo le deroghe alla valutazione della conformità stabilite in tale normativa di armonizzazione dell'Unione.
Artikolu 47
Articolo 47
Dikjarazzjoni tal-konformità tal-UE
Dichiarazione di conformità UE