Euroopan unionin
virallinen lehti
FI
Официален вестник
на Европейския съюз
BG
EUROOPAN PARLAMENTIN JA NEUVOSTON ASETUS (EU) 2024/1689,
РЕГЛАМЕНТ (ЕС) 2024/1689 НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ И НА СЪВЕТА
annettu 13 päivänä kesäkuuta 2024,
tekoälyä koskevista yhdenmukaistetuista säännöistä ja asetusten (EY) N:o 300/2008, (EU) N:o 167/2013, (EU) N:o 168/2013, (EU) 2018/858, (EU) 2018/1139 ja (EU) 2019/2144 sekä direktiivien 2014/90/EU, (EU) 2016/797 ja (EU) 2020/1828 muuttamisesta (tekoälysäädös)
за установяване на хармонизирани правила относно изкуствения интелект и за изменение на регламенти (ЕО) № 300/2008, (ЕС) № 167/2013, (ЕС) № 168/2013, (ЕС) 2018/858, (ЕС) 2018/1139 и (ЕС) 2019/2144 и директиви 2014/90/ЕС, (ЕС) 2016/797 и (ЕС) 2020/1828 (Акт за изкуствения интелект)
(ETA:n kannalta merkityksellinen teksti)
(текст от значение за ЕИП)
EUROOPAN PARLAMENTTI JA EUROOPAN UNIONIN NEUVOSTO, jotka
ЕВРОПЕЙСКИЯТ ПАРЛАМЕНТ И СЪВЕТЪТ НА ЕВРОПЕЙСКИЯ СЪЮЗ,
ottavat huomioon Euroopan unionin toiminnasta tehdyn sopimuksen ja erityisesti sen 16 ja 114 artiklan,
като взеха предвид Договора за функционирането на Европейския съюз, и по-специално членове 16 и 114 от него,
ottavat huomioon Euroopan komission ehdotuksen,
като взеха предвид предложението на Европейската комисия,
sen jälkeen kun esitys lainsäätämisjärjestyksessä hyväksyttäväksi säädökseksi on toimitettu kansallisille parlamenteille,
след предаване на проекта на законодателния акт на националните парламенти,
ottavat huomioon Euroopan talous- ja sosiaalikomitean lausunnon (1),
като взеха предвид становището на Европейския икономически и социален комитет (1),
ottavat huomioon Euroopan keskuspankin lausunnon (2),
като взеха предвид становището на Европейската централна банка (2),
ottavat huomioon alueiden komitean lausunnon (3),
като взеха предвид становището на Комитета на регионите (3),
noudattavat tavallista lainsäätämisjärjestystä (4),
в съответствие с обикновената законодателна процедура (4),
(1)
Tämän asetuksen tarkoituksena on parantaa sisämarkkinoiden toimintaa vahvistamalla yhtenäinen oikeudellinen kehys erityisesti unionin arvojen mukaiselle tekoälyjärjestelmien kehittämiselle, markkinoille saattamiselle, käyttöönotolle ja käytölle unionissa, edistää ihmiskeskeisen ja luotettavan tekoälyn käyttöönottoa varmistaen samalla Euroopan unionin perusoikeuskirjassa, jäljempänä ”perusoikeuskirja”, vahvistettu terveyden, turvallisuuden ja perusoikeuksien, mukaan lukien demokratia, oikeusvaltio ja ympäristönsuojelu, suojelun korkea taso, suojautua tekoälyjärjestelmien haitallisilta vaikutuksilta unionissa sekä tukea innovointia. Tällä asetuksella varmistetaan tekoälyyn perustuvien tavaroiden ja palvelujen vapaa liikkuvuus rajojen yli, mikä estää jäsenvaltioita asettamasta tekoälyjärjestelmien kehittämistä, markkinoille saattamista ja käyttöä koskevia rajoituksia, ellei sitä nimenomaisesti sallita tällä asetuksella.
(1)
Целта на настоящия регламент е да се подобри функционирането на вътрешния пазар чрез установяване на единна правна рамка, по-специално за разработването, пускането на пазара, пускането в действие и използването на системи с изкуствен интелект (наричани по-долу „системи с ИИ“) в Съюза, в съответствие с ценностите на Съюза, да се насърчи навлизането на ориентиран към човека и надежден изкуствен интелект (ИИ), като същевременно се гарантира високо равнище на защита на здравето, безопасността и основните права, залегнали в Хартата на основните права на Европейския съюз (наричана по-долу „Хартата“), включително демокрацията, принципите на правовата държава и опазването на околната среда, да се осигури защита срещу вредните последици от системите с ИИ в Съюза и да се подкрепят иновациите. С настоящия регламент се гарантира свободното трансгранично движение на стоки и услуги, основани на ИИ, като по този начин не се допуска държавите членки да налагат ограничения върху разработването, предлагането на пазара и използването на системи с ИИ, освен ако това не е изрично разрешено с настоящия регламент.
(2)
Tätä asetusta olisi sovellettava perusoikeuskirjassa vahvistettujen unionin arvojen mukaisesti, mikä helpottaa luonnollisten henkilöiden, yritysten, demokratian ja oikeusvaltion sekä ympäristön suojelua ja samalla edistää innovointia ja työllisyyttä sekä varmistaa unionin johtoaseman luotettavan tekoälyn käyttöönotossa.
(2)
Настоящият регламент следва да се прилага в съответствие с ценностите на Съюза, залегнали в Хартата, като се улеснява защитата на физическите лица, предприятията, демокрацията, принципите на правовата държава и опазването на околната среда и същевременно се насърчават иновациите и заетостта и се спомага за превръщането на Съюза в лидер във възприемането на надежден ИИ.
(3)
Tekoälyjärjestelmiä voidaan ottaa helposti käyttöön monilla eri talouden ja yhteiskunnan aloilla, myös rajojen yli, ja ne voivat liikkua helposti kaikkialla unionissa. Eräät jäsenvaltiot ovat jo harkinneet kansallisten sääntöjen hyväksymistä sen varmistamiseksi, että tekoäly on luotettavaa ja turvallista ja että sitä kehitetään ja käytetään perusoikeuksia koskevien velvoitteiden mukaisesti. Toisistaan poikkeavat kansalliset säännöt voivat johtaa sisämarkkinoiden pirstoutumiseen ja heikentää tekoälyjärjestelmiä kehittävien, maahantuovien tai käyttävien toimijoiden oikeusvarmuutta. Sen vuoksi olisi varmistettava suojelun yhdenmukainen ja korkea taso koko unionissa, jotta tekoäly saadaan toimimaan luotettavasti, ja samalla estettävä erot, jotka haittaavat tekoälyjärjestelmien ja niihin liittyvien tuotteiden ja palvelujen vapaata liikkuvuutta, innovointia ja käyttöönottoa sisämarkkinoilla, vahvistamalla yhdenmukaiset velvoitteet toimijoille ja takaamalla yleiseen etuun liittyvien pakottavien syiden ja henkilöiden oikeuksien yhdenmukainen suojelu koko sisämarkkinoilla Euroopan unionin toiminnasta tehdyn sopimuksen 114 artiklan mukaisesti. Siltä osin kuin tämä asetus sisältää yksilöiden suojelua henkilötietojen käsittelyssä koskevia erityissääntöjä, joilla rajoitetaan tekoälyjärjestelmien lainvalvontatarkoituksessa tapahtuvaa käyttöä biometristä etätunnistusta, luonnollisia henkilöitä koskevia riskinarviointeja ja biometristä luokittelua varten, tämä asetus on aiheellista perustaa kyseisten erityissääntöjen osalta Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklaan. Kun otetaan huomioon nämä erityissäännöt ja Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklan käyttö, on aiheellista kuulla Euroopan tietosuojaneuvostoa.
(3)
Системите с ИИ могат лесно да бъдат внедрени в най-различни сектори на икономиката и в много сфери на обществото, включително в трансграничен план, и да се ползват от свободно движение в целия Съюз. Някои държави членки вече са проучили възможността за приемане на национални правила, за да гарантират, че ИИ е надежден и безопасен и се разработва и използва в съответствие със задълженията, свързани с основните права. Различаващите се национални правила могат да доведат до разпокъсаност на вътрешния пазар и да намалят правната сигурност за операторите, които разработват, внасят или използват системи с ИИ. Ето защо, с цел да се осигури надежден ИИ, следва да се гарантира последователно и високо равнище на защита в целия Съюз, като същевременно се предотвратят различията, възпрепятстващи свободното движение, иновациите, внедряването и възприемането в рамките на вътрешния пазар на системи с ИИ и свързани с тях продукти и услуги, като за целта се предвидят еднакви задължения за операторите и се гарантира еднаква защита на императивните съображения от обществен интерес и на правата на лицата в рамките на целия вътрешен пазар на основание член 114 от Договора за функционирането на Европейския съюз (ДФЕС). Доколкото настоящият регламент съдържа специални правила за защита на физическите лица по отношение на обработването на лични данни във връзка с ограниченията за използването на системи с ИИ за дистанционна биометрична идентификация за правоохранителни цели, за използването на системи с ИИ за оценка на риска за физическите лица за правоохранителни цели и за използването на системи с ИИ за биометрично категоризиране за правоохранителни цели, е целесъобразно правното основание на настоящия регламент, във връзка с тези специални правила, да бъде член 16 ДФЕС. С оглед на тези специални правила и защитата съгласно член 16 ДФЕС е целесъобразно да се проведе консултация с Европейския комитет по защита на данните.
(4)
Tekoäly on nopeasti kehittyvä teknologiakokonaisuus, joka tuottaa monenlaisia taloudellisia, ympäristöön liittyviä ja yhteiskunnallisia hyötyjä kaikilla teollisuudenaloilla ja kaikessa sosiaalisessa toiminnassa. Tekoälyn käyttö voi tarjota yrityksille keskeisiä kilpailuetuja ja tukea yhteiskunnallisesti ja ympäristön kannalta suotuisia tuloksia esimerkiksi terveydenhuollon, maatalouden, elintarviketurvallisuuden, koulutuksen, tiedotusvälineiden, urheilun, kulttuurin, infrastruktuurin hallinnan, energian, liikenteen ja logistiikan, julkisten palvelujen, turvallisuuden, oikeuden, resurssi- ja energiatehokkuuden, ympäristönseurannan, luonnon monimuotoisuuden ja ekosysteemien säilyttämisen ja ennallistamisen sekä ilmastonmuutoksen hillitsemisen ja siihen sopeutumisen aloilla parantamalla ennakointia, optimoimalla toimintoja ja resurssien kohdentamista ja räätälöimällä yksilöille ja organisaatioille tarjolla olevia digitaalisia ratkaisuja.
(4)
ИИ е бързо развиваща се съвкупност от технологии, които допринасят за извличането на множество икономически, екологични и обществени ползи по протежение на целия спектър от стопански сектори и социални дейности. Като подобрява прогнозирането, оптимизира операциите и разпределянето на ресурсите и персонализира цифровите решения, които са на разположение на физическите лица и организациите, използването на ИИ може да осигури ключови конкурентни предимства за предприятията и да спомогне за постигането на социално и екологично благоприятни резултати, например в областта на здравеопазването, селското стопанство, безопасността на храните, образованието и обучението, медиите, спорта, културата, управлението на инфраструктурата, енергетиката, транспорта и логистиката, публичните услуги, сигурността, правосъдието, ресурсната и енергийната ефективност, мониторинга на околната среда, опазването и възстановяването на биоразнообразието и екосистемите, както и смекчаването на последиците от изменението на климата и адаптирането към него.
(5)
Samaan aikaan tekoäly voi sen erityiseen sovellukseen, käyttöön ja teknologisen kehityksen asteeseen liittyvistä olosuhteista riippuen aiheuttaa riskejä ja vahingoittaa unionin oikeudella suojattuja yleisiä etuja ja perusoikeuksia. Tällainen vahinko voi olla aineellista tai aineetonta, kuten fyysistä, psykologista, yhteiskunnallista tai taloudellista vahinkoa.
(5)
Същевременно, в зависимост от обстоятелствата по отношение на конкретното му приложение, използване и равнище на технологично развитие, ИИ може да доведе до рискове и да накърни обществените интереси и основните права, защитени от правото на Съюза. Тези вреди могат да бъдат имуществени или неимуществени, включително физически, психически, обществени или икономически.
(6)
Kun otetaan huomioon, että tekoälyllä voi olla merkittävä vaikutus yhteiskuntaan ja että on tarpeen rakentaa luottamusta, on erittäin tärkeää, että tekoälyä ja sen sääntelykehystä kehitetään Euroopan unionista tehdyn sopimuksen, jäljempänä ”SEU-sopimus”, 2 artiklassa vahvistettujen unionin arvojen, perussopimuksissa vahvistettujen perusoikeuksien ja -vapauksien sekä SEU-sopimuksen 6 artiklan nojalla perusoikeuskirjan mukaisesti. Tekoälyn ennakkoehtona olisi oltava teknologian ihmiskeskeisyys. Ihmisten olisi voitava käyttää sitä välineenä, jonka perimmäisenä tavoitteena on lisätä heidän hyvinvointiaan.
(6)
Предвид значителното въздействие, което ИИ може да окаже върху обществото, и необходимостта от изграждане на доверие, е от жизненоважно значение ИИ и неговата регулаторна рамка да бъдат разработени в съответствие с ценностите на Съюза, залегнали в член 2 от Договора за Европейския съюз (ДЕС), и основните права и свободи, залегнали в Договорите и, съгласно член 6 ДЕС, в Хартата. Като предварително условие ИИ следва да бъде технология, ориентирана към човека. Той следва да служи като инструмент за хората, като крайната цел е да се повиши тяхното благосъстояние.
(7)
Jotta voidaan varmistaa terveyteen, turvallisuuteen ja perusoikeuksiin liittyvien yleisten etujen suojelun yhdenmukainen ja korkea taso, suuririskisille tekoälyjärjestelmille olisi vahvistettava yhteiset säännöt. Näiden sääntöjen olisi oltava perusoikeuskirjan mukaisia, syrjimättömiä ja yhteensopivia unionin kansainvälisten kauppasitoumusten kanssa. Niissä olisi myös otettava huomioon eurooppalainen julistus digitaalisen vuosikymmenen digitaalisista oikeuksista ja periaatteista ja tekoälyä käsittelevän korkean tason asiantuntijaryhmän luotettavaa tekoälyä koskevat eettiset ohjeet.
(7)
За да се гарантира последователно и високо равнище на защита на обществените интереси по отношение на здравето, безопасността и основните права, следва да бъдат установени общи правила за високорисковите системи с ИИ. Тези правила следва да бъдат в съответствие с Хартата, да бъдат недискриминационни и да са в съответствие с международните търговски ангажименти на Съюза. Освен това те следва да са съобразени с Европейската декларация относно цифровите права и принципи за цифровото десетилетие и Насоките относно етичните аспекти за надежден ИИ на експертната група на високо равнище по въпросите на изкуствения интелект (ЕГВР ИИ).
(8)
Sen vuoksi tarvitaan unionin oikeudellinen kehys, jossa vahvistetaan tekoälyä koskevat yhdenmukaistetut säännöt, jotta voidaan edistää tekoälyn kehittämistä, käyttöä ja käyttöönottoa sisämarkkinoilla ja samalla taata unionin oikeudessa tunnustettujen ja suojattujen yleisten etujen, kuten terveyden ja turvallisuuden, sekä perusoikeuksien, kuten demokratian, oikeusvaltion ja ympäristön, suojelun korkea taso. Tämän tavoitteen saavuttamiseksi olisi vahvistettava säännöt, joilla säännellään tiettyjen tekoälyjärjestelmien markkinoille saattamista, käyttöönottoa ja käyttöä ja varmistetaan siten sisämarkkinoiden moitteeton toiminta ja annetaan kyseisille järjestelmille mahdollisuus hyötyä tavaroiden ja palvelujen vapaan liikkuvuuden periaatteesta. Näiden sääntöjen olisi oltava selkeitä. Niiden olisi suojeltava hyvin perusoikeuksia, tuettava uusia innovatiivisia ratkaisuja ja mahdollistettava unionin arvojen mukaisia tekoälyjärjestelmiä kehittävien julkisten ja yksityisten toimijoiden eurooppalainen ekosysteemi. Niiden avulla olisi voitava hyödyntää digitalisaation mahdollisuuksia kaikilla unionin alueilla. Vahvistamalla kyseiset säännöt sekä innovointia tukevat toimenpiteet, joissa keskitytään erityisesti pk-yrityksiin, startup-yritykset mukaan luettuna, tällä asetuksella tuetaan Eurooppa-neuvoston asettamaa tavoitetta, jonka mukaan edistetään eurooppalaista ihmiskeskeistä tekoälyä ja unionin olisi oltava globaali edelläkävijä turvallisen, luotettavan ja eettisen tekoälyn kehittämisessä (5), ja varmistetaan eettisten periaatteiden suojelu, kuten Euroopan parlamentti on erityisesti pyytänyt (6).
(8)
Поради това е необходима правна рамка на Съюза, с която да се установят хармонизирани правила относно ИИ, за да се насърчи разработването, използването и навлизането на ИИ на вътрешния пазар, и която същевременно да осигурява високо равнище на защита на обществените интереси, например здравето и безопасността, и защитата на основните права, включително демокрацията, принципите на правовата държава и опазването на околната среда, признати и защитени от правото на Съюза. За постигането на тази цел следва да бъдат установени правила, уреждащи пускането на пазара, пускането в действие и използването на някои системи с ИИ, и по този начин да се гарантира безпрепятственото функциониране на вътрешния пазар и да се даде възможност на тези системи да се ползват от принципа на свободно движение на стоки и услуги. Тези правила следва да бъдат ясни и надеждни по отношение на защитата на основните права, да благоприятстват нови иновативни решения и да дават възможност за изграждане на европейска екосистема от публични и частни участници, които да създават системи с ИИ в съответствие с ценностите на Съюза и да отключват потенциала на цифровата трансформация във всички региони на Съюза. С установяването на такива правила, както и на мерки в подкрепа на иновациите с отделяне на специално внимание на малките и средните предприятия (МСП), включително новосъздадените предприятия, настоящият регламент подкрепя целта за насърчаване на европейския подход към ИИ, ориентиран към човека, и целта на Съюза да бъде световен лидер в разработването на сигурен, надежден и етичен ИИ, както бе посочено от Европейския съвет (5), и гарантира защитата на етичните принципи, както изрично бе поискано от Европейския парламент (6).
(9)
Suuririskisten tekoälyjärjestelmien markkinoille saattamiseen, käyttöönottoon ja käyttöön sovellettavat yhdenmukaistetut säännöt olisi vahvistettava johdonmukaisesti Euroopan parlamentin ja neuvoston asetuksen (EY) N:o 765/2008 (7), Euroopan parlamentin ja neuvoston päätöksen N:o 768/2008/EY (8) sekä Euroopan parlamentin ja neuvoston asetuksen (EU) 2019/1020 (9), jäljempänä ”uusi lainsäädäntökehys”, kanssa. Tässä asetuksessa säädettyjä yhdenmukaistettuja sääntöjä olisi sovellettava kaikilla aloilla, ja uuden lainsäädäntökehyksen mukaisesti säännöt eivät saisi rajoittaa olemassa olevaa unionin oikeutta, joka koskee erityisesti tietosuojaa, kuluttajansuojaa, perusoikeuksia, työllisyyttä ja työntekijöiden suojelua sekä tuoteturvallisuutta ja jota tällä asetuksella täydennetään. Näin ollen kaikki tällaisessa unionin oikeudessa vahvistetut oikeudet ja oikeussuojakeinot kuluttajille ja muille henkilöille, joihin tekoälyjärjestelmillä voi olla kielteinen vaikutus, mukaan lukien neuvoston direktiivin 85/374/ETY (10) mukainen mahdollisten vahinkojen korvaaminen, säilyvät muuttumattomina ja niitä sovelletaan täysimääräisesti. Tämä asetus ei sen vuoksi saisi työllisyyden ja työntekijöiden suojelun aloilla vaikuttaa sosiaalipolitiikkaa koskevaan unionin oikeuteen eikä unionin oikeuden mukaiseen kansalliseen työlainsäädäntöön, joka koskee työehtoja ja -oloja, mukaan lukien työterveys ja -turvallisuus, sekä työnantajien ja työntekijöiden välistä suhdetta. Tämä asetus ei myöskään saisi vaikuttaa jäsenvaltioissa ja unionin tasolla tunnustettujen perusoikeuksien noudattamiseen, mukaan lukien oikeus tai vapaus ryhtyä lakkoon tai muuhun jäsenvaltioiden työmarkkinajärjestelmien piiriin kuuluvaan toimeen, sekä oikeus neuvotella, tehdä ja panna täytäntöön työehtosopimuksia tai ryhtyä työtaistelutoimiin kansallisen lainsäädännön mukaisesti. Tämä asetus ei saisi vaikuttaa työolojen parantamisesta alustatyössä annettavassa Euroopan parlamentin ja neuvoston direktiivissä vahvistettuihin säännöksiin, joilla pyritään parantamaan työoloja alustatyössä. Tämän lisäksi tällä asetuksella pyritään vahvistamaan tällaisten olemassa olevien oikeuksien ja oikeussuojakeinojen vaikuttavuutta ottamalla käyttöön erityisiä vaatimuksia ja velvoitteita, jotka koskevat muun muassa tekoälyjärjestelmien avoimuutta, teknistä dokumentaatiota ja tietojen säilyttämistä. Lisäksi tämän asetuksen nojalla tekoälyn arvoketjun eri toimijoille asetettuja velvoitteita olisi sovellettava rajoittamatta kansallista lainsäädäntöä, unionin oikeuden mukaisesti, siten, että vaikutuksena on tiettyjen tekoälyjärjestelmien käytön rajoittaminen, silloin kun tällainen lainsäädäntö ei kuulu tämän asetuksen soveltamisalaan tai sillä on muita oikeutettuja yleisen edun mukaisia tavoitteita kuin tässä asetuksessa asetetaan. Tämä asetus ei saisi vaikuttaa esimerkiksi kansalliseen työlainsäädäntöön ja alaikäisten, eli alle 18-vuotiaiden henkilöiden, suojelua koskeviin lakeihin ottaen huomioon lapsen oikeuksien yleissopimuksen yleinen huomautus nro 25 (2021) lapsen oikeuksista suhteessa digitaaliseen ympäristöön siltä osin kuin ne eivät koske tekoälyjärjestelmiä ja niillä on muita oikeutettuja yleisen edun mukaisia tavoitteita.
(9)
Следва да бъдат установени хармонизирани правила, приложими за пускането на пазара, пускането в действие и използването на високорискови системи с ИИ, в съответствие с Регламент (ЕО) № 765/2008 на Европейския парламент и на Съвета (7), Решение № 768/2008/ЕО на Европейския парламент и на Съвета (8) и Регламент (ЕС) 2019/1020 на Европейския парламент и на Съвета (9) (наричани по-долу „новата законодателна рамка“). Хармонизираните правила, установени в настоящия регламент, следва да се прилагат във всички сектори и, в съответствие с новата законодателна рамка, следва да не засягат действащото право на Съюза, по-специално в областта на защитата на данните, защитата на потребителите, основните права, заетостта, защитата на работниците и безопасността на продуктите, което настоящият регламент допълва. В резултат на това всички права и правни средства за защита, предвидени в това право на Съюза в интерес на потребителите и други лица, върху които системите с ИИ могат да окажат отрицателно въздействие, включително по отношение на обезщетението за евентуални вреди съгласно Директива 85/374/ЕИО на Съвета (10), остават незасегнати и напълно приложими. Наред с това, в контекста на заетостта и защитата на работниците, настоящият регламент не следва да засяга правото на Съюза в областта на социалната политика и националното трудово право, което е в съответствие с правото на Съюза, относно условията на заетост и труд, включително здравословните и безопасни условия на труд и отношенията между работодателите и работниците. Настоящият регламент не следва да засяга и упражняването на основни права, признати в държавите членки и на равнището на Съюза, включително правото или свободата на стачка или на други действия, обхванати от специалните системи на колективни трудови правоотношения в държавите членки, както и правото да се преговаря, да се сключват и прилагат колективни трудови договори или да се предприемат колективни действия в съответствие с националното право. Настоящият регламент не следва да засяга разпоредбите, насочени към подобряване на условията на труд при работа през платформа, предвидени в директива на Европейския парламент и на Съвета относно подобряването на условията на труд при работата през платформа. Освен това настоящият регламент има за цел да повиши ефективността на тези съществуващи права и правни средства за защита чрез установяване на конкретни изисквания и задължения, включително по отношение на прозрачността, техническата документация и поддържането на регистри по отношение на системите с ИИ. Наред с това задълженията, наложени на различните оператори, участващи във веригата за създаване на стойност в областта на ИИ съгласно настоящия регламент, следва да се прилагат, без да се засяга националното право, съвместимо с правото на Съюза и което води до ограничаване на използването на определени системи с ИИ, когато това право е извън приложното поле на настоящия регламент или преследва законни цели от обществен интерес, различни от преследваните с настоящия регламент. Например националното трудово право и правото за закрила на ненавършилите пълнолетие лица, а именно лицата на възраст под 18 години, като се вземе предвид Общ коментар № 25 (2021) на Комитета по правата на детето на Организацията на обединените нации относно правата на децата във връзка с цифровата среда, доколкото те не са конкретно насочени към системите с ИИ и преследват други законни цели от обществен интерес, не следва да бъдат засегнати от настоящия регламент.
(10)
Henkilötietojen suojaa koskeva perusoikeus on turvattu erityisesti Euroopan parlamentin ja neuvoston asetuksilla (EU) 2016/679 (11) ja (EU) 2018/1725 (12) sekä Euroopan parlamentin ja neuvoston direktiivillä (EU) 2016/680 (13). Lisäksi Euroopan parlamentin ja neuvoston direktiivillä 2002/58/EY (14) suojellaan yksityisyyttä ja viestinnän luottamuksellisuutta, mukaan lukien säätämällä ehdoista, jotka koskevat kaikkien henkilötietojen ja muiden kuin henkilötietojen tallentamista päätelaitteelle ja pääsyä näihin tietoihin. Kyseiset unionin säädökset luovat perustan kestävälle ja vastuulliselle datankäsittelylle, myös silloin kun data-aineistossa on sekä henkilötietoja että muuta dataa kuin henkilötietoja. Tällä asetuksella ei pyritä vaikuttamaan henkilötietojen käsittelyä koskevan voimassa olevan unionin oikeuden soveltamiseen, mukaan lukien kyseisten säädösten noudattamisen valvonnasta vastaavien riippumattomien valvontaviranomaisten tehtävät ja toimivalta.Tämä asetus ei vaikuta niihin tekoälyjärjestelmien tarjoajien ja käyttöönottajien velvoitteisiin rekisterinpitäjinä tai tietojen käsittelijöinä, jotka johtuvat henkilötietojen suojaa koskevasta unionin tai kansallisesta lainsäädännöstä, siltä osin kuin tekoälyjärjestelmien suunnitteluun, kehittämiseen ja käyttöön liittyy henkilötietojen käsittelyä. On myös asianmukaista selventää, että rekisteröidyillä on kaikki tällaisen unionin oikeuden mukaiset oikeudet ja takeet, myös pelkästään automatisoituun yksittäispäätöksentekoon liittyvät oikeudet, mukaan lukien profilointi. Tässä asetuksessa vahvistetuilla yhdenmukaistetuilla säännöillä tekoälyjärjestelmien markkinoille saattamiseksi, käyttöön ottamiseksi tai käyttämiseksi olisi helpotettava henkilötietojen suojaa koskevassa unionin oikeudessa taattujen rekisteröityjen oikeuksien ja muiden oikeussuojakeinojen sekä muiden perusoikeuksien tosiasiallista täytäntöönpanoa ja mahdollistettava niiden käyttö.
(10)
Основното право на защита на личните данни е гарантирано по-специално с регламенти (ЕС) 2016/679 (11) и (ЕС) 2018/1725 (12) на Европейския парламент и на Съвета и с Директива (ЕС) 2016/680 на Европейския парламент и на Съвета (13). Директива 2002/58/ЕО на Европейския парламент и на Съвета (14) допълнително защитава личния живот и поверителността на съобщенията, включително чрез установяване на условията за съхраняване на лични и нелични данни в крайно оборудване и достъп до такива данни от крайно оборудване. Посочените правни актове на Съюза осигуряват основата за устойчиво и отговорно обработване на данни, включително когато наборите от данни включват комбинация от лични и нелични данни. Настоящият регламент няма за цел да засегне прилагането на съществуващото право на Съюза, уреждащо обработването на лични данни, включително задачите и правомощията на независимите надзорни органи, компетентни да наблюдават спазването на тези инструменти. Освен това той не засяга задълженията на доставчиците и внедрителите на системи с ИИ в ролята им на администратори или обработващи лични данни, които произтичат от правото на Съюза или националното право относно защитата на личните данни, доколкото проектирането, разработването или използването на системи с ИИ включва обработването на лични данни. Целесъобразно е също така да се поясни, че субектите на данни продължават да се ползват с всички права и гаранции, предоставени им с посоченото право на Съюза, включително правата, свързани с изцяло автоматизираното вземане на индивидуални решения, включително профилирането. Хармонизираните правила относно пускането на пазара, пускането в действие и използването на системи с ИИ, установени съгласно настоящия регламент, следва да улеснят ефективното прилагане и да позволят упражняването на правата на субектите на данни и другите правни средства за защита, гарантирани с правото на Съюза в областта на защитата на личните данни, и на други основни права.
(11)
Tämä asetus ei saisi rajoittaa Euroopan parlamentin ja neuvoston asetuksessa (EU) 2022/2065 (15) vahvistettujen välityspalvelujen tarjoajien vastuuta koskevien säännösten soveltamista.
(11)
Настоящият регламент следва да не засяга разпоредбите относно отговорността на доставчиците на посреднически услуги, установени в Регламент (ЕС) 2022/2065 на Европейския парламент и на Съвета (15).
(12)
Tekoälyjärjestelmän käsite tässä asetuksessa olisi määriteltävä selkeästi ja yhdenmukaistettava mahdollisimman pitkälle tekoälyn alalla parissa kansainvälisten organisaatioiden tekemän työn kanssa, jotta voidaan taata oikeusvarmuus, edistää kansainvälistä lähentymistä ja laajaa hyväksyntää sekä samalla tarjota joustovaraa alan nopean teknologisen kehityksen huomioon ottamiseksi. Lisäksi käsitteen olisi perustuttava tekoälyjärjestelmien keskeisiin ominaisuuksiin, jotka erottavat sen yksinkertaisemmista perinteisistä ohjelmistojärjestelmistä tai ohjelmointitavoista. Se ei saisi kattaa järjestelmiä, jotka perustuvat yksinomaan luonnollisten henkilöiden määrittelemiin sääntöihin toimien suorittamiseksi automaattisesti. Yksi tekoälyjärjestelmien keskeisistä piirteistä on niiden päättelykyky. Päättelykyvyllä tarkoitetaan prosessia, jossa saadaan tuotoksia, kuten ennusteita, sisältöä, suosituksia tai päätöksiä, jotka voivat vaikuttaa fyysiseen ja virtuaaliympäristöön, ja tekoälyjärjestelmien kykyyn johtaa malleja tai algoritmeja tai molempia syöttötiedoista tai datasta. Tekoälyjärjestelmää kehitettäessä käytettäviä päättelyn mahdollistavia tekniikoita ovat esimerkiksi koneoppimismenetelmät, jotka oppivat datan avulla, miten tietyt tavoitteet voivat saavuttaa, ja logiikkaan ja tietämykseen perustuvat menetelmät, jotka päättelevät tuotoksensa koodatun tietämyksen tai ratkaistavan tehtävän symbolisen esityksen perusteella. Tekoälyjärjestelmän päättelykyky on laajempi kuin perustietojenkäsittelyn. Sen ansiosta tekoälyjärjestelmä voi oppia, tehdä johtopäätöksiä tai mallintaa asioita. ”Konepohjaisella” tarkoitetaan, että tekoälyjärjestelmät toimivat koneissa. Eksplisiittisillä ja implisiittisillä tavoitteilla tarkoitetaan, että tekoälyjärjestelmät voivat toimia eksplisiittisesti määriteltyjen tavoitteiden tai implisiittisten tavoitteiden mukaisesti. Tekoälyjärjestelmän tavoitteet voivat erota tekoälyjärjestelmän käyttötarkoituksesta jossakin tietyssä yhteydessä. Tätä asetusta sovellettaessa ympäristöillä olisi katsottava tarkoitettavan olosuhteita, joissa tekoälyjärjestelmät toimivat, kun taas tekoälyjärjestelmän tuotokset kuvaavat tekoälyjärjestelmien suorittamia erilaisia toimintoja ja voivat olla esimerkiksi ennusteita, sisältöä, suosituksia ja päätöksiä. Tekoälyjärjestelmät on suunniteltu toimimaan eriasteisen itsenäisesti, mikä tarkoittaa, että ne toimivat jossakin määrin ihmisen toimista riippumattomasti ja kykenevät ainakin jossakin määrin toimimaan ilman ihmisen ohjausta. Tekoälyjärjestelmän mahdollinen mukautuvuus käyttöönoton jälkeen viittaa itseoppimiskykyyn, jonka avulla järjestelmä voi muuttua käytön aikana. Tekoälyjärjestelmiä voidaan käyttää erillisinä tai tuotteen osina riippumatta siitä, onko järjestelmä fyysisesti integroitu tuotteeseen (sulautettu) vai palveleeko se tuotteen toiminnallisuutta ilman, että se on integroitu siihen (sulauttamaton).
(12)
Понятието „система с ИИ“ в настоящия регламент следва да бъде ясно определено и тясно съгласувано с резултатите от работата на международни организации в областта на ИИ, за да се гарантира правна сигурност и да се улесни сближаването и широкото приемане в международен план, като същевременно се осигури гъвкавост с цел да се реагира на бързото технологично развитие в тази област. Освен това определението следва да се основава на ключови характеристики на системите с ИИ, които ги отличават от по-прости традиционни софтуерни системи или подходи за програмиране, и не следва да обхваща системи, които се основават на правилата, определени единствено от физически лица за автоматично изпълнение на операциите. Ключова характеристика на системите с ИИ е тяхната способност да правят изводи. Тази способност да се правят изводи се отнася до процеса на получаване на резултати, например прогнози, съдържание, препоръки или решения, които могат да повлияят на физическата и виртуалната среда, както и до способността на системите с ИИ да извличат модели или алгоритми, или и двете, от входяща информация или данни. Техниките, даващи възможност да се правят изводи при изграждането на системи с ИИ, включват подходи за машинно обучение, при които те се учат от данните как да постигнат определени цели, както и основани на логика и знания подходи, при които достигат до изводи от кодирани знания или символично представяне на задачата, която трябва да бъде решена. Способността на дадена система с ИИ да прави изводи надхвърля основната обработка на данни, като дава възможност за обучение, разсъждение или моделиране. Понятието „машинно базиран“ се отнася до факта, че системите с ИИ работят с помощта на машини. С позоваването на явни или подразбиращи цели се подчертава, че системите с ИИ могат да работят в съответствие с ясно определени или с подразбиращи се цели. Целите на дадена система с ИИ може да се различават от предназначението на системата с ИИ в специфичен контекст. За целите на настоящия регламент под „среда“ следва да се разбира контекстът, в който функционират системите с ИИ, а резултатите, генерирани от системата с ИИ, отразяват различни функции, изпълнявани от системите с ИИ, и включват прогнози, съдържание, препоръки или решения. Системите с ИИ са проектирани да функционират с различна степен на автономност, което означава, че те разполагат с известна степен на независимост на действията от участието на човека и на способност за работа без човешка намеса. Адаптивността, която дадена система с ИИ би могла да прояви след внедряването ѝ, се отнася до способностите за самообучение, които позволяват на системата да се променя по време на нейното използване. Системите с ИИ могат да се използват самостоятелно или като компонент на продукт, независимо дали системата е физически интегрирана в продукта (вградена), или обслужва функционалността на продукта, без да бъде интегрирана в него (невградена).
(13)
Tässä asetuksessa tarkoitetun ”käyttöönottajan” käsitteen olisi tulkittava tarkoittavan tekoälyjärjestelmää käyttävää luonnollista tai oikeushenkilöä, mukaan lukien viranomainen, virasto tai muu elin, jonka valvonnassa järjestelmää käytetään, paitsi jos tekoälyjärjestelmää käytetään henkilökohtaisessa muussa kuin ammattitoiminnassa. Tekoälyjärjestelmän tyypistä riippuen järjestelmän käyttö voi vaikuttaa muihin henkilöihin kuin käyttöönottajaan.
(13)
Понятието „внедрител“, посочено в настоящия регламент, следва да се тълкува като всяко физическо или юридическо лице, включително публичен орган, агенция или друга структура, които използват система с ИИ, върху която упражняват контрол, с изключение на случаите, когато системата с ИИ се използва в процеса на лична непрофесионална дейност. В зависимост от вида на системата с ИИ използването на системата може да засегне лица, различни от внедрителя.
(14)
Tässä asetuksessa käytettyä biometristen tietojen käsitettä olisi tulkittava asetuksen (EU) 2016/679 4 artiklan 14 alakohdassa, asetuksen (EU) 2018/1725 3 artiklan 18 alakohdassa ja direktiivin (EU) 2016/680 3 artiklan 13 alakohdassa määritellyn biometristen tietojen käsitteen perusteella. Biometrisen datan avulla voidaan todentaa, tunnistaa tai luokitella luonnollisia henkilöitä ja tunnistaa heidän tunteitaan.
(14)
Понятието „биометрични данни“, посочено в настоящия регламент, следва да се тълкува с оглед на понятието за биометрични данни съгласно определението в член 4, точка 14 от Регламент (ЕС) 2016/679, член 3, точка 18 от Регламент (ЕС) 2018/1725 и член 3, точка 13 от Директива (ЕС) 2016/680. Биометричните данни могат да позволят удостоверяване на самоличността, идентифициране или категоризиране на физически лица, както и разпознаване на емоции на физически лица.
(15)
Tässä asetuksessa tarkoitettu biometrisen tunnistuksen käsite olisi määriteltävä ihmisen fyysisten, fysiologisten ja käyttäytymiseen liittyvien ominaisuuksien, kuten kasvojen, silmien liikkeen, kehon muodon, äänen, prosodian, kävelyn, asennon, sydämen lyöntitiheyden, verenpaineen, hajun, näppäinpainallusten tai muiden ominaisuuksien automaattiseksi tunnistamiseksi yksilön henkilöllisyyden toteamiseksi vertaamalla kyseisen yksilön biometrisiä tietoja viitetietokantaan tallennettuihin toisten yksilöiden biometrisiin tietoihin riippumatta siitä, onko kyseinen yksilö antanut tähän suostumustaan. Näihin eivät kuulu tekoälyjärjestelmät, joita on tarkoitus käyttää biometriseen todennukseen, joka käsittää tunnistautumisen, ja joiden ainoana tarkoituksena on vahvistaa, että tietty luonnollinen henkilö on se henkilö, joka hän väittää olevansa, sekä vahvistaa luonnollisen henkilön henkilöllisyys ainoastaan jonkin palvelun käyttämiseksi, laitteen lukituksen poistamiseksi tai valvottuun tilaan pääsemiseksi.
(15)
Понятието „биометрична идентификация“, посочено в настоящия регламент, следва да се определи като автоматизираното разпознаване на физически, физиологични и поведенчески характеристики на човека, например лице, движение на очите, форма на тялото, глас, ритъм и интонация на говора, походка, стойка, сърдечен ритъм, кръвно налягане, мирис и особености на натиска на клавиши, с цел установяване на самоличността на дадено лице чрез сравняване на биометрични данни на това лице със съхранени биометрични данни на лица в референтна база данни, независимо дали лицето е дало своето съгласие. Това изключва системите с ИИ, предназначени да бъдат използвани за биометрична проверка, която включва удостоверяване на самоличността, чиято единствена цел е да се потвърди, че конкретно физическо лице е лицето, за което се представя, и да се потвърди самоличността на физическо лице единствено за да се получи достъп до услуга, да се отключи устройство или да се придобие сигурен достъп до помещения.
(16)
Tässä asetuksessa tarkoitettu biometrisen luokittelun käsite olisi määriteltävä luonnollisten henkilöiden luokitteluksi heidän biometristen tietojensa perusteella tiettyihin ryhmiin. Tällaiset ryhmät voivat liittyä esimerkiksi sukupuoleen, ikään, hiustenväriin, silmien väriin, tatuointeihin, käyttäytymiseen tai persoonallisuuspiirteisiin, kieleen, uskontoon, kansalliseen vähemmistöön kuulumiseen taikka seksuaaliseen tai poliittiseen suuntautumiseen. Tähän eivät kuulu biometriset luokittelujärjestelmät, jotka ovat pelkästään toiseen kaupalliseen palveluun olennaisesti liittyvä liitännäistoiminto, mikä tarkoittaa, että kyseistä toimintoa ei voida objektiivisista teknisistä syistä käyttää ilman pääasiallista palvelua, ja kyseisen toiminnon integrointi ei ole keino kiertää tämän asetuksen sääntöjen soveltamista. Esimerkiksi verkkomarkkinapaikoilla käytettävät kasvonpiirteitä tai kehon ominaisuuksia luokittelevat suodattimet voisivat olla tällainen liitännäistoiminto, koska niitä voidaan käyttää ainoastaan pääasiallisen palvelun yhteydessä eli tuotteen myynnissä siten, että kuluttajaa autetaan tekemään ostopäätös esittämällä, miltä tuote näyttäisi hänen yllään. Verkkoyhteisöpalveluissa käytettäviä suodattimia, jotka luokittelevat kasvonpiirteitä tai kehon ominaisuuksia, jotta käyttäjät voivat lisätä kuvia tai videoita tai muokata niitä, voidaan myös pitää liitännäistoimintoina, koska tällaista suodatinta ei voi käyttää ilman pääasiallista palvelua eli verkkoyhteisöpalvelua, jossa sisältöä jaetaan verkossa.
(16)
Понятието „биометрично категоризиране“, посочено в настоящия регламент, следва да се определи като отнасяне на физически лица към конкретни категории въз основа на техните биометрични данни. Подобни конкретни категории могат да са свързани с аспекти като пол, възраст, цвят на косата, цвят на очите, татуировки, поведенчески или личностни черти, език, религия, принадлежност към национално малцинство, сексуална или политическа ориентация. Това не включва системи за биометрично категоризиране, които представляват чисто спомагателна функция, неразривно свързана с друга търговска услуга, което означава, че тази функция не може по обективни технически причини да се използва без основната услуга и интегрирането на тази функция или функционалност не е средство за заобикаляне на приложимостта на правилата на настоящия регламент. Например филтрите за категоризиране на черти на лицето или тялото, използвани на онлайн места за търговия, биха могли да представляват такава спомагателна функция, тъй като могат да се използват само във връзка с основната услуга, която се състои в продажбата на продукт, като позволяват на потребителя да визуализира изображението на продукта върху себе си и му помагат да вземе решение при покупка. Филтрите, използвани в онлайн услугите на социалните мрежи, които категоризират черти на лицето или тялото, за да позволят на ползвателите да добавят или променят снимки или видеоклипове, също могат да се считат за спомагателна функция, тъй като такъв филтър не може да се използва без основната услуга при услугите на социалните мрежи, състояща се в споделяне на съдържание онлайн.
(17)
Tässä asetuksessa käytetty biometrisen etätunnistusjärjestelmän käsite olisi määriteltävä toiminnallisesti tekoälyjärjestelmäksi, joka on tarkoitettu luonnollisten henkilöiden tunnistamiseen tyypillisesti etäältä ilman heidän aktiivista osallistumistaan vertaamalla henkilön biometrisiä tietoja viitetietokannan sisältämiin biometrisiin tietoihin riippumatta käytetyistä tekniikoista, prosesseista tai biometristen tietojen tyypeistä. Tällaisia biometrisiä etätunnistusjärjestelmiä käytetään tyypillisesti havainnoimaan useita henkilöitä tai heidän käyttäytymistään samanaikaisesti, jotta voidaan merkittävästi helpottaa luonnollisten henkilöiden tunnistamista ilman heidän aktiivista osallistumistaan. Näihin eivät kuulu tekoälyjärjestelmät, joita on tarkoitus käyttää biometriseen todennukseen, joka käsittää tunnistautumisen, ja joiden ainoana tarkoituksena on vahvistaa, että tietty luonnollinen henkilö on se henkilö, joka hän väittää olevansa, sekä vahvistaa luonnollisen henkilön henkilöllisyys ainoastaan jonkin palvelun käyttämiseksi, laitteen lukituksen poistamiseksi tai valvottuun tilaan pääsemiseksi. Tämä soveltamisalan ulkopuolelle jättäminen voidaan perustella sillä, että tällaisilla järjestelmillä on todennäköisesti vähäinen vaikutus luonnollisten henkilöiden perusoikeuksiin verrattuna biometrisiin etätunnistusjärjestelmiin, joita voidaan käyttää suuren ihmismäärän biometristen tietojen käsittelyyn ilman heidän aktiivista osallistumistaan. Reaaliaikaisissa järjestelmissä biometristen tietojen kerääminen, vertailu ja tunnistaminen tapahtuvat välittömästi, lähes välittömästi tai joka tapauksessa ilman merkittävää viivettä. Tältä osin ei pitäisi olla mahdollista kiertää tämän asetuksen sääntöjä, jotka koskevat kyseisten tekoälyjärjestelmien reaaliaikaista käyttöä, käyttämällä vähäisiä viivästyksiä. Reaaliaikaisissa järjestelmissä käytetään kameran tai muun toiminnoltaan samankaltaisen laitteen tuottamaa ”suoraa” tai ”lähes suoraa” materiaalia, kuten videokuvaa. Jälkikäteisissä järjestelmissä biometriset tiedot on sitä vastoin jo kerätty, ja vertailu ja tunnistaminen tapahtuvat vasta merkittävän viiveen jälkeen. Kyse on kameravalvontajärjestelmien tai yksityisten laitteiden tuottamien kuvien tai videokuvan kaltaisesta materiaalista, joka on luotu ennen kuin järjestelmää käytetään asianomaisiin luonnollisiin henkilöihin.
(17)
Понятието „система за дистанционна биометрична идентификация“, посочено в настоящия регламент, следва да се определи функционално като система с ИИ, предназначена за идентифициране на физически лица без тяхното активно участие, обикновено от разстояние, чрез сравняване на биометричните данни на дадено лице с биометричните данни, съдържащи се в референтна база данни, независимо от конкретните използвани технологии, процеси или видове биометрични данни. Такива системи за дистанционна биометрична идентификация обикновено се използват за едновременно наблюдение на множество лица или тяхното поведение с цел да се улесни значително идентифицирането на физически лица без тяхното активно участие. Това изключва системите с ИИ, предназначени да бъдат използвани за биометрична проверка, която включва удостоверяване на самоличността, чиято единствена цел е да се потвърди, че конкретно физическо лице е лицето, за което се представя, и да се потвърди самоличността на физическо лице единствено за да се получи достъп до услуга, да се отключи устройство или да се придобие сигурен достъп до помещения. Това изключване е обосновано от факта, че е вероятно такива системи да оказват незначително въздействие върху основните права на физическите лица в сравнение със системите за дистанционна биометрична идентификация, които могат да се използват за обработването на биометрични данни на голям брой лица без тяхното активно участие. При системите, работещи в реално време, снемането на биометрични данни, сравнението и идентификацията се осъществяват мигновено, почти мигновено или при всички случаи без значително забавяне. В това отношение не следва да има възможност за заобикаляне на правилата на настоящия регламент относно използването в реално време на съответните системи с ИИ и за целта в него следва да се уредят незначителните забавяния. Системите, работещи в реално време, предполагат използването на материал „на живо“ или „почти на живо“, като видеозапис от камера или друго устройство с подобна функция. За разлика от тях при функциониращите впоследствие системи биометричните данни вече са снети и сравняването и идентифицирането се извършват едва след значително забавяне. Това предполага материал, като снимки или видеозаписи от камери от вътрешна система за видеонаблюдение или от частни устройства, които са направени преди използването на системата по отношение на съответните физически лица.
(18)
Tässä asetuksessa tarkoitettu tunteentunnistusjärjestelmän käsite olisi määriteltävä tekoälyjärjestelmäksi, jonka avulla luonnollisten henkilöiden tunteita tai aikomuksia voidaan tunnistaa tai päätellä heidän biometristen tietojensa perusteella. Tunteilla tai aikomuksilla tarkoitetaan tässä yhteydessä esimerkiksi onnellisuutta, surua, vihaa, yllättyneisyyttä, inhoa, häpeää, kiihtyneisyyttä, halveksuntaa, tyytyväisyyttä ja huvittuneisuutta. Ne eivät sisällä fyysisiä olotiloja, kuten kipua tai väsymystä, mukaan lukien esimerkiksi järjestelmät, joita käytetään ammattilentäjien tai -kuljettajien väsymyksen havaitsemiseen onnettomuuksien ehkäisemiseksi. Sillä ei myöskään viitata pelkkään ilmeisen selvien ilmeiden, eleiden tai liikkeiden havaitsemiseen, ellei niitä käytetä tunteiden tunnistamiseen tai päättelemiseen. Tällaiset ilmeet voivat olla perusilmeitä, kuten rypistynyt otsa tai hymy, tai eleitä, kuten käsien, käsivarsien tai pään liikkeitä, tai henkilön äänen piirteitä, esimerkiksi korotettua ääntä tai kuiskaamista.
(18)
Понятието „система за разпознаване на емоции“, посочено в настоящия регламент, следва да се определи като система с ИИ, чието предназначение е да определи или да прави изводи за емоциите или намеренията на физически лица въз основа на техните биометрични данни. Това понятие се отнася до емоции или намерения като щастие, тъга, гняв, изненада, отвращение, смущение, вълнение, срам, презрение, удовлетворение и забавление. Не се включват физически състояния като болка или умора, като например системи, използвани за установяване на състояние на умора при професионални пилоти или водачи с цел предотвратяване на произшествия. Освен това то не включва откриването на лесно забележими изражения, жестове или движения, освен ако те не се използват, за да се определят или да се правят изводи за емоциите. Тези изражения могат да бъдат основни изражения на лицето, като например намръщване или усмивка, или жестове като движение на ръцете или главата, или характеристики на човешкия глас, например висок глас или шепот.
(19)
Tätä asetusta sovellettaessa julkisen tilan käsitteen olisi ymmärrettävä tarkoittavan mitä tahansa fyysistä tilaa, johon määrittämättömällä määrällä luonnollisia henkilöitä on pääsy, riippumatta siitä, onko kyseinen tila yksityisessä vai julkisessa omistuksessa, ja riippumatta toiminnasta, johon tilaa voidaan käyttää, kuten kaupankäyntiin (esimerkiksi kaupat, ravintolat, kahvilat), palveluihin (esimerkiksi pankit, ammatillinen toiminta, majoitus- ja ravitsemisala), urheiluun (esimerkiksi uimahallit, kuntosalit, urheilukentät), liikenteeseen (esimerkiksi linja-auto-, metro- ja rautatieasemat, lentoasemat, liikennevälineet), viihteeseen (esimerkiksi elokuvateatterit, teatterit, museot, konsertti- ja kokoussalit), vapaa-aikaan tai muuhun ajanviettoon (esimerkiksi yleiset tiet ja aukiot, puistot, metsät, leikkikentät). Tila olisi luokiteltava julkiseksi tilaksi myös, jos riippumatta mahdollisista kapasiteetti- tai turvallisuusrajoituksista pääsyyn sovelletaan tiettyjä ennalta määritettyjä edellytyksiä, jotka määrittämätön määrä henkilöitä voi täyttää, kuten lipun tai matkalipun ostamista, ennakkorekisteröitymistä tai tiettyä ikää. Sitä vastoin tilaa ei olisi katsottava julkiseksi tilaksi, jos pääsy on rajattu tietyille ja määritellyille luonnollisille henkilöille joko unionin tai jäsenvaltioiden lainsäädännössä, joka liittyy suoraan yleiseen turvallisuuteen, tai sen henkilön selkeän tahdonilmaisun avulla, jolla on tilaa koskeva asiaankuuluva määräysvalta. Pelkästään pääsyn tosiasiallinen mahdollisuus (esimerkiksi lukitsematon ovi, aidassa oleva avoin portti) ei merkitse sitä, että tila on julkinen tila, jos on olemassa osoituksia tai olosuhteita, jotka viittaavat päinvastaiseen (esimerkiksi pääsyn kieltävät tai sitä rajoittavat merkit). Yritysten ja tehtaiden tilat sekä toimistot ja työpaikat, joihin on tarkoitettu olevan pääsy ainoastaan asiaankuuluvilla työntekijöillä ja palveluntarjoajilla, ovat paikkoja, jotka eivät ole julkisia tiloja. Julkisiin tiloihin ei saisi sisältyä vankiloita tai rajatarkastusasemia. Jotkin muut tilat voivat sisältää sekä tiloja, jotka ovat julkisia, että tiloja, jotka eivät ole julkisia, esimerkiksi yksityisen asuinrakennuksen käytävä, jonka kautta on kuljettava lääkärin vastaanotolle, tai lentoasema. Käsite ei kata myöskään verkkoympäristöjä, sillä ne eivät ole fyysisiä tiloja. Se, onko yleisöllä pääsy tiettyyn tilaan, olisi kuitenkin määritettävä tapauskohtaisesti ottaen huomioon kulloisenkin yksittäisen tilanteen erityispiirteet.
(19)
За целите на настоящия регламент понятието „обществено достъпно място“ следва да се разбира като означаващо всяко физическо място, което е достъпно за неопределен брой физически лица, независимо дали това място е частна или публична собственост и без значение от дейността, за която мястото може да се използва, като за търговия, например магазини, ресторанти, кафенета, за услуги, например банки, професионални дейности, хотелиерство и ресторантьорство, за спорт, например плувни басейни, спортни зали, стадиони, за транспорт, например автобусни, метро и железопътни гари, летища, транспортни средства, за развлечение, например кина, театри, музеи, концертни и конферентни зали, за отдих или други дейности, например отворени за обществено ползване пътища, площади, паркове, гори, детски площадки. Дадено място следва също така да се класифицира като обществено достъпно ако, независимо от потенциалния капацитет или ограниченията във връзка със сигурността, достъпът до него зависи от някои предварително определени условия, които могат да бъдат изпълнени от неопределен брой лица, като например закупуване на билет или друг превозен документ, предварителна регистрация или навършване на определена възраст. Дадено място не следва обаче да се счита за обществено достъпно, ако достъпът до него е ограничен до конкретни и определени физически лица чрез правото на Съюза или националното право, пряко свързано с обществената безопасност или сигурност, или чрез ясното волеизявление от страна на лицето, което е носител на съответните права по отношение на мястото. Единствено фактическата възможност за достъп, например незаключена врата или отворена порта в ограда, не означава, че мястото е обществено достъпно, при наличие на признаци или обстоятелства, които предполагат обратното, например знаци, забраняващи или ограничаващи достъпа. Помещенията на дадено дружество и фабрика, както и офисите и работните места, до които се предвижда достъп само за съответните служители и доставчици на услуги, не са обществено достъпни места. Обществено достъпните места не следва да включват затворите или зоните за граничен контрол. Други зони могат да се състоят както от зони, които са обществено достъпни, така и от зони, които не са обществено достъпни, като например коридорите в частни жилищни сгради, необходими за достъп до лекарски кабинет, или летищата. Онлайн пространствата не се включват, тъй като те не са физически места. Дали дадено място е достъпно за обществеността обаче следва да се определя отделно във всеки един случай, като се отчитат особеностите на отделния случай.
(20)
Jotta saadaan mahdollisimman paljon hyötyä tekoälyjärjestelmistä ja samalla suojellaan perusoikeuksia, terveyttä ja turvallisuutta ja mahdollistetaan demokraattinen valvonta, tarjoajilla, käyttöönottajilla ja henkilöillä, joihin vaikutukset kohdistuvat, olisi oltava riittävä tekoälylukutaito, jotta he ymmärtävät tarvittavat käsitteet ja voivat tehdä tekoälyjärjestelmiä koskevia tietoon perustuvia päätöksiä. Nämä käsitteet voivat vaihdella asiayhteyden mukaan, ja niitä voivat olla esimerkiksi käsitys teknisten elementtien asianmukaisesta soveltamisesta tekoälyjärjestelmän kehitysvaiheessa, järjestelmän käytön aikana sovellettavista toimenpiteistä ja sopivista tavoista tulkita tekoälyjärjestelmän tuotoksia sekä henkilöiden, joihin vaikutukset kohdistuvat, osalta tarvittava tietämys sen ymmärtämiseksi, miten tekoälyn avulla tehdyt päätökset vaikuttavat heihin. Tämän asetuksen soveltamisen yhteydessä kaikilla tekoälyn arvoketjun asiaankuuluvilla toimijoilla olisi oltava riittävä tekoälylukutaito, jotta voidaan varmistaa asetuksen asianmukainen noudattaminen ja täytäntöönpano. Lisäksi toteuttamalla tekoälylukutaitoa koskevia toimia laaja-alaisesti ja ottamalla käyttöön asianmukaiset jatkotoimet voitaisiin osaltaan parantaa työoloja ja viime kädessä lujittaa luotettavaa tekoälyä ja sen innovointipolkua unionissa. Euroopan tekoälyneuvoston, jäljempänä ”tekoälyneuvosto”, olisi tuettava komissiota, jotta voidaan edistää tekoälylukutaidon välineitä sekä yleistä tietoisuutta ja ymmärrystä tekoälyjärjestelmien käyttöön liittyvistä hyödyistä, riskeistä, suojatoimista, oikeuksista ja velvollisuuksista. Komission ja jäsenvaltioiden olisi yhteistyössä asiaankuuluvien sidosryhmien kanssa edistettävä vapaaehtoisten käytännesääntöjen laatimista, jotta voidaan parantaa tekoälyn kehittämisestä, toiminnasta ja käytöstä vastaavien henkilöiden tekoälylukutaitoa.
(20)
За да се извлекат максимални ползи от системите с ИИ, като същевременно се защитават основните права, здравето и безопасността, и за да се даде възможност за демократичен контрол, грамотността в областта на ИИ следва да осигури на доставчиците, внедрителите и засегнатите лица необходимите понятия за вземане на информирани решения относно системите с ИИ. Тези понятия могат да се различават по отношение на съответния контекст и могат да включват разбиране на правилното прилагане на техническите елементи по време на етапа на разработване на системата с ИИ, мерките, които трябва да се прилагат по време на използването ѝ, подходящите начини за тълкуване на резултатите от системата с ИИ и, по отношение на засегнатите лица, знанията, необходими за разбиране на начина, по който решенията, взети с помощта на ИИ, ще окажат въздействие върху тях. В контекста на прилагането на настоящия регламент грамотността в областта на ИИ следва да осигури на всички съответни участници във веригата за създаване на стойност в областта на ИИ необходимата информация, за да се гарантира подходящото спазване и правилното му прилагане. Освен това широкото прилагане на мерки за повишаване на грамотността в областта на ИИ и въвеждането на подходящи последващи действия биха могли да допринесат за подобряване на условията на труд и в крайна сметка да поддържат процеса на утвърждаване и иновации на надеждния ИИ в Съюза. Европейският съвет по изкуствен интелект (наричан по-долу „Съветът по ИИ“) следва да подпомага Комисията с цел насърчаване на инструментите за грамотност в областта на ИИ, обществената осведоменост и разбирането на ползите, рисковете, гаранциите, правата и задълженията във връзка с използването на системи с ИИ. В сътрудничество със съответните заинтересовани страни Комисията и държавите членки следва да улеснят изготвянето на незадължителни кодекси за поведение с цел повишаване на грамотността в областта на ИИ сред лицата, занимаващи се с разработването, експлоатацията и използването на ИИ.
(21)
Jotta voidaan varmistaa tasapuoliset toimintaedellytykset ja yksilöiden oikeuksien ja vapauksien tehokas suojelu kaikkialla unionissa, tällä asetuksella vahvistettuja sääntöjä olisi sovellettava tekoälyjärjestelmien tarjoajiin syrjimättömällä tavalla riippumatta siitä, ovatko ne sijoittautuneet unioniin vai kolmanteen maahan, sekä unioniin sijoittautuneisiin tekoälyjärjestelmien käyttöönottajiin.
(21)
За да се гарантират равнопоставеност и ефективна защита на правата и свободите на физическите лица в целия Съюз, правилата, установени с настоящия регламент, следва да се прилагат недискриминационно за доставчиците на системи с ИИ, независимо дали са установени в Съюза, или в трета държава, както и за внедрителите на системи с ИИ, установени в Съюза.
(22)
Tiettyjen tekoälyjärjestelmien digitaalisen luonteen vuoksi niiden olisi kuuluttava tämän asetuksen soveltamisalaan myös silloin, kun niitä ei saateta markkinoille, oteta käyttöön eikä käytetä unionissa. Tämä koskee esimerkiksi tilanteita, joissa unioniin sijoittautunut toimija hankkii tiettyjä palveluja kolmanteen maahan sijoittautuneelta toimijalta sellaisen tekoälyjärjestelmän toteuttaman toiminnon osalta, joka katsotaan suuririskiseksi. Tällaisessa tapauksessa kolmanteen maahan sijoittautuneen toimijan käyttämä tekoälyjärjestelmä voisi käsitellä dataa, joka on kerätty unionissa ja siirretty sieltä laillisesti, ja toimittaa unionissa sijaitsevalle hankintasopimuksen tehneelle toimijalle tästä käsittelystä saatavia tekoälyjärjestelmän tuloksia ilman, että kyseistä tekoälyjärjestelmää saatetaan markkinoille, otetaan käyttöön tai käytetään unionissa. Jotta estettäisiin tämän asetuksen kiertäminen ja varmistettaisiin unionissa sijaitsevien luonnollisten henkilöiden tehokas suojelu, tätä asetusta olisi sovellettava myös kolmanteen maahan sijoittautuneisiin tekoälyjärjestelmien tarjoajiin ja käyttöönottajiin siltä osin kuin kyseisten järjestelmien tuottamaa tuotosta on tarkoitus käyttää unionissa.Jotta otettaisiin kuitenkin huomioon olemassa olevat järjestelyt ja erityiset tarpeet tulevaan yhteistyöhön sellaisten ulkomaisten kumppanien kanssa, joiden kanssa vaihdetaan tietoja ja todisteita, tätä asetusta ei pitäisi soveltaa kolmannen maan viranomaisiin eikä kansainvälisiin järjestöihin, kun ne toimivat unionin tai sen jäsenvaltioiden kanssa yhteistyössä tai unionin tai kansallisella tasolla tehtyjen lainvalvontaa ja rikosoikeudellista yhteistyötä koskevien kansainvälisten sopimusten puitteissa edellyttäen, että asiaankuuluva kolmas maa tai kansainvälinen järjestö antaa yksityisyydensuojaa, perusoikeuksia ja yksilön vapauksia koskevat riittävät takeet. Tarvittaessa tämä voi kattaa sellaisten yhteisöjen toimet, joille kolmannet maat ovat antaneet erityistehtäviä, joilla tuetaan tällaista lainvalvonta- ja oikeusyhteistyötä. Tällaisia yhteistyökehyksiä on otettu käyttöön ja tällaisia sopimuksia on tehty kahdenvälisesti jäsenvaltioiden ja kolmansien maiden välillä tai Euroopan unionin, Europolin ja muiden unionin virastojen sekä kolmansien maiden ja kansainvälisten järjestöjen välillä. Viranomaisten, joilla on tämän asetuksen nojalla toimivalta valvoa lainvalvonta- ja oikeusviranomaisia, olisi arvioitava, sisältävätkö nämä yhteistyökehykset tai kansainväliset sopimukset riittävät takeet yksilöiden perusoikeuksien ja -vapauksien suojelemiseksi. Vastaanottavat kansalliset viranomaiset ja unionin toimielimet, elimet ja laitokset, jotka käyttävät tällaisia tuotoksia unionissa, vastaavat sen varmistamisesta, että niiden käyttö on unionin oikeuden mukaista. Kun kyseisiä kansainvälisiä sopimuksia tarkistetaan tai uusia sopimuksia tehdään tulevaisuudessa, sopimuspuolten olisi pyrittävä kaikin keinoin saattamaan kyseiset sopimukset tämän asetuksen vaatimusten mukaisiksi.
(22)
Поради своето цифрово естество някои системи с ИИ следва да попадат в обхвата на настоящия регламент дори когато не се пускат на пазара, не се пускат в действие и не се използват в Съюза. Такъв е например случаят с оператор, установен в Съюза, който сключва договор за определени услуги с оператор, установен в трета държава, във връзка с дейност, която ще се извършва от система с ИИ, която би била определена като високорискова. При тези обстоятелства системата с ИИ, използвана в трета държава от оператора, би могла да обработва данни, които са законно събрани в Съюза и прехвърлени от Съюза, и да предоставя на сключилия договор оператор в Съюза резултата от системата с ИИ, получен въз основа на тази обработка, без системата с ИИ да е била пускана на пазара, пусната в действие или използвана в Съюза. За да не се допусне заобикаляне на настоящия регламент и да се гарантира ефективна защита на физическите лица, намиращи се в Съюза, настоящият регламент следва също така да се прилага за доставчиците и внедрителите на системи с ИИ, установени в трета държава, доколкото резултатът, получен от тези системи, е предназначен да се използва в Съюза. Независимо от това, за да се вземат предвид съществуващите договорености и особените нужди от бъдещо сътрудничество с чуждестранни партньори, с които се обменят информация и доказателства, настоящият регламент не следва да се прилага за публични органи на трета държава и за международни организации, когато те действат в рамките на споразумения за сътрудничество или международни споразумения, сключени на равнището на Съюза или на национално равнище за сътрудничество в областта на правоприлагането и за съдебно сътрудничество със Съюза или с неговите държави членки, при условие че съответната трета държава или международна организация осигурява подходящи гаранции по отношение на защитата на основните права и свободи на лицата. Когато е приложимо, това може да обхваща дейности на субекти, на които третите държави са възложили изпълнението на конкретни задачи в подкрепа на това сътрудничество в областта на правоприлагането и съдебно сътрудничество. Такива рамки за сътрудничество или споразумения са установени двустранно между държави членки и трети държави или между Европейския съюз, Европол и други агенции на Съюза, трети държави и международни организации. Органите, компетентни за надзора на правоохранителните органи и органите на съдебната власт съгласно настоящия регламент, следва да преценят дали тези рамки за сътрудничество или международни споразумения включват подходящи гаранции по отношение на защитата на основните права и свободи на лицата. Националните органи и институциите, органите, службите и агенциите на Съюза, които получават и използват такива резултати в Съюза, продължават да са задължени да гарантират, че използването им е в съответствие с правото на Съюза. Когато тези международни споразумения се преразглеждат или се сключват нови в бъдеще, договарящите страни следва да положат максимални усилия да приведат тези споразумения в съответствие с изискванията на настоящия регламент.
(23)
Tätä asetusta olisi sovellettava myös unionin toimielimiin, elimiin ja laitoksiin, kun ne toimivat tekoälyjärjestelmän tarjoajana tai käyttöönottajana.
(23)
Настоящият регламент следва да се прилага и за институциите, органите, службите и агенциите на Съюза, когато те действат като доставчик или внедрител на система с ИИ.
(24)
Jos ja siltä osin kuin tekoälyjärjestelmiä saatetaan markkinoille, otetaan käyttöön tai käytetään tällaisten järjestelmien muutoksin tai ilman muutoksia sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin, ne olisi suljettava tämän asetuksen soveltamisalan ulkopuolelle riippumatta siitä, minkä tyyppinen toimija toteuttaa näitä toimia, esimerkiksi siitä, onko se julkinen vai yksityinen toimija. Kun kyseessä ovat sotilaalliset ja puolustustarkoitukset, tällainen soveltamisalan ulkopuolelle sulkeminen perustuu sekä SEU-sopimuksen 4 artiklan 2 kohtaan että SEU-sopimuksen V osaston 2 luvun piiriin kuuluvan jäsenvaltioiden puolustuspolitiikan ja unionin yhteisen puolustuspolitiikan erityispiirteisiin, joihin sovelletaan kansainvälistä julkisoikeutta, joka on näin ollen asianmukaisempi oikeuskehys tekoälyjärjestelmien sääntelylle tappavan voimankäytön yhteydessä ja muiden tekoälyjärjestelmien sääntelylle sotilas- ja puolustustoimien yhteydessä. Kun kyseessä ovat kansallisen turvallisuuden tarkoitukset, tällainen soveltamisalan ulkopuolelle sulkeminen perustuu sekä siihen, että kansallinen turvallisuus kuuluu jäsenvaltioiden yksinomaiseen toimivaltaan SEU 4 artiklan 2 kohdan mukaisesti, että kansallisen turvallisuuden toimien erityisluonteeseen ja operatiivisiin tarpeisiin ja näihin toimiin sovellettaviin erityisiin kansallisiin sääntöihin. Jos sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin kehitettyä, markkinoille saatettua, käyttöön otettua tai käytettyä tekoälyjärjestelmää kuitenkin käytetään väliaikaisesti tai pysyvästi muihin tarkoituksiin, esimerkiksi siviili- tai humanitaarisiin tarkoituksiin, lainvalvonnan tai yleisen turvallisuuden tarkoituksiin, järjestelmä kuuluu tämän asetuksen soveltamisalaan. Tässä tapauksessa toimijan, joka käyttää tekoälyjärjestelmää muihin kuin sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin, olisi varmistettava, että tekoälyjärjestelmässä noudatetaan tätä asetusta, jollei järjestelmässä jo noudateta tätä asetusta. Tekoälyjärjestelmät, jotka saatetaan markkinoille tai otetaan käyttöön soveltamisalan ulkopuolelle jääviin tarkoituksiin eli sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin ja yhteen tai useampaan soveltamisalaan kuuluvaan tarkoitukseen, kuten siviilitarkoituksiin tai lainvalvonnan tarkoituksiin, kuuluvat tämän asetuksen soveltamisalaan ja näiden järjestelmien tarjoajien olisi varmistettava tämän asetuksen noudattaminen. Näissä tapauksissa sen seikan, että tekoälyjärjestelmä voi kuulua tämän asetuksen soveltamisalaan, ei saisi vaikuttaa kansallisen turvallisuuden, puolustuksen ja sotilaallisia toimia toteuttavien toimijoiden, riippumatta siitä, minkä tyyppinen toimija toteuttaa näitä toimia, mahdollisuuteen käyttää tekoälyjärjestelmiä, joiden käyttö on suljettu tämän asetuksen soveltamisalan ulkopuolelle, kansallisen turvallisuuden, sotilaallisiin ja puolustuksen tarkoituksiin. Tekoälyjärjestelmän, joka saatetaan markkinoille siviili- tai lainvalvontatarkoituksia varten ja jota käytetään muutoksin tai ilman muutoksia sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin, ei pitäisi kuulua tämän asetuksen soveltamisalaan riippumatta siitä, minkä tyyppinen toimija toteuttaa näitä toimia.
(24)
Ако и доколкото системите с ИИ се пускат на пазара, пускат в действие или използват, със или без изменение на тези системи, за военни цели и цели, свързани с отбраната или националната сигурност, те следва да бъдат изключени от обхвата на настоящия регламент, независимо от това какъв вид субект извършва тези дейности, например дали е публичен, или частен субект. По отношение на военните цели и целите, свързани с отбраната, това изключение е обосновано както от член 4, параграф 2 ДЕС, така и от специфичните особености на политиката за отбрана на държавите членки и общата политика за отбрана на Съюза, обхваната от дял V, глава 2 ДЕС, спрямо които се прилага международното публично право, което поради това е по-подходящата правна рамка за регулиране на системите с ИИ в контекста на употребата на смъртоносна сила и на други системи с ИИ в контекста на военните и отбранителните дейности. По отношение на целите на националната сигурност, изключението е обосновано както от факта, че националната сигурност продължава да бъде отговорност единствено на държавите членки в съответствие с член 4, параграф 2 ДЕС, така и от специфичното естество и оперативни нужди на дейностите в областта на националната сигурност и специалните национални правила, приложими за тези дейности. Въпреки това, ако система с ИИ, разработена, пусната на пазара, пусната в действие или използвана за военни цели и цели, свързани с отбраната или националната сигурност, се използва извън рамките на тези цели временно или се използва постоянно за други цели, например за граждански или хуманитарни цели и за правоохранителни цели или цели, свързани с обществената сигурност, тази система би попаднала в обхвата на настоящия регламент. В този случай субектът, използващ системата с ИИ за цели, различни от военни цели и цели, свързани с отбраната или националната сигурност, следва да гарантира съответствието на системата с ИИ с настоящия регламент, освен ако системата вече не е в съответствие с настоящия регламент. Системите с ИИ, пуснати на пазара или пуснати в действие за изключена цел, а именно военна цел и цел, свързана с отбраната или национална сигурност, и една или повече неизключени цели, например граждански цели или правоохранителни цели, попадат в обхвата на настоящия регламент и доставчиците на тези системи следва да гарантират спазването на настоящия регламент. В тези случаи фактът, че дадена система с ИИ може да попадне в обхвата на настоящия регламент, не следва да засяга възможността субектите, извършващи дейности в областта на националната сигурност и отбраната и военни дейности, независимо от вида на субекта, извършващ тези дейности, да използват за цели в областта на националната сигурност и отбраната и за военни цели системи с ИИ, чието използване е изключено от обхвата на настоящия регламент. Система с ИИ, пусната на пазара за граждански цели или за правоохранителни цели, която се използва, със или без изменение, за военни цели и за цели, свързани с отбраната или националната сигурност, не следва да попада в обхвата на настоящия регламент, независимо от вида на субекта, извършващ тези дейности.
(25)
Tällä asetuksella olisi tuettava innovointia, kunnioitettava tieteen vapautta, eikä se saisi heikentää tutkimus- ja kehitystoimintaa. Sen vuoksi on tarpeen jättää sen soveltamisalan ulkopuolelle tekoälyjärjestelmät ja -mallit, jotka on erityisesti kehitetty ja otettu käyttöön yksinomaan tieteellistä tutkimusta ja kehittämistoimintaa varten. Lisäksi on tarpeen varmistaa, että tämä asetus ei muulla tavoin vaikuta tekoälyjärjestelmiä tai -malleja koskevaan tieteelliseen tutkimukseen ja kehittämistoimintaan ennen niiden markkinoille saattamista tai käyttöönottoa. Tekoälyjärjestelmiä tai -malleja koskevan tuotesuuntautuneen tutkimus-, testaus- ja kehittämistoiminnan osalta tämän asetuksen säännöksiä ei myöskään pitäisi soveltaa ennen näiden järjestelmien ja mallien käyttöönottoa tai markkinoille saattamista. Tämä poissulkeminen ei rajoita velvoitetta noudattaa tätä asetusta, kun tämän asetuksen soveltamisalaan kuuluva tekoälyjärjestelmä saatetaan markkinoille tai otetaan käyttöön tällaisen tutkimus- ja kehitystoiminnan tuloksena, eikä tekoälyn sääntelyn testiympäristöjä ja tosielämän olosuhteissa tapahtuvaa testausta koskevien säännösten soveltamista. Lisäksi kaikkiin muihin tekoälyjärjestelmiin, joita voidaan käyttää tutkimus- ja kehitystoimintaan, olisi sovellettava tämän asetuksen säännöksiä, rajoittamatta sellaisten tekoälyjärjestelmien poissulkemista, jotka on erityisesti kehitetty ja otettu käyttöön yksinomaan tieteellistä tutkimusta ja kehitystoimintaa varten. Kaikissa tutkimus- ja kehitystoimissa olisi joka tapauksessa noudatettava tunnustettuja tutkimuseettisiä ja -ammatillisia periaatteita sekä sovellettavaa unionin oikeutta.
(25)
Настоящият регламент следва да подкрепя иновациите, да зачита свободата на науката и не следва да е пречка за научноизследователската и развойната дейност. Поради това е необходимо от неговия обхват да бъдат изключени системите и моделите с ИИ, специално разработени и пуснати в действие единствено с цел научноизследователска и развойна дейност. Освен това е необходимо да се гарантира, че настоящият регламент не засяга по друг начин научноизследователската и развойната дейност в областта на системите или моделите с ИИ преди пускането им на пазара или пускането им в действие. По отношение на ориентираната към продуктите научноизследователска, изпитателна и развойна дейност във връзка със системи или модели с ИИ, разпоредбите на настоящия регламент също така не следва да се прилагат преди пускането в действие или пускането на пазара на тези системи и модели. Това изключение не засяга задължението за спазване на настоящия регламент, когато система с ИИ, попадаща в обхвата на настоящия регламент, е пусната на пазара или пусната в действие в резултат на такава научноизследователска и развойна дейност, както и прилагането на разпоредбите относно регулаторните лаборатории в областта на ИИ и изпитването в реални условия. Освен това, без да се засяга изключението по отношение на системите с ИИ, специално разработени и пуснати в действие единствено за целите на научноизследователската и развойната дейност, за всяка друга система с ИИ, която може да се използва за извършването на научноизследователска и развойна дейност, разпоредбите на настоящия регламент следва да продължат да се прилагат. Във всеки случай всяка научноизследователска и развойна дейност следва да се извършва в съответствие с признатите етични и професионални стандарти по отношение на научните изследвания и следва да се провежда в съответствие с приложимото право на Съюза.
(26)
Tekoälyjärjestelmiä koskevien oikeasuhteisten ja tehokkaiden sitovien sääntöjen käyttöön ottamiseksi olisi noudatettava selkeästi määriteltyä riskiperusteista lähestymistapaa. Tässä lähestymistavassa tällaisten sääntöjen tyyppi ja sisältö olisi sovitettava niiden riskien voimakkuuden ja laajuuden mukaan, joita tekoälyjärjestelmät voivat aiheuttaa. Sen vuoksi on tarpeen kieltää tietyt tekoälyyn liittyvät käytännöt, joita ei voida hyväksyä, vahvistaa suuririskisiä tekoälyjärjestelmiä koskevat vaatimukset ja asianomaisten toimijoiden velvollisuudet sekä asettaa avoimuusvelvoitteita tietyille tekoälyjärjestelmille.
(26)
За да се въведе пропорционален и ефективен набор от задължителни правила за системите с ИИ, следва да се прилага ясно определен подход, основан на риска. В рамките на този подход видът и съдържанието на правилата следва да се адаптират към интензитета и обхвата на рисковете, които системите с ИИ могат да породят. Поради това е необходимо да се забранят някои неприемливи практики в областта на ИИ, да се установят изисквания за високорисковите системи с ИИ и задължения за съответните оператори, както и да се установят задължения за прозрачност за някои системи с ИИ.
(27)
Riskiperusteinen lähestymistapa toimii perustana oikeasuhteisille ja tehokkaille sitoville säännöille. On kuitenkin tärkeää palauttaa mieleen komission nimittämän tekoälyä käsittelevän korkean tason asiantuntijaryhmän laatimat luotettavaa tekoälyä koskevat eettiset ohjeet vuodelta 2019. Asiantuntijaryhmä laati näihin ohjeisiin seitsemän ei-sitovaa tekoälyä koskevaa eettistä periaatetta, joiden on tarkoitus auttaa varmistamaan, että tekoäly on luotettavaa ja eettisesti hyväksyttävää. Nämä seitsemän periaatetta ovat ihmisen toimijuus ja ihmisen suorittama valvonta, tekninen vakaus ja turvallisuus, yksityisyyden suoja ja datanhallinta, avoimuus, monimuotoisuus, syrjimättömyys ja oikeudenmukaisuus sekä yhteiskunnallinen ja ympäristöön liittyvä hyvinvointi ja vastuuvelvollisuus. Eettisillä ohjeilla edistetään johdonmukaisen, luotettavan ja ihmiskeskeisen tekoälyn suunnittelua perusoikeuskirjan ja unionin perustana olevien arvojen mukaisesti, sanotun kuitenkaan rajoittamatta tämän asetuksen oikeudellisesti sitovien vaatimusten ja muun sovellettavan unionin oikeuden soveltamista. Tekoälyä käsittelevän korkean tason asiantuntijaryhmän eettisten ohjeiden mukaan ihmisen toimijuudella ja ihmisen suorittamalla valvonnalla tarkoitetaan, että tekoälyjärjestelmät kehitetään työkaluiksi ja niitä käytetään työkaluina, jotka palvelevat ihmisiä, kunnioittavat ihmisarvoa ja itsemääräämisoikeutta ja toimivat siten, että ihmisen on mahdollista hallita ja valvoa niitä.Teknisellä vakaudella ja turvallisuudella tarkoitetaan, että tekoälyjärjestelmät kehitetään ja niitä käytetään tavalla, jolla tahattomat ongelmatilanteet voidaan ratkaista vakaasti, jolla tekoälyjärjestelmä voi palautua yrityksistä muuttaa sen käyttöä tai toimintaa siten, että kolmannet osapuolet voisivat käyttää sitä laittomasti, ja jolla pidetään tahattomat haitat mahdollisimman vähäisinä. Yksityisyydellä ja datanhallinnalla tarkoitetaan, että tekoälyjärjestelmät kehitetään ja niitä käytetään yksityisyydensuojaa ja tietosuojaa koskevien säännösten mukaisesti käsiteltäessä tietoja, jotka täyttävät tiukat vaatimukset laadun ja eheyden osalta. Avoimuudella tarkoitetaan, että tekoälyjärjestelmiä kehitetään ja käytetään tavalla, joka mahdollistaa asianmukaisen jäljitettävyyden ja selitettävyyden, saa ihmiset tietoiseksi siitä, että he viestivät tai ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, ja tiedottaa käyttöönottajille asianmukaisesti kulloisenkin tekoälyjärjestelmän suorituskykyyn liittyvistä valmiuksista ja rajoituksista sekä henkilöille, joihin vaikutukset kohdistuvat, heidän oikeuksistaan. Monimuotoisuudella, syrjimättömyydellä ja oikeudenmukaisuudella tarkoitetaan, että tekoälyjärjestelmiä kehitetään ja käytetään tavalla, jossa on mukana monimuotoisia toimijoita ja jolla edistetään yhtäläisiä mahdollisuuksia, sukupuolten tasa-arvoa ja kulttuurien monimuotoisuutta ja vältetään unionin tai kansallisessa lainsäädännössä kiellettyjä syrjiviä vaikutuksia ja epäoikeudenmukaisia vääristymiä. Sosiaalisella ja ympäristöön liittyvällä hyvinvoinnilla tarkoitetaan, että tekoälyjärjestelmiä kehitetään ja käytetään kestävällä ja ympäristöystävällisellä tavalla sekä siten, että ne ovat hyödyksi kaikille ihmisille, seuraten ja arvioiden samalla pitkän aikavälin vaikutuksia yksilöihin, yhteyskuntaan ja demokratiaan. Nämä periaatteet olisi mahdollisuuksien mukaan otettava huomioon tekoälymallien suunnittelussa ja käytössä. Niiden olisi joka tapauksessa toimittava perustana, kun tämän asetuksen mukaiset käytännesäännöt laaditaan. Kaikkia sidosryhmiä, kuten teollisuutta, tiedeyhteisöä, kansalaisyhteiskuntaa ja standardointijärjestöjä, kannustetaan ottamaan tarvittaessa huomioon eettiset periaatteet, kun ne kehittävät vapaaehtoisia parhaita käytäntöjä ja standardeja.
(27)
Въпреки че основаният на риска подход е основата за пропорционален и ефективен набор от задължителни правила, е важно да се припомнят Насоките относно етичните аспекти за надежден ИИ от 2019 г., разработени от независимата ЕГВР ИИ, определена от Комисията. В тези насоки ЕГВР ИИ е разработила седем необвързващи етични принципа за ИИ, които имат за цел да спомогнат да се гарантира, че ИИ е надежден и етичен. Седемте принципа включват човешки фактор и контрол; техническа стабилност и безопасност; неприкосновеност на личния живот и управление на данните; прозрачност; многообразие, недискриминация и справедливост; обществено и екологично благосъстояние; отчетност. Без да засягат правно обвързващите изисквания на настоящия регламент и на всички други приложими правни актове на Съюза, посочените насоки допринасят за разработването на съгласуван, надежден и ориентиран към човека ИИ в съответствие с Хартата и с ценностите, на които се основава Съюзът. Съгласно Насоките на ЕГВР ИИ човешки фактор и контрол означава, че системите с ИИ се разработват и използват като инструмент, който служи на хората, зачита човешкото достойнство и личната независимост и функционира така, че да може да се контролира и наблюдава от хората по подходящ начин. Техническа стабилност и безопасност означава, че системите с ИИ се разработват и използват по начин, който позволява стабилност в случай на проблеми и устойчивост срещу опити за промяна на използването или действието на системата с ИИ, така че да се даде възможност за незаконно използване от трети лица, и който свежда до минимум непреднамерените вреди. Неприкосновеност на личния живот и управление на данните означава, че системите с ИИ се разработват и използват в съответствие с правилата относно неприкосновеността на личния живот и защитата на данните, като същевременно се обработват данни, които отговарят на високи стандарти по отношение на качеството и целостта. Прозрачност означава, че системите с ИИ се разработват и използват по начин, който позволява подходяща проследимост и разбираемост, като същевременно хората се уведомяват, че комуникират или си взаимодействат със система с ИИ, и внедрителите надлежно се информират за способностите и ограниченията на тази система с ИИ, а засегнатите лица – за техните права. Многообразие, недискриминация и справедливост означава, че системите с ИИ се разработват и използват по начин, който включва различни участници и насърчава равния достъп, равенството между половете и културното многообразие, като същевременно се избягват дискриминационните въздействия и несправедливата предубеденост, които са забранени от правото на Съюза или националното право. Обществено и екологично благосъстояние означава, че системите с ИИ се разработват и използват по устойчив и екологосъобразен начин, както и така, че да са от полза за всички хора, като същевременно се наблюдават и оценяват дългосрочните въздействия върху отделните лица, обществото и демокрацията. Прилагането на тези принципи следва да бъде отразено, когато е възможно, при проектирането и използването на модели с ИИ. При всички случаи те следва да служат като основа за изготвянето на кодекси за поведение съгласно настоящия регламент. Всички заинтересовани страни, включително стопанските сектори, академичните среди, гражданското общество и организациите за стандартизация, се насърчават да вземат предвид, когато е целесъобразно, етичните принципи за разработването на незадължителни най-добри практики и стандарти.
(28)
Tekoälyn monien hyödyllisten käyttötarkoitusten lisäksi sitä voidaan myös käyttää väärin, ja se voi tarjota uusia ja tehokkaita välineitä käytäntöihin, joihin liittyy manipulointia, hyväksikäyttöä ja sosiaalista valvontaa. Tällaiset käytännöt ovat erityisen haitallisia ja loukkaavia, ja ne olisi kiellettävä, koska ne ovat ihmisarvon kunnioittamista, vapautta, tasa-arvoa, demokratiaa ja oikeusvaltiota koskevien unionin arvojen sekä perusoikeuskirjassa vahvistettujen perusoikeuksien vastaisia, mukaan lukien oikeus syrjimättömyyteen, tietosuoja ja yksityisyyden suoja sekä lapsen oikeudet.
(28)
Въпреки че ИИ има многобройни полезни приложения, с него може да се злоупотребява и той може да осигури нови и мощни инструменти за манипулативни и експлоататорски практики и практики за социален контрол. Тези практики са особено вредни и недобросъвестни и следва да бъдат забранени, тъй като противоречат на ценностите на Съюза за зачитане на човешкото достойнство, свободата, равенството, демокрацията и принципите на правовата държава, и основните права, залегнали в Хартата, включително правото на недискриминация, на защита на данните и на неприкосновеност на личния живот, както и правата на детето.
(29)
Tekoälyä hyödyntäviä manipulointitekniikoita voidaan käyttää taivuttelemaan henkilöitä haitallisiin käyttäytymismalleihin tai harhauttamaan heitä suuntaamalla heitä tekemään päätöksiä tavalla, joka horjuttaa ja heikentää heidän itsenäisyyttään, päätöksentekoaan ja valinnanvapauttaan. Sellaisten tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tai käyttö, joiden tarkoitus on vääristää olennaisesti tai joiden käytön tuloksena vääristetään olennaisesti ihmisten käyttäytymistä, mistä todennäköisesti aiheutuu huomattavia haittoja, joilla on erityisesti riittävän merkittävä kielteinen vaikutus fyysiseen tai psyykkiseen terveyteen taikka taloudellisiin etuihin, on erityisen vaarallista ja se olisi näin ollen kiellettävä. Tällaisissa tekoälyjärjestelmissä käytetään subliminaalisia komponentteja, kuten ääni-, kuva- ja videoärsykkeitä, joita henkilöt eivät voi havaita, koska tällaiset ärsykkeet ovat ihmisen havaitsemiskyvyn ulkopuolella, tai muita manipuloivia tai harhaanjohtavia tekniikkoja, joilla horjutetaan tai heikennetään henkilön itsenäisyyttä, päätöksentekoa ja valinnanvapautta tavoilla, joista ihmiset eivät ole tietoisia tai vaikka olisivatkin, he voivat silti tulla harhaanjohdetuiksi tai eivät pysty hallitsemaan tai vastustamaan niitä. Tällaista harhaanjohtamista voisivat helpottaa esimerkiksi aivojen ja tietokoneen rajapinnat tai virtuaalitodellisuus, koska niiden avulla voidaan paremmin hallita sitä, mitä ärsykkeitä esitetään henkilöille, siinä määrin kuin ne voivat vääristää olennaisesti heidän käyttäytymistään merkittävästi haitallisella tavalla. Lisäksi tekoälyjärjestelmissä voidaan myös muutoin hyödyntää henkilön tai tietyn henkilöryhmän haavoittuvuuksia, jotka liittyvät heidän ikäänsä, Euroopan parlamentin ja neuvoston direktiivissä (EU) 2019/882 (16) tarkoitettuun vammaan tai erityiseen sosiaaliseen tai taloudelliseen tilanteeseen, joka todennäköisesti saattaa nämä henkilöt haavoittuvammiksi hyväksikäytölle, kuten äärimmäisessä köyhyydessä elävät henkilöt tai etniset tai uskonnolliset vähemmistöt.Tällaisia tekoälyjärjestelmiä saatetaan saattaa markkinoille, ottaa käyttöön tai käyttää siten, että tavoitteena tai vaikutuksena on henkilön käytöksen olennainen vääristyminen, ja tavalla, joka aiheuttaa tai kohtuullisella todennäköisyydellä aiheuttaa huomattavaa haittaa kyseiselle henkilölle tai muulle henkilölle tai henkilöryhmälle, mukaan lukien ajan kuluessa mahdollisesti kumuloituvat haitat, ja siksi tekoälyjärjestelmien tällainen käyttö olisi kiellettävä. Voi olla mahdotonta olettaa, että käyttäytymisen vääristyminen on tarkoituksellista, jos käyttäytymisen vääristyminen johtuu tekoälyjärjestelmän ulkopuolisista tekijöistä, jotka eivät ole tarjoajan tai käyttöönottajan hallittavissa, eli tekijöistä, joita tekoälyjärjestelmän tarjoaja tai käyttöönottaja ei voi kohtuudella ennustaa ja näin ollen lieventää. Joka tapauksessa tarjoajalla tai käyttöönottajalla ei tarvitse olla aikomusta aiheuttaa huomattavaa haittaa, vaan kiellon perusteeksi riittää, että tällaista haittaa aiheutuu manipuloivista tai hyväksikäyttävistä tekoälyä hyödyntävistä käytännöistä. Tällaisia tekoälykäytäntöjä koskevilla kielloilla täydennetään Euroopan parlamentin ja neuvoston direktiivissä 2005/29/EY (17) olevia säännöksiä erityisesti siltä osin, että kuluttajille taloudellisia tai rahoituksellisia haittoja aiheuttavat hyvän kauppatavan vastaiset käytännöt kielletään kaikissa olosuhteissa riippumatta siitä, onko ne otettu käyttöön tekoälyjärjestelmien avulla tai muutoin. Tässä asetuksessa säädetyt manipuloivien ja hyväksikäyttävien käytäntöjen kiellot eivät saisi vaikuttaa laillisiin käytäntöihin sairaanhoidon alalla, kuten mielenterveyshäiriöiden psykologiseen hoitoon tai fyysiseen kuntoutumiseen, kun tällaiset käytännöt toteutetaan sovellettavan lainsäädännön ja sovellettavien lääketieteellisten standardien mukaisesti, esimerkiksi edellyttämällä asianomaisten henkilöiden tai heidän edustajiensa nimenomaista suostumusta. Sovellettavan lainsäädännön mukaisten, esimerkiksi mainonnan alalla toteutettavien yleisten ja oikeutettujen kaupallisten menettelyjen ei myöskään saisi itsessään katsoa olevan haitallisia manipuloivia tekoälyä hyödyntäviä käytäntöjä.
(29)
Манипулативните техники, използващи ИИ, могат да служат за склоняване на хората към нежелано поведение или за подвеждането им, като ги подтикват да вземат решения по начин, който подкопава и накърнява тяхната независимост, вземане на решения и свободен избор. Пускането на пазара, пускането в действие или използването на някои системи с ИИ с цел или последици, изразяващи се в съществено изменение на човешкото поведение, при което е вероятно да възникнат значителни вреди, по-специално оказващи достатъчно значимо неблагоприятно въздействие върху физическото или психологическото здраве или финансовите интереси, са особено опасни и поради това следва да бъдат забранени. Такива системи с ИИ използват компоненти, действащи на подсъзнанието, например стимули чрез изображения и аудио и видео стимули, които хората не могат да възприемат, тъй като тези стимули са отвъд човешкото възприятие, или други манипулативни или заблуждаващи техники, които подкопават или накърняват независимостта, вземането на решения или свободния избор така, че хората не осъзнават, че се използват такива техники, или дори когато го осъзнават, те все пак могат да бъдат заблудени или не са в състояние да ги контролират или да им устоят. Това може да бъде улеснено например от интерфейси мозък-машина или виртуална реалност, тъй като те позволяват по-висока степен на контрол върху това какви стимули се предоставят на хората, доколкото те могат съществено да променят поведението им по начин, който води до значителна вреда. Наред с това системите с ИИ могат да се възползват и по друг начин от уязвимостта на дадено лице или конкретна група лица поради тяхната възраст, увреждане по смисъла на Директива (ЕС) 2019/882 на Европейския парламенти и на Съвета (16) или конкретно социално или икономическо положение, което има вероятност да направи тези лица по-уязвими на експлоатация, като например лица, живеещи в крайна бедност, етнически или религиозни малцинства. Такива системи с ИИ могат да бъдат пуснати на пазара, пуснати в действие или използвани с цел или последици, изразяващи се в съществено изменение на поведението на дадено лице, и по начин, който причинява или има разумна вероятност да причини значителна вреда на това или на друго лице или групи лица, включително вреди, които могат да се натрупват с течение на времето, поради което следва да бъдат забранени. Може да не е възможно да се приеме, че е налице намерение за изменение на поведението, когато изменението се дължи на фактори, външни за системата с ИИ, които са извън контрола на доставчика или внедрителя, а именно фактори, които може да не са разумно предвидими и поради това да не е възможно доставчикът или внедрителят на системата с ИИ да ги смекчи. Във всеки случай не е необходимо доставчикът или внедрителят да има намерение да причини значителна вреда, при условие че тази вреда произтича от манипулативни или експлоататорски практики, използващи ИИ. Забраните за такива практики в областта на ИИ допълват разпоредбите, съдържащи се в Директива 2005/29/ЕО на Европейския парламент и на Съвета (17), по-специално за забрана при всички обстоятелства на нелоялните търговски практики, водещи до икономически или финансови вреди за потребителите, независимо дали са въведени чрез системи с ИИ, или по друг начин. Забраните за манипулативни и експлоататорски практики в настоящия регламент не следва да засягат законните практики при медицинско лечение, като например психологическо лечение на психично заболяване или физическа рехабилитация, когато тези практики се извършват в съответствие с приложимото право и приложимите медицински стандарти, например за изричното съгласие на лицата или техните законни представители. Освен това общоприетите и законни търговски практики, например в областта на рекламата, които са в съответствие с приложимото право, не следва сами по себе си да се считат за вредни манипулативни практики, използващи ИИ.
(30)
Olisi kiellettävä biometriset luokittelujärjestelmät, jotka perustuvat luonnollisten henkilöiden biometrisiin tietoihin, kuten henkilön kasvokuva- tai sormenjälkitietoihin, joiden perusteella päätellään tai johdetaan henkilön poliittisia mielipiteitä, ammattiliiton jäsenyyttä, uskonnollista tai filosofista vakaumusta, rotua, seksuaalista käyttäytymistä tai seksuaalista suuntautumista koskevia seikkoja. Tämä kielto ei saisi koskea sellaisten biometristen tietoaineistojen laillista merkitsemistä, suodattamista tai luokittelua, jotka on hankittu biometrisiä tietoja koskevan unionin tai kansallisen lainsäädännön mukaisesti, mukaan lukien hiusten tai silmien värin mukaan tapahtuva kuvien lajittelu, jota voidaan käyttää esimerkiksi lainvalvonnassa.
(30)
Следва да бъдат забранени системите за биометрично категоризиране, които се основават на биометрични данни на физическите лица, като например лицето или пръстовите отпечатъци на дадено лице, за да се направят заключения или изводи относно неговите политически възгледи, членство в синдикални организации, религиозни или философски убеждения, раса, сексуален живот или сексуална ориентация. Тази забрана не следва да обхваща законното обозначаване, филтриране или категоризиране на наборите от биометрични данни, получени в съответствие с правото на Съюза или националното право въз основа на биометрични данни, като например сортиране на изображения според цвета на косата или цвета на очите, които могат да се използват например в правоохранителната област.
(31)
Tekoälyjärjestelmät, joiden avulla julkiset tai yksityiset toimijat toteuttavat luonnollisten henkilöiden sosiaalista pisteyttämistä, voivat johtaa syrjiviin tuloksiin ja tiettyjen ryhmien syrjäytymiseen. Ne voivat loukata oikeutta ihmisarvoon ja syrjimättömyyteen sekä tasa-arvon ja oikeussuojan arvoja. Tällaiset tekoälyjärjestelmät arvioivat tai luokittelevat luonnollisia henkilöitä tai henkilöryhmiä tiettyinä ajanjaksoina heidän sosiaaliseen käyttäytymiseensä useissa yhteyksissä liittyvien monien tietopisteiden perusteella tai heidän tunnettujen, pääteltyjen tai ennakoitujen henkilökohtaisten ominaisuuksiensa tai luonteenpiirteidensä perusteella. Tällaisista tekoälyjärjestelmistä saadut sosiaaliset pisteet voivat johtaa luonnollisten henkilöiden tai kokonaisten henkilöryhmien haitalliseen tai epäedulliseen kohteluun sosiaalisissa yhteyksissä, jotka eivät liity siihen asiayhteyteen, jossa tiedot alun perin tuotettiin tai kerättiin, tai haitalliseen kohteluun, joka on suhteetonta tai perusteetonta heidän sosiaalisen käyttäytymisensä vakavuuteen nähden. Tekoälyjärjestelmät, jotka tuottavat tällaisia pisteytyskäytäntöjä, joita ei voida hyväksyä ja jotka johtavat tällaisiin haitallisiin tai epäedullisiin tuloksiin, olisi näin ollen kiellettävä. Tämä kielto ei saisi vaikuttaa luonnollisten henkilöiden lainmukaisiin arviointikäytäntöihin, joita toteutetaan erityistä tarkoitusta varten unionin ja kansallisen lainsäädännön mukaisesti.
(31)
Системите с ИИ, осигуряващи социално оценяване на физически лица, извършено от публични или частни субекти, могат да доведат до дискриминационни резултати и изключване на определени групи. Те могат да нарушат правото на достойнство и недискриминация и ценностите на равенството и справедливостта. Подобни системи с ИИ оценяват или класифицират физически лица или групи от такива лица въз основа на множество данни, свързани с тяхното социално поведение в различен контекст, или известни, изведени или предполагаеми лични или личностни характеристики, през определен период от време. Социалната класация, получена от такива системи с ИИ, може да доведе до увреждащо или неблагоприятно третиране на физически лица или на цели групи от такива лица в социален контекст, който няма връзка с контекста, в който първоначално са били генерирани или събрани данните, или до увреждащо третиране, което е непропорционално или неоправдано с оглед на тежестта, която се отдава на тяхното социално поведение. Поради това системите с ИИ, които включват такива неприемливи практики за оценяване и водещи до вредни или неблагоприятни резултати, следва да бъдат забранени. Тази забрана не следва да засяга законните практики за оценяване на физически лица, извършвани за конкретна цел в съответствие с правото на Съюза или националното право.
(32)
Käyttämällä tekoälyjärjestelmiä luonnollisten henkilöiden reaaliaikaiseen biometriseen etätunnistukseen julkisissa tiloissa lainvalvontatarkoituksessa puututaan erityisen pitkälle menevällä tavalla asianomaisten henkilöiden oikeuksiin ja vapauksiin, sillä tämä voi vaikuttaa suuren väestönosan yksityiselämään, synnyttää tunteen jatkuvasta valvonnasta ja estää välillisesti kokoontumisvapauden ja muiden perusoikeuksien käyttämisen. Luonnollisten henkilöiden biometriseen etätunnistukseen tarkoitettujen tekoälyjärjestelmien tekniset epätarkkuudet voivat johtaa vinoutuneisiin tuloksiin ja aiheuttaa syrjiviä vaikutuksia. Tällaiset mahdolliset vinoutuneet tulokset ja syrjivät vaikutukset ovat erityisen merkityksellisiä, kun ne liittyvät ikään, etniseen alkuperään, rotuun, sukupuoleen tai vammaisuuteen. Lisäksi tällaisten reaaliaikaisten järjestelmien käyttöön liittyvien vaikutusten välittömyys ja rajalliset mahdollisuudet lisätarkastuksiin tai korjauksiin lisäävät asianomaisten henkilöiden oikeuksiin ja vapauksiin kohdistuvia riskejä lainvalvontatoimien yhteydessä tai asianomaisten henkilöiden, joihin lainvalvontatoimet vaikuttavat, oikeuksiin ja vapauksiin kohdistuvia riskejä.
(32)
Използването на системи с ИИ за дистанционна биометрична идентификация в реално време на физически лица на обществено достъпни места за правоохранителни цели особено силно накърнява правата и свободите на засегнатите лица, доколкото то може да засегне личния живот на голяма част от населението, да породи усещане за постоянно наблюдение и косвено да действа разубеждаващо по отношение на упражняването на свободата на събранията и други основни права. Техническите неточности на системите с ИИ, предназначени за дистанционна биометрична идентификация на физически лица, могат да доведат до опорочени от предубеденост резултати и до дискриминация. Такива възможни опорочени от предубеденост резултати и дискриминационни последици са от особено значение по отношение на възраст, етническа принадлежност, раса, пол или увреждане. Освен това непосредственият ефект и ограничените възможности за допълнителни проверки или корекции във връзка с използването на такива системи, функциониращи в реално време, крият повишен риск за правата и свободите на лицата, които са засегнати при правоохранителните дейности или върху които тези дейности оказват въздействие.
(33)
Näiden järjestelmien käyttö lainvalvontatarkoituksiin olisi sen vuoksi kiellettävä lukuun ottamatta tyhjentävästi lueteltuja ja kapeasti määriteltyjä tilanteita, joissa käyttö on ehdottoman välttämätöntä sellaisen tärkeän yleisen edun saavuttamiseksi, jonka merkitys on riskejä suurempi. Näihin tilanteisiin kuuluvat tiettyjen rikosten uhrien, myös kadonneiden henkilöiden, etsintä; tietyt luonnollisten henkilöiden henkeen tai fyysiseen turvallisuuteen kohdistuvan uhat tai terrori-iskun uhat; sekä tämän asetuksen liitteessä lueteltujen rikosten tekijöiden tai tällaisista rikoksista epäiltyjen paikantaminen tai tunnistaminen, jos näistä rikoksista voi asianomaisessa jäsenvaltiossa seurata vapaudenmenetyksen käsittävä rangaistus tai turvaamistoimenpide, jonka enimmäisaika on vähintään neljä vuotta, sellaisina kuin ne on määritelty kyseisen jäsenvaltion lainsäädännössä. Tällainen kansallisen lainsäädännön mukaisen vapaudenmenetyksen käsittävän rangaistuksen tai turvaamistoimenpiteen vähimmäisaika auttaa osaltaan varmistamaan, että rikoksen olisi oltava riittävän vakava, jotta sillä voidaan tarvittaessa perustella reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö. Lisäksi tämän asetuksen liitteessä vahvistettu rikosten luettelo perustuu neuvoston puitepäätöksessä 2002/584/YOS (18) lueteltuihin 32 rikokseen ottaen huomioon, että jotkin niistä ovat käytännössä todennäköisesti merkityksellisempiä kuin toiset, koska reaaliaikaiseen biometriseen etätunnistukseen turvautuminen olisi oletettavasti hyvin vaihtelevassa määrin välttämätöntä ja oikeasuhteista, kun eri lueteltujen rikosten tekijöitä tai niistä epäiltyjä pyritään käytännössä paikantamaan tai tunnistamaan ja kun otetaan huomioon todennäköiset erot vahingon tai mahdollisten kielteisten seurausten vakavuudessa, todennäköisyydessä ja laajuudessa. Välitön uhka, joka kohdistuu luonnollisen henkilön henkeen tai fyysiseen turvallisuuteen, voi olla seurausta myös Euroopan parlamentin ja neuvoston direktiivin (EU) 2022/2557 (19) 2 artiklan 4 alakohdassa määritellyn elintärkeän infrastruktuurin vakavasta häiriöstä, kun tällaisen elintärkeän infrastruktuurin vahingoittuminen tai tuhoutuminen johtaisi henkilön henkeen tai fyysiseen turvallisuuteen kohdistuvaan välittömään uhkaan, myös väestölle tarkoitettujen perustarvikkeiden toimitukselle tai valtion ydintehtävien hoitamiselle aiheutuvan vakavan haitan kautta. Lisäksi tässä asetuksessa olisi säilytettävä lainvalvonta-, rajavalvonta-, maahanmuutto- ja turvapaikkaviranomaisten kyky suorittaa henkilöllisyyden toteamistoimia kyseessä olevan henkilön läsnä ollessa unionin ja jäsenvaltioiden lainsäädännössä tällaisille tarkastuksille asetettujen edellytysten mukaisesti. Lainvalvonta-, rajavalvonta-, maahanmuutto- ja turvapaikkaviranomaisten olisi erityisesti voitava käyttää tietojärjestelmiä unionin tai jäsenvaltioiden lainsäädännön mukaisesti tunnistaakseen henkilön, joka henkilöllisyyden toteamisen yhteydessä joko kieltäytyy henkilöllisyyden toteamisesta tai ei pysty ilmoittamaan tai todistamaan henkilöllisyyttään, ilman että niiltä vaaditaan tässä asetuksessa ennakkoluvan saamista. Kyseessä voisi olla esimerkiksi rikokseen osallistunut henkilö, joka ei halua tai pysty onnettomuuden tai sairauden takia ilmoittamaan henkilöllisyyttään lainvalvontaviranomaisille.
(33)
Поради това използването на тези системи за правоохранителни цели следва да бъде забранено, освен в изчерпателно изброени и подробно определени ситуации, при които използването е строго необходимо за постигане на значителен обществен интерес, чиято важност надделява над рисковете. Тези ситуации включват издирването на някои жертви на престъпления, включително изчезнали лица; някои заплахи за живота или физическата безопасност на физически лица или от терористично нападение; както и установяването на местоположението или самоличността на извършители или заподозрени в извършването на престъпленията, изброени в приложение към настоящия регламент, когато тези престъпления се наказват в съответната държава членка с лишаване от свобода или мярка за задържане с максимален срок не по-малко от четири години, като се отчита определението на тези престъпления в правото на съответната държава членка. Прагът относно срока на лишаването от свобода или на мярката за задържане в съответствие с националното право спомага да се гарантира, че престъплението е достатъчно тежко, за да обоснове евентуално използването на системи за дистанционна биометрична идентификация в реално време. Освен това списъкът на престъпленията, поместен в приложение към настоящия регламент, се основава на 32-те престъпления, изброени в Рамково решение 2002/584/ПВР на Съвета (18), като се отчита, че някои от тези престъпления на практика вероятно имат по-голямо значение от други, доколкото използването на дистанционна биометрична идентификация в реално време би могло да е вероятно необходимо и пропорционално в много различна степен с оглед на практическото установяване на местоположението или самоличността на извършителя или заподозрения за различните изброени престъпления, като се имат предвид също вероятните разлики в тяхната тежест, вероятност и размер на вредата или възможните отрицателни последици. Непосредствена заплаха за живота или физическата безопасност на физически лица може да възникне и от сериозно нарушаване на критична инфраструктура съгласно определението в член 2, точка 4 от Директива (ЕС) 2022/2557 на Европейския парламент и на Съвета (19), когато нарушаването или унищожаването на такава критична инфраструктура би довело до непосредствена заплаха за живота или физическата безопасност на дадено лице, включително чрез сериозно увреждане на снабдяването с основни продукти за населението или на упражняването на основните функции на държавата. Освен това с настоящия регламент следва да се запази възможността правоохранителните органи, органите за граничен контрол, имиграционните органи или органите в областта на убежището да извършват проверки на самоличността в присъствието на засегнатото лице в съответствие с условията, определени в правото на Съюза и в националното право за такива проверки. По-специално, правоохранителните органи, органите за граничен контрол, имиграционните органи или органите в областта на убежището следва да могат да използват информационни системи, в съответствие с правото на Съюза или националното право, за установяване на самоличността на лица, които по време на проверка за установяване на самоличността отказват да бъде установена самоличността им или не са в състояние да посочат или докажат самоличността си, без настоящият регламент да изисква предварително разрешение с тази цел. Това може да бъде например лице, замесено в престъпление, което не желае или не може, поради злополука или здравословно състояние, да разкрие самоличността си пред правоохранителните органи.
(34)
Sen varmistamiseksi, että näitä järjestelmiä käytetään vastuullisella ja oikeasuhteisella tavalla, on myös tärkeää vahvistaa, että kussakin näistä tyhjentävästi luetellusta ja suppeasti määritellystä tilanteesta olisi otettava huomioon tietyt tekijät, erityisesti pyynnön perusteena olevan tilanteen luonne ja käytön seuraukset kaikkien asianomaisten henkilöiden oikeuksille ja vapauksille sekä käyttöä koskevat suojatoimet ja ehdot. Lisäksi reaaliaikaisia biometrisiä etätunnistusjärjestelmiä olisi käytettävä julkisissa tiloissa lainvalvontatarkoituksessa ainoastaan vahvistamaan kohteena olevan yksilön henkilöllisyys ja tämä käyttö olisi rajoitettava siihen, mikä on ehdottoman välttämätöntä, kun otetaan huomioon tällaisen järjestelmän käytön kesto sekä maantieteellinen ja henkilötason laajuus ja erityisesti uhkia, uhreja tai rikoksentekijää koskevat todisteet tai tiedossa olevat seikat. Reaaliaikaisen biometrisen etätunnistusjärjestelmän käyttö julkisissa tiloissa olisi sallittava vain, jos lainvalvontaviranomainen on saattanut päätökseen perusoikeuksia koskevan vaikutustenarvioinnin ja, jollei tässä asetuksessa toisin säädetä, rekisteröinyt järjestelmän tietokantaan tämän asetuksen mukaisesti. Henkilöitä koskevan viitetietokannan olisi oltava kuhunkin käyttötapaukseen sopiva kussakin edellä mainitussa tapauksessa.
(34)
За да се гарантира, че тези системи се използват по отговорен и пропорционален начин, е важно също така да се определи, че във всяка от тези изчерпателно изброени и подробно определени ситуации следва да се вземат предвид определени елементи, по-специално по отношение на естеството на ситуацията, във връзка с която е искането, и последиците от използването за правата и свободите на всички засегнати лица, както и гаранциите и условията, при които ще премине използването. Освен това използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели следва да бъде единствено с цел потвърждаване на самоличността на конкретно лице и следва да бъде ограничено до строго необходимото от гледна точка на срок, както и на териториален обхват и обхват по отношение на лицата, като се вземат предвид по-специално доказателствата или признаците за опасностите, жертвите или извършителя. Използването на системата за дистанционна биометрична идентификация в реално време на обществено достъпни места следва да бъде разрешено само ако съответният правоохранителен орган е извършил оценка на въздействието върху основните права и, освен ако в настоящия регламент не е предвидено друго, е регистрирал системата в базата данни, посочена в настоящия регламент. Референтната база данни на лицата следва да бъде подходяща за всеки случай на използване във всяка от посочените по-горе ситуации.
(35)
Jokaisen reaaliaikaisen biometrisen etätunnistusjärjestelmän käytön julkisissa tiloissa lainvalvontatarkoituksessa olisi edellytettävä nimenomaista ja erityistä lupaa jäsenvaltion oikeusviranomaiselta tai riippumattomalta hallintoviranomaiselta, jonka päätös on sitova. Tällainen lupa olisi periaatteessa saatava ennen kuin tekoälyjärjestelmää käytetään henkilön tai henkilöiden tunnistamiseksi. Poikkeuksia tähän sääntöön olisi sallittava asianmukaisesti perustelluissa kiireellisissä tapauksissa eli tilanteissa, joissa kyseisten järjestelmien käyttötarve on sellainen, että luvan saaminen ennen tekoälyjärjestelmän käytön aloittamista on tosiasiallisesti ja objektiivisesti mahdotonta. Tällaisissa kiireellisissä tilanteissa tekoälyjärjestelmän käyttö olisi rajoitettava siihen, mikä on ehdottoman välttämätöntä, ja siihen olisi sovellettava asianmukaisia suojatoimia ja ehtoja, jotka määritellään kansallisessa lainsäädännössä ja jotka lainvalvontaviranomainen itse määrittää kunkin yksittäisen kiireellisen käyttötapauksen yhteydessä. Lisäksi lainvalvontaviranomaisen olisi näissä tilanteissa pyydettävä tällaista lupaa ja esitettävä samalla ilman aiheetonta viivytystä ja viimeistään 24 tunnin kuluessa syyt siihen, miksi se ei ole voinut pyytää lupaa aikaisemmin. Jos lupa evätään, siihen liittyvien reaaliaikaisten biometristen tunnistusjärjestelmien käyttö olisi lopetettava välittömästi ja kaikki tällaiseen käyttöön liittyvät tiedot olisi poistettava. Tällaisia tietoja ovat esimerkiksi syöttötiedot, jotka tekoälyjärjestelmä on sen käytön aikana hankkinut suoraan, sekä kyseiseen lupaan liittyvän käytön tulokset ja tuotokset. Siihen ei pitäisi sisällyttää tietoja, jotka on hankittu laillisesti jonkin muun unionin tai kansallisen lainsäädännön mukaisesti. Missään tapauksessa päätöstä, jolla on henkilöön kohdistuvia kielteisiä oikeusvaikutuksia, ei saisi tehdä pelkästään biometrisen etätunnistusjärjestelmän tuotosten perusteella.
(35)
За всяко използване на система за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели следва да се изисква изрично и конкретно разрешение от съдебен орган или от независим административен орган на държава членка, чието решение е задължително. Това разрешение следва по принцип да бъде получено преди използването на системата с ИИ с цел идентифициране на дадено лице или лица. Изключения от това правило следва да се допускат в надлежно обосновани спешни случаи, а именно в ситуации, при които необходимостта от използване на съответните системи е такава, че е практически и обективно невъзможно да бъде получено разрешение преди началото на използването на системата с ИИ. При такива спешни ситуации използването на системата с ИИ следва да бъде ограничено до абсолютно необходимия минимум и да е съпроводено с подходящи гаранции и условия, както са установени в националното право и специално указани в контекста на всеки отделен случай на спешно използване от самия правоохранителен орган. Освен това в такива ситуации правоохранителният орган следва да поиска такова разрешение, като посочи причините, поради които не е могъл да го поиска по-рано, без ненужно забавяне и най-късно в рамките на 24 часа. Ако искането за това разрешение бъде отхвърлено, използването на системи за биометрична идентификация в реално време, свързано с това разрешение, следва да бъде прекратено незабавно и всички данни, свързани с това използване, следва да бъдат премахнати и заличени. Тези данни включват входящите данни, получени пряко от система с ИИ в хода на използването на такава система, както и резултатите от използването, свързано с това разрешение. Това не следва да включва входящи данни, законно придобити в съответствие с друг правен акт на Съюза или национален правен акт. Във всеки случай решение, което поражда неблагоприятни правни последици за дадено лице, не следва да бъде взето единствено въз основа на резултата от системата за дистанционна биометрична идентификация.
(36)
Jotta asianomainen markkinavalvontaviranomainen ja kansallinen tietosuojaviranomainen voisivat hoitaa tehtävänsä tässä asetuksessa ja kansallisissa säännöissä vahvistettujen vaatimusten mukaisesti, niille olisi ilmoitettava aina, kun reaaliaikaista biometristä tunnistusjärjestelmää käytetään. Ilmoituksia saaneiden markkinavalvontaviranomaisten ja kansallisten tietosuojaviranomaisten olisi toimitettava komissiolle vuosittain kertomus reaaliaikaisten biometristen tunnistusjärjestelmien käytöstä.
(36)
За да изпълняват задачите си в съответствие с изискванията, установени в настоящия регламент, както и в националните правила, съответният орган за надзор на пазара и националният орган за защита на данните следва да бъдат уведомявани за всяко използване на системата за биометрична идентификация в реално време. Уведомените за това използване органи за надзор на пазара и национални органи за защита на данните следва да представят на Комисията годишен доклад относно използването на системи за биометрична идентификация в реално време.
(37)
Osana tässä asetuksessa vahvistettuja kattavia puitteita on myös aiheellista säätää, että tällaisen tämän asetuksen mukaisen käytön olisi oltava mahdollista jäsenvaltion alueella vain jos ja siltä osin kuin kyseinen jäsenvaltio on kansallisen lainsäädäntönsä yksityiskohtaisissa säännöissä nimenomaisesti päättänyt säätää mahdollisuudesta sallia tällainen käyttö. Näin ollen jäsenvaltiot voivat tämän asetuksen nojalla olla säätämättä tällaisesta mahdollisuudesta lainkaan tai säätää tällaisesta mahdollisuudesta vain joidenkin tässä asetuksessa yksilöityjen tavoitteiden osalta, joilla sallittu käyttö voidaan perustella. Tällaisista kansallisista säännöistä olisi ilmoitettava komissiolle 30 päivän kuluessa niiden hyväksymisestä.
(37)
Също така е целесъобразно да се предвиди, в рамките на изчерпателната уредба, създадена с настоящия регламент, че такова използване на територията на държава членка в съответствие с настоящия регламент следва да бъде възможно само и доколкото съответната държава членка е решила изрично да предвиди възможността за допускане на такова използване в подробните правила на националното си право. Следователно съгласно настоящия регламент държавите членки са свободни изобщо да не предвиждат такава възможност или да предвидят такава възможност само по отношение на някои от целите, посочени в настоящия регламент, които могат да оправдаят допустимото използване. Тези национални правила следва да бъдат съобщени на Комисията в срок от 30 дни след приемането им.
(38)
Tekoälyjärjestelmien käyttö luonnollisten henkilöiden reaaliaikaiseen biometriseen etätunnistukseen julkisissa tiloissa lainvalvontatarkoituksessa edellyttää välttämättä biometristen tietojen käsittelyä. Tämän asetuksen sääntöjä, joissa kielletään tietyin poikkeuksin tällainen käyttö ja jotka perustuvat Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklaan, olisi sovellettava erityissäännöksinä (lex specialis) suhteessa direktiivin (EU) 2016/680 10 artiklaan sisältyviin biometristen tietojen käsittelyä koskeviin sääntöihin, eli niillä säännellään kattavasti tällaista käyttöä ja siihen liittyvien biometristen tietojen käsittelyä. Sen vuoksi tällaisen käytön ja käsittelyn olisi oltava mahdollista ainoastaan siinä määrin kuin se on yhteensopivaa tässä asetuksessa vahvistetun kehyksen kanssa, eikä toimivaltaisten viranomaisten pitäisi kyseisen kehyksen ulkopuolella lainvalvontatarkoituksessa toimiessaan voida käyttää tällaisia järjestelmiä ja käsitellä niiden yhteydessä tällaisia tietoja direktiivin (EU) 2016/680 10 artiklassa luetelluin perustein. Tässä yhteydessä tämän asetuksen tarkoituksena ei ole muodostaa oikeusperustaa direktiivin (EU) 2016/680 8 artiklan mukaiselle henkilötietojen käsittelylle. Reaaliaikaisten biometristen etätunnistusjärjestelmien käyttöä julkisissa tiloissa muihin tarkoituksiin kuin lainvalvontaan, myös toimivaltaisten viranomaisten toimesta, ei kuitenkaan pitäisi sisällyttää tässä asetuksessa vahvistettuun erityiskehykseen, joka koskee tällaista käyttöä lainvalvontatarkoituksessa. Tällaisen muussa kuin lainvalvontatarkoituksessa tapahtuvan käytön ei sen vuoksi pitäisi edellyttää tämän asetuksen mukaista lupaa eikä sen täytäntöönpanemiseksi annettujen kansallisen lainsäädännön yksityiskohtaisten sääntöjen soveltamista.
(38)
Използването на системи с ИИ за дистанционна биометрична идентификация в реално време на физически лица на обществено достъпни места за правоохранителни цели задължително включва обработването на биометрични данни. Правилата на настоящия регламент, които забраняват, с някои изключения, подобно използване и чието правно основание е член 16 ДФЕС, следва да се прилагат като lex specialis по отношение на правилата относно обработването на биометрични данни, съдържащи се в член 10 от Директива (ЕС) 2016/680, като по този начин се урежда изчерпателно това използване и свързаното с него обработване на биометрични данни. Поради това такова използване и такова обработване следва да бъдат възможни само доколкото са съвместими с рамката, установена с настоящия регламент, без да има възможност извън тази рамка компетентните органи, когато действат с правоохранителни цели, да използват такива системи и да обработват такива данни във връзка с тях на основанията, изброени в член 10 от Директива (ЕС) 2016/680. В този контекст настоящият регламент няма за цел да осигури правно основание на обработването на лични данни съгласно член 8 от Директива (ЕС) 2016/680. Използването обаче на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за цели, различни от правоохранителни цели, включително от компетентни органи, не следва да бъде обхванато от специалната рамка относно такова използване за правоохранителни цели, установена с настоящия регламент. Поради това спрямо използването за цели, различни от правоохранителни цели, не следва да се прилагат изискването за разрешение съгласно настоящия регламент и приложимите подробни правила на националното право, които може да уреждат това разрешение.
(39)
Kaikessa biometristen tietojen ja muiden henkilötietojen käsittelyssä, joka liittyy tekoälyjärjestelmien käyttöön biometriseen tunnistamiseen muussa yhteydessä kuin tässä asetuksessa säännellyssä reaaliaikaisten biometristen etätunnistusjärjestelmien käytössä julkisissa tiloissa lainvalvontatarkoituksessa olisi edelleen noudatettava kaikkia direktiivin (EU) 2016/680 10 artiklasta johtuvia vaatimuksia. Muita tarkoituksia kuin lainvalvontaa varten asetuksen (EU) 2016/679 9 artiklan 1 kohdassa ja asetuksen (EU) 2018/1725 10 artiklan 1 kohdassa kielletään biometristen tietojen käsittely joitakin kyseisissä artikloissa säädettyjä rajoitettuja poikkeuksia lukuun ottamatta. Asetuksen (EU) 2016/679 9 artiklan 1 kohtaa sovellettaessa kansalliset tietosuojaviranomaiset ovat jo kieltäneet biometrisen etätunnistuksen käytön muihin tarkoituksiin kuin lainvalvontatarkoituksiin.
(39)
Всяко обработване на биометрични данни и други лични данни, необходимо за използването на системи с ИИ за биометрична идентификация, различно от обработване във връзка с използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели, уредено в настоящия регламент, следва да продължи да отговаря на всички изисквания, произтичащи от член 10 от Директива (ЕС) 2016/680. За цели, различни от правоохранителни цели, с член 9, параграф 1 от Регламент (ЕС) 2016/679 и член 10, параграф 1 от Регламент (ЕС) 2018/1725 се забранява обработването на биометрични данни, като се прилагат ограничен брой изключения, предвидени в посочените членове. В приложение на член 9, параграф 1 от Регламент (ЕС) 2016/679 използването на дистанционна биометрична идентификация за цели, различни от правоохранителни цели, вече е забранявано с решения на националните органи за защита на данните.
(40)
Euroopan unionista tehtyyn sopimukseen ja Euroopan unionin toiminnasta tehtyyn sopimukseen liitetyn, Yhdistyneen kuningaskunnan ja Irlannin asemasta vapauden, turvallisuuden ja oikeuden alueen osalta tehdyssä pöytäkirjassa N:o 21 olevan 6 a artiklan mukaisesti Irlantia eivät sido tämän asetuksen 5 artiklan 1 kohdan ensimmäisen alakohdan g alakohdassa vahvistetut säännöt, siltä osin kuin ne koskevat biometristen luokittelujärjestelmien käytöstä poliisiyhteistyössä ja rikosasioissa tehtävässä oikeudellisessa yhteistyössä, 5 artiklan 1 kohdan ensimmäisen alakohdan d alakohdassa vahvistetut säännöt, siltä osin kuin ne koskevat tekoälyjärjestelmien käyttöä, johon kyseisiä säännöksiä sovelletaan sekä 5 artiklan 1 kohdan ensimmäisen alakohdan h alakohdassa, 5 artiklan 2–6 kohdassa ja 26 artiklan 10 kohdassa vahvistetut säännöt, jotka on hyväksytty Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklan perusteella ja jotka koskevat jäsenvaltioiden suorittamaa henkilötietojen käsittelyä näiden toteuttaessa Euroopan unionin toiminnasta tehdyn sopimuksen kolmannen osan V osaston 4 tai 5 luvun soveltamisalaan kuuluvaa toimintaa, siinä tapauksessa, että Irlantia eivät sido rikosasioissa tehtävän oikeudellisen yhteistyön tai poliisiyhteistyön muotoa koskevat säännöt, jotka edellyttävät Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklan perusteella vahvistettujen säännösten noudattamista.
(40)
В съответствие с член 6а от Протокол № 21 относно позицията на Обединеното кралство и Ирландия по отношение на пространството на свобода, сигурност и правосъдие, приложен към ДЕС и към ДФЕС, Ирландия не е обвързана от правилата, предвидени в член 5, параграф 1, първа алинея, буква ж), доколкото се прилагат за използването на системи за биометрично категоризиране за дейности в областта на полицейското и съдебното сътрудничество по наказателноправни въпроси, в член 5, параграф 1, първа алинея, буква г), доколкото се прилагат за използването на системи с ИИ, обхванати от посочената разпоредба, в член 5, параграф 1, първа алинея, буква з) и параграфи 2 – 6 и в член 26, параграф 10 от настоящия регламент, приети на основание член 16 ДФЕС и отнасящи се до обработването на лични данни от държавите членки при осъществяване на дейности, попадащи в обхвата на трета част, дял V, глава 4 или 5 ДФЕС, когато Ирландия не е обвързана от правилата, уреждащи формите на съдебно сътрудничество по наказателноправни въпроси или на полицейско сътрудничество, в рамките на които трябва да бъдат спазвани разпоредбите, установени на основание член 16 ДФЕС.
(41)
Euroopan unionista tehtyyn sopimukseen ja Euroopan unionin toiminnasta tehtyyn sopimukseen liitetyn, Tanskan asemasta tehdyssä pöytäkirjassa N:o 22 olevien 2 ja 2 a artiklan mukaisesti tämän asetuksen 5 artiklan 1 kohdan ensimmäisen alakohdan g alakohdassa vahvistetut säännöt, siltä osin kuin ne koskevat biometristen luokittelujärjestelmien käytöstä poliisiyhteistyössä ja rikosasioissa tehtävässä oikeudellisessa yhteistyössä, 5 artiklan 1 kohdan ensimmäisen alakohdan d alakohdassa vahvistetut säännöt, siltä osin kuin ne koskevat tekoälyjärjestelmien käyttöä, johon kyseisiä säännöksiä sovelletaan sekä 5 artiklan 1 kohdan ensimmäisen alakohdan h alakohdassa, 5 artiklan 2–6 kohdassa ja 26 artiklan 10 kohdassa vahvistetut säännöt, jotka on hyväksytty Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklan perusteella ja jotka koskevat jäsenvaltioiden suorittamaa henkilötietojen käsittelyä näiden toteuttaessa Euroopan unionin toiminnasta tehdyn sopimuksen kolmannen osan V osaston 4 tai 5 luvun soveltamisalaan kuuluvaa toimintaa, eivät sido Tanskaa eikä niitä sovelleta Tanskaan.
(41)
В съответствие с членове 2 и 2а от Протокол № 22 относно позицията на Дания, приложен към ДЕС и към ДФЕС, Дания не е обвързана и за нея не се прилагат правилата, предвидени в член 5, параграф 1, първа алинея, буква ж), доколкото се прилагат за използването на системи за биометрично категоризиране за дейности в областта на полицейското и съдебното сътрудничество по наказателноправни въпроси, в член 5, параграф 1, първа алинея, буква г), доколкото се прилагат за използването на системи с ИИ, обхванати от посочената разпоредба, в член 5, параграф 1, първа алинея, буква з) и параграфи 2 – 6 и в член 26, параграф 10 от настоящия регламент, приети на основание член 16 от ДФЕС и отнасящи се до обработването на лични данни от държавите членки при осъществяването на дейности, попадащи в обхвата на трета част, дял V, глава 4 или 5 ДФЕС.
(42)
Syyttömyysolettaman mukaisesti unionissa olevia luonnollisia henkilöitä olisi aina arvioitava heidän tosiasiallisen käyttäytymisensä perusteella. Luonnollisia henkilöitä ei pitäisi koskaan arvioida tekoälyn ennustaman käyttäytymisen perusteella, kun tämän ennusteen pohjana on pelkästään kyseisten henkilöiden profilointi, persoonallisuuspiirteet tai persoonallisuusominaisuudet, kuten kansallisuus, syntymäpaikka, asuinpaikka, lasten lukumäärä, velkataso tai autotyyppi, ilman, että on perusteltua syytä epäillä kyseisen henkilön osallistuvan rikolliseen toimintaan objektiivisten todennettavissa olevien tosiseikkojen perusteella, ja ilman ihmisen tekemää arviointia niistä. Sen vuoksi olisi kiellettävä luonnollisia henkilöitä koskevat riskinarvioinnit, joiden tarkoituksena on arvioida, miten todennäköisesti he tekevät rikoksia, tai ennakoida todellisen tai mahdollisen rikoksen tapahtumista yksinomaan kyseisten henkilöiden profiloinnin tai persoonallisuuspiirteiden ja persoonallisuusominaisuuksien arvioinnin perusteella. Kielto ei missään tapauksessa koske riskianalytiikkaa, joka ei perustu yksilöiden profilointiin tai yksilöiden persoonallisuuspiirteisiin ja persoonallisuusominaisuuksiin, kuten tekoälyjärjestelmiä, joissa käytetään riskianalytiikkaa yritysten talouspetosten todennäköisyyden arvioimiseksi epäilyttävien liiketoimien perusteella, tai riskianalytiikkavälineitä, joilla tulliviranomaiset voivat ennustaa, kuinka todennäköisesti tietyissä paikoissa esiintyy huumausaineita tai laittomia tavaroita, esimerkiksi tunnettujen salakuljetusreittien perusteella.
(42)
В съответствие с презумпцията за невиновност физическите лица в Съюза следва винаги да бъдат съдени въз основа на тяхното действително поведение. Физическите лица никога не следва да бъдат съдени въз основа на прогнозирано от ИИ поведение, базирано единствено на тяхното профилиране, личностни черти или характеристики, например гражданство, място на раждане, местопребиваване, брой деца, равнище на задлъжнялост или вид автомобил, без основателно подозрение за участието на лицето в престъпна дейност въз основа на обективни и проверими факти и без човешка оценка. Поради това следва да се забрани извършването на оценки на риска по отношение на физически лица, за да се оцени вероятността от извършване на престъпление или да се прогнозира извършването на действително или вероятно престъпление единствено въз основа на профилирането им или на оценката на техните личностни черти и характеристики. Във всеки случай тази забрана не се отнася до анализа на вероятността, който не се основава на профилирането на лица или на личностните черти и характеристики на тези лица, като например системи с ИИ, използващи анализ на риска за оценка на риска от финансови измами от страна на предприятия въз основа на подозрителни сделки или инструменти за анализ на риска за прогнозиране на вероятността за откриване на наркотици или незаконни стоки от страна на митническите органи, например въз основа на известни маршрути за трафик.
(43)
Sellaisten tekoälyjärjestelmien markkinoille saattaminen, kyseiseen erityiseen tarkoitukseen käyttöönotto tai käyttö, jotka luovat kasvojentunnistustietokantoja tai laajentavat niitä haravoimalla kasvokuvia kohdentamattomasti internetistä tai valvontakamerakuvista, olisi kiellettävä, koska tämä käytäntö lisää tunnetta joukkovalvonnasta ja voi johtaa perusoikeuksien, myös yksityisyyden suojaa koskevan oikeuden, räikeisiin loukkauksiin.
(43)
Пускането на пазара, пускането в действие за тази конкретна цел или използването на системи с ИИ, които създават или разширяват бази данни за разпознаване на лица чрез нецеленасочено извличане на лицеви изображения от интернет или записи от видеонаблюдение, следва да бъдат забранени, тъй като тази практика допринася за усещането за масово наблюдение и може да доведе до груби нарушения на основните права, включително правото на неприкосновеност на личния живот.
(44)
Sellaisten tekoälyjärjestelmien tieteellinen perusta, joilla pyritään havaitsemaan tai päättelemään tunteita, herättää vakavia huolenaiheita erityisesti siksi, että tunteita ilmaistaan huomattavan erilaisin tavoin eri kulttuureissa ja eri tilanteissa; huomattavaa vaihtelua voi esiintyä jopa saman yksilön tunteiden ilmaisussa. Tällaisten järjestelmien keskeisiä puutteita ovat heikko luotettavuus, tarkkuuden puute ja heikko yleistettävyys. Sen vuoksi tekoälyjärjestelmät, jotka havaitsevat tai päättelevät luonnollisten henkilöiden tunteita tai aikomuksia heidän biometristen tietojensa perusteella, voivat tuottaa syrjiviä tuloksia ja loukata asianomaisten henkilöiden oikeuksia ja vapauksia. Kun otetaan huomioon vallan epätasapaino työelämässä tai koulutuksen alalla sekä näiden järjestelmien yksityisyyttä loukkaava luonne, tällaiset järjestelmät voivat johtaa tiettyjen luonnollisten henkilöiden tai kokonaisten henkilöryhmien haitalliseen tai epäedulliseen kohteluun. Sen vuoksi sellaisten tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tai käyttö, jotka on tarkoitettu yksilöiden emotionaalisen tilan havaitsemiseen työpaikalla ja oppilaitoksissa, olisi kiellettävä. Kielto ei saisi koskea tekoälyjärjestelmiä, jotka saatetaan markkinoille yksinomaan lääketieteellisistä tai turvallisuussyistä, kuten hoitotarkoituksiin käytettäviä järjestelmiä.
(44)
Съществуват сериозни опасения относно научната основа на системите с ИИ, които имат за цел да определят или да направят изводи за емоциите, по-специално като се има предвид, че изразяването на емоции се различава значително в отделните култури и ситуации и дори при едно и също лице. Сред основните недостатъци на тези системи са ограничената надеждност, липсата на съобразен с конкретния случай подход и ограничената възможност за обобщаване. Поради това системите с ИИ, които определят или правят изводи за емоциите или намеренията на физически лица въз основа на техните биометрични данни, могат да доведат до дискриминационни резултати и да накърнят правата и свободите на съответните лица. Като се има предвид властовото неравновесие в контекста на работата или образованието, съчетано с инвазивния характер на тези системи, подобни системи биха могли да доведат до увреждащо или неблагоприятно третиране на определени физически лица или на цели групи от такива лица. Поради това пускането на пазара, пускането в действие или използването на системи с ИИ, предназначени за определяне на емоционалното състояние на лица в ситуации, свързани с работното място и образованието, следва да бъдат забранени. Тази забрана не следва да обхваща системи с ИИ, пуснати на пазара единствено от медицински съображения или съображения, свързани с безопасността, като например системи, предназначени за терапевтична употреба.
(45)
Tämä asetus ei saisi vaikuttaa käytäntöihin, jotka on kielletty unionin oikeudessa, kuten tietosuojaa, syrjimättömyyttä, kuluttajansuojaa ja kilpailua koskevassa lainsäädännössä.
(45)
Практиките, които са забранени от правото на Съюза, включително правото в областта на защитата на данните, недискриминацията и защитата на потребителите, както и правото в областта на конкуренцията, не следва да бъдат засегнати от настоящия регламент.
(46)
Suuririskisiä tekoälyjärjestelmiä olisi saatettava unionin markkinoille, otettava käyttöön tai käytettävä vain, jos ne täyttävät tietyt pakolliset vaatimukset. Näillä vaatimuksilla olisi varmistettava, että suuririskiset tekoälyjärjestelmät, jotka ovat saatavilla unionissa tai joiden tuloksia muutoin käytetään unionissa, eivät aiheuta kohtuuttomia riskejä unionin tärkeille julkisille eduille, sellaisina kuin ne on tunnustettu ja suojattu unionin oikeudessa. Uuden lainsäädäntökehyksen perusteella, kuten komission tiedonannossa ”Sininen opas – EU:n tuotesääntöjen täytäntöönpano-opas 2022” (20) selvennetään, yleissääntönä on, että useampaa kuin yhtä unionin yhdenmukaistamislainsäädännön säädöstä, kuten Euroopan parlamentin ja neuvoston asetuksia (EU) 2017/745 (21) ja (EU) 2017/746 (22) tai Euroopan parlamentin ja neuvoston direktiiviä 2006/42/EY (23), voidaan soveltaa yhteen tuotteeseen, koska saataville asettaminen tai käyttöönotto voidaan sallia vain, jos tuote on kaiken sovellettavan unionin yhdenmukaistamislainsäädännön mukainen. Johdonmukaisuuden varmistamiseksi sekä tarpeettomien hallinnollisten rasitteiden ja kustannusten välttämiseksi sellaisen tuotteen, joka sisältää yhden tai useamman suuririskisen tekoälyjärjestelmän, johon sovelletaan tämän asetuksen ja tämän asetuksen liitteessä luetellun unionin yhdenmukaistamislainsäädännön vaatimuksia, tarjoajien olisi oltava joustavia niiden operatiivisten päätösten osalta, joilla varmistetaan parhaalla mahdollisella tavalla yhden tai useamman tekoälyjärjestelmän sisältävän tuotteen vaatimustenmukaisuus kaikkien unionin yhdenmukaistamislainsäädännön säännösten kanssa. Suuririskisiksi määritellyt tekoälyjärjestelmät olisi rajattava järjestelmiin, joilla on merkittävä haitallinen vaikutus ihmisten terveyteen, turvallisuuteen ja perusoikeuksiin unionissa, ja tällaisella rajauksella olisi minimoitava mahdolliset kansainvälisen kaupan rajoitukset.
(46)
Високорисковите системи с ИИ следва да се пускат на пазара на Съюза, да се пускат в действие или да се използват само ако отговарят на определени задължителни изисквания. Тези изисквания следва да гарантират, че високорисковите системи с ИИ, които се предлагат в Съюза или резултатите от които се използват по друг начин в Съюза, не пораждат неприемливи рискове за важни обществени интереси на Съюза, признати и защитени от правото на Съюза. Въз основа на новата законодателна рамка, както е пояснено в известието на Комисията „Синьото ръководство“ за прилагане на правилата на ЕС относно продуктите – 2022 г. (20), общото правило е, че повече от един правен акт от законодателството на Съюза за хармонизация, например регламенти (ЕС) 2017/745 (21) и (ЕС) 2017/746 (22) на Европейския парламент и на Съвета или Директива 2006/42/ЕО на Европейския парламент и на Съвета (23), може да е приложим за един продукт, тъй като предоставянето или пускането в действие може да се извърши само когато продуктът е в съответствие с цялото приложимо законодателство на Съюза за хармонизация. За да се гарантира съгласуваност и да се избегне ненужна административна тежест или разходи, доставчиците на продукт, който съдържа една или повече високорискови системи с ИИ, за които се прилагат изискванията на настоящия регламент и на законодателството на Съюза за хармонизация, посочено в приложение към настоящия регламент, следва да разполагат с гъвкавост по отношение на оперативните решения за това как да се гарантира оптимално съответствие на продукт, който съдържа една или повече системи с ИИ, с всички приложими изисквания на законодателството на Съюза за хармонизация. Системите с ИИ, които се определят като високорискови, следва да се ограничат до имащите значително вредно въздействие върху здравето, безопасността и основните права на хората в Съюза, като при това следва да се свежда до минимум всяко възможно ограничаване на международната търговия.
(47)
Tekoälyjärjestelmät voivat vaikuttaa haitallisesti ihmisten terveyteen ja turvallisuuteen erityisesti silloin, kun tällaiset järjestelmät toimivat tuotteiden turvakomponentteina. Unionin yhdenmukaistamislainsäädännön tavoitteena on helpottaa tuotteiden vapaata liikkuvuutta sisämarkkinoilla ja varmistaa, että markkinoille pääsee ainoastaan turvallisia ja muuten vaatimustenmukaisia tuotteita, ja näiden tavoitteiden mukaisesti on tärkeää, että turvallisuusriskejä, joita tuotteesta kokonaisuudessaan voi aiheutua sen digitaalisten komponenttien, kuten tekoälyjärjestelmien, vuoksi, ehkäistään ja vähennetään asianmukaisesti. Esimerkiksi yhä autonomisempien robottien olisi voitava toimia ja suorittaa tehtävänsä turvallisesti monimutkaisissa ympäristöissä, olipa kyse sitten valmistuksesta tai henkilökohtaisesta avusta ja huolenpidosta. Samoin terveydenhuoltoalalla, jossa panokset ovat elämän ja terveyden kannalta erityisen suuret, yhä kehittyneempien diagnostiikkajärjestelmien ja ihmisten päätöksiä tukevien järjestelmien olisi oltava luotettavia ja tarkkoja.
(47)
Системите с ИИ биха могли да имат неблагоприятни последици за здравето и безопасността на хората, по-специално когато тези системи функционират като защитни елементи на продуктите. В съответствие с целите на законодателството на Съюза за хармонизация – да се улесни свободното движение на продукти на вътрешния пазар и да се гарантира, че на пазара се предлагат само безопасни и съответстващи на изискванията продукти – е важно да бъдат надлежно предотвратени и ограничени рисковете за безопасността, които могат да бъдат породени от даден продукт като цяло поради неговите цифрови компоненти, включително системи с ИИ. Например все по-автономните роботи, независимо дали в контекста на производството, или на личната помощ и грижи, следва да могат да работят и да изпълняват функциите си безопасно в сложна среда. По същия начин, в сектора на здравеопазването, където рисковете за живота и здравето са особено високи, все по-усъвършенстваните системи за диагностика и системите за подпомагане на човешките решения следва да бъдат надеждни и точни.
(48)
Tekoälyjärjestelmästä perusoikeuskirjassa suojatuille perusoikeuksille aiheutuvan haitallisen vaikutuksen laajuus on erityisen merkityksellinen, kun tekoälyjärjestelmä luokitellaan suuririskiseksi. Näitä oikeuksia ovat muun muassa oikeus ihmisarvoon, yksityis- ja perhe-elämän kunnioittaminen, henkilötietojen suoja, sananvapaus ja tiedonvälityksen vapaus, kokoontumis- ja yhdistymisvapaus, oikeus syrjimättömyyteen, oikeus koulutukseen, kuluttajansuoja, työntekijöiden oikeudet, vammaisten oikeudet, sukupuolten tasa-arvo, teollis- ja tekijänoikeudet, oikeus tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen, oikeus puolustukseen ja syyttömyysolettama sekä oikeus hyvään hallintoon. Näiden oikeuksien lisäksi on tärkeää korostaa, että lapsilla on erityisiä oikeuksia, jotka on vahvistettu perusoikeuskirjan 24 artiklassa ja Yhdistyneiden kansakuntien lapsen oikeuksien yleissopimuksessa, jota on täydennetty digitaalisen ympäristön osalta lapsen oikeuksien yleissopimuksen yleisessä huomautuksessa nro 25, ja joissa molemmissa edellytetään lasten haavoittuvuuden huomioon ottamista ja lasten hyvinvoinnin kannalta välttämättömän suojelun ja huolenpidon tarjoamista. Perusoikeuskirjaan kirjattu ja unionin politiikoissa täytäntöönpantu perusoikeus korkeaan ympäristönsuojelun tasoon olisi myös otettava huomioon arvioitaessa tekoälyjärjestelmästä mahdollisesti aiheutuvan haitan vakavuutta, myös suhteessa ihmisten terveyteen ja turvallisuuteen.
(48)
Степента на неблагоприятно въздействие на системата с ИИ върху основните права, защитени от Хартата, е от особено значение, когато дадена система с ИИ се класифицира като високорискова. Тези права включват правото на човешко достойнство, правото на зачитане на личния и семейния живот, защитата на личните данни, свободата на изразяване на мнение и свободата на информация, свободата на събранията и сдруженията, правото на недискриминация, правото на образование, защитата на потребителите, правата на работниците, правата на хората с увреждания, равенството между половете, правата върху интелектуалната собственост, правото на ефективни правни средства за защита и на справедлив съдебен процес, правото на защита и презумпцията за невиновност, както и правото на добра администрация. В допълнение към тези права е важно да се подчертае факта, че децата имат специални права, които са залегнали в член 24 от Хартата и в Конвенцията на Организацията на обединените нации за правата на детето, допълнително разработени в Общ коментар № 25 по Конвенцията на ООН за правата на детето по отношение на цифровата среда, като и в двата акта се изисква да се отчита уязвимостта на децата и да се осигуряват защитата и грижите, необходими за тяхното благосъстояние. Основното право на високо равнище на опазване на околната среда, залегнало в Хартата и отразено в политиките на Съюза, също следва да се взема предвид при оценката на тежестта на вредата, която дадена система с ИИ може да причини, включително във връзка с човешкото здраве и безопасност.
(49)
Sellaisten suuririskisten tekoälyjärjestelmien osalta, jotka ovat tuotteiden tai järjestelmien turvakomponentteja tai ovat itse tuotteita tai järjestelmiä, jotka kuuluvat Euroopan parlamentin ja neuvoston asetuksen (EY) N:o 300/2008 (24), Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 167/2013 (25), Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 168/2013 (26), Euroopan parlamentin ja neuvoston direktiivin 2014/90/EU (27), Euroopan parlamentin ja neuvoston direktiivin (EU) 2016/797 (28), Euroopan parlamentin ja neuvoston asetuksen (EU) 2018/858 (29), Euroopan parlamentin ja neuvoston asetuksen (EU) 2018/1139 (30) ja Euroopan parlamentin ja neuvoston asetuksen (EU) 2019/2144 (31) soveltamisalaan, on asianmukaista muuttaa mainittuja säädöksiä sen varmistamiseksi, että kun komissio hyväksyy mahdollisia asiaa koskevia delegoituja säädöksiä tai täytäntöönpanosäädöksiä mainittujen säädösten perusteella, se ottaa huomioon tässä asetuksessa vahvistetut suuririskisiä tekoälyjärjestelmiä koskevat pakolliset vaatimukset kunkin alan teknisten ja sääntelyllisten ominaispiirteiden perusteella ja puuttumatta mainituilla säädöksillä perustettuihin olemassa oleviin hallinnointi-, vaatimustenmukaisuuden arviointi- ja valvontamekanismeihin ja -viranomaisiin.
(49)
По отношение на високорисковите системи с ИИ, които са защитни елементи на продукти или системи или които сами по себе си са продукти или системи, попадащи в обхвата на Регламент (ЕО) № 300/2008 на Европейския парламент и на Съвета (24), Регламент (ЕС) № 167/2013 на Европейския парламент и на Съвета (25), Регламент (ЕС) № 168/2013 на Европейския парламент и на Съвета (26), Директива 2014/90/ЕС на Европейския парламент и на Съвета (27), Директива (ЕС) 2016/797 на Европейския парламент и на Съвета (28), Регламент (ЕС) 2018/858 на Европейския парламент и на Съвета (29), Регламент (ЕС) 2018/1139 на Европейския парламент и на Съвета (30) и Регламент (ЕС) 2019/2144 на Европейския парламент и на Съвета (31), е целесъобразно тези актове да бъдат изменени, за да се гарантира, че Комисията отчита – въз основа на техническата и регулаторна специфика на всеки сектор и без да има намеса в съществуващите механизми и органи за управление, оценяване на съответствието и контрол на прилагането, създадени съгласно горепосочените актове – задължителните изисквания за високорисковите системи с ИИ, установени в настоящия регламент, когато приема съответни делегирани актове или актове за изпълнение на основание на горепосочените актове.
(50)
Tekoälyjärjestelmät, jotka ovat tämän asetuksen liitteessä luetellun tietyn unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluvien tuotteiden turvakomponentteja tai ovat itse tuotteita, on aiheellista luokitella suuririskisiksi tämän asetuksen mukaisesti, jos kyseiselle tuotteelle tehdään vaatimustenmukaisuuden arviointimenettely kolmatta osapuolta edustavassa vaatimustenmukaisuuden arviointilaitoksessa mainitun asiaa koskevan unionin yhdenmukaistamislainsäädännön mukaisesti. Tällaisia tuotteita ovat erityisesti koneet, lelut, hissit, räjähdysvaarallisissa tiloissa käytettäviksi tarkoitetut laitteet ja suojajärjestelmät, radiolaitteet, painelaitteet, huviveneet, köysiratalaitteistot, kaasumaisia polttoaineita polttavat laitteet sekä lääkinnälliset laitteet, in vitro -diagnostiikkaan tarkoitetut lääkinnälliset laitteet, ajoneuvot ja ilma-alukset.
(50)
По отношение на системите с ИИ, които са защитни елементи на продукти или които сами по себе си са продукти, попадащи в обхвата на определено законодателство на Съюза за хармонизация, посочено в приложение към настоящия регламент, е целесъобразно те да бъдат класифицирани като високорискови съгласно настоящия регламент, ако съответният продукт преминава през процедура за оценяване на съответствието с орган за оценяване на съответствието – трето лице, съгласно съответното законодателство на Съюза за хармонизация. Подобни продукти са по-специално машини, играчки, асансьори, оборудване и защитни системи, предназначени за използване в потенциално взривоопасна среда, радиооборудване, оборудване под налягане, оборудване за плавателни съдове за отдих, въжени линии, уреди, захранвани с газово гориво, медицински изделия, медицински изделия за инвитро диагностика, автомобили и въздухоплавателни средства.
(51)
Tekoälyjärjestelmän luokittelun suuririskiseksi tämän asetuksen mukaisesti ei välttämättä pitäisi tarkoittaa sitä, että tuotetta, jonka turvakomponentti on tekoälyjärjestelmä, tai itse tekoälyjärjestelmää tuotteena pidetään suuririskisenä tuotteeseen sovellettavassa asiaa koskevassa unionin yhdenmukaistamislainsäädännössä vahvistettujen perusteiden mukaisesti. Tämä koskee erityisesti asetuksia (EU) 2017/745 ja (EU) 2017/746, joissa säädetään kolmannen osapuolen suorittamasta vaatimustenmukaisuuden arvioinnista keskisuuren ja suuren riskin tuotteille.
(51)
Класифицирането на дадена система с ИИ като високорискова съгласно настоящия регламент не следва непременно да означава, че продуктът, чийто защѝтен елемент е системата с ИИ, или самата система с ИИ като продукт, се счита за високорисков или високорискова съгласно критериите, установени в съответното законодателство на Съюза за хармонизация, приложимо за продукта. Такъв е по-специално случаят с регламенти (ЕС) 2017/745 и (ЕС) 2017/746, в които се предвижда оценяване на съответствието от трето лице за продукти със среден и висок риск.
(52)
Erilliset tekoälyjärjestelmät eli muut suuririskiset tekoälyjärjestelmät kuin ne, jotka ovat tuotteiden turvakomponentteja tai jotka ovat itsenäisiä tuotteita, olisi luokiteltava suuririskisiksi, jos ne suunnitellun käyttötarkoituksensa perusteella aiheuttavat suuren riskin ihmisten terveydelle ja turvallisuudelle tai perusoikeuksille, kun otetaan huomioon sekä mahdollisen haitan vakavuus että sen esiintymistodennäköisyys, ja niitä käytetään tässä asetuksessa erikseen määritellyillä aloilla. Näiden järjestelmien yksilöinti perustuu samoihin menetelmiin ja kriteereihin, joita sovelletaan myös suuririskisten tekoälyjärjestelmien luetteloon tulevaisuudessa tehtäviin muutoksiin. Komissiolle olisi siirrettävä valta hyväksyä tällaisia muutoksia täytäntöönpanosäädöksillä, jotta voidaan ottaa huomioon teknologian nopea kehitys ja tekoälyjärjestelmien käytön mahdolliset muutokset.
(52)
По отношение на самостоятелните системи с ИИ, а именно високорисковите системи с ИИ, различни от тези, които са защитни елементи на продукти или които сами по себе си са продукти, е целесъобразно те да бъдат класифицирани като високорискови, ако с оглед на предназначението си представляват висок риск от увреждане на здравето и безопасността или на основните права на хората, като се вземат предвид както тежестта на възможната вреда, така и вероятността от настъпването ѝ, и тези системи с ИИ се използват в някои конкретно и предварително определени области, посочени в настоящия регламент. Идентифицирането на тези системи се основава на същата методика и критерии като предвидените и за евентуални бъдещи изменения на списъка на високорисковите системи с ИИ, които Комисията следва да бъде оправомощена да приеме чрез делегирани актове, за да се вземат предвид бързите темпове на технологично развитие, както и възможните промени в използването на системите с ИИ.
(53)
On myös tärkeää selventää, että tietyissä tapauksissa tekoälyjärjestelmät, joihin viitataan tässä asetuksessa täsmennetyillä erikseen määritellyillä aloilla, eivät aiheuta merkittävän haitan riskiä kyseisillä aloilla suojatuille oikeudellisille eduille, koska ne eivät vaikuta olennaisesti päätöksentekoon tai vahingoita kyseisiä etuja merkittävästi. Tätä asetusta sovellettaessa tekoälyjärjestelmän, joka ei olennaisesti vaikuta päätöksenteon tulokseen, olisi katsottava olevan tekoälyjärjestelmä, jolla ei ole vaikutusta päätöksenteon sisältöön ja näin ollen sen tulokseen riippumatta siitä, onko tämä päätöksenteko automatisoitua vai vastaako siitä ihminen. Tekoälyjärjestelmä voidaan katsoa sellaiseksi, joka ei olennaisesti vaikuta päätöksenteon tulokseen, esimerkiksi tilanteissa, joissa yksi tai useampi seuraavista edellytyksistä täyttyy. Ensimmäisenä tällaisena edellytyksenä olisi oltava, että tekoälyjärjestelmä on tarkoitettu suorittamaan suppeaa menettelyllistä tehtävää. Tällaiseksi katsotaan esimerkiksi tekoälyjärjestelmä, joka muuntaa jäsentämättömän datan jäsennellyksi dataksi, tekoälyjärjestelmä, joka luokittelee saapuvia asiakirjoja, tai tekoälyjärjestelmä, jota käytetään päällekkäisyyksien havaitsemiseen useiden sovellusten välillä. Nämä tehtävät ovat niin kapea-alaisia ja rajallisia, että niistä aiheutuu vain vähäisiä riskejä, jotka eivät lisäänny sellaisen tekoälyjärjestelmän käytön yhteydessä, joka mainitaan tämän asetuksen liitteessä suuririskisenä käyttönä. Toisena edellytyksenä olisi oltava, että tekoälyjärjestelmän suorittaman tehtävän tarkoituksena on parantaa aiemmin päätökseen saatetun ihmisen toiminnan tulosta, jolla voi olla merkitystä tämän asetuksen liitteessä luetellun suuririskisen käytön kannalta. Kun otetaan huomioon nämä ominaisuudet, tekoälyjärjestelmä tuottaa vain täydentävän kerroksen ihmisen toiminnalle, jolloin riski on alentunut. Tätä edellytystä sovellettaisiin esimerkiksi tekoälyjärjestelmiin, joiden tarkoituksena on parantaa aiemmin laadituissa asiakirjoissa käytettyä kieltä esimerkiksi ammatillisen sävyn tai akateemisen tyylin osalta tai mukauttamalla teksti tietynlaisen brändiviestinnän mukaiseksi.Kolmantena edellytyksenä olisi oltava, että tekoälyjärjestelmä on tarkoitettu havaitsemaan päätöksentekotapoja tai poikkeamia aiemmista päätöksentekotavoista. Riski olisi alentunut, koska tekoälyjärjestelmän käyttö perustuu ihmisen aiemmin tekemään arviointiin, jota sen ei ole tarkoitus korvata tai johon sen ei ole tarkoitus vaikuttaa ilman asianmukaista ihmisen suorittamaa arviointia. Tällaisia tekoälyjärjestelmiä ovat esimerkiksi järjestelmät, joiden avulla voidaan esimerkiksi tietyn opettajan arvostelutapojen pohjalta tarkistaa jälkikäteen, onko kyseinen opettaja mahdollisesti poikennut arvostelutavoistaan. Näin voidaan ilmoittaa mahdollisista epäjohdonmukaisuuksista tai poikkeamista. Neljäntenä edellytyksenä olisi oltava, että tekoälyjärjestelmä on tarkoitettu suorittamaan tehtävä, joka on ainoastaan tämän asetuksen liitteessä lueteltujen tekoälyjärjestelmien kannalta merkityksellisen arvioinnin valmistelua, jolloin järjestelmän tuotoksen mahdollinen vaikutus on hyvin vähäinen siltä osin kuin se muodostaa riskin arvioinnissa. Tämä edellytys kattaa muun muassa tiedostojen käsittelyä koskevat älykkäät ratkaisut, joihin kuuluu erilaisia toimintoja, kuten indeksointi, haku, tekstin- ja puheenkäsittely tai tietojen yhdistäminen muihin tietolähteisiin, ja tekoälyjärjestelmät, joita käytetään alkuperäisten asiakirjojen kääntämiseen. Tämän asetuksen liitteessä luetelluissa suuririskisen käytön tapauksissa käytetyt tekoälyjärjestelmät olisi joka tapauksessa katsottava aiheuttavan merkittävän haitan riskin terveydelle, turvallisuudelle tai perusoikeuksille, jos tekoälyjärjestelmä edellyttää asetuksen (EU) 2016/679 4 artiklan 4 alakohdassa, direktiivin (EU) 2016/680 3 artiklan 4 alakohdassa tai asetuksen (EU) 2018/1725 3 artiklan 5 alakohdassa tarkoitettua profilointia. Jäljitettävyyden ja avoimuuden varmistamiseksi tarjoajan, joka edellä tarkoitettujen edellytysten perusteella katsoo, että tekoälyjärjestelmä ei ole suuririskinen, olisi laadittava arviointia koskeva dokumentaatio ennen kyseisen järjestelmän markkinoille saattamista tai käyttöönottoa ja toimitettava tämä dokumentaatio pyynnöstä kansallisille toimivaltaisille viranomaisille. Tällainen tarjoaja olisi velvoitettava rekisteröimään tekoälyjärjestelmä tämän asetuksen nojalla perustettuun EU:n tietokantaan. Jotta voidaan antaa lisäohjeita niiden edellytysten käytännön täytäntöönpanosta, joiden mukaisesti tämän asetuksen liitteessä luetellut tekoälyjärjestelmät ovat poikkeuksellisesti muita kuin suuririskisiä, komission olisi tekoälyneuvostoa kuultuaan annettava ohjeet, joissa täsmennetään, että käytännön täytäntöönpanoa täydennetään kattavalla luettelolla, jossa on käytännön esimerkkejä sellaisten tekoälyjärjestelmien käyttötapauksista, jotka ovat suuririskisiä, ja käyttötapauksista, jotka eivät sitä ole.
(53)
Важно е също така да се поясни, че може да има особени случаи, в които системите с ИИ, свързани с предварително определени области, посочени в настоящия регламент, не водят до значителен риск от увреждане на правните интереси, защитени в тези области, тъй като не оказват съществено влияние върху вземането на решения или не увреждат съществено тези интереси. За целите на настоящия регламент система с ИИ, която не оказва съществено влияние върху резултата от вземането на решения, следва да се разбира като система с ИИ, която не оказва въздействие върху същността, а оттам и върху резултата от вземането на решения, независимо дали е от човека, или автоматизирано. Система с ИИ, която не оказва съществено влияние върху резултата от вземането на решения, може да включва ситуации, при които са изпълнени едно или повече от посочените по-нататък условия. Първото условие следва да бъде системата с ИИ да е предназначена да изпълнява конкретно определена процедурна задача, като например система с ИИ, която преобразува неструктурирани данни в структурирани данни, система с ИИ, която класифицира входящите документи в категории, или система с ИИ, която се използва за откриване на случаи на дублиране в рамките на голям брой приложения. Тези задачи са с толкова тесен и ограничен характер, че пораждат само ограничени рискове, които не се увеличават чрез използването на система с ИИ в контекст, посочен като високорисково използване в приложение към настоящия регламент. Второто условие следва да бъде задачата, изпълнявана от системата с ИИ, да има за цел подобряване на резултата от извършена преди това човешка дейност, която може да е от значение за целите на видовете високорисково използване, изброени в приложение към настоящия регламент. Като се имат предвид тези характеристики, системата с ИИ представлява само допълнение към човешката дейност с произтичащ от това понижен риск. Това условие например ще е приложимо при системи с ИИ, които имат за цел да подобрят езика, използван във вече изготвени документи, например във връзка с професионалния тон, академичния стил на езика или чрез привеждане на текста в съответствие с определено послание на дадена марка. Третото условие следва да бъде системата с ИИ да е предназначена да открива модели за вземане на решения или отклонения от съществуващи модели за вземане на решения. Рискът ще бъде намален, тъй като използването на системата с ИИ следва предварително извършена човешка оценка, която системата няма за цел да замени или да повлияе без подходящ преглед, извършен от човек. Тези системи с ИИ включват например такива, които, предвид определен модел на оценяване от преподавател, могат да се използват за последваща проверка на вероятността преподавателят да се е отклонил от модела на оценяване, така че да се откроят възможни несъответствия или аномалии. Четвъртото условие следва да бъде системата с ИИ да е предназначена да изпълнява задача, която представлява само подготвителен етап преди извършването на оценка, която е от значение за целите на системите с ИИ, изброени в приложение в настоящия регламент, като по този начин възможното въздействие на резултата от системата намалява в значителна степен от гледна точка на това дали представлява риск за оценката, която ще последва. Това условие обхваща, наред с другото, интелигентни решения за обработка на файлове, които включват различни функции като индексиране, търсене, обработка на текст и реч или свързване на данни с други източници на данни, или системи с ИИ, използвани за превод на първоначални документи. Във всеки случай следва да се счита, че системи с ИИ, използвани в случаи на високорисково използване, посочени в приложение към настоящия регламент, пораждат значителни рискове от вреди за здравето, безопасността или основните права, ако системата с ИИ предполага профилиране по смисъла на член 4, точка 4 от Регламент (ЕС) 2016/679 или член 3, точка 4 от Директива (ЕС) 2016/680, или член 3, точка 5 от Регламент (ЕС) 2018/1725. За да се гарантират проследимост и прозрачност, доставчик, който счита, че дадена система с ИИ не е високорискова въз основа на посочените по-горе условия, следва да изготви документация за оценката, преди системата да бъде пусната на пазара или пусната в действие, и при поискване да предостави тази документация на националните компетентни органи. Този доставчик следва да бъде задължен да регистрира системата с ИИ в базата данни на ЕС, създадена съгласно настоящия регламент. С цел да се дадат допълнителни насоки за практическото изпълнение на условията, съгласно които системи с ИИ, изброени в приложение към настоящия регламент, по изключение не са високорискови, Комисията, след консултация със Съвета по ИИ, следва да предостави насоки, в които да се конкретизира това практическо изпълнение, допълнено от изчерпателен списък с практически примери за случаи на използване на системи с ИИ, които са високорискови, и такива, които не са.
(54)
Biometriset tiedot muodostavat erityisen henkilötietojen ryhmän, joten on aiheellista luokitella suuririskisiksi biometristen järjestelmien useita kriittisiä käyttötapauksia, jos niiden käyttö on sallittua asiaa koskevan unionin ja kansallisen lainsäädännön nojalla. Luonnollisten henkilöiden biometriseen etätunnistukseen tarkoitettujen tekoälyjärjestelmien tekniset epätarkkuudet voivat johtaa vinoutuneisiin tuloksiin ja aiheuttaa syrjiviä vaikutuksia. Tällaisten vinoutuneiden tulosten ja syrjivien vaikutusten riski on erityisen merkityksellinen, kun tulokset tai vaikutukset liittyvät ikään, etniseen alkuperään, rotuun, sukupuoleen tai vammaisuuteen. Biometriset etätunnistusjärjestelmät olisi näin ollen luokiteltava suuririskisiksi niiden aiheuttamien riskien vuoksi. Tällaisen luokittelun ulkopuolelle jäävät tekoälyjärjestelmät, joita on tarkoitus käyttää biometriseen todennukseen, joka käsittää tunnistautumisen, ja joiden ainoana tarkoituksena on vahvistaa, että tietty luonnollinen henkilö on se henkilö, joka hän väittää olevansa, sekä vahvistaa luonnollisen henkilön henkilöllisyys ainoastaan jonkin palvelun käyttämiseksi, laitteen lukituksen poistamiseksi tai valvottuun tilaan pääsemiseksi. Lisäksi tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi biometriseen luokitteluun sellaisten arkaluonteisten ominaisuuksien tai ominaisuuspiirteiden mukaan, jotka on suojattu asetuksen (EU) 2016/679 9 artiklan 1 kohdan nojalla biometrisinä tietoina, siltä osin kuin tällaisia järjestelmiä ei ole kielletty tässä asetuksessa, ja tunteentunnistusjärjestelmät, joita ei ole kielletty tässä asetuksessa, olisi luokiteltava suuririskisiksi. Biometrisiä järjestelmiä, joita on tarkoitus käyttää yksinomaan kyberturvallisuutta ja henkilötietojen suojaamista koskeviin toimiin, ei olisi katsottava suuririskisiksi tekoälyjärjestelmiksi.
(54)
Тъй като биометричните данни представляват специална категория лични данни, е целесъобразно да се класифицират като високорискови няколко случая на критично използване на биометрични системи, доколкото тяхното използване е разрешено съгласно съответното право на Съюза и национално право. Техническите неточности на системите с ИИ, предназначени за дистанционна биометрична идентификация на физически лица, могат да доведат до опорочени от предубеденост резултати и до дискриминация. Рискът от такива опорочени от предубеденост резултати и дискриминация е от особено значение във връзка с възраст, етническа принадлежност, раса, пол или увреждане. Поради това системите за дистанционна биометрична идентификация следва да бъдат класифицирани като високорискови с оглед на рисковете, които пораждат. Тази класификация изключва системите с ИИ, предназначени да бъдат използвани за биометрична проверка, включително за удостоверяване на самоличността, чиято единствена цел е да се потвърди, че конкретно физическо лице е лицето, за което се представя, и да се потвърди самоличността на физическо лице единствено за да се получи достъп до услуга, да се отключи устройство или да се придобие сигурен достъп до помещения. Освен това следва да бъдат класифицирани като високорискови системите с ИИ, предназначени да се използват за биометрично категоризиране в съответствие с чувствителни признаци или характеристики, защитени съгласно член 9, параграф 1 от Регламент (ЕС) 2016/679, въз основа на биометрични данни, доколкото те не са забранени съгласно настоящия регламент, и системи за разпознаване на емоции, които не са забранени съгласно настоящия регламент. Биометричните системи, които са предназначени да се използват единствено с цел да се позволи предприемането на мерки за киберсигурност и за защита на личните данни, не следва да се считат за високорискови системи с ИИ.
(55)
Kriittisen infrastruktuurin hallinnan ja toiminnan osalta on aiheellista luokitella suuririskisiksi tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi turvakomponentteina direktiivin (EU) 2022/2557 liitteessä olevassa 8 kohdassa luetellun kriittisen digitaalisen infrastruktuurin, tieliikenteen sekä vesi-, kaasu-, lämmitys- ja sähköhuollon hallinnassa ja toiminnassa, koska niiden viat tai toimintahäiriöt voivat vaarantaa ihmisten hengen ja terveyden suuressa mittakaavassa ja aiheuttaa tuntuvia häiriöitä yhteiskunnallisen ja taloudellisen toiminnan tavanomaisessa harjoittamisessa. Kriittisen infrastruktuurin, mukaan lukien kriittinen digitaalinen infrastruktuuri, turvakomponentit ovat järjestelmiä, joita käytetään suoraan suojaamaan kriittisen infrastruktuurin fyysistä koskemattomuutta tai henkilöiden terveyttä ja turvallisuutta ja omaisuuden turvallisuutta mutta jotka eivät ole tarpeellisia järjestelmän toiminnan kannalta. Tällaisten komponenttien vikaantuminen tai toimintahäiriö saattaa johtaa suoraan riskeihin kriittisen infrastruktuurin fyysiselle koskemattomuudelle ja näin ollen riskeihin henkilöiden terveydelle ja turvallisuudelle ja omaisuuden turvallisuudelle. Komponentteja, jotka on tarkoitettu käytettäviksi pelkästään kyberturvallisuustarkoituksiin, ei pitäisi katsoa turvakomponenteiksi. Esimerkkejä tällaisen kriittisen infrastruktuurin turvakomponenteista voivat olla järjestelmät vedenpaineen seuraamiseksi tai palohälytysohjausjärjestelmät pilvipalvelukeskuksissa.
(55)
Във връзка с управлението и експлоатацията на критична инфраструктура, е целесъобразно системите с ИИ, предназначени да бъдат използвани като защитни елементи при управлението и експлоатацията на критична цифрова инфраструктура, посочена в точка 8 от приложението към Директива (ЕС) 2022/2557, движението по пътищата и водоснабдяването, газоснабдяването, отоплението и електроенергията, да бъдат класифицирани като високорискови системи с ИИ, тъй като при тях аварията или неизправността може да изложи на риск живота и здравето на множество хора и да доведе до значителни смущения в обичайното осъществяване на социални и икономически дейности. Защитните елементи на критичната инфраструктура, включително критичната цифрова инфраструктура, са системи, използвани за пряка защита на физическата цялост на критичната инфраструктура или на здравето и безопасността на хората и имуществото, но не са необходими за функционирането на системата. Аварията или неизправността на тези елементи може пряко да породи рискове за физическата цялост на критичната инфраструктура и оттук –рискове за здравето и безопасността на хората и имуществото. Елементи, предназначени да се използват единствено за целите на киберсигурността, не следва да се квалифицират като защитни елементи. Сред примерите за защитни елементи на критичната инфраструктура могат да се посочат системите за наблюдение на водното налягане или контролните системи за пожароизвестяване в центровете за изчисления в облак.
(56)
Tekoälyjärjestelmien käyttöönotto koulutuksessa on tärkeää, jotta voidaan edistää laadukasta digitaalista koulutusta ja antaa kaikille oppijoille ja opettajille mahdollisuus hankkia ja jakaa tarvittavia digitaalisia taitoja ja osaamista, myös medialukutaitoa ja kriittistä ajattelua, jotta he voivat osallistua aktiivisesti talouteen, yhteiskuntaan ja demokraattisiin prosesseihin. Tekoälyjärjestelmiä, joita käytetään yleissivistävässä tai ammatillisessa koulutuksessa, erityisesti kun määritetään pääsyä tai hyväksymistä tai osoitetaan henkilöitä yleissivistävän tai ammatillisen koulutuksen oppilaitoksiin tai ohjelmiin kaikilla tasoilla, arvioidaan henkilöiden oppimistuloksia, arvioidaan yksittäiselle henkilölle soveltuvaa koulutustasoa ja vaikutetaan olennaisesti sen yleissivistävän tai ammatillisen koulutuksen tasoon, jota henkilö myöhemmin saa tai johon hän voi päästä, tai kun kokeiden aikana tarkkaillaan opiskelijoita tai pyritään havaitsemaan kiellettyä käyttäytymistä, olisi kuitenkin pidettävä suuririskisinä tekoälyjärjestelminä, koska ne voivat määrittää henkilön elämän koulutuksellisen ja ammatillisen suunnan ja voivat siten vaikuttaa kyseisen henkilön kykyyn turvata toimeentulonsa. Kun tällaiset järjestelmät suunnitellaan ja niitä käytetään epäasianmukaisesti, ne voivat olla erityisen tunkeilevia ja loukata oikeutta koulutukseen ja oikeutta olla joutumatta syrjityksi, ja ne voivat jatkaa historiallisia syrjinnän muotoja, jotka kohdistuvat esimerkiksi naisiin, tiettyihin ikäryhmiin, vammaisiin henkilöihin tai henkilöihin, joilla on tietty rodullinen tai etninen alkuperä tai seksuaalinen suuntautuminen.
(56)
Внедряването на системи с ИИ в образованието е важно, за да се насърчи висококачествено цифрово образование и обучение и да се даде възможност на всички учащи се и преподаватели да придобиват и споделят необходимите цифрови умения и компетентности, включително за медийна грамотност и критично мислене, за да участват активно в икономиката, обществото и демократичните процеси. Същевременно системите с ИИ, използвани в образованието или професионалното обучение, по-специално за определяне на достъпа или приема, за разпределяне на лица в институции или програми на всички нива на образованието и професионалното обучение, за оценяване на учебните резултати, за оценяване на подходящото ниво на образование за дадено лице и за оказване на съществено влияние върху нивото на образование и обучение, което лицата ще получат или до което ще могат да имат достъп, или за наблюдение и откриване на забранено поведение на ученици и студенти по време на изпити, следва да се класифицират като високорискови системи с ИИ, тъй като могат да определят образователния и професионалния път на дадено лице и така да повлияят на способността на това лице да осигурява прехраната си. Когато не са правилно проектирани и използвани, тези системи може да са особено инвазивни и е възможно да нарушат правото на образование и обучение, както и правото на недискриминация, и да продължат да възпроизвеждат исторически наложени дискриминационни модели, например срещу жени, определени възрастови групи, хора с увреждания или с определен расов или етнически произход или сексуална ориентация.
(57)
Tekoälyjärjestelmät, joita käytetään työllistämisessä, henkilöstöhallinnossa ja itsenäisen ammatinharjoittamisen mahdollistamisessa, erityisesti henkilöiden rekrytoinnin ja valinnan osalta, sellaisten päätösten tekemisen osalta, jotka vaikuttavat työsuhteen ehtoihin sekä uralla etenemistä ja työsuhteen päättämistä koskeviin työehtoihin, työhön liittyviin sopimussuhteisiin perustuvan tehtävien jakamisen osalta yksilöllisen käyttäytymisen tai personallisuuspiirteiden tai -ominaisuuksien perusteella sekä työhön liittyvissä sopimussuhteissa olevien henkilöiden seurannan tai arvioinnin osalta, olisi myös luokiteltava suuririskisiksi, koska kyseiset järjestelmät voivat vaikuttaa merkittävästi näiden henkilöiden tuleviin uranäkymiin, toimeentuloon ja työntekijöiden oikeuksiin. Näiden työhön liittyvien sopimussuhteiden olisi koskettava merkityksellisellä tavalla myös työntekijöitä ja henkilöitä, jotka tarjoavat palveluja alustojen kautta, kuten komission vuoden 2021 työohjelmassa esitetään. Tällaiset järjestelmät voivat koko rekrytointiprosessin ajan sekä työhön liittyvissä sopimussuhteissa olevien henkilöiden arvioinnin, uralla etenemisen tai työsuhteen jatkamisen yhteydessä pitää yllä historiallisia syrjinnän muotoja, jotka kohdistuvat esimerkiksi naisiin, tiettyihin ikäryhmiin, vammaisiin henkilöihin tai henkilöihin, joilla on tietty rodullinen tai etninen alkuperä tai seksuaalinen suuntautuminen. Tekoälyjärjestelmät, joita käytetään tällaisten henkilöiden suorituskyvyn ja käyttäytymisen seurantaan, voivat heikentää myös heidän tietosuojaansa ja yksityisyyden suojaa koskevia perusoikeuksiaan.
(57)
Системите с ИИ, използвани в областта на заетостта, управлението на работниците и достъпа до самостоятелна заетост, по-специално за подбор и наемане на лица, за вземане на решения, засягащи условията за повишение при отношения във връзка с полагане на труд и прекратяване на договорни отношения във връзка с полагане на труд, за разпределяне на задачи въз основа на индивидуално поведение, личностни черти или характеристики и за наблюдение или оценка на лица, които имат договорни отношения във връзка с полагане на труд, също следва да бъдат класифицирани като високорискови, тъй като тези системи могат в значителна степен да повлияят на бъдещите перспективи за професионално развитие, осигуряването на прехраната на тези лица и правата на работниците. Съответните договорни отношения във връзка с полагането на труд следва по пълноценен начин да включват и служителите и лицата, предоставящи услуги чрез платформи, както е посочено в работната програма на Комисията за 2021 г. По време на целия процес на набиране на персонал и при оценката, повишаването или задържането на лица в договорни отношения във връзка с полагането на труд такива системи могат да продължат да възпроизвеждат исторически наложени дискриминационни модели, например срещу жени, определени възрастови групи, хора с увреждания или с определен расов или етнически произход или сексуална ориентация. Системите с ИИ, използвани за наблюдение на работата и поведението на тези лица, могат също така да накърнят техните основни права на защита на данните и неприкосновеност на личния живот.
(58)
Toinen osa-alue, jolla tekoälyjärjestelmien käyttöön on kiinnitettävä erityistä huomiota, on sellaisten olennaisten yksityisten ja julkisten palvelujen ja etujen saatavuus ja käyttö, joita ihmiset tarvitsevat voidakseen osallistua täysipainoisesti yhteiskuntaan tai parantaakseen elintasoaan. Erityisesti luonnolliset henkilöt, jotka hakevat tai saavat viranomaisilta olennaisia julkisen avun etuuksia ja palveluja, kuten terveydenhuoltopalveluja, sosiaaliturvaetuuksia, sosiaalipalveluja, joilla taataan suoja muun muassa raskauden ja synnytyksen aikana ja sairauden, työtapaturman, hoidon tarpeen ja vanhuuden varalta sekä työpaikan menetyksen yhteydessä, ja toimeentuloturvaa ja asumisen tukea, ovat yleensä riippuvaisia näistä etuuksista ja palveluista ja haavoittuvassa asemassa vastuuviranomaisiin nähden. Jos tekoälyjärjestelmiä käytetään sen määrittämiseen, olisiko viranomaisten myönnettävä tai evättävä tällaiset etuudet ja palvelut tai rajoitettava niitä, peruutettava ne tai perittävä ne takaisin, mukaan lukien se, onko edunsaajilla laillinen oikeus tällaisiin etuuksiin tai palveluihin, näillä järjestelmillä voi olla merkittävä vaikutus henkilöiden toimeentuloon ja ne voivat loukata heidän perusoikeuksiaan, kuten oikeutta sosiaaliseen suojeluun, syrjimättömyyteen, ihmisarvoon tai tehokkaisiin oikeussuojakeinoihin, ja ne olisi sen vuoksi luokiteltava suuririskisiksi. Tämä asetus ei kuitenkaan saisi haitata innovatiivisten lähestymistapojen kehittämistä ja käyttöä julkishallinnossa, sillä se hyötyisi vaatimustenmukaisten ja turvallisten tekoälyjärjestelmien laajemmasta käytöstä edellyttäen, että kyseisiin järjestelmiin ei liity suurta oikeushenkilöihin ja luonnollisiin henkilöihin kohdistuvaa riskiä.Lisäksi tekoälyjärjestelmät, joita käytetään arvioitaessa luonnollisten henkilöiden luottopisteytystä tai luottokelpoisuutta, olisi luokiteltava suuririskisiksi tekoälyjärjestelmiksi, koska ne määrittävät kyseisten henkilöiden mahdollisuuden saada taloudellisia resursseja tai olennaisia palveluja, kuten asumis-, sähkö- ja televiestintäpalveluja. Näihin tarkoituksiin käytetyt tekoälyjärjestelmät voivat johtaa henkilöiden tai henkilöryhmien syrjintään ja voivat pitää yllä historiallisia syrjinnän muotoja, jotka perustuvat esimerkiksi rotuun tai etniseen alkuperään, sukupuoleen, vammaisuuteen, ikään tai sukupuoliseen suuntautumiseen, tai luoda uusia syrjiviä vaikutuksia. Tekoälyjärjestelmiä, joista säädetään unionin oikeudessa rahoituspalvelujen tarjoamiseen liittyvien petosten havaitsemiseksi ja vakavaraisuussyistä luottolaitosten ja vakuutusyritysten pääomavaatimusten laskemiseksi, ei kuitenkaan pitäisi katsoa suuririskisiksi tämän asetuksen nojalla. Lisäksi tekoälyjärjestelmillä, joita on tarkoitus käyttää luonnollisia henkilöitä koskevaan riskiarviointiin ja hinnoitteluun sairaus- ja henkivakuutusten tapauksessa, voi myös olla merkittävä vaikutus henkilöiden toimeentuloon ja jos niitä ei ole asianmukaisesti suunniteltu, kehitetty ja käytetty, ne voivat loukata heidän perusoikeuksiaan sekä aiheuttaa vakavia seurauksia ihmisten elämälle ja terveydelle, mukaan lukien taloudellinen syrjäytyminen ja syrjintä. Myös tekoälyjärjestelmät, joita käytetään luonnollisten henkilöiden hätäpuhelujen arvioinnissa ja luokittelussa tai pelastus- ja ensihoitopalvelujen, mukaan lukien poliisi, palokunta ja lääkintäapu sekä kiireellistä ensihoitoa tarvitsevien potilaiden lajittelujärjestelmä, lähettämisessä tai tärkeysjärjestyksen määrittämisessä, olisi luokiteltava suuririskisiksi, koska ne tekevät päätöksiä tilanteissa, jotka ovat erittäin kriittisiä ihmisten hengen ja terveyden ja heidän omaisuutensa kannalta.
(58)
Друга област, в която използването на системи с ИИ заслужава специално внимание, е достъпът до и ползването на някои основни частни и публични услуги и подпомагане, необходими на хората за пълноценно участие в обществото или за подобряване на техния стандарт на живот. По-специално, физическите лица, които кандидатстват или получават основно обществено подпомагане и услуги от публични органи, а именно здравни услуги, социалноосигурителни обезщетения, социални услуги, осигуряващи закрила в случаи като майчинство, заболяване, трудова злополука, зависимост или старост и загуба на работа, както и на социална помощ и помощ за жилищно настаняване, обикновено зависят от това подпомагане и услуги и са в уязвимо положение по отношение на отговорните органи. Ако системите с ИИ се използват, за да се определи дали това подпомагане и услуги следва да бъдат предоставени, отказани, намалени, отменени или възстановени от органите, включително дали бенефициерите имат законно право да се ползват от това подпомагане или услуги, въпросните системи могат да окажат значително въздействие върху материалната издръжка на тези лица и да нарушат основните им права, като правото на социална закрила, недискриминация, човешко достойнство или ефективни правни средства за защита, и поради това следва да бъдат класифицирани като високорискови. Независимо от това настоящият регламент не следва да възпрепятства разработването и използването на иновативни подходи в публичната администрация, за които по-широкото използване на съвместими и безопасни системи с ИИ би било полезно, при условие че тези системи не пораждат висок риск за юридическите и физическите лица. Наред с това системите с ИИ, използвани за оценка на кредитния рейтинг или кредитоспособността на физически лица, следва да бъдат класифицирани като високорискови системи с ИИ, тъй като те определят какъв достъп ще имат тези лица до финансови ресурси или основни услуги като жилищно настаняване, електроенергия и телекомуникационни услуги. Използваните за тези цели системи с ИИ могат да доведат до дискриминация на лица или групи и да продължат да възпроизвеждат исторически наложени дискриминационни модели, например въз основа на расов или етнически произход, пол, увреждане, възраст, сексуална ориентация, или да създадат нови форми на дискриминация. Системите с ИИ, предвидени в правото на Съюза за целите на разкриването на измами при предлагането на финансови услуги и за пруденциални цели за изчисляване на капиталовите изисквания на кредитните институции и застрахователите, не следва обаче да се считат за високорискови съгласно настоящия регламент. Освен това системите с ИИ, предназначени да се използват за оценка на риска и ценообразуване във връзка със здравно застраховане и животозастраховане на физически лица, също могат да окажат значително въздействие върху осигуряването на прехраната на лицата и ако не са надлежно проектирани, разработени и използвани, могат да нарушат техните основни права и да доведат до сериозни последици за живота и здравето на хората, включително финансово изключване и дискриминация. И на последно място, системите с ИИ, използвани за оценка и класифициране на спешните повиквания от физически лица или за изпращане или определяне на приоритет по отношение на изпращането на службите за спешно реагиране, включително от полицията, пожарната и медицинската помощ, както и на системите за разпределяне на пациенти в областта на спешната здравна помощ, също следва да бъдат класифицирани като високорискови, тъй като те вземат решения в ситуации, които са изключително критични за живота и здравето на хората и за тяхното имущество.
(59)
Lainvalvontaviranomaisten toimille, joihin liittyy tiettyä tekoälyjärjestelmien käyttöä, on ominaista huomattava vallan epätasapaino niiden roolin ja vastuun vuoksi, ja ne voivat johtaa luonnollisen henkilön valvontaan, pidättämiseen tai vapaudenmenetykseen sekä muihin perusoikeuskirjassa taattuihin perusoikeuksiin kohdistuviin haitallisiin vaikutuksiin. Erityisesti jos tekoälyjärjestelmää ei ole koulutettu laadukkaalla datalla, se ei täytä riittäviä vaatimuksia toimintansa, tarkkuutensa tai vakautensa suhteen tai sitä ei ole suunniteltu ja testattu asianmukaisesti ennen markkinoille saattamista tai muuta käyttöönottoa, se voi valikoida henkilöitä syrjivästi tai muulla tavoin väärin tai epäoikeudenmukaisesti. Lisäksi merkittävien menettelyllisten perusoikeuksien, joita ovat muun muassa oikeus tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen sekä oikeus puolustukseen ja syyttömyysolettama, käyttö voisi vaikeutua erityisesti silloin, kun tällaiset tekoälyjärjestelmät eivät ole riittävän avoimia, selitettävissä olevia ja dokumentoituja. Sen vuoksi on aiheellista luokitella suuririskisiksi joukko tekoälyjärjestelmiä, jotka on tarkoitettu käytettäviksi lainvalvonnan yhteydessä, siltä osin kuin niiden käyttö on sallittua asiaa koskevan unionin oikeuden ja kansallisen lainsäädännön nojalla, kun tarkkuus, luotettavuus ja avoimuus ovat erityisen tärkeitä haitallisten vaikutusten välttämiseksi, kansalaisten luottamuksen säilyttämiseksi sekä vastuuvelvollisuuden ja tehokkaiden oikeussuojakeinojen varmistamiseksi. Kun otetaan huomioon toimintojen luonne ja niihin liittyvät riskit, näihin suuririskisiin tekoälyjärjestelmiin olisi katsottava kuuluvan erityisesti tekoälyjärjestelmät, joita on tarkoitus käyttää valheenpaljastimina ja vastaavina välineinä lainvalvontaviranomaisten toimesta tai niiden puolesta taikka unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi, jotta voidaan arvioida luonnollisen henkilön riskiä joutua rikoksen uhriksi ja todistusaineiston luotettavuutta rikostutkinnassa tai rikosoikeudellisissa menettelyissä ja, siltä osin kuin sitä ei kielletä tässä asetuksessa, arvioida luonnollisen henkilön rikoksen esiintymisen tai toistumisen riskiä myös muilla keinoilla kuin luonnollisten henkilöiden profiloinnin tai luonnollisten henkilöiden tai ryhmien persoonallisuuspiirteiden ja -ominaisuuksien tai aiemman rikollisen käyttäytymisen arvioinnin perusteella, rikosten paljastamisen, tutkimisen tai rikoksiin liittyvien syytetoimien yhteydessä tapahtuvaa profilointia varten. Tekoälyjärjestelmiä, jotka on erityisesti tarkoitettu käytettäviksi vero- ja tulliviranomaisten hallinnollisissa menettelyissä sekä rahanpesun selvittelykeskuksissa, jotka suorittavat hallinnollisia tehtäviä, joissa analysoidaan tietoja unionin rahanpesunvastaisen lainsäädännön nojalla, ei pitäisi luokitella suuririskisiksi tekoälyjärjestelmiksi, joita lainvalvontaviranomaiset käyttävät rikosten ennalta estämiseen, tutkimiseen, paljastamiseen tai rikoksiin liittyviin syytetoimiin. Lainvalvontaviranomaisten ja muiden asiaankuuluvien viranomaisten harjoittama tekoälyn käyttö ei saisi lisätä eriarvoisuutta tai syrjäytymistä. Tekoälyvälineiden käytön vaikutuksia rikoksesta epäiltyjen puolustusoikeuksiin ei pitäisi jättää huomiotta, etenkään vaikeuksia saada kyseisten järjestelmien toimintaa koskevia merkityksellisiä tietoja ja siitä erityisesti tutkinnan kohteena oleville luonnollisille henkilöille aiheutuvaa ongelmaa haastaa tekoälyvälineiden tulokset tuomioistuimessa.
(59)
Предвид техните функции и отговорност, действията на правоохранителните органи, включващи определени видове използване на системи с ИИ, се характеризират със значителна степен на властово неравновесие и могат да доведат до наблюдение, задържане или лишаване от свобода на физическо лице, както и до други неблагоприятни въздействия по отношение на основните права, гарантирани от Хартата. По-специално, ако системата с ИИ не е обучена с висококачествени данни, не отговаря на съответните изисквания по отношение на своето функциониране, точност или надеждност или не е била правилно проектирана и изпитана преди да бъде пусната на пазара или по друг начин пусната в действие, тя може да избира лица по дискриминационен начин или по неправилен или необективен в друго отношение начин. Освен това упражняването на важни процесуални основни права, като правото на ефективни правни средства за защита и на справедлив съдебен процес, както и правото на защита и презумпцията за невиновност, би могло да бъде възпрепятствано, по-специално когато системите с ИИ не са достатъчно прозрачни, разбираеми и документирани. Поради това е целесъобразно редица системи с ИИ, предназначени да бъдат използвани в правоохранителен контекст, където точността, надеждността и прозрачността са особено важни за избягване на неблагоприятни въздействия, запазване на общественото доверие и гарантиране на отчетност и ефективна правна защита, да се класифицират като високорискови, доколкото тяхното използване е разрешено съгласно съответното право на Съюза и национално право. С оглед на естеството на дейностите и свързаните с тях рискове тези високорискови системи с ИИ следва да включват по-специално системи с ИИ, предназначени да бъдат използвани от или от името на правоохранителните органи или от институции, органи, служби или агенции на Съюза в подкрепа на правоохранителните органи за оценка на риска дадено физическо лице да стане жертва на престъпления, например полиграфи и подобни инструменти, за оценка на надеждността на доказателствата в хода на разследването или наказателното преследване на престъпления, и, доколкото това не е забранено съгласно настоящия регламент, за оценка на риска дадено физическо лице да извърши нарушение или повторно нарушение не само въз основа на профилирането на физически лица или на оценката на личностни черти и характеристики или на минало престъпно поведение на физически лица или групи, както и за профилиране в хода на разкриването, разследването или наказателното преследване на престъпления. Системите с ИИ, специално предназначени да се използват за административни производства от данъчните и митническите органи, както и от звената за финансово разузнаване, изпълняващи административни задачи за анализ на информация съгласно правото на Съюза за борба с изпирането на пари, не следва да се класифицират като високорискови системи с ИИ, използвани от правоохранителните органи за целите на предотвратяването, разкриването, разследването и наказателното преследване на престъпления. Използването на инструменти с ИИ от страна на правоохранителните и други съответни органи не следва да се превръща във фактор, обуславящ неравенство или изключване. Въздействието на използването на инструменти с ИИ върху правата на защита на заподозрените лица не следва да се пренебрегва, по-специално трудностите при получаване на съдържателна информация относно функционирането на тези системи и произтичащите от това трудности при оспорване на резултатите от тях в съда, по-специално от страна на физически лица, срещу които се води разследване.
(60)
Muuttoliikkeen hallinnassa, turvapaikka-asioissa ja rajavalvonnassa käytettävät tekoälyjärjestelmät vaikuttavat henkilöihin, jotka ovat usein erityisen haavoittuvassa asemassa ja riippuvaisia toimivaltaisten viranomaisten toimien tuloksista. Näissä yhteyksissä käytettävien tekoälyjärjestelmien tarkkuus, syrjimätön luonne ja avoimuus on sen vuoksi erityisen tärkeää, jotta voidaan taata henkilöiden, joihin vaikutukset kohdistuvat, perusoikeuksien kunnioittaminen, erityisesti heidän oikeutensa vapaaseen liikkuvuuteen, syrjimättömyyteen, yksityiselämän ja henkilötietojen suojaan, kansainväliseen suojeluun ja hyvään hallintoon. Sen vuoksi on aiheellista luokitella suuririskisiksi tekoälyjärjestelmät, siltä osin kuin niiden käyttö on sallittua asiaa koskevan unionin ja kansallisen lainsäädännön nojalla, joita on tarkoitus käyttää valheenpaljastimina ja vastaavina välineinä muuttoliikkeen hallinnassa, turvapaikka-asioissa ja rajavalvonnassa vastaavien toimivaltaisten viranomaisten toimesta tai niiden puolesta taikka vastaavien unionin elinten, toimistojen tai virastojen toimesta; jäsenvaltion alueelle saapuvien tai viisumia tai turvapaikkaa hakevien luonnollisten henkilöiden aiheuttamien tiettyjen riskien arvioimiseen; toimivaltaisten viranomaisten avustamiseen turvapaikka-, viisumi- ja oleskelulupahakemusten ja niihin liittyvien valitusten käsittelyssä, myös todistusaineiston luotettavuuden arvioinnin osalta, kun tavoitteena on vahvistaa asemaa hakevien luonnollisten henkilöiden kelpoisuus; sekä luonnollisten henkilöiden havaitsemiseen, tunnistamiseen tai henkilöllisyyden määrittämiseen muuttoliikkeen, turvapaikka-asioiden ja rajavalvonnan yhteydessä, pois lukien matkustusasiakirjojen tarkastaminen.Tämän asetuksen soveltamisalaan kuuluvien muuttoliikkeen hallinnan, turvapaikka-asioiden ja rajavalvonnan alan tekoälyjärjestelmien olisi oltava Euroopan parlamentin ja neuvoston asetuksessa (EY) N:o 810/2009 (32), Euroopan parlamentin ja neuvoston direktiivissä 2013/32/EU (33) ja muussa asiaa koskevassa unionin oikeudessa säädettyjen asiaankuuluvien menettelyvaatimusten mukaisia. Jäsenvaltioiden tai unionin toimielinten, elinten, toimistojen tai virastojen ei pitäisi missään tapauksessa käyttää tekoälyjärjestelmiä muuttoliikkeen, turvapaikka-asioiden ja rajavalvonnan hallinnassa keinona kiertää Genevessä 28 päivänä heinäkuuta 1951 tehdyn pakolaisten oikeusasemaa koskevan YK:n yleissopimuksen, sellaisena kuin se on muutettuna 31 päivänä tammikuuta 1967 tehdyllä pöytäkirjalla, mukaisia kansainvälisiä velvoitteitaan. Niiden käyttö ei myöskään saisi millään tavoin loukata palauttamiskiellon periaatetta eikä evätä unionin alueelle pääsemiseksi turvallisia ja toimivia laillisia väyliä tai oikeutta kansainväliseen suojeluun.
(60)
Системите с ИИ, използвани в управлението на миграцията, убежището и граничния контрол, засягат лица, които често са в особено уязвимо положение и които зависят от резултата от действията на компетентните публични органи. Поради това точността, недискриминационният характер и прозрачността на системите с ИИ, използвани в тези ситуации, са особено важни, за да се гарантира зачитането на основните права на засегнатите лица, по-специално правото им на свободно движение, недискриминация, защита на личния живот и личните данни, международна закрила и добра администрация. Поради това е целесъобразно, доколкото използването им е разрешено съгласно съответното право на Съюза и национално право, да бъдат класифицирани като високорискови системите с ИИ, предназначени да бъдат използвани от или от името на компетентните публични органи или от институции, органи, служби или агенции на Съюза, натоварени със задачи в областта на управлението на миграцията, убежището и граничния контрол, например полиграфи и подобни инструменти, за оценка на определени рискове, произтичащи от физически лица, които влизат на територията на държава членка или подават молба за виза или убежище, за подпомагане на компетентните публични органи при разглеждането, включително свързаната с това оценка на надеждността на доказателствата, на молби за убежище, визи и разрешения за пребиваване и свързаните с тях жалби по отношение на целта за установяване на допустимостта на физическите лица, кандидатстващи за статут, с цел откриване, разпознаване или установяване на самоличността на физически лица в контекста на управлението на миграцията, убежището и граничния контрол, с изключение на проверка на документите за пътуване. Системите с ИИ в областта на управлението на миграцията, убежището и граничния контрол, обхванати от настоящия регламент, следва да съответстват на съответните процедурни изисквания, установени в Регламент (ЕО) № 810/2009 на Европейския парламент и на Съвета (32), Директива 2013/32/ЕС на Европейския парламент и на Съвета (33) и друго съответно право на Съюза. Системите с ИИ в контекста на управлението на миграцията, убежището и граничния контрол не следва при никакви обстоятелства да се използват от държавите членки или институциите, органите, службите или агенциите на Съюза като средство за заобикаляне на техните международни задължения съгласно Конвенцията на Организацията на обединените нации за статута на бежанците, съставена в Женева на 28 юли 1951 г. и изменена с Протокола от 31 януари 1967 г. Те не следва да се използват и за нарушаване по какъвто и да било начин на принципа на забрана за връщане или за отказ във връзка с безопасни и ефективни законни възможности за достъп до територията на Съюза, включително правото на международна закрила.
(61)
Tietyt oikeudenhoitoon ja demokraattisiin prosesseihin tarkoitetut tekoälyjärjestelmät olisi luokiteltava suuririskisiksi ottaen huomioon niiden mahdollinen merkittävä vaikutus demokratiaan, oikeusvaltioon, yksilön vapauksiin sekä oikeuteen tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen. Erityisesti mahdollisten vinoutumien, virheiden ja läpinäkymättömyyden riskeihin puuttumiseksi on aiheellista luokitella suuririskisiksi tekoälyjärjestelmät, joita on tarkoitus käyttää oikeusviranomaisten toimesta tai niiden puolesta ja joiden tarkoituksena on auttaa oikeusviranomaisia tutkimaan ja tulkitsemaan tosiseikkoja ja lainsäädäntöä sekä soveltamaan lainsäädäntöä konkreettisiin tosiseikkoihin. Tekoälyjärjestelmiä, joita vaihtoehtoisten riidanratkaisuelinten on tarkoitus käyttää näihin tarkoituksiin, olisi myös pidettävä suuririskisinä, jos vaihtoehtoisten riidanratkaisumenettelyjen tuloksilla on oikeusvaikutuksia osapuolille. Tekoälyvälineiden käytöllä voidaan tukea mutta se ei saisi korvata tuomareiden päätöksentekovaltaa tai oikeuslaitoksen riippumattomuutta, koska lopullisten päätösten on myös jatkossa oltava ihmisen tekemiä. Tekoälyjärjestelmien luokittelua suuririskiseksi ei kuitenkaan pitäisi ulottaa tekoälyjärjestelmiin, jotka on tarkoitettu puhtaasti hallinnollisiin tukitoimiin, jotka eivät vaikuta oikeudenkäyttöön yksittäisissä tapauksissa, kuten tuomioistuinten päätösten, asiakirjojen tai tietojen anonymisointiin tai pseudonymisointiin, henkilöstön väliseen viestintään tai hallinnollisiin tehtäviin.
(61)
Някои системи с ИИ, предназначени за използване в правораздаването и при демократичните процеси, следва да бъдат класифицирани като високорискови, като се има предвид потенциално значителното им въздействие върху демокрацията, принципите на правовата държава, индивидуалните свободи, както и правото на ефективни правни средства за защита и на справедлив съдебен процес. По-специално, за да се преодолеят рисковете от възможна предубеденост, грешки и непрозрачност, е целесъобразно да се класифицират като високорискови системите с ИИ, предназначени да бъдат използвани от орган на съдебна власт или от негово име, за да подпомагат органите на съдебна власт при проучването и тълкуването на фактите и правото и при прилагането на правото към конкретен набор от факти. Системите с ИИ, предназначени да бъдат използвани от органите за алтернативно разрешаване на спорове за тези цели, също следва да се считат за високорискови, когато резултатите от производството по алтернативно разрешаване на спорове пораждат правни последици за страните. Използването на инструменти с ИИ може да подпомогне, но не следва да заменя правомощията на съда за вземане на решения или независимостта на съдебната власт; окончателното вземане на решение трябва да продължи да бъде ръководено от човека. Класификацията на системите с ИИ като високорискови не следва обаче да обхваща системите с ИИ, предназначени за чисто спомагателни административни дейности, които не засягат самото правораздаване по отделните дела, като например анонимизиране или псевдонимизиране на съдебни решения, документи или данни, комуникация между персонала и административни задачи.
(62)
Jotta voidaan puuttua perusoikeuskirjan 39 artiklassa vahvistettuun äänioikeuteen kohdistuviin asiattoman ulkopuolisen sekaantumisen riskeihin sekä riskeihin haitallisista vaikutuksista demokratiaan ja oikeusvaltioon, sellaiset tekoälyjärjestelmät olisi luokiteltava suuririskisiksi, jotka on tarkoitettu käytettäviksi vaikuttamaan vaalien tai kansanäänestysten tulokseen tai vaaleissa tai kansanäänestyksissä äänioikeuttaan käyttävien luonnollisten henkilöiden äänestyskäyttäytymiseen, lukuun ottamatta tekoälyjärjestelmiä, joiden tuotoksille luonnolliset henkilöt eivät suoraan altistu, kuten välineet, joita käytetään poliittisten kampanjoiden hallinnolliseen ja logistiseen järjestämiseen, optimointiin ja jäsentämiseen, sanotun kuitenkaan rajoittamatta Euroopan parlamentin ja neuvoston asetuksessa (EU) 2024/900 (34) säädettyjen sääntöjen soveltamista.
(62)
Без да се засягат правилата, предвидени в Регламент (ЕС) 2024/900 на Европейския парламент и на Съвета (34), и с цел да се преодолеят рисковете от неправомерна външна намеса в упражняването на правото на глас, залегнало в член 39 от Хартата, и от неблагоприятните последици за демокрацията и принципите на правовата държава, системите с ИИ, предназначени да се използват за оказване на влияние върху резултата от избори или референдум или върху поведението на физическите лица при упражняване на правото им на глас в избори или референдум, следва да се класифицират като високорискови системи с ИИ, с изключение на системите с ИИ, на чиито резултати физическите лица не са пряко изложени, като например инструменти, използвани за организиране, оптимизиране и структуриране на политически кампании от административна и логистична гледна точка.
(63)
Sen, että tekoälyjärjestelmä luokitellaan tässä asetuksessa suuririskiseksi tekoälyjärjestelmäksi, ei saisi tulkita osoittavan, että järjestelmän käyttö on laillista muiden unionin säädösten tai unionin oikeuden kanssa yhteensopivan kansallisen lainsäädännön nojalla, jota on annettu esimerkiksi henkilötietojen suojasta tai valheenpaljastimien ja vastaavien välineiden tai muiden järjestelmien käytöstä tai luonnollisen henkilön tunnetilan havaitsemisesta. Tällaisen käytön olisi jatkuttava yksinomaan perusoikeuskirjasta ja sovellettavista unionin johdetun oikeuden säädöksistä ja kansallisesta lainsäädännöstä johtuvien sovellettavien vaatimusten mukaisesti. Tätä asetusta ei pitäisi ymmärtää niin, että siinä säädettäisiin oikeusperustasta henkilötietojen käsittelylle, mukaan lukien tarvittaessa erityiset henkilötietoryhmät, ellei siitä nimenomaisesti toisin säädetä tässä asetuksessa.
(63)
Фактът, че дадена система с ИИ е класифицирана като високорискова система с ИИ съгласно настоящия регламент, не следва да се тълкува като указване, че използването на системата е законосъобразно съгласно други актове на правото на Съюза или съгласно националното право, съвместимо с правото на Съюза, като например относно защитата на личните данни и използването на полиграфи и подобни инструменти или други системи за разпознаване на емоционалното състояние на физическите лица. Всяко такова използване следва да продължи да се извършва единствено в съответствие с приложимите изисквания, произтичащи от Хартата и от приложимите актове на вторичното право на Съюза и националното право. Настоящият регламент не следва да се тълкува като предоставящ правно основание за обработването на лични данни, включително, ако е приложимо, на специални категории лични данни, освен когато в него изрично е предвидено друго.
(64)
Jotta voidaan vähentää riskejä, joita markkinoille saatetuista tai muuten käyttöön otetuista suuririskisistä tekoälyjärjestelmistä aiheutuu, ja jotta voidaan varmistaa korkea luotettavuuden taso, suuririskisiin tekoälyjärjestelmiin olisi sovellettava tiettyjä pakollisia vaatimuksia ottaen huomioon tekoälyjärjestelmän käyttötarkoitus ja -yhteys ja noudattaen tarjoajan perustamaa riskinhallintajärjestelmää. Toimenpiteissä, joita tarjoajat toteuttavat noudattaakseen tämän asetuksen pakollisia vaatimuksia, olisi otettava huomioon yleisesti tunnustettu tekoälyä koskeva viimeisin kehitys, ja niiden olisi oltava oikeasuhteisia ja tehokkaita tämän asetuksen tavoitteiden saavuttamiseksi. Uuden lainsäädäntökehyksen perusteella, kuten komission tiedonannossa ”Sininen opas – EU:n tuotesääntöjen täytäntöönpano-opas 2022” selvennetään, yleissääntönä on, että useampaa kuin yhtä unionin yhdenmukaistamislainsäädännön säädöstä voidaan soveltaa yhteen tuotteeseen, koska saataville asettaminen tai käyttöönotto voidaan sallia vain, jos tuote on kaiken sovellettavan unionin yhdenmukaistamislainsäädännön mukainen. Tämän asetuksen vaatimusten soveltamisalaan kuuluvien tekoälyjärjestelmien vaarat koskevat eri näkökohtia kuin voimassa oleva unionin yhdenmukaistamislainsäädäntö, minkä vuoksi tämän asetuksen vaatimukset täydentäisivät nykyistä unionin yhdenmukaistamislainsäädäntöä. Esimerkiksi tekoälyjärjestelmän sisältäviin koneisiin tai lääkinnällisiin laitteisiin voi liittyä riskejä, joita ei käsitellä asiaa koskevan unionin yhdenmukaistamislainsäädännön vahvistetuissa olennaisissa terveys- ja turvallisuusvaatimuksissa, koska kyseisessä alakohtaisessa lainsäädännössä ei käsitellä tekoälyjärjestelmille ominaisia riskejä.Tämä edellyttää eri säädösten samanaikaista ja täydentävää soveltamista. Johdonmukaisuuden varmistamiseksi sekä tarpeettoman hallinnollisen rasitteen ja turhien kustannusten välttämiseksi sellaisen tuotteen, joka sisältää yhden tai useamman suuririskisen tekoälyjärjestelmän, johon sovelletaan tämän asetuksen ja tämän asetuksen liitteessä luetellun uuteen lainsäädäntökehykseen perustuvan unionin yhdenmukaistamislainsäädännön vaatimuksia, tarjoajien olisi oltava joustavia niiden operatiivisten päätösten osalta, joilla varmistetaan parhaalla mahdollisella tavalla yhden tai useamman tekoälyjärjestelmän sisältävän tuotteen vaatimustenmukaisuus kaikkien kyseisen unionin yhdenmukaistetun lainsäädännön säännösten kanssa. Tämä joustavuus voisi tarkoittaa esimerkiksi tarjoajan päätöstä sisällyttää osa tämän asetuksen nojalla vaadittavista testaus- ja raportointiprosesseista, tiedoista ja asiakirjoista jo olemassa oleviin asiakirjoihin ja menettelyihin, joita edellytetään tämän asetuksen liitteessä lueteltuun uuteen lainsäädäntökehykseen perustuvassa voimassa olevassa unionin yhdenmukaistamislainsäädännössä. Tämä ei saisi millään tavoin vähentää tarjoajan velvollisuutta noudattaa kaikkia sovellettavia vaatimuksia.
(64)
За да се ограничат рисковете, произтичащи от високорискови системи с ИИ, пуснати на пазара или пуснати в действие, и за да се гарантира високо равнище на надеждност, за високорисковите системи с ИИ следва да се прилагат някои задължителни изисквания, при които се вземат предвид предназначението и контекстът на използване на системата с ИИ и които са съобразени със системата за управление на риска, която ще бъде създадена от доставчика. Мерките, предприети от доставчиците за спазване на задължителните изисквания на настоящия регламент, следва да са съобразени с общопризнатите съвременни технически постижения в областта на ИИ и да бъдат пропорционални и ефективни за постигане на целите на настоящия регламент. Въз основа на новата законодателна рамка, съгласно обясненията в известието на Комисията „Синьото ръководство“ за прилагане на правилата на ЕС относно продуктите – 2022 г., общото правило е, че повече от един правен акт от законодателството на Съюза за хармонизация може да е приложим за един продукт, тъй като предоставянето на пазара или пускането в действие може да се извърши само когато продуктът е в съответствие с цялото приложимо законодателство на Съюза за хармонизация. Опасностите, свързани със системите с ИИ, обхванати от изискванията на настоящия регламент, се отнасят до аспекти, различни от действащото законодателство на Съюза за хармонизация, поради което изискванията на настоящия регламент ще допълнят действащото законодателство на Съюза за хармонизация. Например машините или медицинските изделия, включващи система с ИИ, могат да представляват рискове, които не са обхванати от съществените изисквания, свързани със здравето и безопасността, установени в съответното законодателство на Съюза за хармонизация, тъй като в това секторно право не се уреждат рисковете, присъщи за системите с ИИ. Поради това е необходимо едновременно и допълващо се прилагане на различните законодателни актове. За да се гарантира съгласуваност и да се избегнат ненужна административна тежест и ненужни разходи, доставчиците на продукт, който съдържа една или повече високорискови системи с ИИ, за които се прилагат изискванията на настоящия регламент и на законодателството на Съюза за хармонизация въз основа на новата законодателна рамка, което е посочено в приложение към настоящия регламент, следва да разполагат с гъвкавост по отношение на оперативните решения за това как да се гарантира оптимално съответствие на продукт, който съдържа една или повече системи с ИИ, с всички приложими изисквания на това законодателство на Съюза за хармонизация. Тази гъвкавост би могла да означава например решение на доставчика да интегрира част от необходимите процеси на изпитване и докладване, информация и документация, изисквани съгласно настоящия регламент, във вече съществуваща документация и процедури, изисквани съгласно съществуващото законодателство на Съюза за хармонизация въз основа на новата законодателна рамка, посочено в приложение към настоящия регламент. Това по никакъв начин не следва да засяга задължението на доставчика да спазва всички приложими изисквания.
(65)
Riskinhallintajärjestelmän olisi koostuttava iteratiivisesta prosessista, joka jatkuu suunnitellusti suuririskisen tekoälyjärjestelmän koko elinkaaren ajan. Kyseisellä prosessilla olisi pyrittävä määrittämään ja lieventämään tekoälyjärjestelmien terveyteen, turvallisuuteen ja perusoikeuksiin liittyviä riskejä. Riskinhallintajärjestelmää olisi tarkasteltava ja päivitettävä säännöllisesti, jotta voidaan varmistaa sen jatkuva tehokkuus sekä tämän asetuksen soveltamisalaan kuuluvien merkittävien päätösten ja toteutettujen toimien perustelut ja dokumentointi. Tällä prosessilla olisi varmistettava, että tarjoaja määrittää riskit tai haitalliset vaikutukset ja toteuttaa lieventäviä toimenpiteitä ottaen huomioon tekoälyjärjestelmien käyttötarkoituksen ja kohtuudella ennakoitavissa olevan väärinkäytön, jotta voidaan torjua niiden terveyteen, turvallisuuteen ja perusoikeuksiin kohdistuvia tunnettuja ja kohtuudella ennakoitavissa olevia riskejä, mukaan lukien mahdolliset riskit, jotka johtuvat tekoälyjärjestelmän ja sen toimintaympäristön välisestä vuorovaikutuksesta. Riskinhallintajärjestelmässä olisi otettava käyttöön asianmukaisimmat riskinhallintatoimenpiteet ottaen huomioon tekoälyn viimeisin kehitys. Asianmukaisimpia riskinhallintatoimenpiteitä määrittäessään tarjoajan olisi dokumentoitava ja selitettävä tehdyt valinnat sekä tarvittaessa otettava mukaan asiantuntijoita ja ulkopuolisia sidosryhmiä. Määrittäessään suuririskisten tekoälyjärjestelmien kohtuudella ennakoitavissa olevaa väärinkäyttöä tarjoajan olisi käsiteltävä tekoälyjärjestelmien käyttötarkoitukset, joiden voidaan kohtuudella olettaa johtuvan ihmisen helposti ennustettavissa olevasta käyttäytymisestä tietyn tekoälyjärjestelmän ominaisuuksien ja käytön yhteydessä, vaikka ne eivät kuuluisi suoraan käyttötarkoituksen piiriin ja niitä ei ole mainittu käyttöohjeissa. Kaikki tunnetut tai ennakoitavissa olevat olosuhteet, jotka liittyvät suuririskisen tekoälyjärjestelmän käyttöön sen käyttötarkoituksen mukaisesti tai kohtuudella ennakoitavissa olevissa väärinkäytön olosuhteissa ja jotka voivat aiheuttaa terveyteen, turvallisuuteen tai perusoikeuksiin kohdistuvia riskejä, olisi sisällytettävä tarjoajan antamiin käyttöohjeisiin. Näin varmistetaan, että käyttöönottaja on tietoinen niistä ja ottaa ne huomioon käyttäessään suuririskistä tekoälyjärjestelmää. Tämän asetuksen mukaisten ennakoitavissa olevan väärinkäytön riskinvähentämistoimenpiteiden määrittäminen ja toteuttaminen ei saisi edellyttää tarjoajalta suuririskistä tekoälyjärjestelmää koskevaa erityistä lisäkoulutusta ennakoitavissa olevan väärinkäytön käsittelemiseksi. Tarjoajia kannustetaan kuitenkin harkitsemaan tällaisia lisäkoulutustoimenpiteitä tarpeen mukaan kohtuullisesti ennakoitavissa olevien väärinkäytösten lieventämiseksi.
(65)
Системата за управление на риска следва да се състои от непрекъснат цикличен процес, който се планира и протича през целия жизнен цикъл на високорисковата система с ИИ. Този процес следва да бъде насочен към установяване и ограничаване на съответните рискове, произтичащи от системите с ИИ, за здравето, безопасността и основните права. Системата за управление на риска следва да подлежи на редовен преглед и за бъде актуализирана, за да се гарантира непрекъснатата ѝ ефективност, както и обосновката и документирането на всички важни решения и действия, предприети съгласно настоящия регламент. Този процес следва да гарантира, че доставчикът установява рисковете или неблагоприятните въздействия и прилага мерки за ограничаване на известните и разумно предвидими рискове, произтичащи от системите с ИИ, за здравето, безопасността и основните права с оглед на тяхното предназначение и разумно предвидима неправилна експлоатация, включително възможните рискове, произтичащи от взаимодействието между системата с ИИ и средата, в която тя работи. Системата за управление на риска следва да предприема най-подходящите мерки за управление на риска с оглед на съвременните технически постижения в областта на ИИ. При определянето на най-подходящите мерки за управление на риска доставчикът следва да документира и обясни направения избор и, когато е целесъобразно, да включи експерти и външни заинтересовани страни. При установяването на разумно предвидима неправилна експлоатация на високорискови системи с ИИ доставчикът следва да обхване използването на системите с ИИ, които, макар и да не са пряко обхванати от предназначението и предвидени в инструкциите за употреба, може все пак да се очаква, че са резултат от лесно предвидимо човешко поведение в контекста на специфичните характеристики и използване на конкретна система с ИИ. Всички известни или предвидими обстоятелства, свързани с използването на високорисковата система с ИИ в съответствие с предназначението ѝ или в условия на разумно предвидима неправилна експлоатация, които могат да породят рискове за здравето и безопасността или за основните права, следва да бъдат включени в инструкциите за употреба, предоставени от доставчика. Целта е да се гарантира, че внедрителят е запознат с тях и ги взема предвид при използването на високорисковата система с ИИ. Определянето и прилагането на мерки за ограничаване на риска в случаи на предвидима неправилна експлоатация съгласно настоящия регламент не следва да изискват осигуряването на конкретно допълнително обучение за високорисковата система с ИИ от страна на доставчика с цел намиране на решение във връзка с предвидимата неправилна експлоатация. Доставчиците обаче се насърчават да обмислят такива допълнителни мерки за обучение с цел ограничаване на случаи на разумно предвидима неправилна експлоатация, когато това е необходимо и целесъобразно.
(66)
Suuririskisiin tekoälyjärjestelmiin olisi sovellettava vaatimuksia, jotka koskevat käytettyjen datajoukkojen riskinhallintaa, laatua ja merkityksellisyyttä, teknistä dokumentaatiota ja tietojen säilyttämistä, avoimuutta ja tietojen antamista käyttöönottajille, ihmisen suorittamaa valvontaa sekä vakautta, tarkkuutta ja kyberturvallisuutta. Nämä vaatimukset ovat tarpeen, jotta voidaan tehokkaasti vähentää terveyteen, turvallisuuteen ja perusoikeuksiin kohdistuvia riskejä. Koska muita vähemmän kauppaa rajoittavia toimenpiteitä ei ole kohtuudella käytettävissä, ja näin ollen kyseiset vaatimukset eivät ole perusteettomia kaupan rajoituksia.
(66)
По отношение на високорисковите системи с ИИ следва да се прилагат изисквания за управлението на риска, качеството и целесъобразността на използваните набори от данни, техническата документация и поддържането на регистри, прозрачността и предоставянето на информация на внедрителите, човешкия контрол, надеждността, точността и киберсигурността. Тези изисквания са необходими за ефективно ограничаване на рисковете за здравето, безопасността и основните права. Тъй като не съществуват други разумни, по-малко ограничителни мерки за търговията, тези изисквания не представляват необосновани ограничения на търговията.
(67)
Korkealaatuisella datalla ja sen saatavuudella on ensisijainen rooli monien tekoälyjärjestelmien rakenteen luomisen ja suorituskyvyn varmistamisen kannalta, erityisesti kun käytetään tekniikoita, joihin sisältyy mallien kouluttamista, jotta voidaan varmistaa, että suuririskinen tekoälyjärjestelmä toimii tarkoitetulla tavalla ja turvallisesti eikä siitä tule unionin oikeudessa kiellettyä syrjinnän lähdettä. Korkealaatuiset koulutus-, validointi- ja testausdatajoukot edellyttävät asianmukaisten datanhallinta- ja hallinnointikäytäntöjen täytäntöönpanoa. Koulutus-, validointi- ja testausdatajoukkojen, myös tunnisteiden, olisi oltava merkityksellisiä, riittävän edustavia ja niin suurelta osin kuin mahdollista virheettömiä ja täydellisiä järjestelmän käyttötarkoitusta ajatellen. Datanhallinta- ja hallinnointikäytäntöihin olisi henkilötietojen osalta sisällytettävä avoimuus datankeruun alkuperäisestä tarkoituksesta, jotta voidaan helpottaa unionin tietosuojalainsäädännön, kuten asetuksen (EU) 2016/679, noudattamista. Datajoukoilla olisi myös oltava asianmukaiset tilastolliset ominaisuudet, myös niiden henkilöiden tai henkilöryhmien osalta, joihin suuririskistä tekoälyjärjestelmää on tarkoitus käyttää, kiinnittäen erityistä huomiota sellaisten datajoukkojen mahdollisten vinoutumien vähentämiseen, jotka todennäköisesti vaikuttavat henkilöiden terveyteen ja turvallisuuteen, vaikuttavat kielteisesti perusoikeuksiin tai johtavat unionin oikeudessa kiellettyyn syrjintään, erityisesti silloin, kun datan tuotokset vaikuttavat tulevien toimintojen syöttötietoihin (palautesilmukat). Taustalla oleviin datajoukkoihin voi esimerkiksi sisältyä vinoutumia erityisesti silloin, kun käytetään historiallisia tietoja tai kun järjestelmät otetaan käyttöön todellisissa olosuhteissa.Dataan sisältyvät vinoutumat voivat vaikuttaa tekoälyjärjestelmien tuottamiin tuloksiin, ja tällaisilla vinoutumilla on taipumus vähitellen lisääntyä ja siten ylläpitää ja lisätä olemassa olevaa syrjintää erityisesti tiettyihin haavoittuvassa asemassa oleviin ryhmiin, myös rodullisiin tai etnisiin ryhmiin, kuuluvien henkilöiden osalta. Datajoukkojen mahdollisimman suurta täydellisyyttä ja virheettömyyttä koskeva vaatimus ei saisi vaikuttaa yksityisyyden suojaa parantavien tekniikoiden käyttöön tekoälyjärjestelmien kehittämisen ja testauksen yhteydessä. Datajoukoissa olisi otettava erityisesti huomioon niiden käyttötarkoituksen edellyttämässä laajuudessa ne ominaispiirteet, ominaisuudet tai osatekijät, jotka ovat ominaisia sille maantieteelliselle, viitekehyksenä olevalle, käyttäytymiseen liittyvälle tai toiminnalliselle ympäristölle, jossa tekoälyjärjestelmää on tarkoitus käyttää. Datanhallintaan liittyviä vaatimuksia voidaan noudattaa turvautumalla kolmansiin osapuoliin, jotka tarjoavat sertifioituja vaatimustenmukaisuuspalveluja, mukaan lukien datanhallinnan, datajoukkojen eheyden sekä dataa koskevien koulutus-, validointi- ja testauskäytäntöjen todentaminen, kunhan tämän asetuksen datavaatimusten noudattaminen on varmistettu.
(67)
Висококачествените данни и достъпът до тях имат жизненоважна роля за осигуряването на структура и за гарантирането на функционирането на много системи с ИИ, особено когато се използват техники, включващи обучение на модели, с цел да се гарантира, че високорисковата система с ИИ функционира по предназначение и по безопасен начин и не води до дискриминация, забранена от правото на Съюза. Висококачествените набори от обучителни, валидационни и изпитвателни данни изискват прилагането на подходящи практики за администриране и управление на данни. Наборите от обучителни, валидационни и изпитвателни данни, включително обозначенията, следва да бъдат подходящи, достатъчно представителни и във възможно най-голяма степен пълни и без грешки с оглед на предназначението на системата. За да се улесни спазването на правото на Съюза в областта на защитата на данните, като например Регламент (ЕС) 2016/679, практиките за администриране и управление на данни следва да включват, в случай на лични данни, прозрачност по отношение на първоначалната цел на събирането на данните. Наборите от данни следва също така да имат подходящи статистически свойства, включително по отношение на лицата или групите лица, във връзка с които е предназначена да се използва високорисковата система с ИИ, като се обръща специално внимание на намаляването на възможна предубеденост в наборите от данни, която има вероятност да засегне здравето и безопасността на хората, да окаже отрицателно въздействие върху основните права или да доведе до дискриминация, забранена съгласно правото на Съюза, особено когато резултатите от данните оказват влияние върху входящите данни за бъдещи операции (обратни връзки). Предубедеността може например да бъде присъща за основните набори от данни, особено при използването или генерирането на исторически данни, когато системите се внедряват в реални условия. Резултатите, предоставени от системи с ИИ, могат да се повлияват от такава присъща предубеденост, при която съществува тенденция постепенно да се увеличава и по този начин да затвърждава и засилва съществуващата дискриминация, по-специално по отношение на лица, принадлежащи към определени уязвими групи, включително расови или етнически групи. Изискването наборите от данни да бъдат във възможно най-голяма степен пълни и без грешки не следва да засяга използването на техники за опазване на неприкосновеността на личния живот в контекста на разработването и изпитването на системи с ИИ. По-специално, наборите от данни следва да са съобразени, доколкото това се изисква с оглед на предназначението им, с особеностите, характеристиките или елементите, характерни за конкретната географска, контекстуална, поведенческа или функционална среда, в която системата с ИИ е предназначена да бъде използвана. Изискванията, свързани с администрирането на данни, могат да бъдат спазени чрез използване на услугите на трети лица, които предлагат сертифицирани услуги за осигуряване на съответствие, включително проверка на администрирането на данните, целостта на наборите от данни и практиките за обучение, валидиране и изпитване на данните, доколкото се гарантира спазването на изискванията за данните по настоящия регламент.
(68)
Suuririskisten tekoälyjärjestelmien kehittämiseksi ja arvioimiseksi tiettyjen toimijoiden, esimerkiksi tarjoajien, ilmoitettujen laitosten ja muiden asiaankuuluvien tahojen, kuten digitaali-innovaatiokeskittymien, testauslaitosten ja tutkijoiden, olisi voitava saada käyttöönsä ja käyttää korkealaatuisia datajoukkoja tähän asetukseen liittyvillä kyseisten toimijoiden toiminta-aloilla. Komission perustama yhteinen eurooppalainen data-avaruus ja datan jakamisen helpottaminen yritysten välillä ja viranomaisten kanssa yleisen edun nimissä ovat ratkaisevan tärkeitä, jotta voidaan tarjota luotettava, vastuullinen ja syrjimätön pääsy korkealaatuiseen dataan tekoälyjärjestelmien koulutusta, validointia ja testausta varten. Esimerkiksi terveydenhuollon alalla eurooppalainen terveysdata-avaruus helpottaa terveysdatan syrjimätöntä saatavuutta ja tekoälyalgoritmien koulutusta näillä datajoukoilla yksityisyyden suojaavalla, turvallisella, oikea-aikaisella, avoimella ja luotettavalla tavalla ja asianmukaisen institutionaalisen hallinnon alaisena. Asiaankuuluvat toimivaltaiset viranomaiset, myös alakohtaiset viranomaiset, jotka tarjoavat dataa tai tukevat datan saatavuutta, voivat myös tukea korkealaatuisen datan tarjoamista tekoälyjärjestelmien koulutusta, validointia ja testausta varten.
(68)
За разработването и оценката на високорискови системи с ИИ определени участници, като например доставчици, нотифицирани органи и други съответни субекти, например европейски цифрови иновационни центрове, структури за експериментиране и изпитване и научни работници, следва да имат достъп до и да използват висококачествени набори от данни в областите на дейност на тези участници, които са свързани с настоящия регламент. Общите европейски пространства на данни, създадени от Комисията, и улесняването на обмена на данни между предприятията и с държавните органи в името на обществения интерес ще бъдат от основно значение за осигуряването на надежден, отговорен и недискриминационен достъп до висококачествени данни за обучението, валидирането и изпитването на системите с ИИ. Например в областта на здравеопазването европейското пространство на здравни данни ще улесни недискриминационния достъп до здравни данни и обучението на алгоритми на ИИ въз основа на тези набори от данни по сигурен, навременен, прозрачен и надежден начин, при който се запазва неприкосновеността на личния живот, и при подходящо институционално управление. Съответните компетентни органи, включително секторните органи, които предоставят или подпомагат достъпа до данни, могат също така да подкрепят предоставянето на висококачествени данни за обучението, валидирането и изпитването на системите с ИИ.
(69)
Oikeus yksityisyyteen ja henkilötietojen suojaan on taattava tekoälyjärjestelmän koko elinkaaren ajan. Tässä yhteydessä henkilötietojen käsittelyn osalta sovelletaan tietojen minimoinnin ja sisäänrakennetun ja oletusarvoisen tietosuojan periaatteita, sellaisina kuin niistä säädetään unionin tietosuojalainsäädännössä. Kyseisten periaatteiden noudattamisen varmistamiseksi tarjoajat toteuttavat toimenpiteitä, joihin voi anonymisoinnin ja salauksen lisäksi kuulua myös sellaisen teknologian käyttö, joka mahdollistaa sekä algoritmien tuomisen dataan että tekoälyjärjestelmien kouluttamisen ilman osapuolten välistä siirtoa tai itse raakadatan tai jäsennellyn datan kopiointia, sanotun kuitenkaan rajoittamatta tässä asetuksessa säädettyjen datan hallintaa koskevien vaatimusten soveltamista.
(69)
Правото на неприкосновеност на личния живот и на защита на личните данни трябва да бъде гарантирано през целия жизнен цикъл на системата с ИИ. В това отношение принципите на свеждане на данните до минимум и на защита на данните при проектирането и по подразбиране, определени в правото на Съюза в областта на защитата на данните, са приложими при обработването на лични данни. Мерките, предприети от доставчиците за гарантиране на спазването на тези принципи, могат да включват не само анонимизиране и криптиране, но и използване на технологии, които позволяват въвеждането на алгоритми в данните и позволяват обучение на системи с ИИ без предаване между страните или копиране на самите необработени или структурирани данни, без да се засягат изискванията за администриране на данните, предвидени в настоящия регламент.
(70)
Jotta voitaisiin suojella muita tekoälyjärjestelmissä esiintyvästä vinoutumisesta mahdollisesti johtuvalta syrjinnältä, tarjoajien olisi suuririskisten tekoälyjärjestelmien vinoutumien havaitsemisen ja korjaamisen varmistamiseksi voitava, poikkeuksellisesti ja siinä määrin kuin se on ehdottoman välttämätöntä sekä soveltaen luonnollisten henkilöiden perusoikeuksia ja -vapauksia koskevia asianmukaisia suojatoimia sekä kaikkia tässä asetuksessa säädettyjä sovellettavia ehtoja asetuksissa (EU) 2016/679 ja (EU) 2018/1725 sekä direktiivissä (EU) 2016/680 säädettyjen edellytysten lisäksi, käsitellä myös erityisiä henkilötietoryhmiä asetuksen (EU) 2016/679 9 artiklan 2 kohdan g alakohdassa ja asetuksen (EU) 2018/1725 10 artiklan 2 kohdan g alakohdassa tarkoitetun tärkeän yleisen edun nimissä.
(70)
За да се защитят правата на други лица от дискриминацията, която може да произтича от предубеденост в системите с ИИ, доставчиците следва по изключение, доколкото това е строго необходимо за целите на осигуряването на откриване и коригиране на предубедеността във високорисковите системи с ИИ, при спазване на подходящи гаранции за основните права и свободи на физическите лица и след прилагането на всички приложими условия, установени в настоящия регламент, в допълнение към условията, установени в регламенти (ЕС) 2016/679 и (ЕС) 2018/1725 и в Директива (ЕС) 2016/680, да могат да обработват и специални категории лични данни като въпрос от важен обществен интерес по смисъла на член 9, параграф 2, буква ж) от Регламент (ЕС) 2016/679 и член 10, параграф 2, буква ж) от Регламент (ЕС) 2018/1725.
(71)
Tämän asetuksen vaatimusten noudattamisen todentamisen kannalta on olennaisen tärkeää saada ymmärrettävää tietoa siitä, miten suuririskiset tekoälyjärjestelmät on kehitetty ja miten ne toimivat koko niiden käyttöiän ajan, jotta voidaan mahdollistaa näiden järjestelmien jäljitettävyys sekä niiden toiminnan ja markkinoille saattamisen jälkeinen seuranta. Tämä edellyttää, että tiedot säilytetään ja että saatavilla on tekninen dokumentaatio, joka sisältää tiedot, joita tarvitaan sen arvioimiseksi, onko tekoälyjärjestelmä asiaankuuluvien vaatimusten mukainen, ja markkinoille saattamisen jälkeisen seurannan helpottamiseksi. Tällaisiin tietoihin olisi sisällyttävä järjestelmän yleiset ominaisuudet, valmiudet ja rajoitukset, algoritmit, data, koulutus, testaus- ja validointiprosessit sekä sovellettua riskinhallintajärjestelmää koskevat asiakirjat, ja ne olisi laadittava selkeässä ja ymmärrettävässä muodossa. Tekninen dokumentaatio olisi pidettävä asianmukaisesti ajan tasalla tekoälyjärjestelmän koko käyttöiän ajan. Lisäksi suuririskisissä tekoälyjärjestelmissä olisi mahdollistettava teknisesti tapahtumien automaattinen tallentaminen lokitietojen muodossa järjestelmän käyttöiän keston ajan.
(71)
Наличието на разбираема информация за начина на разработване на високорисковите системи с ИИ и начина на функционирането им през целия срок на експлоатация е от съществено значение, за да се даде възможност за проследимост на тези системи, проверка на съответствието с изискванията съгласно настоящия регламент, както и мониторинг на тяхното функциониране и мониторинг след пускането на пазара. Това изисква поддържането на регистри и наличието на техническа документация, съдържаща информация, която е необходима за оценяване на съответствието на системата с ИИ с приложимите изисквания и за улесняване на мониторинга след пускането на пазара. Тази информация следва да включва общите характеристики, способностите и ограниченията на системата, използваните алгоритми, данни и процеси на обучение, изпитване и валидиране, както и документация за съответната система за управление на риска, и следва да се изготвя в ясна и разбираема форма. Техническата документация следва да се актуализира по подходящ начин през целия срок на експлоатация на системата с ИИ. Освен това високорисковите системи с ИИ следва технически да позволяват автоматично записване на събития посредством записи по време на срока на експлоатация на системата.
(72)
Jotta voidaan puuttua tiettyjen tekoälyjärjestelmien läpinäkymättömyyteen ja monimutkaisuuteen liittyviin huolenaiheisiin ja auttaa käyttöönottajia täyttämään tämän asetuksen mukaiset velvoitteensa, suuririskisiltä tekoälyjärjestelmiltä olisi edellytettävä avoimuutta, ennen kuin ne saatetaan markkinoille tai otetaan käyttöön. Suuririskiset tekoälyjärjestelmät olisi suunniteltava siten, että käyttöönottajat voivat ymmärtää, miten tekoälyjärjestelmä toimii, arvioida sen toimivuutta ja ymmärtää sen vahvuuksia ja rajoituksia. Suuririskisten tekoälyjärjestelmien mukana olisi oltava asianmukaiset tiedot käyttöohjeiden muodossa. Tällaisiin tietoihin olisi sisällyttävä tekoälyjärjestelmän ominaisuudet, valmiudet ja suorituskyvyn rajoitukset. Nämä kattaisivat tiedot mahdollisista suuririskisen tekoälyjärjestelmän käyttöön liittyvistä tunnetuista ja ennakoitavissa olevista olosuhteista, mukaan lukien käyttöönottajan toiminta, joka voi vaikuttaa järjestelmän käyttäytymiseen ja suorituskykyyn, jolloin tekoälyjärjestelmä voi aiheuttaa terveyteen, turvallisuuteen ja perusoikeuksiin kohdistuvia riskejä; muutoksista, jotka tarjoaja on ennalta määrittänyt ja joiden vaatimustenmukaisuuden se on arvioinut; sekä asiaankuuluvista ihmisen suorittamista valvontatoimenpiteistä, mukaan lukien toimenpiteet, joilla helpotetaan tekoälyjärjestelmän tuotosten tulkintaa käyttöönottajille. Avoimuuden, myös mukana olevien käyttöohjeiden, olisi avustettava käyttöönottajia järjestelmän käytössä ja tuettava heitä tietoon perustuvassa päätöksenteossa. Käyttöönottajilla olisi muun muassa oltava paremmat mahdollisuudet valita, ottaen huomioon niihin sovellettavat velvoitteet, oikea järjestelmä, jota he aikovat käyttää, saada tietoa käyttötarkoituksesta tai käytön esteistä sekä käyttää tekoälyjärjestelmää oikein ja tarpeen mukaan. Käyttöohjeisiin olisi tarvittaessa sisällytettävä havainnollistavia esimerkkejä esimerkiksi tekoälyjärjestelmän rajoituksista sekä käyttötarkoituksesta ja käytön esteistä, jotta voidaan parantaa niihin sisältyvien tietojen luettavuutta ja saatavuutta. Tarjoajien olisi varmistettava, että kaikki asiakirjat, myös käyttöohjeet, sisältävät merkityksellisiä, kattavia, helposti saatavilla olevia ja ymmärrettäviä tietoja, joissa otetaan huomioon kohteena olevien käyttöönottajien tarpeet ja ennakoitavissa oleva tietämys. Käyttöohjeet olisi asetettava saataville kohteena olevien käyttöönottajien helposti ymmärtämällä, asianomaisen jäsenvaltion määräämällä kielellä.
(72)
За да се отговори на опасенията, свързани с непрозрачността и сложността на някои системи с ИИ, и да се помогне на внедрителите да изпълняват задълженията си съгласно настоящия регламент, следва да се изисква прозрачност за високорисковите системи с ИИ преди пускането им на пазара или пускането им в действие. Високорисковите системи с ИИ следва да бъдат проектирани по начин, който позволява на внедрителите да разберат как функционира системата с ИИ, да оценят нейната функционалност и да разберат нейните силни страни и ограничения. Високорисковите системи с ИИ следва да се придружават от подходяща информация под формата на инструкции за употреба. Тази информация следва да включва характеристиките, способностите и ограниченията на действието на системата с ИИ. Те ще обхващат информация относно възможните известни и предвидими обстоятелства, свързани с използването на високорисковата система с ИИ, включително действия от страна на внедрителя, които могат да повлияят на поведението и работата на системата и в рамките на които системата с ИИ може да породи рискове за здравето, безопасността и основните права, относно промените, които са предварително определени и чието съответствие е оценено от доставчика, както и относно съответните мерки за човешки контрол, включително мерките за улесняване на тълкуването на резултатите от системата с ИИ от внедрителите. Прозрачността, включително придружаващите инструкции за употреба, следва да подпомага внедрителите при използването на системата, както и при вземането на информирани решения. Внедрителите следва, наред с другото, да разполагат с по-добра възможност да направят правилния избор за системата, която възнамеряват да използват с оглед на приложимите за тях задължения, да бъдат запознати с предвиденото и неразрешеното използване и да използват системата с ИИ правилно и целесъобразно. За да се подобри разбираемостта и достъпността на информацията, включена в инструкциите за употреба, когато е целесъобразно следва да бъдат включени илюстративни примери, например относно ограниченията и относно предвиденото и неразрешеното използване на системата с ИИ. Доставчиците следва да гарантират, че цялата документация, включително инструкциите за употреба, съдържа съдържателна, изчерпателна, достъпна и разбираема информация, като се вземат предвид нуждите и предвидимите познания на внедрителите, за които е предназначена. Инструкциите за употреба следва да се предоставят на език, лесно разбираем за внедрителите, за които са предназначени, който е определен от съответната държава членка.
(73)
Suuririskiset tekoälyjärjestelmät olisi suunniteltava ja kehitettävä siten, että luonnolliset henkilöt voivat valvoa niiden toimintaa, varmistaa niiden käytön tarkoitetulla tavalla ja että niiden vaikutuksia käsitellään koko järjestelmän elinkaaren ajan. Tätä varten järjestelmän tarjoajan olisi määritettävä asianmukaiset ihmisen suorittamat valvontatoimenpiteet ennen järjestelmän markkinoille saattamista tai käyttöönottoa. Tällaisilla toimenpiteillä olisi tarvittaessa erityisesti varmistettava, että järjestelmässä on sisäänrakennettuja toiminnallisia rajoituksia, joita järjestelmä ei voi itse ohittaa ja jotka vastaavat ihmiskäyttäjän komentoihin, ja että luonnollisilla henkilöillä, joiden tehtäväksi ihmisen suorittama valvonta on annettu, on tarvittava pätevyys, koulutus ja valtuudet tämän tehtävän hoitamiseksi. On myös olennaisen tärkeää tarpeen mukaan varmistaa, että suuririskiset tekoälyjärjestelmät sisältävät mekanismeja, joilla annetaan ohjausta ja tietoa luonnolliselle henkilölle, jonka tehtäväksi ihmisen suorittama valvonta on annettu jotta hän voi tehdä tietoon perustuvia päätöksiä siitä, milloin ja millä keinoin asiaan on puututtava, jos ollenkaan, jotta voidaan välttää kielteiset seuraukset tai riskit taikka pysäyttää järjestelmä, jos se ei toimi tarkoitetulla tavalla. Ottaen huomioon tiettyjen biometristen tunnistusjärjestelmien virheellisestä tuloksesta henkilöille aiheutuvat merkittävät seuraukset, on asianmukaista säätää tehostettua ihmisen suorittamaa valvontaa koskevasta vaatimuksesta näiden järjestelmien osalta siten, että käyttöönottaja ei voi suorittaa toimea tai tehdä päätöstä järjestelmästä johtuvan tunnistamisen perusteella, ellei vähintään kaksi luonnollista henkilöä ole erikseen varmistanut ja vahvistanut sitä. Nämä henkilöt voivat olla yhdestä tai useammasta toimijasta ja heihin voi sisältyä järjestelmää hoitava tai käyttävä henkilö. Tämä vaatimus ei saisi aiheuttaa tarpeetonta rasitetta tai viiveitä, ja voi olla riittävää, että eri henkilöiden suorittamat erilliset varmistukset tallennetaan automaattisesti järjestelmän tuottamiin lokitietoihin. Kun otetaan huomioon lainvalvontaan, muuttoliikkeeseen, rajavalvontaan ja turvapaikka-asioihin liittyvät erityispiirteet, tätä vaatimusta ei pitäisi soveltaa, jos unionin oikeudessa tai kansallisessa lainsäädännössä katsotaan, että kyseisen vaatimuksen soveltaminen on suhteetonta.
(73)
Високорисковите системи с ИИ следва да бъдат проектирани и разработени по такъв начин, че физическите лица да могат да следят тяхното функциониране, да гарантират, че те се използват по предназначение и че въздействието им се взема предвид през целия жизнен цикъл на системата. За тази цел доставчикът на системата следва да определи подходящи мерки за човешки контрол преди пускането ѝ на пазара или пускането ѝ в действие. По-специално, когато е целесъобразно, тези мерки следва да гарантират, че за системата се прилагат вградени оперативни ограничения, които не могат да бъдат заобиколени от самата система, и че тя отговаря на човека оператор, както и че физическите лица, на които е възложен човешкият контрол, разполагат с необходимата компетентност, обучение и авторитет за изпълнение на тази роля. Освен това е от съществено значение, когато е целесъобразно, да се гарантира, че високорисковите системи с ИИ включват механизми за даване на насоки и информация на дадено физическо лице, на което е възложен човешки контрол, за да взема информирани решения дали, кога и как да се намеси, за да се избегнат отрицателни последици или рискове, или да се спре системата, ако тя не функционира по предназначение. Предвид сериозните последици за хората в случай на неточно съвпадение, генерирано от някои системи за биометрична идентификация, е целесъобразно да се предвиди изискване за засилен човешки контрол над тези системи, така че внедрителят да не може да предприеме действие или да вземе решение въз основа на установена от системата самоличност, без това да е било проверено и потвърдено най-малко от две физически лица поотделно. Тези лица могат да се числят към един или повече образувания и да включват лицето, което управлява или използва системата. Това изискване не следва да поражда ненужна тежест или да води до забавяне; автоматичното вписване на отделните проверки, извършени от различните лица, в генерираните от системата записи би могло да е достатъчно. Като се имат предвид особеностите на правоохранителната област и областите на миграцията, граничния контрол и убежището, това изискване не следва да се прилага, когато според правото на Съюза или националното право се счита, че прилагането на това изискване е непропорционално.
(74)
Suuririskisten tekoälyjärjestelmien olisi toimittava johdonmukaisesti koko elinkaarensa ajan ja saavutettava asianmukainen tarkkuuden, vakauden ja kyberturvallisuuden taso niiden käyttötarkoitus huomioon ottaen ja yleisesti tunnustetun alan viimeisimmän kehityksen mukaisesti. Komissiota sekä asiaankuuluvia järjestöjä ja sidosryhmiä kehotetaan ottamaan asianmukaisesti huomioon tekoälyjärjestelmien aiheuttamien riskien ja negatiivisten vaikutusten vähentäminen. Suorituskykymittareiden odotettu taso olisi ilmoitettava liitteenä olevissa käyttöohjeissa. Tarjoajia kehotetaan välittämään nämä tiedot käyttöönottajille selkeällä ja helposti ymmärrettävällä tavalla, joka ei aiheuta väärinymmärryksiä tai sisällä harhaanjohtavia lausuntoja. Lakisääteistä mittaustoimintaa koskevalla unionin oikeudella, mukaan lukien Euroopan parlamentin ja neuvoston direktiivit 2014/31/EU (35) ja 2014/32/EU (36), pyritään varmistamaan mittausten tarkkuus ja edistämään avoimuutta ja oikeudenmukaisuutta liiketoimissa. Tässä yhteydessä komission olisi tarpeen mukaan edistettävä vertailuarvojen ja mittausmenetelmien kehittämistä tekoälyjärjestelmiä varten yhteistyössä asiaankuuluvien sidosryhmien ja järjestöjen, kuten metrologia- ja vertailuanalyysiviranomaisten, kanssa. Näin toimiessaan komission olisi pantava merkille tekoälyyn liittyvät metrologiaa ja asiaankuuluvia mittausindikaattoreita käsittelevät kansainväliset kumppanit ja tehtävä yhteistyötä niiden kanssa.
(74)
Високорисковите системи с ИИ следва да функционират стабилно през целия си жизнен цикъл и да съответстват на подходящо ниво на точност, надеждност и киберсигурност, с оглед на тяхното предназначение и в съответствие с общопризнатите съвременни технически постижения. Комисията и съответните организации и заинтересовани страни се насърчават да вземат надлежно предвид ограничаването на рисковете и отрицателното въздействие на системата с ИИ. Очакваното ниво на показателите за ефективност следва да бъде обявено в придружаващите инструкции за употреба. Доставчиците се приканват да съобщават тази информация на внедрителите по ясен и лесно разбираем начин, без възможности за недоразумения или подвеждащи твърдения. Правото на Съюза в областта на законовата метрология, включително директиви 2014/31/ЕС (35) и 2014/32/ЕС (36) на Европейския парламент и на Съвета, има за цел да гарантира точността на измерванията и да спомогне за прозрачността и почтеността на търговските сделки. В този контекст, в сътрудничество със съответните заинтересовани страни и организации, като например органите по метрология и сравнителен анализ, Комисията следва да насърчава, когато е целесъобразно, разработването на сравнителни показатели и методики за измерване за системите с ИИ. При това Комисията следва да вземе под внимание и да си сътрудничи с международните партньори, работещи в областта на метрологията и съответните показатели за измерване, свързани с ИИ.
(75)
Tekninen vakaus on yksi suuririskisten tekoälyjärjestelmien keskeinen vaatimus. Niiden olisi oltava kestäviä sellaisen haitallisen tai muuten ei-toivotun käyttäytymisen varalta, joka saattaa aiheutua järjestelmien sisäisistä rajoituksista tai järjestelmien toimintaympäristöstä (esimerkiksi virheet, viat, epäjohdonmukaisuudet tai odottamattomat tilanteet). Sen vuoksi olisi toteutettava teknisiä ja organisatorisia toimenpiteitä suuririskisten tekoälyjärjestelmien vakauden varmistamiseksi esimerkiksi suunnittelemalla ja kehittämällä asianmukaisia teknisiä ratkaisuja haitallisen tai muuten ei-toivotun käyttäytymisen estämiseksi tai minimoimiseksi. Näihin teknisiin ratkaisuihin voi sisältyä esimerkiksi mekanismeja, joiden avulla järjestelmä voi turvallisesti keskeyttää toimintansa (vikavarmistussuunnitelmat) tiettyjen poikkeavuuksien esiintyessä tai kun toiminta tapahtuu tiettyjen ennalta määritettyjen rajojen ulkopuolella. Se, ettei näiltä riskeiltä suojauduta, voi johtaa turvallisuusvaikutuksiin tai vaikuttaa kielteisesti perusoikeuksiin esimerkiksi virheellisten päätösten tai tekoälyjärjestelmän tuottamien väärien tai puolueellisten tulosten vuoksi.
(75)
Техническата надеждност е ключово изискване за високорисковите системи с ИИ. Те следва да бъдат устойчиви на вредно или друго нежелателно поведение, което може да се прояви в резултат на ограничения в системите или средата, в която те работят (например грешки, дефекти, несъответствия, неочаквани ситуации). Поради това следва да се предприемат технически и организационни мерки, за да се гарантира надеждността на високорисковите системи с ИИ, например чрез проектиране и разработване на подходящи технически решения за предотвратяване или свеждане до минимум на вредното или друго нежелано поведение. Тези технически решения могат да включват например механизми, позволяващи на системата безопасно да прекъсне работата си (аварийни планове) при наличието на определени аномалии или когато работата се извършва извън предварително определени граници. Липсата на защита срещу тези рискове може да повлияе на безопасността или да се отрази отрицателно на основните права, например поради неправилни решения или погрешни или опорочени от предубеденост резултати, генерирани от системата с ИИ.
(76)
Kyberturvallisuudella on ratkaiseva merkitys varmistettaessa, että tekoälyjärjestelmät kestävät järjestelmän haavoittuvuuksia hyödyntävien vihamielisten kolmansien osapuolten yritykset muuttaa niiden käyttöä, käyttäytymistä tai suorituskykyä tai vaarantaa niiden turvallisuusominaisuudet. Tekoälyjärjestelmiin kohdistuvissa kyberhyökkäyksissä voidaan käyttää hyväksi tekoälyyn liittyviä resursseja, kuten koulutusdatajoukkoja (esim. datamyrkytys) tai koulutettuja malleja (esim. adversariaaliset hyökkäykset tai joukkoon kuulumiseen perustuva päättely), tai hyödyntää tekoälyjärjestelmän digitaalisten resurssien tai taustalla olevan tieto- ja viestintätekniikkainfrastruktuurin haavoittuvuuksia. Jotta voidaan varmistaa riskeihin nähden asianmukainen kyberturvallisuuden taso, suuririskisten tekoälyjärjestelmien tarjoajien olisi toteutettava asianmukaisia toimenpiteitä, kuten turvatarkastuksia, ottaen tarvittaessa huomioon myös taustalla oleva tieto- ja viestintätekniikkainfrastruktuuri.
(76)
Киберсигурността има решаващо значение, за да се гарантира, че системите с ИИ са устойчиви на опити за промяна на тяхното използване, поведение или ефективност или за засягане на техните свойства, свързани със сигурността, от недобросъвестни трети лица, които се възползват от уязвимостта на системата. Кибератаките срещу системи с ИИ могат да засегнат специфични за ИИ ресурси, като например набори от обучителни данни (например чрез „отравяне на данните“) или обучени модели (например чрез враждебни атаки или изводи за принадлежност), или да използват уязвимите места в цифровите ресурси на системата с ИИ или в основната ИКТ инфраструктура. За да се гарантира ниво на киберсигурност, съобразено с рисковете, доставчиците на високорискови системи с ИИ следва да предприемат подходящи мерки, например проверки на сигурността, като отчитат надлежно и основната ИКТ инфраструктура.
(77)
Suuririskiset tekoälyjärjestelmät, jotka kuuluvat digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan Euroopan parlamentin ja neuvoston asetuksen soveltamisalaan, voivat kyseisen asetuksen mukaisesti osoittaa tässä asetuksessa säädettyjen kyberturvavaatimusten noudattamisen noudattamalla kyseisessä asetuksessa säädettyjä olennaisia kyberturvavaatimuksia, sanotun kuitenkaan rajoittamatta tässä asetuksessa säädettyjen vakautta ja tarkkuutta koskevien vaatimusten soveltamista. Kun suuririskiset tekoälyjärjestelmät täyttävät digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavassa asetuksessa säädetyt olennaiset vaatimukset, niiden olisi katsottava olevan tässä asetuksessa säädettyjen kyberturvavaatimusten mukaisia siltä osin kuin kyseisten vaatimusten noudattaminen on osoitettu EU-vaatimustenmukaisuusvakuutuksella tai sen osilla, jotka on myönnetty kyseisen asetuksen nojalla. Sen vuoksi digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan asetuksen nojalla tehtävässä kyberturvallisuusriskien arvioinnissa, joka koskee tässä asetuksessa tarkoitettua digitaalisia elementtejä sisältävää suuririskistä tekoälyjärjestelmää, olisi otettava huomioon tekoälyjärjestelmän kyberresilienssiin kohdistuvat riskit, jotka liittyvät luvattomien kolmansien osapuolten pyrkimyksiin muuttaa sen käyttöä, käyttäytymistä tai suorituskykyä, mukaan lukien tekoälyyn liittyvät erityiset haavoittuvuudet, kuten datamyrkytys tai adversariaaliset hyökkäykset, sekä tapauksen mukaan tässä asetuksessa edellytettyihin perusoikeuksiin kohdistuvat riskit.
(77)
Без да се засягат изискванията, свързани с надеждността и точността, установени в настоящия регламент, при високорисковите системи с ИИ, които попадат в обхвата на регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, в съответствие с посочения регламент, може да се докаже съответствие с изискванията за киберсигурност на настоящия регламент, като се изпълнят съществените изисквания за киберсигурност, установени в посочения регламент. Когато високорисковите системи с ИИ съответстват на съществените изисквания на регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, те следва да се считат за съответстващи на изискванията за киберсигурност, установени в настоящия регламент, доколкото изпълнението на тези изисквания е доказано в ЕС декларацията за съответствие или части от нея, изготвена съгласно посочения регламент. За тази цел при оценката на рисковете за киберсигурността, свързани с продукт с цифрови елементи, класифициран като високорискова система с ИИ съгласно настоящия регламент, извършена съгласно регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, следва да се вземат предвид рисковете за киберустойчивостта на дадена система с ИИ по отношение на опитите на неоправомощени трети лица да променят нейното използване, поведение или работа, включително специфичните за ИИ уязвими места, като например „отравяне на данни“ или враждебни атаки, както и, ако е целесъобразно, рисковете за основните права, както се изисква в настоящия регламент.
(78)
Tässä asetuksessa säädettyä vaatimustenmukaisuuden arviointimenettelyä olisi sovellettava digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan asetuksen soveltamisalaan kuuluvan ja tämän asetuksen nojalla digitaalisia elementtejä sisältävän suuririskiseksi tekoälyjärjestelmäksi luokitellun tuotteen olennaisiin kyberturvallisuusvaatimuksiin. Tämä pääsääntö ei kuitenkaan saisi johtaa digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan asetuksen soveltamisalaan kuuluvien digitaalisia elementtejä sisältävien kriittisten tuotteiden tarvittavan varmuustason alenemiseen. Tästä säännöstä poiketen suuririskisiin tekoälyjärjestelmiin, jotka kuuluvat tämän asetuksen soveltamisalaan ja joita myös pidetään digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan asetuksen nojalla tärkeinä ja kriittisinä digitaalisia elementtejä sisältävinä tuotteina ja joihin sovelletaan tämän asetuksen liitteessä vahvistettua sisäiseen valvontaan perustuvaa vaatimustenmukaisuuden arviointimenettelyä, sovelletaan digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavassa asetuksessa säädettyjä vaatimustenmukaisuuden arviointia koskevia säännöksiä kyseisen asetuksen olennaisten kyberturvallisuusvaatimusten osalta. Tällaisessa tapauksessa kaikkiin muihin tämän asetuksen soveltamisalaan kuuluviin näkökohtiin olisi sovellettava tämän asetuksen liitteessä vahvistettuja asiaankuuluvia säännöksiä, jotka koskevat sisäiseen valvontaan perustuvaa vaatimustenmukaisuuden arviointia. Komission olisi tehtävä yhteistyötä ENISAn kanssa tekoälyjärjestelmien kyberturvallisuuteen liittyvissä kysymyksissä ENISAn kyberturvallisuuspolitiikkaa koskevan tietämyksen ja asiantuntemuksen ja sille Euroopan parlamentin ja neuvoston asetuksen (EU) 2019/881 (37) nojalla osoitettujen tehtävien pohjalta.
(78)
Процедурата за оценяване на съответствието, предвидена в настоящия регламент, следва да се прилага по отношение на съществените изисквания за киберсигурност на даден продукт с цифрови елементи, попадащ в обхвата на регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи и класифициран като високорискова система с ИИ съгласно настоящия регламент. Това правило обаче не следва да води до намаляване на необходимото ниво на увереност за критичните продукти с цифрови елементи, обхванати от регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи. Поради това, чрез дерогация от това правило, за високорисковите системи с ИИ, които попадат в обхвата на настоящия регламент и които също така са определени като важни и критични продукти с цифрови елементи съгласно регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, и за които се прилага процедурата за оценяване на съответствието въз основа на вътрешен контрол, посочена в приложение към настоящия регламент, се прилагат разпоредбите за оценяване на съответствието, съдържащи се в регламент на Европейския парламент и на Съвета относно хоризонтални изисквания за киберсигурност за продукти с цифрови елементи, доколкото това се отнася до съществените изисквания за киберсигурност, установени в посочения регламент. В този случай за всички останали аспекти, обхванати от настоящия регламент, следва да се прилагат съответните разпоредби относно оценяването на съответствието въз основа на вътрешен контрол, установени в приложение към настоящия регламент. Въз основа на знанията и експертния опит на Агенцията на Европейския съюз за киберсигурност (ENISA) относно политиката в областта на киберсигурността и задачите, възложени на ENISA съгласно Регламент (ЕС) 2019/881 на Европейския парламент и на Съвета (37), Комисията следва да си сътрудничи с ENISA по въпроси, свързани с киберсигурността на системите с ИИ.
(79)
On asianmukaista, että tietty tarjoajaksi määritelty luonnollinen tai oikeushenkilö ottaa vastuun suuririskisen tekoälyjärjestelmän markkinoille saattamisesta tai käyttöönotosta riippumatta siitä, onko kyseinen luonnollinen henkilö tai oikeushenkilö järjestelmän suunnittelija tai kehittäjä.
(79)
Целесъобразно е конкретно физическо или юридическо лице, определено като доставчик, да поеме отговорността за пускането на пазара или пускането в действие на дадена високорискова система с ИИ, независимо дали това физическо или юридическо лице е проектирало или разработило системата.
(80)
Vammaisten henkilöiden oikeuksia koskevan Yhdistyneiden kansakuntien yleissopimuksen allekirjoittajina unioni ja jäsenvaltiot ovat oikeudellisesti velvoitettuja suojelemaan vammaisia henkilöitä syrjinnältä ja edistämään heidän yhdenvertaisuuttaan, varmistamaan, että vammaiset henkilöt voivat käyttää tieto- ja viestintäteknologiaa ja -järjestelmiä yhdenvertaisesti muiden kanssa, ja varmistamaan vammaisten henkilöiden yksityisyyden kunnioittamisen. Koska tekoälyjärjestelmät ovat yhä tärkeämpiä ja niitä käytetään yhä enemmän, yleismaailmallisten suunnitteluperiaatteiden soveltamisella kaikkiin uusiin teknologioihin ja palveluihin olisi varmistettava kaikille, joihin tekoälyteknologia mahdollisesti vaikuttaa tai jotka käyttävät sitä, myös vammaisille henkilöille, täysimääräinen ja tasapuolinen mahdollisuus käyttää niitä tavalla, jossa otetaan kaikilta osin huomioon heidän ihmisarvonsa ja monimuotoisuutensa. Sen vuoksi on olennaisen tärkeää, että tarjoajat varmistavat esteettömyysvaatimusten, kuten Euroopan parlamentin ja neuvoston direktiivin (EU) 2016/2102 (38) ja direktiivin (EU) 2019/882, täysimääräisen noudattamisen. Tarjoajien olisi varmistettava, että näitä vaatimuksia noudatetaan sisäänrakennetusti. Sen vuoksi tarvittavat toimenpiteet olisi sisällytettävä mahdollisuuksien mukaan suuririskisen tekoälyjärjestelmän suunnitteluun.
(80)
Като страни по Конвенцията на Организацията на обединените нации за правата на хората с увреждания Съюзът и държавите членки са правно задължени да защитават хората с увреждания от дискриминация и да насърчават тяхното равенство, да гарантират, че хората с увреждания имат достъп на равна основа с всички останали до информационни и комуникационни технологии и системи, и да гарантират зачитане на неприкосновеността на личния живот на хората с увреждания. Предвид нарастващото значение и използване на системи с ИИ прилагането на принципите за универсален дизайн за всички нови технологии и услуги следва да гарантира пълен и равен достъп на всички, които е възможно да бъдат засегнати от технологиите за ИИ или които ги използват, включително хората с увреждания, по начин, който изцяло отчита присъщото им достойнство и многообразие. Следователно е от съществено значение доставчиците да осигурят пълно съответствие с изискванията за достъпност, включително с Директива (ЕС) 2016/2102 на Европейския парламент и на Съвета (38) и Директива (ЕС) 2019/882. Доставчиците следва да осигурят съответствието с тези изисквания при проектирането. Поради това необходимите мерки следва да бъдат интегрирани във възможно най-голяма степен в проектирането на високорисковата система с ИИ.
(81)
Tarjoajan olisi perustettava luotettava laadunhallintajärjestelmä, varmistettava vaaditun vaatimustenmukaisuuden arviointimenettelyn suorittaminen, laadittava asiaa koskeva dokumentaatio ja perustettava vankka markkinoille saattamisen jälkeinen seurantajärjestelmä. Niillä suuririskisten tekoälyjärjestelmien tarjoajilla, joihin sovelletaan asiaankuuluvan alakohtaisen unionin oikeuden mukaisia laadunhallintajärjestelmiä koskevia velvoitteita, olisi oltava mahdollisuus sisällyttää tässä asetuksessa säädetyn laadunhallintajärjestelmän osatekijät osaksi kyseisen muun alakohtaisen unionin oikeuden mukaista nykyistä laadunhallintajärjestelmää. Tämän asetuksen ja voimassa olevan alakohtaisen unionin oikeuden välinen täydentävyys olisi otettava huomioon myös tulevissa standardointitoimissa tai komission hyväksymissä ohjeissa. Viranomaiset, jotka ottavat suuririskisiä tekoälyjärjestelmiä omaan käyttöönsä, voivat tarvittaessa hyväksyä ja panna täytäntöön laadunhallintajärjestelmää koskevat säännöt osana kansallisella tai alueellisella tasolla hyväksyttyä laadunhallintajärjestelmää ottaen huomioon alan erityispiirteet ja asianomaisen viranomaisen toimivallan ja organisaation.
(81)
Доставчикът следва да създаде стабилна система за управление на качеството, да гарантира изпълнението на изискваната процедура за оценяване на съответствието, да изготви съответната документация и да създаде надеждна система за мониторинг след пускането на пазара. Доставчиците на високорискови системи с ИИ, които имат задължения по отношение на системите за управление на качеството съгласно съответното секторно право на Съюза, следва да имат възможност да включат елементите на системата за управление на качеството, предвидена в настоящия регламент, като част от съществуващата система за управление на качеството, предвидена в посоченото друго секторно право на Съюза. Взаимното допълване между настоящия регламент и действащото секторно право на Съюза също следва да бъде взето предвид в бъдещите дейности по стандартизация или в насоките, приемани от Комисията. Публичните органи, които пускат в действие високорискови системи с ИИ за свое собствено ползване, могат да приемат и прилагат правилата за системата за управление на качеството като част от приетата на национално или регионално равнище система за управление на качеството, когато е целесъобразно, като вземат предвид особеностите на сектора и компетентността и организацията на съответния публичен орган.
(82)
Tämän asetuksen täytäntöönpanon mahdollistamiseksi ja tasapuolisten toimintaedellytysten luomiseksi toimijoille ja ottaen huomioon digitaalisten tuotteiden saataville asettamisen eri muodot on tärkeää varmistaa, että unioniin sijoittautunut henkilö voi kaikissa olosuhteissa antaa viranomaisille kaikki tarvittavat tiedot tekoälyjärjestelmän vaatimustenmukaisuudesta. Siksi kolmansiin maihin sijoittautuneiden tarjoajien olisi ennen tekoälyjärjestelmiensä asettamista saataville unionin markkinoilla nimettävä kirjallisella toimeksiannolla unioniin sijoittautunut valtuutettu edustaja. Tällä valtuutetulla edustajalla on olennaisen tärkeä rooli sen varmistamisessa, että näiden unioniin sijoittumattomien tarjoajien unionissa markkinoille saattamat tai käyttöön ottamat suuririskiset tekoälyjärjestelmät ovat vaatimusten mukaisia, ja toimimisessa näiden tarjoajien unioniin sijoittautuneena yhteyshenkilönä.
(82)
За да се даде възможност за прилагането на настоящия регламент и за да се създадат условия на равнопоставеност за операторите, както и предвид различните форми на предоставяне на цифрови продукти, е важно да се гарантира, че при всички обстоятелства установено в Съюза лице може да предостави на органите цялата необходима информация относно съответствието на дадена система с ИИ. Следователно преди да се предоставят техните системи на пазара на Съюза, доставчиците, установени в трети държави, следва да определят с писмено пълномощно упълномощен представител, който е установен в Съюза. Този упълномощен представител има ключово значение за осигуряване на съответствието на високорисковите системи с ИИ, пуснати на пазара или пуснати в действие в Съюза от тези доставчици, които не са установени в Съюза, както и за изпълнение на функциите на лице за връзка, установено в Съюза.
(83)
Ottaen huomioon tekoälyjärjestelmien arvoketjun luonne ja monimutkaisuus sekä uuden lainsäädäntökehyksen noudattaminen on olennaisen tärkeää varmistaa oikeusvarmuus ja helpottaa tämän asetuksen noudattamista. Sen vuoksi on tarpeen selventää kyseisen arvoketjun kaikissa vaiheissa asiaankuuluvien toimijoiden, kuten maahantuojien ja jakelijoiden, roolia ja erityisvelvoitteita, jotka voivat edistää tekoälyjärjestelmien kehittämistä. Tietyissä tilanteissa nämä toimijat voisivat toimia useammassa kuin yhdessä roolissa samanaikaisesti, joten niiden olisi täytettävä kumulatiivisesti kaikki kyseisiin rooleihin liittyvät asiaankuuluvat velvoitteet. Esimerkiksi toimija voisi toimia jakelijana ja maahantuojana samanaikaisesti.
(83)
С оглед на естеството и сложността на веригата за създаване на стойност за системите с ИИ и в съответствие с новата законодателна рамка, е от съществено значение да се гарантира правна сигурност и да се улесни спазването на настоящия регламент. Поради това е необходимо да се изяснят функциите и конкретните задължения на съответните оператори по веригата за създаване на стойност, като например вносителите и дистрибуторите, които могат да допринесат за разработването на системи с ИИ. В определени ситуации тези оператори биха могли да имат едновременно повече от една функция и поради това следва кумулативно да изпълняват всички съответни задължения, свързани с тези функции. Например даден оператор може да действа едновременно като дистрибутор и вносител.
(84)
Oikeusvarmuuden takaamiseksi on tarpeen selventää, että tietyissä erityisolosuhteissa minkä tahansa jakelijan, maahantuojan, käyttöönottajan tai muun kolmannen osapuolen olisi katsottava olevan suuririskisen tekoälyjärjestelmän tarjoaja, jonka olisi näin ollen vastattava kaikista asiaankuuluvista velvoitteista. Näin katsotaan olevan, jos kyseinen osapuoli laittaa nimensä tai tavaramerkkinsä jo markkinoille saatettuun tai käyttöön otettuun suuririskiseen tekoälyjärjestelmään, sanotun kuitenkaan rajoittamatta sopimusjärjestelyjä, joissa määrätään velvoitteiden jakamisesta muulla tavoin. Näin olisi myös silloin, jos kyseinen osapuoli tekee merkittävän muutoksen jo markkinoille saatettuun tai käyttöön otettuun suuririskiseen tekoälyjärjestelmään siten, että se pysyy suuririskisenä tekoälyjärjestelmänä tämän asetuksen mukaisesti, tai jos se muuttaa sellaisen tekoälyjärjestelmän, myös yleiskäyttöisen tekoälyjärjestelmän, käyttötarkoitusta, jota ei ole luokiteltu suuririskiseksi ja joka on jo saatettu markkinoille tai otettu käyttöön siten, että tekoälyjärjestelmästä tulee suuririskinen tekoälyjärjestelmä tämän asetuksen mukaisesti. Kyseisiä säännöksiä olisi sovellettava rajoittamatta uuteen lainsäädäntökehykseen perustuvassa tietyssä unionin yhdenmukaistamislainsäädännössä vahvistettuja yksityiskohtaisempia säännöksiä, joiden kanssa tätä asetusta olisi sovellettava. Esimerkiksi asetuksen (EU) 2017/745 16 artiklan 2 kohtaa, jonka mukaan tiettyjä muutoksia ei olisi katsottava laitteen muutoksiksi, jotka voisivat vaikuttaa sen vaatimustenmukaisuuteen, olisi edelleen sovellettava suuririskisiin tekoälyjärjestelmiin, jotka ovat kyseisessä asetuksessa tarkoitettuja lääkinnällisiä laitteita.
(84)
За да се гарантира правна сигурност, е необходимо да се поясни, че при определени специфични условия всеки дистрибутор, вносител, внедрител или друго трето лице следва да се счита за доставчик на високорискова система с ИИ и следователно да поеме всички съответни задължения. Такъв би бил случаят, ако това лице постави името или търговската си марка върху високорискова система с ИИ, която вече е пусната на пазара или пусната в действие, без да се засягат споразумения, предвиждащи, че задълженията се разпределят по друг начин. Такъв би бил и случаят, ако това лице внесе съществено изменение във високорискова система с ИИ, която вече е пусната на пазара или пусната в действие, по такъв начин, че тя да продължи да бъде високорискова система с ИИ в съответствие с настоящия регламент, или ако измени предназначението на система с ИИ, включително система с ИИ с общо предназначение, която не е класифицирана като високорискова и вече е пусната на пазара или пусната в действие, по такъв начин, че системата с ИИ да стане високорискова система с ИИ в съответствие с настоящия регламент. Тези разпоредби следва да се прилагат, без да се засягат специалните разпоредби, установени в някои секторни законодателни актове на Съюза за хармонизация въз основа на новата законодателна рамка, заедно с които следва да се прилага настоящият регламент. Например член 16, параграф 2 от Регламент (ЕС) 745/2017, съгласно който определени изменения не следва да се считат за промени на изделие, които могат да се отразят на съответствието му с приложимите изисквания, следва да продължи да се прилага за високорисковите системи с ИИ, които са медицински изделия по смисъла на посочения регламент.
(85)
Yleiskäyttöisiä tekoälyjärjestelmiä voidaan käyttää suuririskisinä tekoälyjärjestelminä itsessään tai ne voivat olla muiden suuririskisten tekoälyjärjestelmien komponentteja. Näin ollen niiden erityisen luonteen vuoksi ja jotta voidaan varmistaa vastuiden oikeudenmukainen jakautuminen tekoälyn arvoketjussa, tällaisten järjestelmien tarjoajien, riippumatta siitä, voivatko muut tarjoajat käyttää näitä järjestelmiä suuririskisinä tekoälyjärjestelminä sellaisinaan tai suuririskisten tekoälyjärjestelmien komponentteina, ja jollei tässä asetuksessa toisin säädetä, olisi tehtävä tiivistä yhteistyötä asiaankuuluvien suuririskisten tekoälyjärjestelmien tarjoajien kanssa, jotta voidaan varmistaa, että niiden osalta noudatetaan tämän asetuksen mukaisia asiaankuuluvia velvoitteita, ja tämän asetuksen nojalla perustettujen toimivaltaisten viranomaisten kanssa.
(85)
Системите с ИИ с общо предназначение могат да се използват като високорискови системи с ИИ сами по себе си или да бъдат компоненти на други високорискови системи с ИИ. Ето защо поради специфичното си естество и за да се гарантира справедливо разпределяне на отговорността по веригата за създаване на стойност в областта на ИИ, доставчиците на такива системи, независимо дали те могат да се използват сами по себе си като високорискови системи с ИИ от други доставчици, или като компоненти на високорискови системи с ИИ, и освен ако не е предвидено друго съгласно настоящия регламент, следва да си сътрудничат тясно с доставчиците на съответните високорискови системи с ИИ, за да им се даде възможност да спазват съответните задължения съгласно настоящия регламент, както и с компетентните органи, създадени съгласно настоящия регламент.
(86)
Jos tässä asetuksessa säädetyin edellytyksin tarjoajaa, joka alun perin saattoi tekoälyjärjestelmän markkinoille tai otti sen käyttöön, ei olisi enää pidettävä tätä asetusta sovellettaessa tarjoajana ja jos kyseinen tarjoaja ei ole nimenomaisesti sulkenut pois tekoälyjärjestelmän muuttamista suuririskiseksi tekoälyjärjestelmäksi, aiemman tarjoajan olisi kuitenkin tehtävä tiivistä yhteistyötä ja asetettava saataville tarvittavat tiedot sekä tarjottava kohtuudella odotettavissa oleva tekninen pääsy ja muuta apua, joita tarvitaan tässä asetuksessa säädettyjen velvoitteiden täyttämiseksi, erityisesti suuririskisten tekoälyjärjestelmien vaatimustenmukaisuuden arvioinnin noudattamisen osalta.
(86)
Когато съгласно условията, предвидени в настоящия регламент, доставчикът, който първоначално е пуснал на пазара системата с ИИ или я е пуснал в действие, вече не следва да се счита за доставчик за целите на настоящия регламент и когато този доставчик не е изключил изрично промяната на системата с ИИ във високорискова система с ИИ, първоначалният доставчик следва въпреки това да си сътрудничи тясно и да предостави необходимата информация, както и да осигури разумно очакваните технически достъп и друга помощ, които са необходими за изпълнението на задълженията, установени в настоящия регламент, по-специално по отношение на спазването на оценката на съответствието на високорисковите системи с ИИ.
(87)
Jos suuririskistä tekoälyjärjestelmää, joka on sellaisen tuotteen turvakomponentti, joka kuuluu uuteen lainsäädäntökehykseen perustuvaan unionin yhdenmukaistamislainsäädännön soveltamisalaan, ei saateta markkinoille tai oteta käyttöön tuotteesta erillään, kyseisessä lainsäädännössä määritellyn tuotteen valmistajan olisi lisäksi noudatettava tässä asetuksessa vahvistettuja tarjoajan velvollisuuksia ja erityisesti varmistettava, että lopputuotteeseen sulautettu tekoälyjärjestelmä on tämän asetuksen vaatimusten mukainen.
(87)
Освен това когато високорискова система с ИИ, която е защѝтен елемент на продукт, попадащ в обхвата на законодателството на Съюза за хармонизация въз основа на новата законодателна рамка, не е пусната на пазара или пусната в действие независимо от продукта, производителят на продукта съгласно определението в съответното законодателство, следва да спазва задълженията на доставчика, установени в настоящия регламент, и следва по-специално да гарантира, че системата с ИИ, вградена в крайния продукт, съответства на изискванията на настоящия регламент.
(88)
Tekoälyn arvoketjussa usein useat osapuolet toimittavat tekoälyjärjestelmiä, välineitä ja palveluja mutta myös komponentteja tai prosesseja, jotka tarjoaja sisällyttää tekoälyjärjestelmään ja joilla on useita tavoitteita, mukaan lukien mallien kouluttaminen ja uudelleenkouluttaminen, mallien testaus ja arviointi, integrointi ohjelmistoihin tai muut mallien kehittämisen näkökohdat. Kyseisillä osapuolilla on tärkeä rooli arvoketjussa suhteessa sellaisen suuririskisen tekoälyjärjestelmän tarjoajaan, johon niiden tekoälyjärjestelmät, välineet, palvelut, komponentit tai prosessit on integroitu, ja niiden olisi kirjallisella sopimuksella annettava tälle tarjoajalle yleisesti tunnustettuun viimeisimpään kehitykseen perustuvat tarvittavat tiedot, valmiudet, tekninen pääsy ja muu apu, jotta tarjoaja voi noudattaa täysimääräisesti tässä asetuksessa säädettyjä velvoitteita vaarantamatta omia teollis- ja tekijänoikeuksiaan tai liikesalaisuuksiaan.
(88)
В рамките на веригата за създаване на стойност в областта на ИИ множество лица често доставят системи, инструменти и услуги с ИИ, но също така и компоненти или процеси, които са интегрирани от доставчика в системата с ИИ с различни цели, включително обучение и повторно обучение на модели и изпитване и оценка на модели, интегриране в софтуера или други аспекти на разработването на модели. Тези лица заемат важно място във веригата за създаване на стойност по отношение на доставчика на високорисковата система с ИИ, в която са интегрирани техните системи, инструменти, услуги, компоненти или процеси с ИИ, и следва да предоставят чрез писмено споразумение на този доставчик необходимата информация, капацитет, технически достъп и друга помощ въз основа на общопризнатите съвременни технически постижения, за да се даде възможност на доставчика да изпълни изцяло задълженията, установени в настоящия регламент, без да се излагат на риск собствените им права върху интелектуалната собственост или търговски тайни.
(89)
Kolmansia osapuolia, jotka asettavat saataville julkisia välineitä, palveluja, prosesseja tai muita tekoälykomponentteja kuin yleiskäyttöinen tekoälymalli, ei saisi velvoittaa, erityisesti niitä käyttäneeseen tai integroineeseen tarjoajaan nähden, noudattamaan vastuita tekoälyn arvoketjussa koskevia vaatimuksia, kun kyseiset välineet, palvelut, prosessit tai tekoälykomponentit asetetaan saataville vapaalla ja avoimen lähdekoodin lisenssillä. Vapaiden ja avoimen lähdekoodin välineiden, palveluiden, prosessien ja muiden tekoälykomponenttien kuin yleiskäyttöisten tekoälymallien kehittäjiä olisi kuitenkin kannustettava noudattamaan dokumentoinnin laajalti hyväksyttyjä käytänteitä, kuten mallikortteja ja tiedotteita, jotta voidaan nopeuttaa tiedon jakamista tekoälyn arvoketjussa ja edistää luotettavia tekoälyjärjestelmiä unionissa.
(89)
Трети лица, които предоставят публичен достъп до инструменти, услуги, процеси или компоненти с ИИ, различни от модели на ИИ с общо предназначение, не следва да са задължени да спазват изискванията, насочени към отговорността по веригата за създаване на стойност в областта на ИИ, по-специално по отношение на доставчика, който ги е използвал или интегрирал, когато тези инструменти, услуги, процеси или компоненти с ИИ са достъпни в рамките на безплатен лиценз с отворен код. Разработчиците на безплатни инструменти, услуги, процеси или компоненти с ИИ с отворен код, различни от модели на ИИ с общо предназначение, следва да се насърчават да прилагат широко възприети практики за документиране, например карти за модели и информационни фишове, като начин за ускоряване на обмена на информация по веригата за създаване на стойност в областта на ИИ, което ще даде възможност да се популяризират надеждни системи с ИИ в Съюза.
(90)
Komissio voisi laatia ja suositella vapaaehtoisia mallisopimusehtoja suuririskisten tekoälyjärjestelmien tarjoajien ja sellaisten kolmansien osapuolten välisiä sopimuksia varten, jotka toimittavat välineitä, palveluja, komponentteja tai prosesseja, joita käytetään suuririskisissä tekoälyjärjestelmissä tai integroidaan niihin, yhteistyön helpottamiseksi kaikissa arvoketjun vaiheissa. Laatiessaan ei-sitovia mallisopimusehtoja komission olisi myös otettava huomioon tietyillä aloilla tai tietyissä liiketoimintamalleissa mahdollisesti sovellettavat sopimusperusteiset vaatimukset.
(90)
Комисията би могла да разработи и препоръча незадължителни примерни договорни условия между доставчиците на високорискови системи с ИИ и трети лица, които доставят инструменти, услуги, компоненти или процеси, използвани или интегрирани във високорискови системи с ИИ, за да се улесни сътрудничеството по веригата за създаване на стойност. При разработването на незадължителни примерни договорни условия Комисията следва също така да взема предвид възможните договорни изисквания, приложими в конкретни сектори или стопански дейности.
(91)
Kun otetaan huomioon tekoälyjärjestelmien luonne ja niiden käyttöön mahdollisesti liittyvät turvallisuuteen ja perusoikeuksiin kohdistuvat riskit, mukaan lukien tarve varmistaa tekoälyjärjestelmän suorituskyvyn asianmukainen seuranta todellisissa olosuhteissa, on asianmukaista asettaa käyttöönottajille erityisiä vastuita. Käyttöönottajien olisi erityisesti toteutettava teknisiä ja organisatorisia toimenpiteitä, joilla varmistetaan, että ne käyttävät suuririskisiä tekoälyjärjestelmiä käyttöohjeiden mukaisesti, ja tarvittaessa olisi säädettävä tietyistä muista tekoälyjärjestelmien toiminnan seurantaa ja tietojen säilyttämistä koskevista velvoitteista. Lisäksi käyttöönottajien olisi varmistettava, että henkilöillä, joiden tehtäväksi on annettu tässä asetuksessa vahvistettujen käyttöohjeiden ja ihmisen suorittaman valvonnan täytäntöönpano, on tarvittava pätevyys, erityisesti riittävä tekoälylukutaito, koulutus ja valtuudet näiden tehtävien hoitamiseksi asianmukaisesti. Kyseiset velvoitteet eivät saisi vaikuttaa muihin käyttöönottajan velvoitteisiin, jotka liittyvät suuririskisiin tekoälyjärjestelmiin unionin oikeuden tai kansallisen lainsäädännön mukaisesti.
(91)
Предвид естеството на системите с ИИ и евентуалните рискове за безопасността и основните права, свързани с тяхното използване, включително по отношение на необходимостта да се гарантира подходящ мониторинг на работата на дадена система с ИИ в реални условия, е целесъобразно да се определят конкретни отговорности за внедрителите. Внедрителите следва по-специално да предприемат подходящи технически и организационни мерки, за да гарантират, че използват високорискови системи с ИИ в съответствие с инструкциите за употреба, а също така следва да се предвидят някои други задължения по отношение на мониторинга на функционирането на системите с ИИ и по отношение на поддържането на регистри, когато е целесъобразно. Освен това внедрителите следва да гарантират, че лицата, на които е възложено да изпълняват инструкциите за употреба и човешкия контрол съгласно настоящия регламент, притежават необходимата компетентност, по-специално подходящо ниво на грамотност, обучение и авторитет в областта на ИИ, за да изпълняват правилно тези задачи. Тези задължения не следва да засягат други задължения на внедрителите във връзка с високорискови системи с ИИ съгласно правото на Съюза или националното право.
(92)
Tämä asetus ei vaikuta unionin oikeuden tai kansallisen lainsäädännön, mukaan lukien Euroopan parlamentin ja neuvoston direktiivi 2002/14/EY (39), ja käytännön mukaisiin työnantajien velvollisuuksiin tiedottaa työntekijöille tai heidän edustajilleen ja kuulla heitä tekoälyjärjestelmien käyttöönottoa tai käyttöä koskevista päätöksistä. On silti edelleen tarpeellista varmistaa, että työntekijöille ja heidän edustajilleen tiedotetaan suuririskisten tekoälyjärjestelmien suunnitellusta käyttöönotosta työpaikalla, jos kyseisten tiedotus- ja kuulemisvelvoitteiden edellytykset muissa oikeudellisissa välineissä eivät täyty. Lisäksi tällainen tiedonsaantioikeus on tarpeellinen tämän asetuksen taustalla olevalle perusoikeuksien suojelua koskevalle tavoitteelle ja sen sivutavoite. Sen vuoksi tässä asetuksessa olisi säädettävä kyseistä asiaa koskevasta tietovaatimuksesta, joka ei vaikuta työntekijöiden olemassa oleviin oikeuksiin.
(92)
Настоящият регламент не засяга задълженията на работодателите да информират или да информират и консултират работниците или техните представители съгласно правото и практиката на Съюза или националното право и практика, включително Директива 2002/14/ЕО на Европейския парламент и на Съвета (39), относно решения за пускане в действие или използване на системи с ИИ. Продължава да е необходимо да се гарантира предоставянето на информация на работниците и техните представители относно планираното внедряване на високорискови системи с ИИ на работното място, когато не са изпълнени условията за тези задължения за информиране или информиране и консултиране, предвидени в други правни актове. Освен това подобно право на информиране допълва и е необходимо за постигането на целта за защита на основните права, залегнала в основата на настоящия регламент. Поради това в настоящия регламент следва да бъде предвидено изискване за информиране в този смисъл, без да се засягат съществуващите права на работниците.
(93)
Vaikka tekoälyjärjestelmiin liittyvät riskit voivat olla seurausta tavasta, jolla tällaiset järjestelmät suunnitellaan, riskit voivat myös johtua siitä, miten tällaisia tekoälyjärjestelmiä käytetään. Suuririskisen tekoälyjärjestelmän käyttöönottajilla on siksi ratkaiseva rooli sen varmistamisessa, että perusoikeuksia suojellaan ja että ne täydentävät tarjoajan velvoitteita, kun tekoälyjärjestelmää kehitetään. Käyttöönottajilla on parhaat mahdollisuudet ymmärtää, miten suuririskistä tekoälyjärjestelmää käytetään konkreettisesti, ja näin ollen he voivat tunnistaa mahdollisia merkittäviä riskejä, joita ei ollut ennakoitu kehitysvaiheessa, koska he tuntevat tarkemmin käyttöyhteyden, henkilöt tai henkilöryhmät, mukaan lukien haavoittuvat asemassa olevat ryhmät, joihin vaikutukset todennäköisesti kohdistuvat. Tämän asetuksen liitteessä lueteltujen suuririskisten tekoälyjärjestelmien käyttöönottajilla on myös ratkaiseva rooli tietojen antamisessa luonnollisille henkilöille ja heidän olisi tapauksen mukaan ilmoitettava luonnollisille henkilöille heihin liittyvästä suuririskisen tekoälyjärjestelmän käytöstä, kun he tekevät tai auttavat tekemään luonnollisia henkilöitä koskevia päätöksiä. Näihin tietoihin olisi sisällyttävä tekoälyjärjestelmän käyttötarkoitus ja sen tekemien päätösten tyyppi. Käyttöönottajan olisi myös ilmoitettava luonnollisille henkilöille heidän oikeudestaan saada selitys tämän artiklan mukaisesti. Lainvalvontatarkoituksiin käytettävien suuririskisten tekoälyjärjestelmien osalta kyseinen velvoite olisi pantava täytäntöön direktiivin (EU) 2016/680 13 artiklan mukaisesti.
(93)
Рисковете, свързани със системите с ИИ, могат да произтичат от начина, по който са проектирани тези системи, но могат да се дължат и на начина, по който се използват тези системи с ИИ. По тази причина внедрителите на високорискова система с ИИ имат решаващо значение за гарантиране на защитата на основните права, като допълват задълженията на доставчика при разработването на системата с ИИ. Внедрителите могат най-добре да разберат как конкретно ще бъде използвана високорисковата система с ИИ и следователно могат да установят потенциални значителни рискове, които не са били предвидени на етапа на разработване, тъй като разполагат с по-точни знания за контекста на използване и лицата или групите лица, които има вероятност да бъдат засегнати, включително уязвимите групи. Внедрителите на високорискови системи с ИИ, изброени в приложение към настоящия регламент, също имат решаващо значение за информирането на физическите лица и следва, когато вземат решения или подпомагат вземането на решения, свързани с физическите лица, когато е приложимо, да ги информират, че спрямо тях се използва високорискова система с ИИ. Тази информация следва да включва предназначението и вида на решенията, които се вземат. Внедрителят следва също така да информира физическите лица за правото им да получат обяснение, предвидено в настоящия регламент. По отношение на високорисковите системи с ИИ, използвани за правоохранителни цели, това задължение следва да се прилага в съответствие с член 13 от Директива (ЕС) 2016/680.
(94)
Kaikessa lainvalvontatarpeita varten tehtävän tekoälyjärjestelmien biometrista tunnistamista koskevan käytön yhteydessä biometristen tietojen käsittelyssä on noudatettava direktiivin (EU) 2016/680 10 artiklaa, joka sallii tällaisen käsittelyn vain, jos se on ehdottoman välttämätöntä, edellyttäen, että rekisteröidyn oikeuksiin ja vapauksiin sovelletaan asianmukaisia suojatoimia ja käsittely sallitaan unionin oikeudessa tai jäsenvaltion lainsäädännössä. Tällaisen käytön yhteydessä, silloin kun siihen on lupa, on myös noudatettava direktiivin (EU) 2016/680 4 artiklan 1 kohdassa säädettyjä periaatteita, kuten lainmukaisuutta, oikeudenmukaisuutta ja avoimuutta, käyttötarkoituksen rajoittamista, tarkkuutta ja säilytystä koskevia rajoituksia.
(94)
Всяко обработване на биометрични данни, свързано с използването на системи с ИИ за биометрична идентификация за правоохранителни цели, трябва да бъде в съответствие с член 10 от Директива (ЕС) 2016/680, който позволява такова обработване само когато това е строго необходимо, при спазване на подходящи гаранции за правата и свободите на субекта на данните, и когато това е разрешено от правото на Съюза или правото на държава членка. При такова разрешено използване трябва също така да се спазват принципите, установени в член 4, параграф 1 от Директива (ЕС) 2016/680, включително законосъобразност, добросъвестност и прозрачност, ограничаване в рамките на целта, точност и ограничаване на съхранението.
(95)
Kun otetaan huomioon jälkikäteisten biometristen etätunnistusjärjestelmien yksityisyyttä loukkaava luonne, jälkikäteisten etätunnistusjärjestelmien käyttöön olisi sovellettava suojatoimia, sanotun kuitenkaan rajoittamatta sovellettavan unionin oikeuden, erityisesti asetuksen (EU) 2016/679 ja direktiivin (EU) 2016/680, soveltamista. Biometrisiä etätunnistusjärjestelmiä olisi aina käytettävä tavalla, joka on oikeasuhteinen, oikeutettu ja ehdottoman välttämätön ja siten kohdennettu tunnistettaviin henkilöihin, sijaintiin ja ajalliseen laajuuteen, ja perustuttava laillisesti hankitun videokuvan suljettuun datajoukkoon. Jälkikäteisiä biometrisiä etätunnistusjärjestelmiä ei saisi missään tapauksessa käyttää lainvalvonnan puitteissa siten, että se voi johtaa mielivaltaiseen valvontaan. Jälkikäteisen biometrisen etätunnistuksen edellytysten ei pitäisi missään tapauksessa olla peruste kiellon edellytysten ja reaaliaikaista biometristä etätunnistusta koskevien tiukkojen poikkeusten kiertämiselle.
(95)
Без да се засяга приложимото право на Съюза, по-специално Регламент (ЕС) 2016/679 и Директива (ЕС) 2016/680, като се има предвид инвазивният характер на системите за последваща дистанционна биометрична идентификация, използването на тези системи следва да е придружено с гаранции. Системите за последваща дистанционна биометрична идентификация следва винаги да се използват по начин, който е пропорционален, законосъобразен и строго необходим, и следователно конкретизиран, по отношение на лицата, които трябва да бъдат идентифицирани, местоположението и времевия обхват, и въз основа на затворен набор от данни от законно придобити видеозаписи. Във всеки случай системите за последваща дистанционна биометрична идентификация не следва да се използват в правоохранителен контекст с цел неизбирателно наблюдение. Условията за последващата дистанционна биометрична идентификация не следва в никакъв случай да предоставят основание за заобикаляне на условията на забраната и строгите изключения по отношение на дистанционната биометрична идентификация в реално време.
(96)
Jotta voidaan varmistaa tehokkaasti perusoikeuksien suojelu, suuririskisten tekoälyjärjestelmien käyttöönottajien, jotka ovat julkisoikeudellisia laitoksia tai julkisia palveluja tarjoavia yksityisiä tahoja ja tiettyjä tämän asetuksen liitteessä lueteltuja suuririskisiä tekoälyjärjestelmiä käyttöön ottavia toimijoita, kuten pankkiyhteisöt tai vakuutusyhtiöt, olisi tehtävä perusoikeuksia koskeva vaikutustenarviointi ennen järjestelmän käyttöönottoa. Myös yksityiset tahot voivat tarjota henkilöille tärkeitä palveluja, jotka ovat luonteeltaan julkisia. Tällaisia julkisia palveluja tarjoavat yksityiset tahot liittyvät yleisen edun mukaisiin tehtäviin, kuten koulutukseen, terveydenhuoltoon, sosiaalipalveluihin, asumiseen ja oikeudenkäyttöön. Perusoikeuksia koskevan vaikutustenarvioinnin tavoitteena on, että käyttöönottaja tunnistaa niiden yksilöiden tai henkilöryhmien oikeuksiin kohdistuvat erityiset riskit, joihin vaikutukset todennäköisesti kohdistuvat, ja määrittää toimenpiteet, jotka on toteutettava tällaisten riskien toteutuessa. Vaikutustenarviointi olisi tehtävä ennen suuririskisen tekoälyjärjestelmän käyttöönottoa, ja sitä olisi päivitettävä, kun käyttöönottaja katsoo, että jokin asiaankuuluvista tekijöistä on muuttunut. Vaikutustenarvioinnissa olisi yksilöitävä käyttöönottajan asiaankuuluvat prosessit, joissa suuririskistä tekoälyjärjestelmää käytetään sen käyttötarkoituksen mukaisesti, ja siihen olisi sisällyttävä kuvaus ajanjaksosta, jolloin järjestelmää on tarkoitus käyttää, ja käytön tiheydestä, sekä tietyistä luonnollisten henkilöiden ja ryhmien joukoista, joihin todennäköisesti kohdistuu vaikutuksia tietyssä käyttöyhteydessä.Arvioinnissa olisi myös tunnistettava sellaiset erityiset riskit, joita aiheutuu haitasta, joka todennäköisesti vaikuttaa kyseisten henkilöiden tai ryhmien perusoikeuksiin. Tätä arviointia tehdessään käyttöönottajan olisi otettava huomioon vaikutusten asianmukaisen arvioinnin kannalta merkitykselliset tiedot, kuten esimerkiksi suuririskisen tekoälyjärjestelmän tarjoajan käyttöohjeissa antamat tiedot. Kun otetaan huomioon tunnistetut riskit, käyttöönottajien olisi määritettävä toimenpiteitä, joita on toteutettava kyseisten riskien toteutuessa ja joihin voi kuulua esimerkiksi kyseisen käyttöyhteyden hallintojärjestelyt, kuten ihmisen suorittamaa valvontaa koskevat järjestelyt käyttöohjeiden mukaisesti tai valitusten käsittely ja muutoksenhakumenettelyt, koska ne voisivat konkreettisissa käyttötapauksissa olla keskeisessä asemassa perusoikeuksiin kohdistuvien riskien vähentämisessä. Kun tällainen vaikutustenarviointi tehty, käyttöönottajan olisi ilmoitettava asiasta asianomaiselle markkinavalvontaviranomaiselle. Jotta voidaan kerätä tarvittavat asiaankuuluvat tiedot vaikutustenarvioinnin toteuttamiseksi, suuririskisten tekoälyjärjestelmien käyttöönottajat voisivat ottaa asiaankuuluvat sidosryhmät, mukaan lukien sellaisten henkilöryhmien edustajat, joihin tekoälyjärjestelmä todennäköisesti vaikuttaa, riippumattomat asiantuntijat ja kansalaisjärjestöt, mukaan tällaisen vaikutustenarvioinnin toteuttamiseen sekä riskien toteutuessa toteutettavien toimenpiteiden suunnitteluun, etenkin jos tekoälyjärjestelmiä käytetään julkisella sektorilla. Euroopan tekoälytoimiston, jäljempänä ”tekoälytoimisto”, olisi laadittava malli kyselylomakkeelle vaatimusten noudattamisen helpottamiseksi ja käyttöönottajille aiheutuvan hallinnollisen rasitteen keventämiseksi.
(96)
За да се гарантира по ефективен начин защитата на основните права, внедрителите на високорискови системи с ИИ, които са публични органи, или частните субекти, предоставящи публични услуги, както и внедрителите на някои високорискови системи с ИИ, изброени в приложение към настоящия регламент, като например банкови институции или застрахователи, следва да извършват оценка на въздействието върху основните права преди пускането в действие. Услуги от обществен характер, които са от значение за физическите лица, могат да се предоставят и от частни субекти. Частните субекти, предоставящи такива публични услуги, са свързани с изпълнението на задачи от обществен интерес, например в областите на образованието, здравеопазването, социалните услуги, жилищното настаняване и правораздаването. Целта на оценката на въздействието върху основните права е внедрителят да установи конкретните рискове за правата на лицата или групите лица, които е вероятно да бъдат засегнати, и да набележи мерките, които да бъдат предприети при настъпване на тези рискове. Оценката на въздействието следва да се извърши преди внедряването на високорисковата система с ИИ и следва да се актуализира, когато внедрителят счете, че някой от съответните фактори се е променил. В оценката на въздействието следва да се определят съответните процеси на внедрителя, в рамките на които високорисковата система с ИИ ще бъде използвана в съответствие с нейното предназначение, и следва да се посочи срокът, в който системата е предназначена да се използва, и честотата, с която тя е предназначена да се използва, както и конкретните категории физически лица и групи, които е вероятно да бъдат засегнати в конкретния контекст на използване. Оценката следва да включва и установяването на конкретните рискове от настъпване на вреди, които е вероятно да окажат въздействие върху основните права на тези лица или групи. При извършването на тази оценка внедрителят следва да вземе предвид информацията, която е от значение за правилната оценка на въздействието, включително, но не само, информацията, предоставена от доставчика на високорисковата система с ИИ в инструкциите за употреба. С оглед на установените рискове внедрителите следва да определят мерките, които да бъдат предприети при настъпване на тези рискове, включително например правила за управление в този конкретен контекст на използване, като например механизми за човешки контрол в съответствие с инструкциите за употреба или процедури за разглеждане на жалби и правна защита, тъй като те биха могли да бъдат от основно значение за ограничаване на рисковете за основните права в конкретни случаи на използване. След извършването на тази оценка на въздействието внедрителят следва да уведоми съответния орган за надзор на пазара. Когато е целесъобразно, за да се събере съответната информация, необходима за извършване на оценката на въздействието, внедрителите на високорискова система с ИИ, по-специално когато системите с ИИ се използват в публичния сектор, биха могли да включат съответните заинтересовани страни, включително представители на групи лица, които е вероятно да бъдат засегнати от системата с ИИ, независими експерти и организации на гражданското общество, в извършването на такива оценки на въздействието и разработването на мерки, които да бъдат предприети в случай на настъпване на рисковете. Европейската служба по изкуствен интелект (наричана по-долу „Службата по ИИ“) следва да разработи образец на въпросник, за да се улесни спазването на изискванията и да се намали административната тежест за внедрителите.
(97)
Yleiskäyttöisten tekoälymallien käsite olisi määriteltävä selkeästi ja erotettava tekoälyjärjestelmien käsitteestä oikeusvarmuuden takaamiseksi. Määritelmän olisi perustuttava yleiskäyttöisen tekoälymallin keskeisiin toiminnallisiin ominaisuuksiin, erityisesti yleisyyteen ja valmiuteen suorittaa pätevästi monenlaisia erillisiä tehtäviä. Näitä malleja koulutetaan yleensä suurilla määrillä dataa ja useilla eri menetelmillä, kuten ohjatulla, ohjaamattomalla tai vahvistavalla oppimisella. Yleiskäyttöisiä tekoälymalleja voidaan saattaa markkinoille eri tavoin, esimerkiksi kirjastojen ja sovellusrajapintojen (API) kautta sekä suoralatauksena tai fyysisenä kopiona. Näitä malleja voidaan edelleen muuttaa tai hienosäätää uusiksi malleiksi. Vaikka tekoälymallit ovat tekoälyjärjestelmien olennaisia osia, ne eivät yksinään muodosta tekoälyjärjestelmiä. Tekoälyjärjestelmät edellyttävät lisäkomponenttien, kuten käyttöliittymän, lisäämistä tekoälymalleihin. Tekoälymallit tyypillisesti integroidaan tekoälyjärjestelmiin ja ovat osa niitä. Tässä asetuksessa vahvistetaan yleiskäyttöisiä tekoälymalleja ja systeemisiä riskejä aiheuttavia yleiskäyttöisiä tekoälymalleja koskevat erityiset säännöt, joita olisi sovellettava myös silloin, kun nämä mallit on integroitu tekoälyjärjestelmään tai ne ovat osa sitä. Olisi katsottava, että yleiskäyttöisten tekoälymallien tarjoajien velvoitteita olisi sovellettava siitä alkaen, kun yleiskäyttöiset tekoälymallit on saatettu markkinoille.Kun yleiskäyttöisen tekoälymallin tarjoaja sisällyttää oman mallin omaan tekoälyjärjestelmäänsä, joka on asetettu saataville markkinoilla tai otettu käyttöön, kyseistä mallia olisi pidettävä markkinoille saatettuna, ja sen vuoksi tämän asetuksen malleja koskevia velvoitteita olisi edelleen sovellettava tekoälyjärjestelmiä koskevien velvoitteiden lisäksi. Malleja koskevia velvoitteita ei kuitenkaan pitäisi missään tapauksessa soveltaa, kun omaa mallia käytetään puhtaasti sisäisissä prosesseissa, jotka eivät ole välttämättömiä tuotteen tai palvelun tarjoamiseksi kolmansille osapuolille eivätkä ne vaikuta luonnollisten henkilöiden oikeuksiin. Ottaen huomioon yleiskäyttöisten tekoälymallien, joihin liittyy systeeminen riski, mahdolliset merkittävät kielteiset vaikutukset, niihin olisi aina sovellettava tämän asetuksen mukaisia asiaankuuluvia velvoitteita. Määritelmän ei pitäisi kattaa tekoälymalleja, joita on käytetty yksinomaan tutkimukseen, kehitykseen ja prototyyppeihin liittyvään toimintaan ennen niiden markkinoille saattamista. Tämä ei vaikuta velvoitteeseen noudattaa tätä asetusta, kun malli saatetaan markkinoille tällaisten toimien jälkeen.
(97)
Понятието „модели на ИИ с общо предназначение“ следва да бъде ясно определено и разграничено от понятието „системи с ИИ“, за да се гарантира правна сигурност. Определението следва да се основава на ключовите функционални характеристики на модел на ИИ с общо предназначение, по-специално общ характер и способност за компетентно изпълнение на широк набор от отделни задачи. Тези модели обикновено се обучават въз основа на голямо количество данни чрез различни методи, като например обучение (самообучение) със и без надзор и обучение с утвърждение. Моделите на ИИ с общо предназначение могат да бъдат пускани на пазара по различни начини, включително чрез библиотеки, приложно-програмни интерфейси (API), за директно изтегляне или с физическо копие. Тези модели могат да бъдат допълнително изменени или усъвършенствани в нови модели. Въпреки че моделите на ИИ са основни компоненти на системите с ИИ, сами по себе си те не представляват системи с ИИ. Моделите на ИИ изискват добавянето на допълнителни компоненти, като например потребителски интерфейс, за да се превърнат в системи с ИИ. Моделите на ИИ обикновено са интегрирани в системите с ИИ и са част от тях. В настоящия регламент се предвиждат специални правила за моделите на ИИ с общо предназначение и за моделите на ИИ с общо предназначение, пораждащи системни рискове, които следва да се прилагат и когато тези модели са интегрирани в система с ИИ или са част от нея. Приема се, че задълженията на доставчиците на модели на ИИ с общо предназначение следва да се прилагат след пускането на тези модели на пазара. Когато доставчикът на модел на ИИ с общо предназначение интегрира собствен модел в своя собствена система с ИИ, която се предоставя на пазара или се пуска в действие, този модел следва да се счита за пуснат на пазара и поради това задълженията, установени в настоящия регламент по отношение на моделите, следва да продължат да се прилагат в допълнение към задълженията за системите с ИИ. Задълженията, установени за моделите, във всички случаи не следва да се прилагат, когато собствен модел се използва за чисто вътрешни процеси, които не са от съществено значение за предоставянето на продукт или услуга на трети лица, и когато правата на физическите лица не са засегнати. Като се има предвид възможното им значително отрицателно въздействие, за моделите на ИИ с общо предназначение, пораждащи системен риск, следва винаги да се прилагат съответните задължения съгласно настоящия регламент. Определението не следва да обхваща модели на ИИ, използвани преди пускането им на пазара единствено с цел научноизследователска и развойна дейност и дейности по създаване на прототипи. Това не засяга задължението за спазване на настоящия регламент, когато след такива дейности на пазара се пуска модел.
(98)
Vaikka mallin yleisyys voitaisiin muiden kriteerien ohella määrittää myös useiden parametrien perusteella, olisi katsottava, että mallit, joissa parametreja on vähintään miljardi, jotka on koulutettu suurella määrällä dataa ja joissa käytetään laajamittaista itsevalvontaa, ovat hyvin yleisluonteisia ja suorittavat pätevästi monenlaisia erillisiä tehtäviä.
(98)
Въпреки че общият характер на даден модел би могъл, наред с другото, да се определя и от редица параметри, следва да се счита, че модели с поне един милиард параметри, обучени с голямо количество данни и проявяващи в голяма степен самонадзор, се отличават със значителна степен на общ характер и компетентно изпълняват широк набор от отделни задачи.
(99)
Suuret generatiiviset tekoälymallit ovat tyypillinen esimerkki yleiskäyttöisestä tekoälymallista, koska ne mahdollistavat joustavan sisällön tuottamisen, esimerkiksi tekstin, äänen, kuvien tai videoiden muodossa, jossa voidaan helposti ottaa huomioon monenlaiset erilliset tehtävät.
(99)
Големите генеративни модели на ИИ са типичен пример за модел на ИИ с общо предназначение, като се има предвид, че те дават възможност за гъвкаво генериране на съдържание, например под формата на текст, аудиоматериали, изображения или видеоматериали, което лесно може да покрие широк спектър от отделни задачи.
(100)
Kun yleiskäyttöinen tekoälymalli on integroitu tekoälyjärjestelmään tai se on osa sitä, järjestelmää olisi pidettävä yleiskäyttöisenä tekoälyjärjestelmänä, koska tällaisen integroinnin vuoksi tällaisella järjestelmällä on valmiudet palvella erilaisia tarkoituksia. Yleiskäyttöistä tekoälyjärjestelmää voidaan käyttää suoraan tai se voidaan integroida muihin tekoälyjärjestelmiin;
(100)
Когато модел на ИИ с общо предназначение е интегриран в система с ИИ или е част от нея, тази система следва да се счита за система с ИИ с общо предназначение, когато поради тази интеграция системата е в състояние да обслужва най-различни цели. Системата с ИИ с общо предназначение може да бъде използвана пряко или може да бъде интегрирана в други системи с ИИ.
(101)
Yleiskäyttöisten tekoälymallien tarjoajilla on erityinen rooli ja vastuu tekoälyn arvoketjussa, koska niiden tarjoamat mallit voivat muodostaa perustan useille ketjun loppupään järjestelmille, joita tarjoavat usein ketjun loppupään tarjoajat, jotka edellyttävät mallien ja niiden valmiuksien hyvää ymmärtämistä, jotta tällaiset mallit voidaan integroida niiden tuotteisiin ja jotta ne voivat täyttää tämän tai muiden asetusten mukaiset velvoitteensa. Sen vuoksi olisi vahvistettava oikeasuhteiset avoimuuden lisäämistä koskevat toimenpiteet, mukaan lukien asiakirjojen laatiminen ja ajan tasalla pitäminen sekä tietojen antaminen yleiskäyttöisestä tekoälymallista ketjun loppupään tarjoajien käyttöön. Yleiskäyttöisen tekoälymallin tarjoajan olisi laadittava tekniset asiakirjat ja pidettävä ne ajan tasalla, jotta ne voidaan pyynnöstä asettaa tekoälytoimiston ja kansallisten toimivaltaisten viranomaisten saataville. Tällaisiin asiakirjoihin sisällytettävät vähimmäistiedot olisi vahvistettava tämän asetuksen erityisissä liitteissä. Komissiolle olisi siirrettävä valta muuttaa kyseisiä liitteitä delegoiduilla säädöksillä teknologian kehityksen perusteella.
(101)
Доставчиците на модели на ИИ с общо предназначение имат особено значение и отговорност по веригата за създаване на стойност в областта на ИИ, тъй като моделите, които предоставят, могат да бъдат основа за набор от системи надолу по веригата, често предоставяни от доставчици надолу по веригата, които трябва добре да разбират моделите и техните способности, както за да могат да интегрират такива модели в своите продукти, така и за да изпълняват задълженията си съгласно настоящия или други регламенти. Поради това следва да се определят пропорционални мерки за прозрачност, включително изготвяне и актуализиране на документацията и предоставяне на информация относно модела на ИИ с общо предназначение за използването му от доставчиците надолу по веригата. Техническата документация следва да се изготвя и актуализира от доставчика на модели на ИИ с общо предназначение с цел предоставянето ѝ при поискване на Службата по ИИ и на националните компетентни органи. Минималният набор от елементи, които трябва да бъдат включени в тази документация, следва да бъде посочен в конкретни приложения към настоящия регламент. На Комисията следва да бъде предоставено правомощието да изменя тези приложения чрез делегирани актове с оглед на технологичното развитие.
(102)
Ohjelmistot ja data, mukaan lukien mallit, jotka on julkaistu vapaalla ja avoimen lähdekoodin lisenssillä, joka mahdollistaa niiden avoimen jakamisen ja jolla käyttäjät voivat vapaasti saada, käyttää, muokata ja jakaa niitä tai niiden muutettuja versioita, voivat edistää tutkimusta ja innovointia markkinoilla ja voivat tarjota merkittäviä kasvumahdollisuuksia unionin taloudelle. Vapailla ja avoimen lähdekoodin lisensseillä julkaistujen yleiskäyttöisten tekoälymallien olisi katsottava varmistavan korkean avoimuuden tason, jos niiden parametrit, mukaan lukien painokertoimet, malliarkkitehtuuria koskevat tiedot ja mallien käyttöä koskevat tiedot, asetetaan julkisesti saataville. Lisenssi olisi pidettävä vapaana ja avoimena lähdekoodina myös silloin, kun se antaa käyttäjille mahdollisuuden käyttää, kopioida, jakaa, tutkia, muuttaa ja parantaa ohjelmistoja ja dataa, mukaan lukien malleja sillä edellytyksellä, että mallin alkuperäinen tarjoaja mainitaan ja että samoja tai vertailukelpoisia jakeluehtoja noudatetaan.
(102)
Софтуер и данни, включително модели, предоставени с безплатен лиценз с отворен код, който им позволява да бъдат споделяни свободно и чрез който ползвателите могат свободно да ги достъпват, използват, променят и разпространяват в променен или непроменен вид, могат да допринесат за научните изследвания и иновациите на пазара и да осигурят значителни възможности за растеж на икономиката на Съюза. Следва да се обмисли използването на модели на ИИ с общо предназначение, представени с безплатни лицензи с отворен код, за да се гарантират високи равнища на прозрачност и отвореност, ако техните параметри, включително теглата, информацията за архитектурата на модела и информацията за използването на модела са публично достъпни. Лицензът следва да се счита за безплатен и с отворен код и когато дава възможност на ползвателите да използват, копират, разпространяват, изучават, променят и подобряват софтуер и данни, включително модели, при условие че се посочва първоначалният доставчик на модела и се спазват еднакви или сходни условия на разпространение.
(103)
Vapaat ja avoimen lähdekoodin tekoälykomponentit kattavat ohjelmistot ja datan, mukaan lukien tekoälyjärjestelmän mallit ja yleiskäyttöiset tekoälymallit, välineet, palvelut tai prosessit. Vapaita ja avoimen lähdekoodin tekoälykomponentteja voidaan tarjota eri kanavien kautta, mukaan lukien niiden kehittäminen avoimissa julkaisuarkistoissa. Tätä asetusta sovellettaessa tekoälykomponenttien, joita tarjotaan maksua vastaan tai muilla tavoin vastikkeellisina, muun muassa tarjoamalla tekoälykomponenttiin liittyvää teknistä tukea tai muita palveluja, myös ohjelmistoalustan kautta, tai käyttämällä henkilötietoja muista kuin yksinomaan ohjelmiston turvallisuuden, yhteensopivuuden tai yhteentoimivuuden parantamiseen liittyvistä syistä, lukuun ottamatta mikroyritysten välisiä kaupallisia toimia, ei pitäisi hyötyä vapaille ja avoimen lähdekoodin tekoälykomponenteille säädetyistä poikkeuksista. Sen, että tekoälykomponentit asetetaan saataville avoimien julkaisuarkistojen kautta, ei sinänsä pitäisi merkitä vastikkeellisuutta.
(103)
Безплатните компоненти с ИИ с отворен код обхващат софтуера и данните, включително модели и модели, инструменти, услуги или процеси с ИИ с общо предназначение на дадена система с ИИ. Безплатните компоненти с ИИ с отворен код могат да бъдат предоставяни по различни начини, включително чрез разработването им в хранилища със свободен достъп. За целите на настоящия регламент компонентите с ИИ, които се предоставят срещу заплащане или се възмездяват по друг начин, включително чрез предоставянето на техническа поддръжка или други услуги, включително чрез софтуерна платформа, свързани с компонента с ИИ, или използването на лични данни по причини, различни от изключителната цел за подобряване на сигурността, съвместимостта или оперативната съвместимост на софтуера, с изключение на сделките между микропредприятия, не следва да се ползват от изключенията, предвидени за безплатните компоненти с ИИ с отворен код. Предоставянето на компоненти с ИИ чрез хранилища със свободен достъп не следва само по себе си да представлява възмездяване.
(104)
Tarjoajiin, jotka tarjoavat vapaalla ja avoimen lähdekoodin lisenssillä yleiskäyttöisiä tekoälymalleja, joiden parametrit, mukaan lukien painokertoimet sekä malliarkkitehtuuria ja mallin käyttöä koskevat tiedot, asetetaan julkisesti saataville, olisi sovellettava poikkeuksia, jotka koskevat yleiskäyttöisille tekoälymalleille asetettuja avoimuusvaatimuksia, paitsi jos niiden voidaan katsoa aiheuttavan systeemisen riskin, jolloin sitä, että malli on avoin ja siihen liittyy avoimen lähdekoodin lisenssi, ei pitäisi katsoa riittäväksi syyksi olla noudattamatta tämän asetuksen mukaisia velvoitteita. Koska yleiskäyttöisten tekoälymallien käyttöönotto vapaan ja avoimen lähdekoodin lisenssin nojalla ei välttämättä paljasta olennaisia tietoja mallin kouluttamiseen tai hienosäätöön käytetystä datajoukosta ja siitä, miten tekijänoikeuslainsäädännön noudattaminen on varmistettu, yleiskäyttöisiä tekoälymalleja koskeva poikkeus avoimuusvaatimusten noudattamisesta ei saisi missään tapauksessa koskea velvoitetta laatia tiivistelmä mallikoulutuksessa käytetystä sisällöstä ja velvoitetta ottaa käyttöön toimintaperiaatteet unionin tekijänoikeuslainsäädännön noudattamiseksi ja erityisesti oikeuksien pidättämisen tunnistamiseksi ja noudattamiseksi Euroopan parlamentin ja neuvoston direktiivin (EU) 2019/790 (40) 4 artiklan 3 kohdan mukaisesti.
(104)
За доставчиците на модели на ИИ с общо предназначение, които са предоставени с безплатен лиценз с отворен код и чиито параметри, включително теглата, информацията за архитектурата на модела и информацията за използването на модела, са публично достъпни, следва да се прилагат изключения по отношение на свързаните с прозрачността изисквания, наложени на моделите на ИИ с общо предназначение, освен когато може да се счита, че те пораждат системен риск, като в този случай обстоятелството, че моделът е прозрачен и придружен от лиценз с отворен код, не следва да се счита за достатъчна причина за изключване на спазването на задълженията съгласно настоящия регламент. Във всеки случай, като се има предвид, че предоставянето на модели на ИИ с общо предназначение с безплатен лиценз с отворен код не разкрива непременно съществена информация относно набора от данни, използван за обучението или финото регулиране на модела, и относно това как по този начин се гарантира спазването на авторското право, предвиденото за моделите на ИИ с общо предназначение изключение от съответствието с изискванията, свързани с прозрачността, не следва да се отнася до задължението за изготвяне на обобщение на съдържанието, използвано за обучение на модели, и задължението за въвеждане на политика за спазване на правото на Съюза в областта на авторското право, по-специално за установяване и съблюдаване на запазването на права съгласно член 4, параграф 3 от Директива (ЕС) 2019/790 на Европейския парламент и на Съвета (40).
(105)
Yleiskäyttöiset tekoälymallit, erityisesti suuret generatiiviset tekoälymallit, jotka pystyvät tuottamaan tekstiä, kuvia ja muuta sisältöä, tarjoavat ainutlaatuisia innovointimahdollisuuksia mutta myös haasteita taiteilijoille, kirjailijoille ja muille luovan sisällön tekijöille sekä sille, miten heidän luovaa sisältöään luodaan, levitetään, käytetään ja kulutetaan. Tällaisten mallien kehittäminen ja kouluttaminen edellyttää valtavia määriä tekstiä, kuvia, videoita ja muuta dataa. Tekstin- ja tiedonlouhintatekniikoita voidaan tässä yhteydessä käyttää laajasti tällaisen tekijänoikeudella ja lähioikeuksilla suojatun sisällön hakemiseen ja analysointiin. Tekijänoikeudella suojatun sisällön käyttö edellyttää asianomaisen oikeudenhaltijan lupaa, paitsi jos sovelletaan asiaankuuluvia tekijänoikeutta koskevia poikkeuksia ja -rajoituksia. Direktiivillä (EU) 2019/790 otettiin käyttöön poikkeuksia ja rajoituksia, jotka sallivat tietyin edellytyksin kappaleenvalmistamisen ja otteiden ottamisen teoksista tai muusta aineistosta tekstin- ja tiedonlouhintaa varten. Näiden sääntöjen mukaan oikeudenhaltijat voivat päättää varata itselleen oikeudet teoksiinsa tai muuhun aineistoonsa tekstin- ja tiedonlouhinnan estämiseksi, ellei tätä tehdä tieteellistä tutkimusta varten. Jos nämä oikeudet on nimenomaisesti ja asianmukaisesti varattu, yleiskäyttöisten tekoälymallien tarjoajien on saatava oikeudenhaltijoilta lupa, jos ne haluavat toteuttaa tällaisia teoksia koskevan tekstin- ja tiedonlouhinnan.
(105)
Моделите на ИИ с общо предназначение, по-специално големите генеративни модели на ИИ, способни да генерират текст, изображения и друго съдържание, представляват уникални възможности за иновации, но също така са свързани и с трудности за хората на изкуството, авторите и другите творци, както и за начина, по който тяхното творческо съдържание се създава, разпространява, използва и потребява. Разработването и обучението на такива модели изисква достъп до големи количества текст, изображения, видеоматериали и други данни. Техниките за извличане на информация от текст и данни могат да се използват широко в този контекст за извличане и анализ на такова съдържание, което може да бъде защитено с авторско право и сродните му права. Всяко използване на защитено с авторско право съдържание изисква разрешение от съответните носители на права, освен ако не се прилагат съответните изключения и ограничения, свързани с авторското право. С Директива (ЕС) 2019/790 бяха въведени изключения и ограничения, които позволяват възпроизвеждането и извличането на откъси от произведения или други обекти за целите на извличането на информация от текст и данни при определени условия. Съгласно тези правила носителите на права могат да изберат да запазят правата си върху своите произведения или други обекти, за да предотвратят извличането на информация от текст и данни, освен ако това не се извършва за целите на научни изследвания. Когато правото на отказ е изрично запазено по подходящ начин, доставчиците на модели на ИИ с общо предназначение трябва да получат разрешение от носителите на права, ако желаят да извършват извличане на информация от текст и данни за такива произведения.
(106)
Tarjoajien, jotka saattavat yleiskäyttöisiä tekoälymalleja unionin markkinoille, olisi varmistettava tässä asetuksessa säädettyjen asiaankuuluvien velvoitteiden noudattaminen. Tätä varten yleiskäyttöisten tekoälymallien tarjoajien olisi otettava käyttöön toimintaperiaatteet, joilla noudatetaan tekijänoikeutta ja lähioikeuksia koskevaa unionin oikeutta ja erityisesti tunnistetaan ja noudatetaan oikeudenhaltijoiden direktiivin (EU) 2019/790 4 artiklan 3 kohdan mukaisesti ilmaisemaa oikeuksien pidättämistä. Kaikkien tarjoajien, jotka saattavat unionin markkinoille yleiskäyttöisen tekoälymallin, olisi noudatettava tätä velvoitetta riippumatta siitä, millä lainkäyttöalueella kyseisten yleiskäyttöisten tekoälymallien koulutuksen perustana olevat tekijänoikeuden kannalta merkitykselliset toimet toteutetaan. Tämä on tarpeen, jotta yleiskäyttöisten tekoälymallien tarjoajille voidaan varmistaa tasapuoliset toimintaedellytykset, joissa yksikään tarjoaja ei saisi unionin markkinoilla kilpailuetua soveltamalla alhaisempia tekijänoikeusstandardeja kuin unionissa.
(106)
Доставчиците, които пускат на пазара на Съюза модели на ИИ с общо предназначение, следва да гарантират спазването на съответните задължения, установени в настоящия регламент. За тази цел доставчиците на модели на ИИ с общо предназначение следва да въведат политика за спазване на правото на Съюза в областта на авторското право и сродните му права, по-специално за установяване и съблюдаване на запазването на права, изразено от носителите на права съгласно член 4, параграф 3 от Директива (ЕС) 2019/790. Всеки доставчик, който пуска на пазара на Съюза модел на ИИ с общо предназначение, следва да спазва това задължение, независимо от юрисдикцията, в която се извършват действията, свързани с авторското право, които са в основата на обучението на тези модели на ИИ с общо предназначение. Това е необходимо, за да се гарантира равнопоставеност на доставчиците на модели на ИИ с общо предназначение, при което нито един доставчик не следва да може да получи конкурентно предимство на пазара на Съюза чрез прилагане на по-ниски стандарти в областта на авторското право от предвидените в Съюза.
(107)
Jotta voidaan lisätä sellaisen datan avoimuutta, jota käytetään yleiskäyttöisten tekoälymallien esikoulutuksessa ja koulutuksessa, mukaan lukien tekijänoikeuslainsäädännöllä suojattu teksti ja data, on asianmukaista, että tällaisten mallien tarjoajat laativat ja asettavat julkisesti saataville riittävän yksityiskohtaisen tiivistelmän yleiskäyttöisen tekoälymallin koulutuksessa käytetystä sisällöstä. Samalla kun otetaan asianmukaisesti huomioon tarve suojella liikesalaisuuksia ja luottamuksellisia liiketoimintaa koskevia tietoja, tämän tiivistelmän olisi oltava sisällöltään yleisesti kattava sen sijaan, että se olisi teknisesti yksityiskohtainen, jotta osapuolia, joilla on oikeutettuja etuja, mukaan lukien tekijänoikeuden haltijat, voidaan auttaa käyttämään ja panemaan täytäntöön unionin oikeuden mukaisia oikeuksiaan, ja esimerkiksi luetella tärkeimmät mallin koulutukseen käytetyt tietolähteet tai datajoukot, kuten suuret yksityiset tai julkiset tietokannat tai -arkistot, ja antaa selostus muista käytetyistä tietolähteistä. Olisi asianmukaista, että tekoälytoimisto antaa tiivistelmälle mallin, jonka olisi oltava yksinkertainen ja tehokas ja jonka avulla tarjoaja voi toimittaa vaaditun tiivistelmän selostuksen muodossa.
(107)
За да се повиши прозрачността по отношение на данните, които се използват при предварителното обучение и обучението на модели на ИИ с общо предназначение, включително текст и данни, защитени от правото в областта на авторското право, е целесъобразно доставчиците на такива модели да изготвят и оповестяват публично достатъчно подробно обобщение на съдържанието, използвано за обучение на модела на ИИ с общо предназначение. Като се отчита надлежно необходимостта от защита на търговските тайни и поверителната търговска информация, това обобщение следва като цяло да бъде изчерпателно по своя обхват, а не технически подробно, за да улесни лицата със законни интереси, включително носителите на авторски права, да упражняват и прилагат правата си съгласно правото на Съюза, например чрез изброяване на основните събрани данни или набори от данни, които са използвани при обучението по модела, като например големи частни или публични бази данни или архиви с данни, и чрез предоставяне на описателно разяснение за други използвани източници на данни. Целесъобразно е Службата по ИИ да осигури образец на обобщението, който следва да бъде опростен, ефективен и да позволява на доставчика да предостави изискваното обобщение в описателна форма.
(108)
Yleiskäyttöisten tekoälymallien tarjoajille asetettujen velvoitteiden, jotka koskevat toimintaperiaatteiden käyttöönottoa unionin tekijänoikeuslainsäädännön noudattamiseksi ja koulutuksessa käytettyä sisältöä koskevan tiivistelmän julkisesti saataville asettamista, tekoälytoimiston olisi seurattava, onko tarjoaja täyttänyt kyseiset velvoitteet tarkistamatta tai arvioimatta koulutusdataa teoskohtaisesti tekijänoikeuksien noudattamisen osalta. Tämä asetus ei vaikuta unionin oikeudessa säädettyjen tekijänoikeussääntöjen täytäntöönpanoon.
(108)
По отношение на задълженията, наложени на доставчиците на модели на ИИ с общо предназначение, да въведат политика за спазване на правото на Съюза в областта на авторското право и да оповестят публично обобщение на съдържанието, използвано за обучението, Службата по ИИ следва да следи дали доставчикът е изпълнил тези задължения, без да проверява или да извършва оценка на обучителните данни за всяко отделно произведение от гледна точка на спазването на авторското право. Настоящият регламент не засяга прилагането на правилата в областта на авторското право, предвидени в правото на Съюза.
(109)
Yleiskäyttöisten tekoälymallien tarjoajiin sovellettavien velvoitteiden noudattamisen olisi oltava oikeasuhtaista mallin tarjoajan tyyppiin nähden, pois lukien ei-ammatillisiin tai tieteellisiin tutkimustarkoituksiin malleja kehittävät tai käyttävät henkilöt, joiden ei tarvitse noudattaa velvoitteita, mutta joita olisi kuitenkin kannustettava noudattamaan niitä vapaaehtoisesti. Kyseisten velvoitteiden noudattamisessa olisi otettava asianmukaisesti huomioon tarjoajan koko ja mahdollistettava pk-yrityksille, myös startup-yrityksille, velvoitteiden noudattamiseksi yksinkertaistetut menettelyt, jotka eivät saisi aiheuttaa kohtuuttomia kustannuksia eivätkä estää tällaisten mallien käyttöä, sanotun kuitenkaan rajoittamatta unionin tekijänoikeuslainsäädännön soveltamista. Jos mallia muutetaan tai hienosäädetään, yleiskäyttöisten tekoälymallien tarjoajien velvoitteet olisi rajattava kyseiseen muutokseen tai hienosäätöön esimerkiksi täydentämällä jo olemassa olevia teknisiä asiakirjoja muutoksia koskevilla tiedoilla, mukaan lukien koulutukseen käytetyt uudet tietolähteet, keinona noudattaa tässä asetuksessa säädettyjä arvoketjuun liittyviä velvoitteita.
(109)
Спазването на задълженията, приложими за доставчиците на модели на ИИ с общо предназначение, следва да бъде съизмеримо и пропорционално на вида доставчик на модели, като се изключва необходимостта от спазването им за лицата, които разработват или използват модели за непрофесионални или научноизследователски цели, които въпреки това следва да бъдат насърчавани да спазват тези изисквания на доброволна основа. Без да се засяга правото на Съюза в областта на авторското право, спазването на тези задължения следва да е надлежно съобразено с размера на доставчика и да дава възможност за опростени начини за постигане на съответствие за МСП, включително новосъздадени предприятия, които не следва да представляват прекомерни разходи и да не възпират използването на такива модели. В случай на изменение или фино регулиране на даден модел задълженията на доставчиците на модели на ИИ с общо предназначение следва да бъдат ограничени до това изменение или фино регулиране, например чрез допълване на вече съществуващата техническа документация с информация за измененията, включително нови източници на обучителни данни, като начин да се гарантира спазването на задълженията по веригата за създаване на стойност, предвидени в настоящия регламент.
(110)
Yleiskäyttöiset tekoälymallit voivat aiheuttaa systeemisiä riskejä, joihin kuuluvat muun muassa suuronnettomuuksiin liittyvät tosiasialliset tai kohtuudella ennakoitavissa olevat kielteiset vaikutukset, kriittisten alojen häiriöt ja vakavat seuraukset kansanterveydelle ja turvallisuudelle; mahdolliset tosiasialliset tai kohtuudella ennakoitavissa olevat kielteiset vaikutukset demokraattisiin prosesseihin sekä yleiseen ja taloudelliseen turvallisuuteen; laittoman, väärän tai syrjivän sisällön levittäminen. Systeemisten riskien olisi katsottava lisääntyvän yhdessä mallien valmiuksien ja kattavuuden kanssa, niitä voi esiintyä mallin koko elinkaaren ajan ja niihin vaikuttavat väärinkäytön olosuhteet, mallin luotettavuus, mallin oikeudenmukaisuus ja turvallisuus, mallin itsenäisyyden aste, sen saatavilla olevat välineet, uudet tai yhdistetyt yksityiskohtaiset säännöt, käyttöönotto- ja jakelustrategiat sekä mahdollisuus poistaa suojatoimet ja muut tekijät. Erityisesti kansainvälisissä lähestymistavoissa on tähän mennessä todettu tarve kiinnittää huomiota riskeihin, joita aiheuttavat mahdolliset tahalliset väärinkäytöt tai tahattomat valvontaa koskevat ongelmat, jotka liittyvät yhteensovittamiseen inhimillisen tarkoituksen kanssa; kemialliset, biologiset, säteily- ja ydinriskit, kuten tavat, joilla markkinoille pääsyn esteitä voidaan vähentää, myös aseiden kehittämisen, suunnitteluhankintojen tai käytön osalta; kyberhyökkäysvalmiuksien, kuten haavoittuvuuksien havaitsemisen, hyödyntämisen tai operatiivisen käytön, mahdollistaminen; vuorovaikutuksen ja välineiden käytön vaikutukset, mukaan lukien esimerkiksi kyky valvoa fyysisiä järjestelmiä ja häiritä kriittistä infrastruktuuria; mallien itsensä kopioimiseen tai ”itsejäljentämiseen” tai muiden mallien kouluttamiseen liittyvät riskit; tavat, joilla mallit voivat aiheuttaa haitallisia vinoutumia ja syrjintää, joihin liittyy riskejä yksilöille, yhteisöille tai yhteiskunnille; disinformaation helpottaminen tai yksityisyyden vahingoittaminen demokraattisiin arvoihin ja ihmisoikeuksiin kohdistuvilla uhkilla; sekä riski siitä, että tietty tapahtuma voi johtaa ketjureaktioon, jolla on huomattavia kielteisiä vaikutuksia, jotka voivat vaikuttaa kokonaiseen kaupunkiin, kokonaiseen kohdealueeseen tai kokonaiseen yhteisöön.
(110)
Моделите на ИИ с общо предназначение биха могли да породят системни рискове, които включват, но не се ограничават до действителни или разумно предвидими отрицателни последици във връзка с големи аварии, смущения в критични сектори и сериозни последици за общественото здраве и безопасност; действителни или разумно предвидими отрицателни последици за демократичните процеси, обществената и икономическата сигурност; разпространението на незаконно, невярно или дискриминационно съдържание. Следва да се приеме, че системните рискове нарастват заедно със способностите и обхвата на модела, могат да възникнат по време на целия жизнен цикъл на модела и се влияят от условията на неправилна експлоатация, надеждността, добросъвестността и сигурността на модела, степента на автономност на модела, неговия достъп до инструменти, новите или комбинираните условия, стратегиите за предоставяне и разпространение, възможността за премахване на предпазните механизми и други фактори. По-специално, досега международните подходи са установили необходимостта да се обърне внимание на рисковете, произтичащи от възможна умишлена неправилна експлоатация или непреднамерени проблеми с контрола, свързан с привеждането в съответствие с човешките намерения; химичните, биологичните, радиологичните и ядрените рискове, като например начините, по които могат да бъдат намалени пречките за достъп, включително за разработване, придобиване на дизайн или използване на оръжия; офанзивните киберспособности, като например средствата, позволяващи откриване, експлоатация или оперативно използване на уязвими места; последиците от взаимодействието и използването на инструменти, включително например капацитета за контрол на физическите системи и за намеса в критичната инфраструктура; рисковете, свързани с възможността моделите да изготвят свои собствени копия, да се самовъзпроизвеждат или да обучават други модели; начините, по които моделите могат да доведат до вредна предубеденост и дискриминация с рискове за физически лица, общности или общества; улесняването на дезинформацията или накърняването на неприкосновеността на личния живот чрез заплахи за демократичните ценности и правата на човека; риска дадено събитие да доведе до верижна реакция със значителни отрицателни последици, които биха могли да засегнат цял град, цяла област на дейност или цяла общност.
(111)
On aiheellista vahvistaa menetelmä, jolla yleiskäyttöiset tekoälymallit voidaan luokitella yleiskäyttöiseksi tekoälymalliksi, johon liittyy systeemisiä riskejä. Koska systeemiset riskit johtuvat erityisen suurista valmiuksista, yleiskäyttöisen tekoälymallin olisi katsottava aiheuttavan systeemisiä riskejä, jos sillä on vaikutuksiltaan merkittävä suorituskyky, jota arvioidaan asianmukaisten teknisten välineiden ja menetelmien perusteella, tai sen kattavuus vaikuttaa merkittävästi sisämarkkinoihin. Yleiskäyttöisissä tekoälymalleissa vaikutuksiltaan merkittävällä suorituskyvyllä tarkoitetaan suorituskykyä, joka vastaa tai ylittää kehittyneimpiin yleiskäyttöisiin tekoälymalleihin kirjatut valmiudet. Mallin kaikki valmiudet voitaisiin tuntea paremmin sen jälkeen, kun se on saatettu markkinoille tai kun käyttöönottajat ovat vuorovaikutuksessa mallin kanssa. Tämän asetuksen voimaantuloajankohtana viimeisimmän kehityksen mukainen yleiskäyttöisen tekoälymallin kouluttamiseen käytetyn laskentatehon kumulatiivinen määrä liukulukuoperaationa mitattuna on yksi asiaankuuluvista mallin suorituskyvyn approksimaatioista. Koulutukseen käytetyn laskentatehon kumulatiivinen määrä sisältää kaikissa toimissa ja menetelmissä, joiden tarkoituksena on parantaa mallin suorituskykyä ennen käyttöönottoa, kuten esikoulutus, synteettinen datan tuottaminen ja hienosäätö, käytettyä laskentatehoa. Sen vuoksi liukulukuoperaatiolle olisi asetettava alustava kynnysarvo, ja jos yleiskäyttöinen tekoälymalli ylittää sen, voidaan olettaa, että malli on yleiskäyttöinen tekoälymalli, johon liittyy systeemisiä riskejä. Tätä kynnysarvoa olisi mukautettava ajan mittaan teknologisten ja teollisten muutosten, kuten algoritmisten parannusten tai laitteiston tehokkuuden parantamisen, huomioon ottamiseksi, ja sitä olisi täydennettävä mallin suorituskykyä koskevilla vertailuarvoilla ja indikaattoreilla. Tätä varten tekoälytoimiston olisi tehtävä yhteistyötä tiedeyhteisön, teollisuuden, kansalaisyhteiskunnan ja muiden asiantuntijoiden kanssa. Kynnysarvojen sekä vaikutuksiltaan merkittävän suorituskyvyn arvioinnissa käytettävien välineiden ja vertailuarvojen olisi indikoitava vahvasti yleiskäyttöisten tekoälymallien yleisyyttä, niiden suorituskykyä ja niihin liittyvää systeemistä riskiä, ja niissä voitaisiin ottaa huomioon tapa, jolla malli saatetaan markkinoille tai niiden käyttäjien lukumäärä, joihin se voi vaikuttaa. Järjestelmän täydentämiseksi komission olisi voitava tehdä yksittäisiä päätöksiä, joilla tietty yleiskäyttöinen tekoälymalli määritetään yleiskäyttöiseksi tekoälymalliksi, johon liittyy systeeminen riski, jos todetaan, että mallin suorituskyky tai vaikutus on sama kuin asetetun kynnysarvon ylittävillä malleilla. Tämä päätös olisi tehtävä tämän asetuksen liitteessä vahvistettujen perusteiden, joiden mukaisesti nimetään yleiskäyttöinen tekoälymalli, johon liittyy systeeminen riski, yleisen arvioinnin perusteella. Näitä perusteita ovat koulutusdatajoukon laatu ja koko, yritys- ja loppukäyttäjien lukumäärä, mallin syöttötietojen ja tuotosten modaalisuus, sen itsenäisyyden ja skaalattavuuden aste ja sen käytettävissä olevat välineet. Komission olisi otettava huomioon sellaisen tarjoajan perusteltu pyyntö, jonka malli on nimetty yleiskäyttöiseksi tekoälymalliksi, johon liittyy systeeminen riski, ja se voi päättää arvioida uudelleen, voidaanko yleiskäyttöiseen tekoälymalliin katsoa edelleen liittyvän systeemisiä riskejä.
(111)
Целесъобразно е да се създаде методика за класифициране на моделите на ИИ с общо предназначение като модели на ИИ с общо предназначение, пораждащи системен риск. Тъй като системните рискове произтичат от особено големи способности, следва да се счита, че моделът на ИИ с общо предназначение поражда системни рискове, ако има способности с висока степен на въздействие, оценени въз основа на подходящи технически инструменти и методики, или значително въздействие върху вътрешния пазар поради своя обхват. Способностите с висока степен на въздействие при моделите на ИИ с общо предназначение означава способности, които съответстват на или надхвърлят способностите, регистрирани в най-напредналите модели на ИИ с общо предназначение. Пълният набор от способности на даден модел би могъл да бъде по-добре разбран след пускането му на пазара или при взаимодействието на внедрителите с модела. В зависимост от съвременните технически постижения към момента на влизане в сила на настоящия регламент общото количество изчисления, използвани за обучението на модела на ИИ с общо предназначение, измерено при операции с плаваща запетая, е една от значимите приблизителни стойности за способностите на модела. Общото количество изчисления, използвано за обучение, включва изчисленията, използвани за всички дейности и методи, които са предназначени да подобрят способностите на модела преди внедряването, като например предварително обучение, генериране на синтетични данни и фино регулиране. Поради това следва да се определи първоначален праг за операции с плаваща запетая, който, ако бъде достигнат от даден модел на ИИ с общо предназначение, води до презумпцията, че това е модел на ИИ с общо предназначение, пораждащ системен риск. Този праг следва да бъде коригиран с течение на времето, за да отразява технологичните и промишлените промени, като например подобрения в алгоритмите или повишена ефективност на хардуера, и следва да бъде допълван с референтни стойности и показатели за способностите на модела. За тази цел Службата по ИИ следва да работи с научната общност, стопанския сектор, гражданското общество и други експерти. Праговете, както и инструментите и референтните показатели за оценка на способностите с висока степен на въздействие следва да бъдат добри прогнозни фактори за общия характер, способностите и свързания системен риск на моделите на ИИ с общо предназначение и биха могли да вземат предвид начина, по който моделът ще бъде пуснат на пазара, или броя на ползвателите, които той може да засегне. За да се допълни тази система, Комисията следва да има възможност да взема индивидуални решения за определяне на модел на ИИ с общо предназначение като модел на ИИ с общо предназначение, пораждащ системен риск, ако се установи, че този модел има способности или въздействие, равностойни на тези, обхванати от определения праг. Това решение следва да се вземе въз основа на цялостна оценка на критериите за определяне на модели на ИИ с общо предназначение, пораждащи системен риск, посочени в приложение към настоящия регламент, като например качество или размер на набора от обучителни данни, брой на бизнес ползвателите и крайните ползватели, свързаните с него условия за входящи данни и резултати, степен на автономност и възможности за увеличаване на мащаба или инструментите, до които той има достъп. При обосновано искане от доставчик, чийто модел е определен като модел на ИИ с общо предназначение, пораждащ системен риск, Комисията следва да вземе предвид искането и може да реши да направи нова преценка дали все още може да се счита, че моделът на ИИ с общо предназначение поражда системни рискове.
(112)
Lisäksi on aiheellista selventää menettelyä, jonka mukaisesti luokitellaan yleiskäyttöiset tekoälymallit, joihin liittyy systeeminen riski. Yleiskäyttöisen tekoälymallin, joka ylittää vaikutuksiltaan merkittävää suorituskykyä koskevan sovellettavan kynnysarvon, olisi katsottava olevan yleiskäyttöinen tekoälymalli, johon liittyy systeeminen riski. Tarjoajan olisi ilmoitettava tekoälytoimistolle, että yleiskäyttöinen tekoälymalli täyttää tähän olettamaan johtavat edellytykset, viimeistään kahden viikon kuluttua siitä, kun edellytykset täyttyvät tai kun todetaan, että ne tulevat täyttymään. Tämä koskee erityisesti liukulaskutoimitusten kynnysarvoa, sillä yleiskäyttöisten tekoälymallien koulutus on suunniteltava tarkkaan siten, että laskentaresurssit jaetaan etukäteen. Tästä syystä yleiskäyttöisten tekoälymallien tarjoajat tietävät jo ennen koulutuksen päättymistä, ylittääkö niiden tekoälymalli kynnysarvon. Ilmoituksessaan tarjoajan olisi voitava osoittaa, että yleiskäyttöiseen tekoälymalliin ei sen erityispiirteiden vuoksi poikkeuksellisesti liity systeemisiä riskejä ja että sitä ei näin ollen olisi luokiteltava systeemisen riskin yleiskäyttöiseksi tekoälymalliksi. Tämä tieto on arvokasta tekoälytoimistolle, jotta se voi ennakoida sellaisten yleiskäyttöisten tekoälymallien markkinoille saattamista, joihin liittyy systeemisiä riskejä, ja tällä tavoin tarjoajat voivat aloittaa yhteistyön tekoälytoimiston kanssa jo varhaisessa vaiheessa. Tieto on erityisen arvokasta niiden yleiskäyttöisten tekoälymallien osalta, jotka on tarkoitus julkaista avoimen lähdekoodin malleina, koska tämän asetuksen mukaisten velvoitteiden noudattamisen varmistamiseksi tarvittavat toimet voi olla vaikeampi toteuttaa avoimen lähdekoodin mallin julkaisemisen jälkeen.
(112)
Необходимо е също така да се изясни процедурата за класифициране на модел на ИИ с общо предназначение, пораждащ системен риск. Модел на ИИ с общо предназначение, който отговаря на приложимия праг за способности с висока степен на въздействие, следва да се счита за модел на ИИ с общо предназначение, пораждащ системен риск. Доставчикът следва да уведоми Службата по ИИ най-късно две седмици след като бъдат изпълнени изискванията или стане известно, че даден модел на ИИ с общо предназначение ще отговаря на изискванията, свързани с презумпцията. Това е от особено значение във връзка с прага на операции с плаваща запетая, тъй като обучението на модели на ИИ с общо предназначение преминава през значително планиране, което включва предварително разпределяне на изчислителните ресурси, и следователно доставчиците на модели на ИИ с общо предназначение са в състояние да знаят дали техният модел би достигнал прага преди завършване на обучението. В контекста на това уведомяване доставчикът следва да може да докаже, че поради конкретните си характеристики даден модел на ИИ с общо предназначение по изключение не поражда системни рискове и че поради това не следва да бъде класифициран като модел на ИИ с общо предназначение, пораждащ системен риск. Тази информация е ценна, за да даде възможност на Службата по ИИ да предвиди пускането на пазара на модели на ИИ с общо предназначение, пораждащи системен риск, а на доставчиците да могат да започнат работа със Службата по ИИ на ранен етап. Информацията е особено важна по отношение на модели на ИИ с общо предназначение, за които се планира да бъдат пуснати с отворен код, като се има предвид, че след пускането на модел с отворен код може да е по-трудно да се приложат необходимите мерки за гарантиране на спазването на задълженията съгласно настоящия регламент.
(113)
Jos komissio saa tietoonsa, että yleiskäyttöinen tekoälymalli täyttää edellytykset, jotta se voidaan luokitella systeemisen riskin yleiskäyttöiseksi tekoälymalliksi, ja edellytysten täyttyminen ei joko ole ollut aiemmin tiedossa tai asianomainen tarjoaja ei ole ilmoittanut siitä komissiolle, komissiolle olisi annettava valtuudet nimetä malli vastaavasti. Tekoälytoimiston suorittamaa seurantaa olisi täydennettävä perusteltujen varoitusten järjestelmällä, jolla varmistetaan, että tiedelautakunta ilmoittaa tekoälytoimistolle niistä yleiskäyttöisistä tekoälymalleista, jotka olisi mahdollisesti luokiteltava yleiskäyttöisiksi tekoälymalleiksi, joihin liittyy systeeminen riski.
(113)
Ако на Комисията стане известен фактът, че даден модел на ИИ с общо предназначение отговаря на изискванията за класифициране като модел ИИ с общо предназначение, пораждащ системен риск, който преди това не е бил известен или за който съответният доставчик не е уведомил Комисията, на Комисията следва да бъде предоставено правомощието да го определи като такъв. Системата за приоритетни сигнали следва да гарантира, че Службата по ИИ е информирана от експертната група за модели на ИИ с общо предназначение, които евентуално следва да бъдат класифицирани като модели на ИИ с общо предназначение, пораждащи системен риск, в допълнение към дейностите по мониторинг на Службата по ИИ.
(114)
Niiden yleiskäyttöisten tekoälymallien tarjoajiin, joihin liittyy systeemisiä riskejä, olisi sovellettava yleiskäyttöisten tekoälymallien tarjoajiin sovellettavien velvoitteiden lisäksi velvoitteita, joiden tarkoituksena on määrittää ja lieventää kyseisiä riskejä ja varmistaa kyberturvallisuussuojan riittävä taso riippumatta siitä, tarjotaanko tekoälymalli erillisenä mallina vai sulautettuna tekoälyjärjestelmään tai tuotteeseen. Kyseisten tavoitteiden saavuttamiseksi tässä asetuksessa olisi edellytettävä, että tarjoajat suorittavat tarvittavat mallin arvioinnit erityisesti ennen niiden ensimmäistä markkinoille saattamista, mukaan lukien mallien adversariaalisen testauksen suorittaminen ja dokumentointi tarvittaessa myös sisäisessä tai riippumattomassa ulkoisessa testauksessa. Niiden yleiskäyttöisten tekoälymallien tarjoajien, joihin liittyy systeemisiä riskejä, olisi lisäksi arvioitava ja lievennettävä systeemisiä riskejä jatkuvasti, esimerkiksi ottamalla käyttöön riskinhallintaa koskevat toimintatavat, kuten vastuuvelvollisuus- ja hallintoprosesseja, suorittamalla markkinoille saattamisen jälkeistä seurantaa, toteuttamalla asianmukaisia toimenpiteitä mallin koko elinkaaren ajan ja tekemällä yhteistyötä tekoälyn arvoketjun asiaankuuluvien toimijoiden kanssa.
(114)
За доставчиците на модели на ИИ с общо предназначение, пораждащи системни рискове, следва да се прилагат, в допълнение към задълженията, предвидени за доставчиците на модели на ИИ с общо предназначение, задължения, насочени към установяване и ограничаване на тези рискове и осигуряване на подходящо равнище на защита на киберсигурността, независимо дали тези модели се предоставят като самостоятелни модели, или са вградени в система с ИИ или продукт. За постигането на тези цели настоящият регламент следва да изисква от доставчиците да извършват необходимите оценки на модела, по-специално преди първото му пускане на пазара, включително провеждане и документиране на конкурентно изпитване на модели, когато е целесъобразно и чрез вътрешни или независими външни изпитвания. Освен това доставчиците на модели на ИИ с общо предназначение, пораждащи системен риск, следва непрекъснато да оценяват и ограничават системните рискове, включително например чрез въвеждане на политики за управление на риска, като например процеси на отчетност и администриране, проследяване след пускането на пазара, предприемане на подходящи мерки през целия жизнен цикъл на модела и сътрудничество със съответните участници по веригата за създаване на стойност в областта на ИИ.
(115)
Niiden yleiskäyttöisten tekoälymallien tarjoajien, joihin liittyy systeemisiä riskejä, olisi arvioitava ja lievennettävä mahdollisia systeemisiä riskejä. Jos yleiskäyttöisen tekoälymallin, johon voi liittyä systeemisiä riskejä, kehittäminen tai käyttö aiheuttaa vakavan vaaratilanteen huolimatta pyrkimyksistä tunnistaa ja ehkäistä malliin liittyviä riskejä, yleiskäyttöisen tekoälymallin tarjoajan olisi ilman aiheetonta viivytystä seurattava vaaratilannetta ja raportoitava merkityksellisistä tiedoista ja mahdollisista korjaavista toimenpiteistä komissiolle ja kansallisille toimivaltaisille viranomaisille. Tarjoajien olisi lisäksi varmistettava mallin ja tarvittaessa sen fyysisen infrastruktuurin kyberturvallisuussuojan riittävä taso mallin koko elinkaaren ajan. Kyberturvallisuussuojassa, jolla torjutaan vihamieliseen käyttöön tai hyökkäyksiin liittyviä systeemisiä riskejä, olisi otettava asianmukaisesti huomioon tahaton mallivuoto, luvattomat julkaisut, turvallisuustoimenpiteiden kiertäminen sekä suojautuminen kyberhyökkäyksiltä, luvattomalta pääsyltä tai mallivarkauksilta. Suojaamista voitaisiin helpottaa turvaamalla mallipainokertoimet, algoritmit, palvelimet ja tietokokonaisuudet esimerkiksi tietoturvaa koskevilla operatiivisilla turvallisuustoimenpiteillä, erityisillä kyberturvallisuusperiaatteilla, asianmukaisilla teknisillä ja vakiintuneilla ratkaisuilla sekä kyberkäytön ja fyysisen pääsyn valvonnalla asiaankuuluvista olosuhteista ja riskeistä riippuen.
(115)
Доставчиците на модели на ИИ с общо предназначение, пораждащи системен риск, следва да оценяват и ограничават възможните системни рискове. Ако въпреки усилията за установяване и предотвратяване на рискове, свързани с модел на ИИ с общо предназначение, който може да поражда системни рискове, разработването или използването на модела причини сериозен инцидент, доставчикът на модел на ИИ с общо предназначение следва без ненужно забавяне да проследи инцидента и да докладва на Комисията и на националните компетентни органи за всяка съответна информация и възможни коригиращи действия. Освен това доставчиците следва да гарантират подходящо равнище на защита на киберсигурността на модела и неговата физическа инфраструктура, ако е целесъобразно, през целия жизнен цикъл на модела. Защитата на киберсигурността от системни рискове, свързани с недобросъвестно използване или атаки, следва надлежно да отчита случайни фактори като изтичане на модел, неразрешено предоставяне, заобикаляне на мерките за безопасност и защита срещу кибератаки, неразрешен достъп или кражба на модел. Тази защита може да бъде улеснена чрез осигуряване на тегла на моделите, алгоритми, сървъри и набори от данни, например чрез оперативни мерки за информационна сигурност, специфични политики за киберсигурност, подходящи технически и изпитани решения и контрол на кибердостъпа и физическия достъп, съобразени със съответните обстоятелства и рискове.
(116)
Tekoälytoimiston olisi edistettävä ja helpotettava käytännesääntöjen laatimista, tarkistamista ja mukauttamista ottaen huomioon kansainväliset toimintatavat. Kaikki yleiskäyttöisten tekoälymallien tarjoajat voitaisiin kutsua mukaan tähän toimintaan. Jotta voidaan varmistaa, että käytännesäännöt vastaavat alan viimeisintä kehitystä ja että niissä otetaan asianmukaisesti huomioon eri näkökulmat, tekoälytoimiston olisi käytännesääntöjä laatiessaan tehtävä yhteistyötä asiaankuuluvien kansallisten toimivaltaisten viranomaisten kanssa ja se voisi tarvittaessa kuulla kansalaisjärjestöjä ja muita asiaankuuluvia sidosryhmiä ja asiantuntijoita, myös tiedelautakuntaa. Käytännesääntöjen olisi katettava sekä yleiskäyttöisten tekoälymallien että yleiskäyttöisten tekoälymallien, joihin liittyy systeemisiä riskejä, tarjoajien velvollisuudet. Systeemisten riskien osalta käytännesäännöillä olisi tuettava riskiluokituksen laatimista unionin tason systeemisten riskien, myös niiden lähteiden, tyypistä ja luonteesta. Käytännesäännöissä olisi keskityttävä myös erityisiin riskinarviointi- ja lieventämistoimenpiteisiin.
(116)
Службата по ИИ следва да насърчава и улеснява изготвянето, прегледа и адаптирането на кодекси за добри практики, като взема предвид международните подходи. Всички доставчици на модели на ИИ с общо предназначение биха могли да бъдат поканени да участват. За да се гарантира, че кодексите за добри практики отразяват съвременните технически постижения и са надлежно съобразени с набор от различни гледни точки, Службата по ИИ следва да си сътрудничи със съответните национални компетентни органи и би могла, когато е целесъобразно, да се консултира с организации на гражданското общество и други съответни заинтересовани страни и експерти, включително експертната група, за изготвянето на такива кодекси. Кодексите за добри практики следва да включват задълженията на доставчиците на модели на ИИ с общо предназначение и на модели на ИИ с общо предназначение, пораждащи системен риск. Освен това, по отношение на системните рискове, кодексите за добри практики следва да спомогнат за установяването на таксономия на вида и естеството на системните рискове на равнището на Съюза, включително техните източници. Кодексите за добри практики следва също така да бъдат съсредоточени върху конкретни мерки за оценка и ограничаване на риска.
(117)
Käytännesäännöt on tarkoitettu keskeiseksi välineeksi, jolla varmistetaan, että yleiskäyttöisten tekoälymallien tarjoajat noudattavat asianmukaisesti tässä asetuksessa säädettyjä velvoitteita. Tarjoajien olisi pystyttävä osoittamaan velvoitteiden noudattaminen käytännesääntöjen avulla. Komissio voi täytäntöönpanosäädöksillä päättää hyväksyä käytännesäännöt ja todeta ne yleisesti päteviksi unionissa tai vaihtoehtoisesti vahvistaa yhteiset säännöt asiaankuuluvien velvoitteiden täyttämiselle, jos käytännesääntöjä ei saada valmiiksi siihen mennessä, kun tämän asetuksen soveltaminen alkaa, tai jos tekoälytoimisto ei pidä niitä riittävinä. Kun tekoälytoimisto on julkaissut yhdenmukaistetun standardin ja arvioinut sen soveltuvan kattamaan asiaankuuluvat velvoitteet, tarjoajien olisi oletettava täyttävän vaatimukset sen perusteella, että ne noudattavat eurooppalaista yhdenmukaistettua standardia. Yleiskäyttöisten tekoälymallien tarjoajien olisi lisäksi voitava osoittaa vaatimustenmukaisuus asianmukaisilla vaihtoehtoisilla keinoilla, jos käytännesääntöjä tai yhdenmukaistettuja standardeja ei ole saatavilla tai tarjoajat päättävät olla käyttämättä niitä.
(117)
Кодексите за добри практики следва да представляват основен инструмент за правилното спазване на задълженията, предвидени в настоящия регламент за доставчиците на модели на ИИ с общо предназначение. Доставчиците следва да могат да се основават на кодекси за добри практики, за да докажат спазването на задълженията. Комисията може да реши да одобри чрез акт за изпълнение кодекс за добри практики и да осигури общата му приложимост в рамките на Съюза или, като друга възможност, да предвиди общи правила за изпълнението на съответните задължения, ако до началото на прилагането на настоящия регламент даден кодекс за добри практики не може да бъде подготвен или не се счита за подходящ от Службата по ИИ. След като даден хармонизиран стандарт бъде публикуван и оценен като подходящ за покриване на съответните задължения от Службата по ИИ, съответствието с европейски хармонизиран стандарт следва да дава на доставчиците презумпция за съответствие. Освен това доставчиците на модели на ИИ с общо предназначение следва да могат да докажат съответствие, като използват други подходящи средства, ако няма кодекси за добри практики или хармонизирани стандарти или ако решат да не разчитат на тях.
(118)
Tällä asetuksella säännellään tekoälyjärjestelmiä ja tekoälymalleja asettamalla tiettyjä vaatimuksia ja velvoitteita niille markkinatoimijoille, jotka saattavat näitä järjestelmiä ja malleja markkinoille tai ottavat niitä käyttöön tai käyttävät niitä unionissa, ja näin täydennetään sellaisten välityspalvelujen tarjoajien velvoitteita, jotka sulauttavat tekoälyjärjestelmiä ja -malleja palveluihinsa, joita säännellään (EU) 2022/2065. Siltä osin kuin tällaiset järjestelmät tai mallit on sulautettu nimettyihin erittäin suuriin verkkoalustoihin tai erittäin suuriin verkossa toimiviin hakukoneisiin, niihin sovelletaan asetuksessa (EU) 2022/2065 säädettyä riskinhallintakehystä. Näin ollen olisi oletettava, että tämän asetuksen vastaavat velvoitteet täyttyvät, jollei tällaisissa malleissa ilmene ja havaita sellaisia merkittäviä systeemisiä riskejä, jotka eivät kuulu asetuksen (EU) 2022/2065 soveltamisalaan. Tässä yhteydessä erittäin suurten verkkoalustojen ja erittäin suurten verkossa toimivien hakukoneiden tarjoajat ovat velvollisia arvioimaan palvelujensa suunnittelusta, toiminnasta ja käytöstä aiheutuvia mahdollisia systeemisiä riskejä, mukaan lukien sitä, miten palvelussa käytettävien algoritmisten järjestelmien suunnittelu voi lisätä tällaisia riskejä, sekä mahdollisesta väärinkäytöstä aiheutuvia systeemisiä riskejä. Kyseiset tarjoajat ovat myös velvollisia toteuttamaan asianmukaisia lieventäviä toimenpiteitä perusoikeuksia noudattaen.
(118)
С настоящия регламент се уреждат системите с ИИ и моделите на ИИ, като се налагат определени изисквания и задължения за съответните пазарни участници, които ги пускат на пазара, пускат в действие или използват в Съюза, като по този начин се допълват задълженията на доставчиците на посреднически услуги, които интегрират такива системи или модели в своите услуги, които се уреждат от Регламент (ЕС) 2022/2065. Доколкото тези системи или модели са вградени в определени много големи онлайн платформи или много големи онлайн търсачки, за тях се прилага рамката за управление на риска, предвидена в Регламент (ЕС) 2022/2065. Следователно съответните задължения съгласно настоящия регламент следва да се считат за изпълнени, освен ако в такива модели не възникнат и се установят значителни системни рискове, които не са обхванати от Регламент (ЕС) 2022/2065. В тази контекст от доставчиците на много големи онлайн платформи и много големи онлайн търсачки се изисква да оценяват потенциалните системни рискове, произтичащи от проектирането, функционирането и използването на техните услуги, включително начина, по който проектирането на алгоритмични системи, използвани в услугата, може да допринесе за появата на такива рискове, както и системните рискове, произтичащи от еветуална неправилна експлоатация. Тези доставчици са длъжни също така да предприемат подходящи мерки за ограничаване при спазване на основните права.
(119)
Kun otetaan huomioon unionin oikeuden eri välineiden soveltamisalaan kuuluvien digitaalisten palvelujen nopeatahtinen innovointi ja teknologinen kehitys erityisesti niiden vastaanottajien käytön ja mieltymysten näkökulmasta, tämän asetuksen soveltamisalaan kuuluvia tekoälyjärjestelmiä voidaan tarjota asetuksessa (EU) 2022/2065 tarkoitettuina välityspalveluina tai niiden osina teknologianeutraalisti tulkittuna. Tekoälyjärjestelmiä voidaan käyttää esimerkiksi verkossa toimivien hakukoneiden tarjoamiseen erityisesti siltä osin kuin tekoälyjärjestelmä, kuten verkossa toimiva asiointibotti, suorittaa hakuja periaatteessa kaikilta verkkosivustoilta, sisällyttää haun tulokset olemassa oleviin tietoihinsa ja käyttää päivitettyjä tietoja luodakseen yksittäisen tuotoksen, jossa yhdistyvät eri tietolähteet.
(119)
Предвид бързия темп на иновациите и технологичното развитие на цифровите услуги, попадащи в обхвата на различните инструменти на правото на Съюза, по-специално като се има предвид използването и възприемането им от страна на техните получатели, системите с ИИ, които са предмет на настоящия регламент, могат да бъдат предоставяни като посреднически услуги или части от тях по смисъла на Регламент (ЕС) 2022/2065, който следва да се тълкува по технологично неутрален начин. Например системите с ИИ могат да се използват за предоставяне на онлайн търсачки, по-специално доколкото дадена система с ИИ, като например онлайн чатбот, извършва търсене по принцип на всички уебсайтове, след това интегрира резултатите в съществуващите си знания и използва актуализираните знания, за да генерира единен резултат, който съчетава различни източници на информация.
(120)
Tässä asetuksessa tiettyjen tekoälyjärjestelmien tarjoajille ja käyttöönottajille asetetut velvoitteet, joiden tarkoituksena on mahdollistaa sen havaitseminen, että näiden järjestelmien tuotokset ovat keinotekoisesti tuotettuja tai käsiteltyjä, ja julkistaa tämä tieto, ovat erityisen merkityksellisiä asetuksen (EU) 2022/2065 tehokkaan täytäntöönpanon helpottamisen kannalta. Tämä koskee erityisesti erittäin suurten verkkoalustojen tai erittäin suurten verkossa toimivien hakukoneiden tarjoajien velvoitteita tunnistaa ja lieventää systeemisiä riskejä, joita voi aiheutua keinotekoisesti tuotetun tai käsitellyn sisällön levittämisestä, erityisesti myös disinformaatiosta johtuva demokraattisiin prosesseihin, kansalaiskeskusteluun ja vaaliprosesseihin kohdistuvien tosiasiallisten tai ennakoitavien kielteisten vaikutusten riski.
(120)
Освен това задълженията, наложени с настоящия регламент на доставчиците и внедрителите на някои системи с ИИ с цел откриване и оповестяване, че резултатите от тези системи са изкуствено генерирани или обработени, са от особено значение с оглед на ефективното прилагане на Регламент (ЕС) 2022/2065. Това се отнася по-специално за задълженията на доставчиците на много големи онлайн платформи или много големи онлайн търсачки да установяват и ограничават системните рискове, които могат да възникнат поради разпространението на съдържание, което е било изкуствено генерирано или обработено, и по-специално риска от действителни или предвидими отрицателни последици за демократичните процеси, гражданския дебат и изборните процеси, включително чрез дезинформация.
(121)
Standardoinnilla olisi oltava keskeinen rooli, jotta tarjoajien käyttöön saadaan teknisiä ratkaisuja, joilla voidaan varmistaa tämän asetuksen noudattaminen tekniikan viimeisimmän kehityksen mukaisesti, ja jotta voidaan edistää innovointia, kilpailukykyä ja kasvua sisämarkkinoilla. Tarjoajien olisi voitava osoittaa noudattavansa tämän asetuksen vaatimuksia noudattamalla Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 1025/2012 (41) 2 artiklan 1 kohdan c alakohdassa määriteltyjä yhdenmukaistettuja standardeja, joiden katsotaan yleensä olevan tekniikan viimeisimmän kehityksen mukaisia. Tästä syystä olisi edistettävä etujen tasapainoista edustusta ottamalla standardien laatimiseen mukaan kaikki asiaankuuluvat sidosryhmät, erityisesti pk-yritykset, kuluttajajärjestöt sekä ympäristöalan ja yhteiskunnan sidosryhmät asetuksen (EU) N:o 1025/2012 5 ja 6 artiklan mukaisesti. Vaatimusten noudattamisen helpottamiseksi komission olisi esitettävä standardointipyynnöt ilman aiheetonta viivytystä. Standardointipyyntöä valmistellessaan komission olisi kuultava neuvoa-antavaa foorumia ja tekoälyneuvostoa asiaankuuluvan asiantuntemuksen varmistamiseksi. Jos yhdenmukaistettuihin standardeihin ei kuitenkaan ole tehty asiaankuuluvia viittauksia, komission olisi voitava vahvistaa täytäntöönpanosäädöksillä neuvoa-antavaa foorumia kuultuaan tietyille tämän asetuksen mukaisille vaatimuksille yhteiset eritelmät. Yhteisten eritelmien olisi oltava poikkeuksellinen vararatkaisu, jolla helpotetaan tarjoajan velvoitetta noudattaa tämän asetuksen vaatimuksia, jos mikään eurooppalainen standardointiorganisaatio ei ole hyväksynyt standardointipyyntöä, jos asiaankuuluvat yhdenmukaistetut standardit eivät vastaa riittävällä tavalla perusoikeuksiin liittyviin huolenaiheisiin, jos yhdenmukaistetut standardit eivät ole pyynnön mukaisia tai jos asianmukaisen yhdenmukaistetun standardin hyväksymisessä on viiveitä. Jos tällainen viive yhdenmukaistetun standardin hyväksymisessä johtuu kyseisen standardin teknisestä monimutkaisuudesta, komission olisi otettava tämä huomioon ennen kuin se harkitsee yhteisten eritelmien vahvistamista. Yhteisiä eritelmiä laatiessaan komissiota kannustetaan tekemään yhteistyötä kansainvälisten kumppanien ja kansainvälisten standardointielinten kanssa.
(121)
Стандартизацията следва да заема ключово място за осигуряването на технически решения на доставчиците, за да се гарантира спазването на настоящия регламент, съобразно съвременните технически постижения, с цел да се насърчат иновациите, както и конкурентоспособността и растежът на единния пазар. Съответствието с хармонизираните стандарти по смисъла на определението в член 2, точка 1, буква в) от Регламент (ЕС) № 1025/2012 на Европейския парламент и на Съвета (41), които обикновено се очаква да отразяват съвременните технически постижения, следва да бъде средство за доказване на спазването на изискванията на настоящия регламент от доставчиците. Поради това следва да се насърчава балансирано представителство на интереси с участието в разработването на стандарти на всички съответни заинтересовани страни, по-специално МСП, организации на потребители и представляващите екологични и социални интереси заинтересовани страни в съответствие с членове 5 и 6 от Регламент (ЕС) № 1025/2012. За да се улесни съответствието, исканията за стандартизация следва да се отправят от Комисията без ненужно забавяне. При изготвянето на искането за стандартизация Комисията следва да се консултира с консултативния форум и със Съвета по ИИ, за да събере съответния експертен опит. При липсата на съответни позовавания на хармонизирани стандарти обаче Комисията следва да може да установява, чрез актове за изпълнение и след консултация с консултативния форум, общи спецификации за някои изисквания съгласно настоящия регламент. Общата спецификация следва да бъде извънредно алтернативно решение, за да се улесни изпълнението на задължението на доставчика да спазва изискванията на настоящия регламент, когато искането за стандартизация не е било прието от някоя от европейските организации за стандартизация или когато съответните хармонизирани стандарти не отразяват в достатъчна степен опасенията, свързани с основните права, или когато хармонизираните стандарти не отговарят на искането, или когато има забавяне в приемането на подходящ хармонизиран стандарт. Когато това забавяне в приемането на хармонизиран стандарт се дължи на техническата сложност на стандарта, това следва да се вземе предвид от Комисията, преди да се разгледа възможността за установяване на общи спецификации. При разработването на общи спецификации Комисията се насърчава да си сътрудничи с международни партньори и международни органи за стандартизация.
(122)
On aiheellista olettaa, että sellaisen suuririskisen tekoälyjärjestelmän, joka on koulutettu ja testattu datalla, joka ilmentää erityistä maantieteellistä, käyttäytymiseen liittyvää, viitekehyksenä olevaa tai toiminnallista ympäristöä, jossa tekoälyjärjestelmää on tarkoitus käyttää, tarjoajat noudattavat tässä asetuksessa vahvistetussa datanhallintaa koskevassa vaatimuksessa säädettyä asiaankuuluvaa toimenpidettä, sanotun kuitenkaan rajoittamatta yhdenmukaistettujen standardien ja yhteisten eritelmien käyttöä. Asetuksen (EU) 2019/881 54 artiklan 3 kohdan mukaisesti niiden suuririskisten tekoälyjärjestelmien, jotka on sertifioitu tai joista on annettu vaatimustenmukaisuusilmoitus kyseisen asetuksen mukaisessa kyberturvallisuusjärjestelmässä ja joiden viitetiedot on julkaistu Euroopan unionin virallisessa lehdessä, olisi oletettava täyttävän tämän asetuksen kyberturvallisuusvaatimus siltä osin kuin kyberturvallisuussertifikaatti tai vaatimustenmukaisuusilmoitus tai niiden osat kattavat kyseisen kyberturvallisuusvaatimuksen, sanotun kuitenkaan rajoittamatta tässä asetuksessa vahvistettujen vakautta ja tarkkuutta koskevien vaatimusten soveltamista. Tällä ei rajoiteta kyseisen kyberturvallisuusjärjestelmän vapaaehtoista luonnetta.
(122)
Без да се засяга използването на хармонизирани стандарти и общи спецификации, е целесъобразно да се счита, че доставчиците на високорискова система с ИИ, която е била обучена и изпитана въз основа на данни, отразяващи конкретната географска, контекстуална, поведенческа или функционална среда, в която системата с ИИ е предназначена да бъде използвана, съответстват на съответната мярка, предвидена съгласно изискването за администриране на данни, определено в настоящия регламент. Без да се засягат изискванията, свързани с надеждността и точността, установени в настоящия регламент, в съответствие с член 54, параграф 3 от Регламент (ЕС) 2019/881 високорисковите системи с ИИ, които са сертифицирани или за които е издадена декларация за съответствие по схема за киберсигурност съгласно посочения регламент и данните за които са били публикувани в Официален вестник на Европейския съюз, следва да се считат за съответстващи на изискването за киберсигурност съгласно настоящия регламент, доколкото сертификатът за киберсигурност или декларацията за съответствие, или части от тях включват изискването за киберсигурност съгласно настоящия регламент. Това не засяга доброволния характер на тази схема за киберсигурност.
(123)
Jotta voidaan varmistaa suuririskisten tekoälyjärjestelmien korkea luotettavuus, kyseisille järjestelmille olisi tehtävä vaatimustenmukaisuuden arviointi ennen kuin ne saatetaan markkinoille tai otetaan käyttöön.
(123)
За да се гарантира високо ниво на надеждност на високорисковите системи с ИИ, те следва да подлежат на оценяване на съответствието преди пускането им на пазара или пускането им в действие.
(124)
Jotta voidaan minimoida toimijoille aiheutuva rasite ja välttää mahdolliset päällekkäisyydet, tämän asetuksen vaatimusten mukaisuutta on asianmukaista arvioida sellaisten suuririskisten tekoälyjärjestelmien osalta, jotka kuuluvat uuteen lainsäädäntökehykseen perustuvan, voimassa olevan unionin yhdenmukaistamislainsäädännön soveltamisalaan, osana kyseisessä lainsäädännössä jo säädettyä vaatimustenmukaisuuden arviointia. Tämän asetuksen vaatimusten sovellettavuus ei näin ollen saisi vaikuttaa asiaa koskevassa unionin yhdenmukaistamislainsäädännössä säädetyn vaatimustenmukaisuuden arvioinnin erityiseen logiikkaan, menetelmiin tai yleiseen rakenteeseen.
(124)
За да се сведе до минимум тежестта за операторите и да се избегне всякакво възможно дублиране, за високорисковите системи с ИИ, свързани с продукти, които са обхванати от съществуващото законодателство на Съюза за хармонизация въз основа на новата законодателна рамка, е целесъобразно съответствието на тези системи с ИИ с изискванията на настоящия регламент да се оценява като част от оценяването на съответствието, което вече е предвидено съгласно посоченото право. Следователно приложимостта на изискванията на настоящия регламент не следва да засяга специфичната логика, методика или обща структура за оценяване на съответствието съгласно съответното законодателство на Съюза за хармонизация.
(125)
Kun otetaan huomioon suuririskisten tekoälyjärjestelmien monimutkaisuus ja niihin liittyvät riskit, on tärkeää kehittää riittävä suuririskisten tekoälyjärjestelmien vaatimustenmukaisuuden arviointimenetelmä, johon ilmoitetut laitokset osallistuvat, eli ns. kolmannen osapuolen suorittama vaatimustenmukaisuuden arviointi. Kun otetaan huomioon markkinoille saattamista edeltävässä vaiheessa toimivien ammattimaisten sertifioijien tämänhetkinen kokemus tuoteturvallisuuden alalla, ja koska asiaan liittyvät riskit ovat luonteeltaan erilaisia, ainakin tämän asetuksen soveltamisen alkuvaiheessa on kuitenkin asianmukaista rajoittaa kolmannen osapuolen suorittaman vaatimustenmukaisuuden arvioinnin soveltamisalaa muiden kuin tuotteisiin liittyvien suuririskisten tekoälyjärjestelmien osalta. Sen vuoksi tarjoajan olisi pääsääntöisesti suoritettava tällaisten järjestelmien vaatimustenmukaisuuden arviointi omalla vastuullaan, lukuun ottamatta ainoastaan tekoälyjärjestelmiä, joita on tarkoitus käyttää biometriikkaan.
(125)
С оглед на сложността на високорисковите системи с ИИ и свързаните с тях рискове, е важно да се разработи подходяща процедура за оценяване на съответствието за високорискови системи с ИИ, включваща нотифицирани органи, т.нар. оценяване на съответствието от трето лице. Като се има предвид обаче настоящият опит в областта на безопасността на продуктите на професионалните сертифициращи органи преди пускането на пазара, както и различното естество на свързаните с тези продукти рискове, е целесъобразно да се ограничи, поне в началната фаза на прилагане на настоящия регламент, приложното поле на оценяването на съответствието от трето лице за високорисковите системи с ИИ, различни от свързаните с продукти. Поради това оценяването на съответствието на такива системи следва като общо правило да се извършва от доставчика на негова отговорност, като единствено изключение са системите с ИИ, предназначени да се използват за биометрични цели.
(126)
Jotta kolmannen osapuolen suorittamat vaatimustenmukaisuuden arvioinnit voidaan tarvittaessa toteuttaa, kansallisten toimivaltaisten viranomaisten olisi ilmoitettava tämän asetuksen nojalla ilmoitetut laitokset edellyttäen, että ne täyttävät tietyt vaatimukset, jotka koskevat erityisesti riippumattomuutta, pätevyyttä ja eturistiriitojen puuttumista sekä asiaankuuluvia kyberturvallisuusvaatimuksia. Kansallisten toimivaltaisten viranomaisten olisi lähetettävä ilmoitus näistä laitoksista komissiolle ja muille jäsenvaltioille käyttäen sähköistä ilmoitusvälinettä, jonka komissio kehittää ja jota se hallinnoi päätöksen N:o 768/2008/EY liitteessä I olevan R23 artiklan nojalla.
(126)
С цел извършване на оценяване на съответствието от трето лице, когато това се изисква, националните компетентни органи следва да нотифицират съгласно настоящия регламент нотифицираните органи, при условие че последните отговарят на набор от изисквания, по-специално относно независимостта, компетентността и отсъствието на конфликти на интереси и на подходящи изисквания за киберсигурност. Националните компетентни органи следва да изпращат нотификацията за тези органи до Комисията и другите държави членки чрез средството за електронно нотифициране, разработено и управлявано от Комисията съгласно член R23 от приложение I към Решение № 768/2008/ЕО.
(127)
Kaupan teknisistä esteistä tehtyyn Maailman kauppajärjestön sopimukseen perustuvien unionin sitoumusten mukaisesti on asianmukaista helpottaa toimivaltaisten vaatimustenmukaisuuden arviointilaitosten tuottamien vaatimustenmukaisuuden arvioinnin tulosten vastavuoroista tunnustamista riippumatta siitä, mille alueelle nämä laitokset ovat sijoittautuneet, edellyttäen että kolmannen maan lainsäädännön mukaisesti perustetut vaatimustenmukaisuuden arviointilaitokset täyttävät tämän asetuksen sovellettavat vaatimukset ja että unioni on tehnyt asiaa koskevan sopimuksen. Tässä yhteydessä komission olisi aktiivisesti tarkasteltava tätä tarkoitusta varten mahdollisia kansainvälisiä välineitä ja erityisesti pyrittävä tekemään vastavuoroista tunnustamista koskevia sopimuksia kolmansien maiden kanssa.
(127)
В съответствие с ангажиментите на Съюза съгласно Споразумението на Световната търговска организация за техническите пречки пред търговията е целесъобразно да се улесни взаимното признаване на резултатите от оценяването на съответствието, получени от компетентни органи за оценяване на съответствието, независимо от територията, на която са създадени, при условие че тези органи за оценяване на съответствието, създадени съгласно правото на трета държава, отговарят на приложимите изисквания на настоящия регламент и че Съюзът е сключил споразумение в това отношение. В този контекст Комисията следва активно да проучи възможните международни инструменти за тази цел и по-специално да се стреми към сключване на споразумения за взаимно признаване с трети държави.
(128)
Unionin yhdenmukaistamislainsäädännössä säänneltyjä tuotteita koskevan yleisesti vahvistetun merkittävän muutoksen käsitteen mukaisesti on aiheellista, että aina kun tapahtuu muutos, joka voi vaikuttaa siihen, onko suuririskinen tekoälyjärjestelmä tämän asetuksen mukainen (esimerkiksi käyttöjärjestelmän tai ohjelmistoarkkitehtuurin muutos), tai kun järjestelmän käyttötarkoitus muuttuu, kyseinen tekoälyjärjestelmä olisi katsottava uudeksi tekoälyjärjestelmäksi, jolle olisi tehtävä uusi vaatimustenmukaisuuden arviointi. Sellaisten tekoälyjärjestelmien algoritmiin ja suorituskykyyn tehtävien muutosten, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen eli mukauttavat automaattisesti tapaa, jolla toiminnot toteutetaan, ei kuitenkaan pitäisi katsoa muodostavan merkittävää muutosta edellyttäen, että tarjoaja on määritellyt kyseiset muutokset ennalta ja että ne on arvioitu vaatimustenmukaisuuden arvioinnin yhteydessä.
(128)
В съответствие с общоприетото понятие за съществено изменение за продукти, регулирани от законодателството на Съюза за хармонизация, е целесъобразно дадена система с ИИ да се счита за нова система с ИИ, която следва да бъде подложена на ново оценяване на съответствието всеки път, когато настъпи промяна, която може да засегне съответствието на високорискова система с ИИ с настоящия регламент (например промяна на операционната система или на софтуерната архитектура), или когато предназначението на системата се промени. Въпреки това промените на алгоритъма или на действието на системи с ИИ, които продължават да се обучават след пускането им на пазара или пускането им в действие, а именно автоматично адаптират начина, по който се изпълняват функциите, не следва да се смятат за съществено изменение, при условие че тези промени са били предварително определени от доставчика и оценени към момента на оценяването на съответствието.
(129)
Suuririskisissä tekoälyjärjestelmissä olisi oltava CE-merkintä, joka osoittaa niiden olevan tämän asetuksen mukaisia, jotta ne voivat liikkua vapaasti sisämarkkinoilla. Tuotteeseen sulautettuihin suuririskisiin tekoälyjärjestelmiin olisi kiinnitettävä fyysinen CE-merkintä, jota voidaan täydentää digitaalisella CE-merkinnällä. Digitaalisessa muodossa tarjottavissa suuririskisissä tekoälyjärjestelmissä olisi käytettävä digitaalista CE-merkintää. Jäsenvaltiot eivät saisi estää perusteettomasti sellaisten suuririskisten tekoälyjärjestelmien markkinoille saattamista tai käyttöön ottamista, jotka ovat tässä asetuksessa vahvistettujen vaatimusten mukaisia ja joissa on CE-merkintä.
(129)
Високорисковите системи с ИИ следва да носят маркировката „СЕ“, указваща тяхното съответствие с настоящия регламент с цел свободно движение в рамките на вътрешния пазар. За високорисковите системи с ИИ, вградени в продукт, следва да се постави физическа маркировка „СЕ“, която може да бъде допълнена с цифрова маркировка „СЕ“. За високорисковите системи с ИИ, предоставяни само в цифров вид, следва да се използва цифрова маркировка „CE“. Държавите членки не следва да създават необосновани пречки пред пускането на пазара или пускането в действие на високорискови системи с ИИ, които съответстват на изискванията, предвидени в настоящия регламент, и носят маркировката „СЕ“.
(130)
Tietyissä olosuhteissa innovatiivisten teknologioiden nopea saatavuus voi olla ratkaisevan tärkeää ihmisten terveyden ja turvallisuuden, ympäristönsuojelun, ilmastonmuutoksen torjunnan sekä koko yhteiskunnan kannalta. Siksi on asianmukaista, että yleiseen turvallisuuteen tai luonnollisten henkilöiden elämän ja terveyden suojeluun, ympäristönsuojeluun sekä keskeisten teollisten resurssien ja infrastruktuurien suojaamiseen liittyvistä poikkeuksellisista syistä markkinavalvontaviranomaiset voisivat sallia sellaisten tekoälyjärjestelmien markkinoille saattamisen tai käyttöönoton, joille ei ole tehty vaatimustenmukaisuuden arviointia. Tässä asetuksessa säädetyissä asianmukaisesti perustelluissa tilanteissa lainvalvontaviranomaiset tai pelastuspalveluviranomaiset voivat ottaa käyttöön tietyn suuririskisen tekoälyjärjestelmän ilman markkinavalvontaviranomaisen lupaa edellyttäen, että tällainen lupa pyydetään ilman aiheetonta viivytystä tekoälyjärjestelmän käytön aikana tai sen jälkeen.
(130)
При определени условия бързото осигуряване на иновативни технологии може да бъде от решаващо значение за здравето и безопасността на хората, опазването на околната среда и изменението на климата, както и за обществото като цяло. Поради това е целесъобразно по извънредни причини, свързани с обществената сигурност или защитата на живота и здравето на физическите лица, опазването на околната среда и защитата на ключови промишлени и инфраструктурни активи, органите за надзор на пазара да могат да разрешават пускането на пазара или пускането в действие на системи с ИИ, които не са преминали оценяване на съответствието. В надлежно обосновани случаи, предвидени в настоящия регламент, правоохранителните органи или органите за гражданска защита могат да пуснат в действие конкретна високорискова система с ИИ без разрешението на органа за надзор на пазара, при условие че такова разрешение е поискано без ненужно забавяне по време на използването или след него.
(131)
Jotta helpotettaisiin komission ja jäsenvaltioiden työtä tekoälyn alalla ja lisättäisiin avoimuutta yleisöön nähden, muiden kuin asiaa koskevan unionin voimassa olevan yhdenmukaistamislainsäädännön soveltamisalaan kuuluviin tuotteisiin liittyvien suuririskisten tekoälyjärjestelmien tarjoajia sekä tarjoajia, jotka katsovat, että tämän asetuksen liitteessä esitetyissä suuririskisen käytön tapauksissa lueteltu suuririskinen tekoälyjärjestelmä ei ole suuririskinen poikkeuksen perusteella, olisi vaadittava rekisteröimään itsensä ja tiedot tekoälyjärjestelmästään EU:n tietokantaan, jonka komissio perustaa ja jota se hallinnoi. Ennen tämän asetuksen liitteessä esitetyissä suuririskisen käytön tapauksissa luetellun tekoälyjärjestelmän käyttöä suuririskisten tekoälyjärjestelmien käyttöönottajien, jotka ovat viranomaisia, virastoja tai elimiä, olisi rekisteröidyttävä vastaavaan tietokantaan ja valittava järjestelmä, jota ne aikovat käyttää. Muilla käyttöönottajilla olisi oltava oikeus rekisteröityä vapaaehtoisesti. EU:n tietokannan tämän osion olisi oltava julkisesti ja maksutta saatavilla, ja tietojen olisi oltava helposti selattavia, ymmärrettäviä ja koneellisesti luettavia. EU:n tietokannan olisi myös oltava käyttäjäystävällinen, ja siinä olisi esimerkiksi oltava muun muassa avainsanoihin perustuva hakutoiminto, jonka avulla yleisö voi löytää asiaankuuluvia tietoja, jotka on toimitettava suuririskisten tekoälyjärjestelmien rekisteröinnin yhteydessä, ja niiden suuririskisten tekoälyjärjestelmien käytön tapauksia koskevia tietoja, jotka sisältyvät tämän asetuksen suuririskisiä tekoälyjärjestelmiä koskevaan liitteeseen. Myös kaikki suuririskisiin tekoälyjärjestelmiin tehtävät merkittävät muutokset olisi rekisteröitävä EU:n tietokantaan. Lainvalvonnan, muuttoliikkeen hallinnan, turvapaikka-asioiden ja rajavalvonnan alan suuririskisiä tekoälyjärjestelmiä koskevat rekisteröintivelvoitteet olisi täytettävä EU:n tietokannan suojatussa ei-julkisessa osiossa. Pääsy suojattuun ei-julkiseen osioon olisi rajattava tiukasti niin, että se annetaan vain komissiolle sekä markkinavalvontaviranomaisille tietokannan kansallisen osion osalta. Kriittisen infrastruktuurin alan suuririskiset tekoälyjärjestelmät olisi rekisteröitävä ainoastaan kansallisella tasolla. Komission olisi oltava EU:n tietokannan rekisterinpitäjä asetuksen (EU) 2018/1725 mukaisesti. Jotta EU:n tietokanta olisi täysin toimintavalmis, kun se otetaan käyttöön, sen perustamismenettelyyn olisi sisällyttävä komission laatimat toiminnalliset eritelmät ja riippumaton auditointiraportti. Komission olisi otettava huomioon kyberturvallisuusriskit suorittaessaan tehtäviään EU:n tietokannan rekisterinpitäjänä. Jotta voitaisiin maksimoida EU:n tietokannan saatavuus ja käyttö yleisön keskuudessa, EU:n tietokannan ja sen kautta saataville asetettujen tietojen olisi oltava direktiivin (EU) 2019/882 vaatimusten mukaisia.
(131)
С цел да се улесни работата на Комисията и на държавите членки в областта на ИИ, както и за да се повиши прозрачността пред обществеността, от доставчиците на високорискови системи с ИИ, различни от свързаните с продукти, попадащи в обхвата на съответното действащо законодателство на Съюза за хармонизация, както и от доставчиците, които считат, че дадена система с ИИ, включена в случаите на високорискова употреба, посочени в приложение към настоящия регламент, не е високорискова въз основа на дерогация, следва да се изисква да се регистрират и да впишат информацията за своята система с ИИ в база данни на ЕС, която да бъде създадена и управлявана от Комисията. Преди да използват такава система с ИИ, включена в случаите на високорискова употреба в приложение към настоящия регламент, внедрителите на високорискови системи с ИИ, които са публични органи, агенции или структури, следва да се регистрират в тази база данни и да изберат системата, която възнамеряват да използват. Останалите внедрители следва да имат право да направят това на доброволна основа. Този раздел на базата данни на ЕС следва да бъде публично достъпен, безплатен, а информацията следва да бъде лесна за навигация, разбираема и машинночетима. Базата данни на ЕС следва също така да бъде лесна за ползване, например като осигурява функции за търсене, включително чрез ключови думи, за да се даде възможност на широката общественост да намери съответната информация, която трябва да бъде предоставена при регистрацията на високорискови системи с ИИ, както и информация за случаите на употреба на високорисковите системи с ИИ, посочени в приложение към настоящия регламент, на които отговарят високорисковите системи с ИИ. Всяко съществено изменение на високорискови системи с ИИ също следва да се регистрира в базата данни на ЕС. За високорисковите системи с ИИ в правоохранителната област и в областта на управлението на миграцията, убежището и граничния контрол задълженията за регистрация следва да се изпълняват в защитен непубличен раздел на базата данни на ЕС. Достъпът до защитения непубличен раздел следва да бъде строго ограничен до Комисията, както и до органите за надзор на пазара по отношение на техния национален раздел на тази база данни. Високорисковите системи с ИИ в областта на критичната инфраструктура следва да се регистрират само на национално равнище. Комисията следва да бъде администратор на базата данни на ЕС в съответствие с Регламент (ЕС) 2018/1725. За да се гарантира цялостна готовност на базата данни при нейното въвеждане, процедурата по създаване на базата данни на ЕС следва да включва разработването на функционални спецификации от Комисията и независим одитен доклад. Комисията следва да вземе предвид рисковете, свързани с киберсигурността, когато изпълнява задачите си като администратор на данни по отношение на базата данни на ЕС. За да се увеличи максимално достъпността и използването на базата данни на ЕС от обществеността, базата данни на ЕС, включително информацията, предоставяна чрез нея, следва да отговаря на изискванията на Директива (ЕС) 2019/882.
(132)
Tietyt tekoälyjärjestelmät, jotka on tarkoitettu toimimaan vuorovaikutuksessa luonnollisten henkilöiden kanssa tai tuottamaan sisältöä, voivat aiheuttaa erityisiä toisena henkilönä esiintymiseen tai harhaanjohtamiseen liittyviä riskejä riippumatta siitä, luokitellaanko ne suuririskisiksi vai ei. Siksi näiden järjestelmien käyttöön olisi tietyissä olosuhteissa sovellettava erityisiä avoimuusvelvoitteita, sanotun kuitenkaan rajoittamatta suuririskisiä tekoälyjärjestelmiä koskevien vaatimusten ja velvoitteiden soveltamista ja lukuun ottamatta kohdennettuja poikkeuksia lainvalvonnan erityistarpeiden huomioon ottamiseksi. Luonnollisille henkilöille olisi erityisesti ilmoitettava, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, ellei tämä ole ilmeistä sellaisen luonnollisen henkilön näkökulmasta, joka on suhteellisen valistunut, tarkkaavainen ja huolellinen ottaen huomioon käytön olosuhteet ja asiayhteys. Kyseistä velvoitetta täytäntöön pantaessa olisi otettava huomioon ikänsä tai vammaisuutensa vuoksi haavoittuvassa asemassa oleviin ryhmiin kuuluvien luonnollisten henkilöiden ominaisuuspiirteet siltä osin kuin tekoälyjärjestelmä on tarkoitettu vuorovaikutukseen myös kyseisten ryhmien kanssa. Lisäksi luonnollisille henkilöille olisi ilmoitettava, jos he altistuvat tekoälyjärjestelmille, jotka pystyvät tunnistamaan tai päättelemään näiden henkilöiden tunteet tai aikomukset taikka luokittelemaan heidät tiettyihin ryhmiin, kun ne käsittelevät heidän biometrisiä tietojaan. Tällaiset ryhmät voivat määräytyä esimerkiksi sukupuolen, iän, hiustenvärin, silmien värin, tatuointien, persoonallisuuspiirteiden, etnisen alkuperän, henkilökohtaisten mieltymysten ja kiinnostuksen kohteiden perusteella. Kyseiset tiedot ja ilmoitukset olisi annettava vammaisille henkilöille soveltuvassa muodossa.
(132)
Някои системи с ИИ, предназначени да взаимодействат с физически лица или да генерират съдържание, могат да породят особени рискове от измама на основата на прилика или заблуда, независимо дали отговарят на критериите за високорискови системи, или не. Поради това при определени обстоятелства при използването на тези системи следва да се прилагат специални задължения за прозрачност, без да се засягат изискванията и задълженията за високорискови системи с ИИ и при прилагане на целеви изключения с цел да се вземат предвид особените правоохранителни нужди. По-специално, физическите лица следва да бъдат уведомявани, че взаимодействат със система с ИИ, освен ако това не е очевидно от гледна точка на физическо лице, което е в разумни граници осведомено, наблюдателно и съобразително предвид обстоятелствата и контекста на използване. При изпълнението на това задължение следва да се вземат предвид характеристиките на физическите лица, принадлежащи към уязвими групи поради своята възраст или увреждане, доколкото системата с ИИ е предназначена да взаимодейства и с тези групи. Наред с това, физическите лица следва да бъдат уведомявани, когато са изложени на системи с ИИ, които чрез обработване на биометричните им данни могат да определят или да направят изводи за емоциите или намеренията на тези лица или да ги отнесат към конкретни категории. Подобни конкретни категории може да са свързани с аспекти като пол, възраст, цвят на косата, цвят на очите, татуировки, личностни черти, етнически произход, лични предпочитания и интереси. Тази информация и уведомленията следва да се предоставят в достъпни формати за хората с увреждания.
(133)
Useat eri tekoälyjärjestelmät voivat tuottaa suuria määriä synteettistä sisältöä, jota on yhä vaikeampi erottaa ihmisen tuottamasta aidosta sisällöstä. Näiden järjestelmien laaja saatavuus ja suorituskyvyn jatkuva kehittyminen vaikuttavat merkittävästi tietoekosysteemin eheyteen ja luotettavuuteen ja synnyttävät uusia riskejä, jotka liittyvät laajamittaiseen väärän tiedon levittämiseen ja tiedonmanipulointiin, petoksiin, toisena henkilönä esiintymiseen ja kuluttajien harhaanjohtamiseen. Kun otetaan huomioon nämä vaikutukset, teknologian nopea kehitys ja tarve kehittää uusia menetelmiä ja tekniikoita tiedon alkuperän jäljittämiseksi, on aiheellista edellyttää, että näiden järjestelmien tarjoajat sulauttavat niihin ratkaisuja, joilla tuotokset voidaan merkitä koneellisesti luettavassa muodossa ja joilla ne voidaan tunnistaa ihmisen sijasta tekoälyn tuottamiksi tai käsittelemiksi. Tällaisten tekniikoiden ja menetelmien olisi oltava riittävän luotettavia, yhteentoimivia, tehokkaita ja luotettavia siinä määrin kuin se on teknisesti mahdollista ottaen huomioon käytettävissä olevat tekniikat ja niiden yhdistelmät, kuten tarpeen mukaan vesileimat, metatietojen tunnistaminen, salausmenetelmät sisällön alkuperän ja aitouden osoittamiseksi, lokikirjausmenetelmät, sormenjäljet tai muut tekniikat. Tätä velvoitetta täyttäessään tarjoajien olisi lisäksi otettava huomioon eri sisältötyyppien ominaispiirteet ja rajoitukset sekä alan teknologian ja markkinoiden merkityksellinen kehitys, jota ilmentää yleisesti tunnustettu alan viimeisin kehitystaso. Nämä tekniikat ja menetelmät voidaan panna täytäntöön tekoälyjärjestelmä- tai tekoälymallitasolla, mukaan lukien sisältöä tuottavat yleiskäyttöiset tekoälymallit, mikä auttaa tekoälyjärjestelmän ketjun loppupään tarjoajia täyttämään tämän velvoitteen. Oikeasuhteisuuden säilyttämiseksi on aiheellista säätää, ettei tämän merkintävelvoitteen pitäisi kattaa tekoälyjärjestelmiä, jotka ensisijaisesti avustavat vakiomuokkaamista tai eivät olennaisesti muuta käyttöönottajan toimittamaa syöttödataa tai sen semantiikkaa.
(133)
Различни системи с ИИ могат да генерират големи количества синтетично съдържание, което хората все по-трудно могат да разграничават от генерирано от човека и автентично съдържание. Широката наличност и нарастващият капацитет на тези системи оказват значително влияние върху почтеността и доверието в информационната екосистема, което поражда нови рискове от масивно навлизане на невярна информация и манипулиране, измами на основата на прилика и заблуда на потребителите. С оглед на това въздействие, бързия темп на развитие на технологиите и необходимостта от нови методи и техники за проследяване на произхода на информацията е целесъобразно да се изисква от доставчиците на тези системи да вграждат технически решения, позволяващи маркиране в машинночетим формат и разпознаване, че резултатът е генериран или обработен от система с ИИ, а не от човек. Тези техники и методи следва да бъдат достатъчно надеждни, оперативно съвместими, ефективни и сигурни, доколкото това е технически осъществимо, и да се основават на наличните техники или на комбинация от такива техники, например водни знаци, идентифициране на метаданни, криптографски методи за доказване на произхода и автентичността на съдържанието, методи за регистриране, пръстови отпечатъци или други техники, в зависимост от случая. При изпълнението на това задължение доставчиците следва също така да отчитат особеностите и ограниченията на различните видове съдържание и технологичното и пазарното развитие в тази област, които намират отражение в общопризнатото най-съвременно равнище на технологиите. Тези техники и методи могат да бъдат приложени на равнището на системата с ИИ или на равнището на модела на ИИ, включително при модели на ИИ с общо предназначение, генериращи съдържание, като по този начин се улеснява изпълнението на това задължение от доставчика надолу по веригата на системата с ИИ. За да бъде пропорционално това задължение за маркиране, е целесъобразно да се предвиди то да няма приложение при системи с ИИ, изпълняващи предимно помощна функция при стандартно редактиране, или за системи с ИИ, които не променят съществено входящите данни, въведени от внедрителя, или тяхната семантика.
(134)
Tekoälyjärjestelmän tarjoajien käyttämien teknisten ratkaisujen lisäksi sellaisen tekoälyjärjestelmän käyttöönottajien, joka tuottaa tai käsittelee kuva-, ääni- tai videosisältöä, joka selvästi muistuttaa olemassa olevia henkilöitä, esineitä, paikkoja, toimijoita tai tapahtumia ja joka voi ihmisestä vaikuttaa virheellisesti aidolta tai totuudenmukaiselta (syväväärennökset), olisi ilmoitettava selkeästi ja erikseen, että kyseinen sisältö on tuotettu tai käsitelty keinotekoisesti, merkitsemällä tekoälyn tuotos vastaavasti ja ilmoittamalla sen keinotekoinen alkuperä. Tämän avoimuusvelvoitteen noudattamisen ei pitäisi myöskään tulkita merkitsevän sitä, että tekoälyjärjestelmän tai sen tuotoksen käyttö heikentää perusoikeuskirjassa taattuja oikeutta sananvapauteen ja oikeutta taiteen ja tutkimuksen vapauteen, erityisesti jos sisältö on osa selvästi luovaa, satiirista, taiteellista, fiktiivistä tai vastaavaa teosta tai ohjelmaa, edellyttäen että kolmansien osapuolten oikeudet ja vapaudet turvataan asianmukaisesti. Näissä tapauksissa tässä asetuksessa vahvistettu syväväärennöksiä koskeva avoimuusvelvoite rajoittuu tällaisesta tuotetusta tai käsitellystä sisällöstä ilmoittamiseen asianmukaisesti tavalla, joka ei haittaa teoksen esittämistä tai sen käyttöä, mukaan lukien sen tavanomainen hyödyntäminen ja käyttö, säilyttäen samalla teoksen hyödyllisyys ja laatu. Lisäksi on aiheellista harkita vastaavan ilmoitusvelvollisuuden käyttöönottoa tekoälyn tuottaman tai käsittelemän tekstin osalta siltä osin kuin sen julkaisemisen tarkoituksena on tiedottaa yleisölle yleistä etua koskevista asioista, paitsi jos tekoälyn tuottama sisältö on läpikäynyt ihmisen suorittaman arviointiprosessin tai toimituksellisen valvonnan ja luonnollisella henkilöllä tai oikeushenkilöllä on toimituksellinen vastuu sisällön julkaisemisesta.
(134)
Освен техническите решения, приложени от доставчиците на системата с ИИ, и внедрителите, които използват система с ИИ за генериране или обработване на изображения, аудио или видео съдържание, наподобяващи до голяма степен съществуващи лица, предмети, места, субекти или събития, които е вероятно някой да приеме за истински или достоверни (т.нар. „убедителни фалшификати“), следва също по ясен и разпознаваем начин да оповестят обстоятелството, че съдържанието е било изкуствено генерирано или обработено, като обозначат по подходящ начин продукта от работата на ИИ и разкрият неговия изкуствен произход. Спазването на това задължение за прозрачност не следва да се тълкува в смисъл, че използването на системата с ИИ или резултатите от нея възпрепятства правото на свобода на изразяване на мнение и правото на свобода на изкуствата и науките, гарантирани от Хартата, по-специално когато съдържанието е част от произведение или програма, които имат очевиден творчески, сатиричен, артистичен, художествен или подобен характер, при прилагане на подходящи гаранции за правата и свободите на трети лица. В тези случаи задължението за прозрачност по отношение на убедителните фалшификати, предвидено в настоящия регламент, се ограничава до оповестяване на наличието на такова генерирано или обработено съдържание по подходящ начин, който не възпрепятства показването или използването на произведението, включително нормалната му експлоатация и употреба, като същевременно се запазват полезността и качеството на произведението. Освен това е целесъобразно да се предвиди подобно задължение за оповестяване във връзка с текст, който е генериран или обработен от ИИ, доколкото той е публикуван с цел информиране на обществеността по въпроси от обществен интерес, освен ако генерираното от ИИ съдържание не е преминало преглед от човек или подложено на редакторски контрол и редакционната отговорност за публикуването му се носи от физическо или юридическо лице.
(135)
Komissio voi myös kannustaa ja helpottaa käytännesääntöjen laatimista unionin tasolla, jotta voidaan edistää keinotekoisesti tuotetun tai käsitellyn sisällön havaitsemista ja merkitsemistä koskevien velvoitteiden tehokasta täytäntöönpanoa, myös tukea käytännön järjestelyjä, joilla tapauksen mukaan tuodaan havaitsemismekanismit saataville ja helpotetaan yhteistyötä muiden arvoketjun toimijoiden kanssa, levitetään sisältöä tai tarkistetaan sen aitous ja alkuperä, jotta yleisö voi tehokkaasti erottaa tekoälyn tuottaman sisällön muusta sisällöstä, sanotun kuitenkaan vaikuttamatta avoimuusvelvoitteiden pakolliseen luonteeseen ja täyteen sovellettavuuteen.
(135)
Без да се засягат задължителният характер и пълната приложимост на задълженията за прозрачност, Комисията може също да насърчава и улеснява изготвянето на кодекси за добри практики на равнището на Съюза с цел да се допринесе за ефективното изпълнение на задълженията за откриване и обозначаване на изкуствено генерирано или обработено съдържание, включително да се съдейства във връзка с практически правила, които да осигурят при необходимост достъпност на механизмите за откриване и да подпомагат сътрудничеството с други участници по веригата за създаване на стойност, разпространение на съдържание или проверка на неговата автентичност и произход, за да се даде възможност на обществеността действително да разпознава генерираното от ИИ съдържание.
(136)
Tässä asetuksessa asetetaan tiettyjen tekoälyjärjestelmien tarjoajille ja käyttöönottajille velvoitteita, joiden tarkoituksena on havaita, että näiden järjestelmien tuotokset ovat keinotekoisesti tuotettuja tai käsiteltyjä, ja julkistaa tämä tieto. Nämä velvoitteet ovat erityisen merkityksellisiä asetuksen (EU) 2022/2065 tehokkaan täytäntöönpanon helpottamisen kannalta. Tämä koskee erityisesti erittäin suurten verkkoalustojen tai erittäin suurten verkossa toimivien hakukoneiden tarjoajien velvoitteita tunnistaa ja lieventää systeemisiä riskejä, joita voi aiheutua keinotekoisesti tuotetun tai käsitellyn sisällön levittämisestä, erityisesti myös disinformaatiosta johtuva demokraattisiin prosesseihin, kansalaiskeskusteluun ja vaaliprosesseihin kohdistuvien tosiasiallisten tai ennakoitavien kielteisten vaikutusten riski. Tämän asetuksen mukainen vaatimus merkitä tekoälyjärjestelmien tuottama sisältö ei rajoita asetuksen (EU) 2022/2065 16 artiklan 6 kohdassa säädettyä säilytyspalvelujen tarjoajien velvoitetta käsitellä kyseisen asetuksen 16 artiklan 1 kohdan mukaisesti saamansa ilmoituksia laittomasta sisällöstä, eikä sen pitäisi vaikuttaa tietyn sisällön laittomuudesta tehtävään arviointiin tai päätökseen. Kyseinen arviointi olisi tehtävä yksinomaan sisällön laillisuutta koskevien sääntöjen perusteella.
(136)
Задълженията, наложени в настоящия регламент на доставчиците и внедрителите на някои системи с ИИ с цел откриване и обозначаване, че резултатите от тези системи са изкуствено генерирани или обработени, са от особено значение с оглед на ефективното прилагане на Регламент (ЕС) 2022/2065. Това се отнася по-специално за задълженията на доставчиците на много големи онлайн платформи или много големи онлайн търсачки да установяват и ограничават системните рискове, които могат да възникнат поради разпространението на съдържание, което е било изкуствено генерирано или обработено, и по-специално риска от действителни или предвидими отрицателни последици за демократичните процеси, гражданския дебат и изборните процеси, включително чрез дезинформация. Изискването съгласно настоящия регламент за обозначаване на съдържание, генерирано от системи с ИИ, не засяга задължението по член 16, параграф 6 от Регламент (ЕС) 2022/2065 на доставчиците на хостинг услуги да обработват уведомления за незаконно съдържание, получени съгласно член 16, параграф 1 от посочения регламент, и не следва да влияе на оценката и решението относно незаконния характер на конкретното съдържание. Тази преценка следва да се извършва единствено с оглед на правилата, уреждащи законосъобразността на съдържанието.
(137)
Tämän asetuksen kattamien tekoälyjärjestelmien avoimuusvelvoitteiden noudattamisen ei saisi tulkita merkitsevän sitä, että tekoälyjärjestelmän tai sen tuotoksen käyttö on lainmukaista tämän asetuksen tai muun unionin ja jäsenvaltioiden lainsäädännön nojalla, eikä se saisi rajoittaa muiden unionin tai jäsenvaltioiden lainsäädännössä säädettyjen tekoälyjärjestelmien käyttöönottajia koskevien avoimuusvelvoitteiden soveltamista.
(137)
Спазването на задълженията за прозрачност относно системите с ИИ, обхванати от настоящия регламент, не следва да се тълкува като знак, че използването на системата с ИИ или на резултатите от нея е законосъобразно съгласно настоящия регламент или друго законодателство на Съюза и на държава членка, и не следва да засяга други задължения за прозрачност за внедрители на системи с ИИ, предвидени в правото на Съюза или в националното право.
(138)
Tekoäly on nopeasti kehittyvä teknologiakokonaisuus, joka edellyttää viranomaisvalvontaa sekä turvallista ja valvottua tilaa kokeiluille samalla kun varmistetaan vastuullinen innovointi ja asianmukaisten takeiden ja riskinvähentämistoimenpiteiden integrointi. Jotta voidaan varmistaa innovointia edistävä, tulevaisuuden vaatimukset huomioon ottava ja häiriönsietokykyinen oikeudellinen kehys, jäsenvaltioiden olisi varmistettava, että niiden toimivaltaiset kansalliset viranomaiset perustavat ainakin yhden tekoälyn sääntelyn kansallisen tason testiympäristön, jolla helpotetaan innovatiivisten tekoälyjärjestelmien kehittämistä ja testausta tiukassa viranomaisvalvonnassa, ennen kuin nämä järjestelmät saatetaan markkinoille tai otetaan muulla tavoin käyttöön. Jäsenvaltiot voisivat täyttää tämän velvoitteen myös osallistumalla jo olemassa oleviin sääntelyn testiympäristöihin tai perustamalla testiympäristön yhdessä yhden tai useamman jäsenvaltion toimivaltaisten viranomaisten kanssa, jos osallistuminen tarjoaa osallistuville jäsenvaltioille vastaavan kansallisen kattavuuden. Tekoälyn sääntelyn testiympäristöjä voitaisiin perustaa fyysisessä, digitaalisessa tai hybridimuodossa, ja niissä voitaisiin testata sekä fyysisiä että digitaalisia tuotteita. Perustajaviranomaisten olisi myös varmistettava, että tekoälyn sääntelyn testiympäristöillä on toimintansa edellyttämät riittävät resurssit, mukaan lukien taloudelliset ja henkilöresurssit.
(138)
ИИ е бързо развиваща се съвкупност от технологии, която изисква регулаторен надзор и безопасно и контролирано пространство за експериментиране, като същевременно се гарантира отговорното новаторство и интегрирането на подходящи предпазни мерки и мерки за ограничаване на риска. За да се гарантира благоприятна за иновациите, ориентирана към бъдещето и устойчива на смущения правна рамка, държавите членки следва да гарантират, че националните им компетентни органи създават най-малко една регулаторна лаборатория в областта на ИИ на национално равнище, за да се улесни разработването и изпитването на иновативни системи с ИИ под строг регулаторен надзор, преди тези системи да бъдат пуснати на пазара или пуснати в действие по друг начин. Държавите членки биха могли да изпълнят това задължение и чрез участие във вече съществуващи регулаторни лаборатории или съвместно създаване на лаборатория с компетентните органи на една или повече държави членки, доколкото това участие осигурява равностойно национално покритие за участващите държави членки. Регулаторните лаборатории в областта на ИИ могат да бъдат създадени във физическа, цифрова или хибридна форма и да включват както физически, така и цифрови продукти. Създаващите ги органи следва също така да гарантират, че регулаторните лаборатории в областта на ИИ разполагат с подходящи ресурси за функционирането си, включително финансови и човешки ресурси.
(139)
Tekoälyn sääntelyn testiympäristöjen tavoitteena olisi oltava edistää tekoälyyn liittyvää innovointia luomalla hallittu kokeilu- ja testausympäristö kehitysvaiheessa ja markkinoille saattamista edeltävässä vaiheessa, jotta voidaan varmistaa, että innovatiiviset tekoälyjärjestelmät ovat tämän asetuksen ja muun asiaankuuluvan unionin ja jäsenvaltioiden lainsäädännön mukaisia. Lisäksi tekoälyn sääntelyn testiympäristöillä olisi pyrittävä parantamaan innovoijien oikeusvarmuutta ja toimivaltaisten viranomaisten valvontaa sekä ymmärrystä tekoälyn käytön mahdollisuuksista, kehittyvistä riskeistä ja vaikutuksista, helpotettava viranomaisten ja yritysten sääntelyyn liittyvää oppimista, myös oikeudellisen kehyksen tulevia mukautuksia silmällä pitäen, tuettava yhteistyötä ja parhaiden käytäntöjen jakamista tekoälyn sääntelyn testiympäristöön osallistuvien viranomaisten kanssa sekä nopeutettava markkinoille pääsyä muun muassa poistamalla esteitä pk-yrityksiltä, myös startup-yrityksiltä. Tekoälyn sääntelyn testiympäristöjä olisi oltava laajalti käytettävissä kaikkialla unionissa, ja erityistä huomiota olisi kiinnitettävä siihen, että ne ovat pk-yritysten, myös startup-yritysten, saatavilla. Tekoälyn sääntelyn testiympäristöön osallistumisessa olisi painotettava kysymyksiä, jotka aiheuttavat tarjoajille ja mahdollisille tarjoajille oikeudellista epävarmuutta, joka liittyy innovointiin, tekoälyn kokeiluun unionissa ja näyttöön perustuvan sääntelyyn liittyvän oppimisen edistämiseen. Tekoälyjärjestelmien valvonnan tekoälyn sääntelyn testiympäristössä olisi näin ollen katettava järjestelmien kehittäminen, koulutus, testaus ja validointi ennen kuin ne saatetaan markkinoille tai otetaan käyttöön sekä sellaisen merkittävän muutoksen käsite ja esiintyminen, joka saattaa edellyttää uutta vaatimustenmukaisuuden arviointia. Tällaisten tekoälyjärjestelmien kehittämisen ja testauksen aikana havaittuja merkittäviä riskejä olisi vähennettävä asianmukaisesti, ja jos se ei ole mahdollista, kehittämis- ja testausprosessi olisi keskeytettävä. Tekoälyn sääntelyn testiympäristöjä perustavien kansallisten toimivaltaisten viranomaisten olisi tarvittaessa tehtävä yhteistyötä muiden asiaankuuluvien viranomaisten kanssa, mukaan lukien perusoikeuksien suojelua valvovat viranomaiset, ja ne voisivat sallia myös muiden toimijoiden, joita voisivat olla kansalliset ja eurooppalaiset standardointijärjestöt, ilmoitetut laitokset, testaus- ja kokeilulaitokset, tutkimus- ja kokeilulaboratoriot, eurooppalaiset digitaali-innovointikeskittymät ja asiaankuuluvat sidosryhmien ja kansalaisyhteiskunnan organisaatiot, osallistumisen tekoälyekosysteemiin. Yhdenmukaisen täytäntöönpanon varmistamiseksi koko unionissa ja mittakaavaetujen saavuttamiseksi on aiheellista vahvistaa yhteiset säännöt tekoälyn sääntelyn testiympäristöjen toteuttamiselle ja puitteet testiympäristöjen valvontaan osallistuvien asiaankuuluvien viranomaisten väliselle yhteistyölle. Tämän asetuksen nojalla perustetuilla tekoälyn sääntelyn testiympäristöillä ei saisi rajoittaa muun sellaisen lainsäädännön soveltamista, jonka nojalla voidaan perustaa testiympäristöjä, joiden tavoitteena on varmistaa muun lainsäädännön kuin tämän asetuksen noudattaminen. Kyseisistä muista sääntelyn testiympäristöistä vastaavien asiaankuuluvien toimivaltaisten viranomaisten olisi tarvittaessa otettava huomioon hyödyt, joita saadaan myös näiden testiympäristöjen käyttämisestä sen varmistamiseen, että tekoälyjärjestelmät ovat tämän asetuksen mukaisia. Kansallisten toimivaltaisten viranomaisten ja tekoälyn sääntelyn testiympäristöön osallistujien niin sopiessa tosielämän olosuhteissa tapahtuvaa testausta voidaan toteuttaa ja valvoa myös tekoälyn sääntelyn testiympäristön kehyksessä.
(139)
Целите на регулаторните лаборатории в областта на ИИ следва да бъдат: насърчаване на иновациите в областта на ИИ чрез създаване на контролирана среда за експериментиране и изпитване във фазата на разработване и преди пускането на пазара с цел да се гарантира съответствието на иновативните системи с ИИ с настоящия регламент и друго съответно право на Съюза и национално право. В допълнение регулаторните лаборатории в областта на ИИ следва да имат за цел подобряване на правната сигурност за новаторите и надзора и разбирането от страна на компетентните органи на възможностите, нововъзникващите рискове и въздействието на използването на ИИ, улесняване на натрупването на регулаторен опит от страна на органите и предприятията, включително с оглед на бъдещи изменения на правната рамка, подкрепа за сътрудничеството и обмена на най-добри практики с органите, участващи в регулаторната лаборатория в областта на ИИ, както и ускоряване на достъпа до пазарите, включително чрез премахване на пречките пред МСП, включително новосъздадените предприятия. Следва да се предостави широк достъп до регулаторните лаборатории в областта на ИИ на територията на Съюза, като се обърне специално внимание на достъпността им за МСП, включително новосъздадените предприятия. Участието в регулаторните лаборатории в областта на ИИ следва да е насочено към въпроси, които пораждат правна несигурност за доставчиците и потенциалните доставчици при въвеждането на иновации и експериментирането с ИИ в Съюза и да допринася за основан на факти регулаторен опит. Поради това надзорът върху системите с ИИ в регулаторните лаборатории в областта на ИИ следва да обхваща тяхното разработване, обучение, изпитване и валидиране, преди системите да бъдат пуснати на пазара или пуснати в действие, както и концепцията за и настъпването на съществено изменение, което може да изисква провеждането на нова процедура за оценяване на съответствието. Всички значителни рискове, установени по време на разработването и изпитването на такива системи с ИИ, следва да водят до адекватни ограничителни мерки, а при липса на такива — до спиране на процеса на разработване и изпитване. Когато е целесъобразно, националните компетентни органи, които създават регулаторни лаборатории в областта на ИИ, следва да си сътрудничат с други съответни органи, включително упражняващите надзор върху защитата на основните права, и биха могли да позволят привличането на други участници в екосистемата на ИИ, като например национални или европейски организации за стандартизация, нотифицирани органи, структури за изпитване и експериментиране, лаборатории за научни изследвания и експерименти, европейски цифрови иновационни центрове и съответни заинтересовани страни и организации на гражданското общество. За да се гарантират еднакво прилагане в целия Съюз и икономии на мащаба, е целесъобразно да се установят общи правила за създаването на регулаторните лаборатории в областта на ИИ и рамка за сътрудничество между съответните органи, участващи в надзора на лабораториите. Регулаторните лаборатории в областта на ИИ, създадени съгласно настоящия регламент, не следва да засягат друго право, допускащо създаването на други лаборатории и чиято цел е да се гарантира спазването на правни норми извън настоящия регламент. Когато е целесъобразно, съответните компетентни органи, които отговарят за други регулаторни лаборатории, следва да преценят доколко би било полезно използването им и с цел осигуряване на съответствието на системите с ИИ с настоящия регламент. По споразумение между националните компетентни органи и участниците в регулаторната лаборатория в областта на ИИ в такава лаборатория също така може да се извършва изпитване в реални условия и върху него да се осъществява надзор.
(140)
Tämän asetuksen olisi muodostettava oikeusperusta tekoälyn sääntelyn testiympäristöön osallistuvia tarjoajia ja mahdollisia tarjoajia varten, jotta ne voivat käyttää muihin tarkoituksiin kerättyjä henkilötietoja tiettyjen yleisen edun mukaisten tekoälyjärjestelmien kehittämiseen tekoälyn sääntelyn testiympäristössä ainoastaan tietyin edellytyksin, asetuksen (EU) 2016/679 6 artiklan 4 kohdan ja 9 artiklan 2 kohdan g alakohdan ja asetuksen (EU) 2018/1725 5, 6 ja 10 artiklan mukaisesti ja rajoittamatta direktiivin (EU) 2016/680 4 artiklan 2 kohdan ja 10 artiklan soveltamista. Kaikkia muita asetusten (EU) 2016/679 ja (EU) 2018/1725 ja direktiivin (EU) 2016/680 mukaisia rekisterinpitäjien velvoitteita ja rekisteröityjen oikeuksia sovelletaan edelleen. Erityisesti on huomattava, ettei tämän asetuksen ole tarkoitus muodostaa asetuksen (EU) 2016/679 22 artiklan 2 kohdan b alakohdassa ja asetuksen (EU) 2018/1725 24 artiklan 2 kohdan b alakohdassa tarkoitettua oikeusperustaa. Tekoälyn sääntelyn testiympäristöön osallistuvien tarjoajien ja mahdollisten tarjoajien olisi varmistettava asianmukaiset takeet ja tehtävä yhteistyötä toimivaltaisten viranomaisten kanssa muun muassa noudattamalla niiden ohjeita ja toimimalla nopeasti ja vilpittömästi lieventääkseen asianmukaisesti mahdollisia havaittuja turvallisuuteen, terveyteen ja perusoikeuksiin kohdistuvia merkittäviä riskejä, joita voi syntyä kyseisessä testiympäristössä tapahtuvan kehittämisen, testauksen ja kokeilun aikana.
(140)
В съответствие с член 6, параграф 4 и член 9, параграф 2, буква ж) от Регламент (ЕС) 2016/679 и членове 5, 6 и 10 от Регламент (ЕС) 2018/1725 и без да се засягат член 4, параграф 2 и член 10 от Директива (ЕС) 2016/680, настоящият регламент следва да предостави на доставчиците и потенциалните доставчици в регулаторните лаборатории в областта на ИИ правното основание за използването, само при определени условия, на лични данни, събирани за други цели, с оглед на разработването на определени системи с ИИ в обществен интерес в рамките на регулаторната лаборатория в областта на ИИ. Всички други задължения на администраторите на данни и правата на субектите на данни съгласно регламенти (ЕС) 2016/679 и (ЕС) 2018/1725 и Директива (ЕС) 2016/680 остават приложими. По-специално настоящият регламент не следва да предоставя правно основание по смисъла на член 22, параграф 2, буква б) от Регламент (ЕС) 2016/679 и член 24, параграф 2, буква б) от Регламент (ЕС) 2018/1725. Доставчиците и потенциалните доставчици в регулаторната лаборатория в областта на ИИ следва да осигурят подходящи гаранции и да си сътрудничат с компетентните органи, включително като следват техните насоки и действат бързо и добросъвестно, за да ограничат по подходящ начин всички установени значителни рискове за безопасността, здравето и основните права, които могат да се проявят по време на разработването, изпитването и експериментирането в лабораторията.
(141)
Jotta voidaan nopeuttaa tämän asetuksen liitteessä lueteltujen suuririskisten tekoälyjärjestelmien kehittämis- ja markkinoille saattamisprosessia, on tärkeää, että tällaisten järjestelmien tarjoajat tai mahdolliset tarjoajat voivat hyötyä myös erityisestä järjestelystä, jossa ne voivat testata näitä järjestelmiä todellisissa olosuhteissa osallistumatta tekoälyn sääntelyn testiympäristöön. Tällaisissa tapauksissa, ottaen huomioon tällaisen testauksen mahdolliset vaikutukset henkilöihin, olisi kuitenkin varmistettava, että tällä asetuksella otetaan käyttöön tarjoajia tai mahdollisia tarjoajia koskevat asianmukaiset ja riittävät takeet ja edellytykset. Näihin takeisiin olisi sisällyttävä muun muassa tietoon perustuvan suostumuksen pyytäminen luonnollisilta henkilöiltä tosielämän olosuhteissa tapahtuvaan testaukseen osallistumiseksi, lukuun ottamatta lainvalvontaa, jossa tietoon perustuvan suostumuksen pyytäminen estäisi tekoälyjärjestelmän testaamisen. Osallistujien antama suostumus tällaiseen testaukseen osallistumisesta tämän asetuksen nojalla on eri kuin rekisteröityjen antama suostumus henkilötietojensa käsittelyyn asiaankuuluvan tietosuojalain nojalla eikä se vaikuta viimeksi mainittuun suostumukseen. Lisäksi on tärkeää minimoida riskit ja mahdollistaa toimivaltaisten viranomaisten suorittama valvonta. Tästä syystä on vaadittava, että mahdolliset tarjoajat toimittavat toimivaltaiselle markkinavalvontaviranomaiselle suunnitelman todellisissa olosuhteissa toteutettavasta testauksesta, rekisteröivät testauksen EU:n tietokannan asiaankuuluviin osioihin joitakin rajoitettuja poikkeuksia lukuun ottamatta, rajaavat ajanjakson, jonka kuluessa testaus voidaan suorittaa, ja edellyttävät lisätakeita sellaisten henkilöiden osalta, jotka kuuluvat tiettyyn haavoittuvassa asemassa olevaan ryhmään, ja kirjallisen sopimuksen, jossa määritellään mahdollisten tarjoajien ja käyttöönottajien tehtävät ja vastuut ja todellisissa olosuhteissa toteutettavaan testaukseen osallistuvan pätevän henkilöstön suorittama valvonta. Lisäksi on aiheellista säätää lisätakeista sen varmistamiseksi, että tekoälyjärjestelmän ennusteet, suositukset ja päätökset voidaan tosiasiallisesti peruuttaa ja jättää huomiotta ja että henkilötiedot suojataan ja että ne poistetaan, kun osallistujat ovat peruuttaneet suostumuksensa testaukseen osallistumisesta, sanotun kuitenkaan rajoittamatta heille unionin tietosuojalainsäädännön mukaisesti rekisteröityinä kuuluvia oikeuksia. Tiedonsiirron osalta on aiheellista säätää, että todellisissa olosuhteissa tapahtuvaa testausta varten kerättyjä ja käsiteltyjä tietoja olisi siirrettävä kolmansiin maihin vain, jos siirrossa noudatetaan unionin oikeuden mukaisesti sovellettavia asianmukaisia takeita, erityisesti unionin tietosuojalainsäädännön mukaisten henkilötietojen siirtoa koskevien perustojen mukaisesti, kun taas muiden kuin henkilötietojen osalta on otettava käyttöön asianmukaiset takeet unionin oikeuden, kuten Euroopan parlamentin ja neuvoston asetusten (EU) 2022/868 (42) ja (EU) 2023/2854 (43), mukaisesti.
(141)
За да се ускори процесът на разработване и пускане на пазара на високорисковите системи с ИИ, чийто списък се съдържа в приложение към настоящия регламент, е важно доставчиците или потенциалните доставчици на такива системи да могат да ползват специален режим за изпитване на тези системи в реални условия и без да участват в регулаторна лаборатория в областта на ИИ. В такива случаи обаче, предвид евентуалните последици, които това изпитване може да има върху хората, следва да се гарантира, че настоящият регламент въвежда подходящи и достатъчни гаранции и условия по отношение на доставчиците или потенциалните доставчици. Тези гаранции следва да включват, наред с другото, искането на информирано съгласие от физическите лица за участие в изпитвания в реални условия, освен в правоохранителната област, когато искането на информирано съгласие би попречило на изпитването на системата с ИИ. Съгласието на субектите на данни да участват в такива изпитвания в съответствие с настоящия регламент е различно от съгласието на субектите на данни личните им данни да бъдат обработвани съгласно съответното законодателство за защита на данните и не засяга това съгласие. Важно е също така рисковете да бъдат сведени до минимум и компетентните органи да могат да упражняват надзор, във връзка с което да се въведат изисквания потенциалните доставчици да представят на компетентния орган за надзор на пазара план за изпитване в реални условия, да регистрират изпитването в специални раздели на базата данни на ЕС с ограничен брой изключения, да определят ограничения на срока, в който може да се извърши изпитването, както и да се изискват допълнителни гаранции за лица, принадлежащи към определени уязвими групи, и писмено споразумение, в което се установяват функциите и отговорностите на потенциалните доставчици и внедрителите и ефективен надзор от страна на компетентния персонал, участващ в изпитванията в реални условия. Освен това е целесъобразно да се предвидят допълнителни гаранции, за да се гарантира, че прогнозите, препоръките или решенията на дадена система с ИИ могат ефективно да се отменят и пренебрегнат, както и че личните данни са защитени и се заличават, след като субектите в изпитването са оттеглили съгласието си за участие в изпитването, без да се засягат правата им като субекти на данни съгласно правото на Съюза в областта на защитата на данните. По отношение на предаването на данни е целесъобразно също така да се предвиди, че данните, събирани и обработвани за целите на изпитването в реални условия, следва да се предават на трети държави само при прилагане на подходящи и приложими гаранции съгласно правото на Съюза, по-специално в съответствие с основанията за предаване на лични данни съгласно правото на Съюза относно защитата на данните, докато по отношение на неличните данни се прилагат подходящи гаранции в съответствие с правото на Съюза, като например регламенти (ЕС) 2022/868 (42) и (ЕС) 2023/2854 (43) на Европейския парламент и на Съвета.
(142)
Jotta voidaan varmistaa, että tekoälyn käyttö johtaa yhteiskunnan ja ympäristön kannalta suotuisiin tuloksiin, jäsenvaltioita kannustetaan tukemaan ja edistämään sellaisten tekoälyratkaisujen tutkimusta ja kehittämistä, joilla tuetaan yhteiskunnan ja ympäristön kannalta suotuisia tuloksia, kuten tekoälypohjaisia ratkaisuja, joilla parannetaan esteettömyyttä vammaisten henkilöiden kannalta, vähennetään sosiaalis-taloudellista eriarvoisuutta tai saavutetaan ympäristötavoitteita, osoittamalla siihen riittävästi resursseja, myös julkista ja unionin rahoitusta, ja ottamalla tässä yhteydessä huomioon erityisesti tällaisiin tavoitteisiin pyrkivät hankkeet, jos se on asianmukaista ja edellyttäen, että ne täyttävät kelpoisuusvaatimukset ja valintaperusteet. Tällaisten hankkeiden olisi perustuttava tekoälyn kehittäjien ja eriarvoisuuteen, syrjimättömyyteen, saavutettavuuteen, kuluttaja-asioihin, ympäristöön ja digitaalisiin oikeuksiin perehtyneiden asiantuntijoiden sekä tiedeyhteisön välisen poikkitieteellisen yhteistyön periaatteeseen.
(142)
За да се гарантира, че ИИ води до благоприятни за обществото и околната среда резултати, държавите членки се насърчават да подкрепят и поощряват научните изследвания и разработването на решения в областта на ИИ, способстващи за постигането на такива резултати — например основани на ИИ решения за увеличаване на достъпността за хората с увреждания, противодействие на социално-икономическите неравенства или постигане на екологичните цели, чрез разпределяне на достатъчно ресурси, включително публично финансиране и финансиране от Съюза, и когато е целесъобразно и при условие че са изпълнени критериите за допустимост и подбор, разглеждане на проекти, които преследват тези цели. Такива проекти следва да се основават на принципа на интердисциплинарното сътрудничество между разработчици на ИИ, експерти по въпросите на неравенството и недискриминацията, достъпността, правата на потребителите, правата, свързани с околната среда, и цифровите права, както и академичните среди.
(143)
Innovoinnin edistämiseksi ja suojaamiseksi on tärkeää ottaa erityisesti huomioon pk-yritysten, myös startup-yritysten, intressit tekoälyjärjestelmien tarjoajina ja käyttöönottajina. Tätä varten jäsenvaltioiden olisi kehitettävä kyseisille toimijoille suunnattuja aloitteita, jotka koskevat muun muassa tietämyksen lisäämistä ja tiedotusta. Jäsenvaltioiden olisi annettava niille pk-yrityksille, myös startup-yrityksille, joilla on sääntömääräinen kotipaikka tai sivutoimipiste unionissa, ensisijainen pääsy tekoälyn sääntelyn testiympäristöihin, edellyttäen että ne täyttävät kelpoisuusvaatimukset ja valintaperusteet, mutta jäsenvaltiot eivät saa estää muilta tarjoajilta ja mahdollisilta tarjoajilta pääsyä testiympäristöihin, jos nämä täyttävät samat vaatimukset ja perusteet. Jäsenvaltioiden olisi käytettävä olemassa olevia kanavia ja perustettava tarvittaessa uusia kanavia viestintään pk-yritysten, mukaan lukien startup-yritykset, käyttöönottajat, muut innovoijat ja tarvittaessa paikallisviranomaiset, kanssa, jotta voidaan tukea pk-yrityksiä koko niiden kehityksen ajan antamalla ohjeistusta ja vastaamalla kysymyksiin tämän asetuksen täytäntöönpanosta. Näiden kanavien olisi toimittava tarvittaessa yhteistyössä keskenään synergioiden luomiseksi ja sen varmistamiseksi, että niiden pk-yrityksille, myös startup-yrityksille, ja käyttöönottajille antamat ohjeet ovat yhdenmukaisia. Lisäksi jäsenvaltioiden olisi helpotettava pk-yritysten ja muiden asiaankuuluvien sidosryhmien osallistumista standardien laatimisprosesseihin. Tarjoajina toimivien pk-yritysten, myös startup-yritysten, erityisintressit ja -tarpeet olisi otettava huomioon, kun ilmoitetut laitokset vahvistavat vaatimustenmukaisuuden arvioinnista perittäviä maksuja. Komission olisi arvioitava säännöllisesti sertifioinnista ja vaatimusten noudattamisesta pk-yrityksille, myös startup-yrityksille, aiheutuvia kustannuksia avointen kuulemisten avulla, ja sen olisi pyrittävä alentamaan näitä kustannuksia yhdessä jäsenvaltioiden kanssa. Esimerkiksi pakollisen dokumentaation ja viranomaisviestinnän kääntämisestä voi aiheutua merkittäviä kustannuksia tarjoajille ja muille, etenkin pienemmille toimijoille. Jäsenvaltioiden olisi mahdollisesti varmistettava, että yksi kielistä, jotka ne ovat määrittäneet ja hyväksyneet käytettäväksi asiaankuuluvien tarjoajien dokumentaatiossa ja viestinnässä toimijoiden kanssa, on kieli, jota mahdollisimman monet rajatylittävät käyttöönottajat ymmärtävät. Jotta voidaan vastata pk-yritysten, myös startup-yritysten, erityistarpeisiin, komission olisi tekoälyneuvoston pyynnöstä esitettävä standardoidut mallit tämän asetuksen soveltamisalaan kuuluvia aloja varten. Lisäksi komission olisi täydennettävä jäsenvaltioiden toimia tarjoamalla yhtenäinen tietoalusta, jossa esitetään tätä asetusta koskevia helppokäyttöisiä tietoja kaikille tarjoajille ja käyttöönottajille, järjestämällä asianmukaisia tiedotuskampanjoita tietämyksen lisäämiseksi tästä asetuksesta johtuvista velvoitteista ja arvioimalla ja edistämällä tekoälyjärjestelmiä koskevien julkisten hankintamenettelyjen parhaiden käytäntöjen lähentämistä. Näiden tukitoimien olisi oltava sellaisten keskisuurten yritysten saatavilla, jotka katsottiin viime aikoihin asti komission suosituksen 2003/361/EY (44) liitteessä tarkoitetuiksi pieniksi yrityksiksi, koska tällaisilla uusilla keskisuurilla yrityksillä ei välttämättä aina ole tarvittavia oikeudellisia resursseja ja koulutusta asetuksen asianmukaisen ymmärtämisen ja noudattamisen varmistamiseksi.
(143)
С цел насърчаване и защита на иновациите е важно да се обърне специално внимание на интересите на МСП, включително новосъздадените предприятия, които са доставчици или внедрители на системи с ИИ. За тази цел държавите членки следва да разработят инициативи, насочени към тези оператори, включително за повишаване на осведомеността и съобщаването на информация. Държавите членки следва да осигуряват на МСП, включително новосъздадените предприятия, които имат седалище или клон в Съюза, приоритетен достъп до регулаторните лаборатории в областта на ИИ, при условие че те отговарят на условията за допустимост и на критериите за подбор, без да се възпрепятства достъпът на други доставчици и потенциални доставчици до лабораториите, при условие че са изпълнени същите условия и критерии. Държавите членки следва да използват наличните, а когато е целесъобразно - да създават нови, специални канали за комуникация с МСП, новосъздадени предприятия, внедрители, други новатори и - в зависимост от случая - органи на местна власт, с цел да подпомагат МСП по пътя им на развитие чрез даване на насоки и отговаряне на запитвания във връзка с прилагането на настоящия регламент. Когато е целесъобразно, тези канали следва да работят заедно, за да се създадат полезни взаимодействия и да се гарантира еднообразност на насоките за МСП, включително новосъздадените предприятия, и внедрителите. Наред с това държавите членки следва да улесняват участието на МСП и на други заинтересовани страни в процесите на разработване на стандарти. Освен това, при определянето на таксите за оценяване на съответствието нотифицираните органи следва да вземат предвид особените интереси и нужди на доставчиците, които са МСП, включително новосъздадени предприятия. Комисията следва да оценява редовно разходите на МСП, включително новосъздадените предприятия, за сертифициране и привеждане в съответствие чрез прозрачни консултации и следва да работи с държавите членки за понижаването на тези разходи. Така например разходите за превод, свързани със задължителната документация и комуникацията с органите, могат да представляват значителни разходи за доставчиците и другите оператори, по-специално за по-малките. Държавите членки следва по възможност да гарантират, че един от езиците, определени и приети от тях за съответната документация на доставчиците и за комуникация с операторите, е език, които в значителна степен се разбира от възможно най-голям брой трансгранични внедрители. За да се отговори на специфичните нужди на МСП, включително новосъздадените предприятия, Комисията следва да осигури стандартизирани образци за областите, обхванати от настоящия регламент, по искане на Съвета по ИИ. Освен това Комисията следва да допълни усилията на държавите членки, като осигури единна информационна платформа с лесна за ползване информация относно настоящия регламент, предназначена за всички доставчици и внедрители, като организира подходящи комуникационни кампании за повишаване на осведомеността относно задълженията, произтичащи от настоящия регламент, и като оценява и насърчава сближаването на най-добрите практики, прилагани в рамките на процедурите за възлагане на обществени поръчки във връзка със системите с ИИ. Средните предприятия, които доскоро са съответствали на критериите за малки предприятия по смисъла на приложението към Препоръка 2003/361/ЕО на Комисията (44), следва да имат достъп до тези мерки за подкрепа, тъй като е възможно тези нови средни предприятия да не разполагат с правните ресурси и обучението, необходими, за да се гарантира правилното разбиране и спазване на настоящия регламент.
(144)
Jotta voidaan edistää ja suojella innovointia, tekoälyyn keskittyvän tilauspohjaisen alustan ja kaikkien asiaankuuluvien unionin rahoitusohjelmien ja -hankkeiden, kuten Digitaalinen Eurooppa -ohjelman ja Horisontti Eurooppa -ohjelman, jotka komissio ja jäsenvaltiot panevat täytäntöön unionin tai kansallisella tasolla, olisi tarvittaessa edistettävä tämän asetuksen tavoitteiden saavuttamista.
(144)
С цел насърчаване и защита на иновациите платформата за ИИ по заявка, всички съответни програми и проекти на Съюза за финансиране, като например програмите „Цифрова Европа“ и „Хоризонт Европа“, изпълнявани от Комисията и държавите членки на национално равнище или на равнището на Съюза, следва, когато е целесъобразно, да допринасят за постигането на целите на настоящия регламент.
(145)
Jotta voidaan minimoida markkinoilla olevan tiedon ja asiantuntemuksen puutteesta aiheutuvat riskit täytäntöönpanolle ja tukea tarjoajia, erityisesti pk-yrityksiä, myös startup-yrityksiä, ja ilmoitettuja laitoksia tämän asetuksen mukaisten velvoitteiden noudattamisessa, tekoälyyn keskittyvän tilauspohjaisen alustan, eurooppalaisten digitaali-innovointikeskittymien sekä komission ja jäsenvaltioiden unionin tai kansallisella tasolla perustamien testaus- ja kokeilulaitosten olisi edistettävä tämän asetuksen täytäntöönpanoa. Tekoälyyn keskittyvä tilauspohjainen alusta, eurooppalaiset digitaali-innovointikeskittymät sekä testaus- ja kokeilulaitokset voivat tehtäviensä ja toimivaltuuksiensa puitteissa antaa erityisesti teknistä ja tieteellistä tukea tarjoajille ja ilmoitetuille laitoksille.
(145)
За да се сведат до минимум рисковете за правоприлагането, произтичащи от липсата на знания и експертен опит на пазара, както и за да се улесни спазването на задълженията по настоящия регламент от страна на доставчиците, по-специално МСП, включително новосъздадените предприятия, и нотифицираните органи, платформата за ИИ по заявка, европейските цифрови иновационни центрове и структурите за изпитване и експериментиране, създадени от Комисията и държавите членки на национално равнище или на равнището на Съюза, следва да допринасят за прилагането на настоящия регламент. В рамките на своята мисия и области на компетентност платформата за ИИ по заявка, европейските цифрови иновационни центрове и структурите за изпитване и експериментиране могат да предоставят по-специално техническа и научна подкрепа на доставчиците и нотифицираните органи.
(146)
Jotta voidaan lisäksi ottaa huomioon joidenkin toimijoiden erittäin pieni koko ja varmistaa innovointikustannusten oikeasuhteisuus, on asianmukaista sallia mikroyritysten täyttää yksi eniten kustannuksia aiheuttavista velvoitteista – eli laadunhallintajärjestelmän perustaminen – yksinkertaistetusti, jotta voidaan vähentää niille aiheutuvaa hallinnollista rasitetta ja kustannuksia vaikuttamatta suojelun tasoon ja tarpeeseen noudattaa suuririskisiä tekoälyjärjestelmiä koskevia vaatimuksia. Komission olisi laadittava suuntaviivat, joissa täsmennetään ne laadunhallintajärjestelmän osiot, jotka mikroyritykset voivat täyttää yksinkertaistetusti.
(146)
Освен това, предвид твърде малкия размер на някои оператори и с цел да се гарантира пропорционалност по отношение на разходите за иновации, е целесъобразно да се даде възможност на микропредприятията да изпълнят едно от най-скъпо струващите задължения, а именно създаването на система за управление на качеството, по опростен начин, което би намалило административната тежест и разходите за тези предприятия, без да се засягат равнището на защита и необходимостта от съответствие с изискванията за високорисковите системи с ИИ. Комисията следва да разработи насоки с цел да се определят елементите на системата за управление на качеството, които трябва да бъдат изпълнени по този опростен начин от микропредприятията.
(147)
On aiheellista, että komissio helpottaa mahdollisuuksien mukaan sellaisten elinten, ryhmien ja laboratorioiden mahdollisuuksia käyttää testaus- ja kokeilulaitoksia, jotka on perustettu tai akkreditoitu asiaa koskevan unionin yhdenmukaistamislainsäädännön nojalla ja jotka suorittavat kyseisen unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluvien tuotteiden tai laitteiden vaatimustenmukaisuuden arviointiin liittyviä tehtäviä. Tämä koskee erityisesti asetusten (EU) 2017/745 ja (EU) 2017/746 mukaisia lääkinnällisiä laitteita käsitteleviä asiantuntijapaneeleja, asiantuntijalaboratorioita ja vertailulaboratorioita.
(147)
Целесъобразно е Комисията да улеснява, доколкото е възможно, достъпа до структури за изпитване и експериментиране на органи, групи или лаборатории, създадени или акредитирани съгласно съответното законодателство на Съюза за хармонизация, които изпълняват задачи в контекста на оценяването на съответствието на продукти или изделия, попадащи в обхвата на посоченото законодателство на Съюза за хармонизация. Такъв е по-специално случаят с експертните групи, специализираните лаборатории и референтните лаборатории в областта на медицинските изделия съгласно регламенти (ЕС) 2017/745 и (ЕС) 2017/746.
(148)
Tällä asetuksella olisi vahvistettava hallintokehys, jonka avulla voidaan koordinoida ja tukea tämän asetuksen soveltamista kansallisella tasolla sekä vahvistaa valmiuksia unionin tasolla ja ottaa sidosryhmät mukaan tekoälyn alan toimintaan. Tämän asetuksen tehokas täytäntöönpano ja noudattamisen valvonta edellyttävät hallintokehystä, jonka avulla voidaan koordinoida ja kehittää unionin tason keskitettyä asiantuntemusta. Tekoälytoimisto perustettiin komission päätöksellä (45), ja sen tehtävänä on kehittää unionin asiantuntemusta ja valmiuksia tekoälyn alalla ja edistää tekoälyä koskevan unionin oikeuden täytäntöönpanoa. Jäsenvaltioiden olisi helpotettava tekoälytoimiston työtä, jotta voidaan tukea unionin asiantuntemuksen ja unionin tason valmiuksien kehittämistä ja vahvistaa digitaalisten sisämarkkinoiden toimintaa. Lisäksi olisi perustettava jäsenvaltioiden edustajista koostuva tekoälyneuvosto, tiedeyhteisön yhteen tuova tiedelautakunta ja neuvoa-antava foorumi, jonka kautta sidosryhmät voivat antaa panoksensa tämän asetuksen täytäntöönpanoon unionin ja kansallisella tasolla. Unionin asiantuntemuksen ja valmiuksien kehittämisen olisi sisällettävä myös olemassa olevien resurssien ja asiantuntemuksen käyttö erityisesti synergiassa unionin tasolla tapahtuvan muun lainsäädännön täytäntöönpanon yhteydessä perustettujen rakenteiden ja asiaan liittyvien unionin tason aloitteiden kanssa. Näitä ovat Euroopan suurteholaskennan yhteisyritys ja Digitaalinen Eurooppa -ohjelman mukaiset tekoälyn testaus- ja kokeilulaitokset.
(148)
С настоящия регламент следва да се създаде рамка за управление, която да позволява координация и подкрепа при прилагането на настоящия регламент на национално равнище, както и изграждане на капацитет на равнището на Съюза и включване на заинтересованите страни в областта на изкуствения интелект. Ефективното изпълнение и прилагане на настоящия регламент изискват рамка за управление, която да дава възможност за координация и изграждане на експертен опит на централно ниво, на равнището на Съюза. Службата по ИИ беше създадена с решение на Комисията (45) с мисията да развива експертния опит и способностите на Съюза в областта на ИИ и да допринася за прилагането на правото на Съюза в областта на ИИ. Държавите членки следва да улесняват изпълнението на задачите на Службата по ИИ с цел да се подпомогне развитието на експертния опит на Съюза и на способностите на равнището на Съюза и да се укрепи функционирането на цифровия единен пазар. Наред с това следва да бъдат създадени Съвет по ИИ, съставен от представители на държавите членки, експертна група, с която да се привлече научната общност, и консултативен форум, чрез който заинтересованите страни да допринасят за прилагането на настоящия регламент както на национално равнище, така и на равнището на Съюза. Развитието на експертния опит и способностите на Съюза следва да включва също така използването на съществуващите ресурси и експертен опит, по-специално чрез полезни взаимодействия със структури, изградени в контекста на прилагането в рамките на Съюза на друго законодателство, както и полезни взаимодействия със свързани инициативи на равнището на Съюза, например Съвместното предприятие за европейски високопроизводителни изчисления (EuroHPC) и съоръженията за изпитване и експериментиране с ИИ в рамките на програмата „Цифрова Европа“.
(149)
Tämän asetuksen sujuvan, tehokkaan ja yhdenmukaisen täytäntöönpanon helpottamiseksi olisi perustettava tekoälyneuvosto. Tekoälyneuvoston olisi edustettava tekoälyekosysteemin eri intressejä ja koostuttava jäsenvaltioiden edustajista. Sen olisi vastattava useista neuvoa-antavista tehtävistä, kuten lausuntojen, suositusten ja neuvojen antamisesta ja ohjeiden edistämisestä tämän asetuksen täytäntöönpanoon liittyvissä asioissa, joita ovat täytäntöönpanon valvonta sekä tässä asetuksessa vahvistettuja vaatimuksia koskevat tekniset eritelmät ja voimassa olevat standardit, ja neuvojen antamisesta komissiolle ja jäsenvaltioille ja niiden kansallisille toimivaltaisille viranomaisille tekoälyyn liittyvissä erityiskysymyksissä. Joustavuuden varmistamiseksi jäsenvaltiot voisivat nimittää tekoälyneuvostoon edustajakseen esimerkiksi julkisyhteisöihin kuuluvia henkilöitä, joilla olisi oltava asiaankuuluva pätevyys ja toimivalta, jotta he voivat helpottaa koordinointia kansallisella tasolla ja osallistua tekoälyneuvoston tehtävien suorittamiseen. Tekoälyneuvoston olisi perustettava kaksi pysyvää alaryhmää, jotka tarjoavat alustan yhteistyölle ja viestinnälle markkinavalvontaviranomaisten kesken kysymyksissä, jotka liittyvät markkinavalvontaan, ja ilmoittamisesta vastaavien viranomaisten kesken kysymyksissä, jotka liittyvät ilmoitettuihin laitoksiin. Markkinavalvonnan pysyvän alaryhmän on tarkoitus toimia asetuksen (EU) 2019/1020 30 artiklassa tarkoitettuna hallinnollisen yhteistyön ryhmänä tämän asetuksen osalta. Kyseisen asetuksen 33 artiklan mukaisesti komission olisi tuettava markkinavalvonnan pysyvän alaryhmän toimia toteuttamalla markkina-arviointeja tai -tutkimuksia erityisesti tämän asetuksen sellaisten näkökohtien määrittämiseksi, jotka edellyttävät erityistä ja kiireellistä koordinointia markkinavalvontaviranomaisten kesken. Tekoälyneuvosto voi tarvittaessa perustaa muita pysyviä tai väliaikaisia alaryhmiä tiettyjen kysymysten tarkastelua varten. Tekoälyneuvoston olisi myös tehtävä tarvittaessa yhteistyötä unionin oikeuden puitteissa aktiivisten unionin elinten, asiantuntijaryhmien ja verkostojen kanssa, mukaan lukien erityisesti ne, joiden toiminta liittyy dataa, digitaalisia tuotteita ja palveluja koskevaan unionin oikeuteen.
(149)
С цел подпомагане на безпрепятственото, ефективно и хармонизирано прилагане на настоящия регламент следва да бъде създаден Съвет по ИИ. Той следва да отразява различните интереси в рамките на екосистемата на ИИ и да се състои от представители на държавите членки. Съветът по ИИ следва да отговаря за изпълнението на редица консултативни задачи, включително да приема становища, препоръки, съвети или да допринася за приемането на насоки по въпроси, свързани с изпълнението на настоящия регламент, включително по въпроси на прилагането, техническите спецификации или съществуващите стандарти във връзка с изискванията, установени в настоящия регламент, и да консултира Комисията и държавите членки и техните национални компетентни органи по конкретни въпроси, свързани с ИИ. За да се осигури известна гъвкавост за държавите членки при определянето на техните представители в Съвета по ИИ, представители могат да бъдат всички лица, принадлежащи към публични субекти, които следва да разполагат със съответните компетентност и правомощия да улесняват координацията на национално равнище и да допринасят за изпълнението на задачите на Съвета по ИИ. Съветът по ИИ следва да създаде две постоянни подгрупи, които да осигуряват платформа за сътрудничество и обмен между органите за надзор на пазара и нотифициращите органи по въпроси, свързани съответно с надзора на пазара и нотифицираните органи. Постоянната подгрупа за надзор на пазара следва да действа като група за административно сътрудничество (ADCO група) за настоящия регламент по смисъла на член 30 от Регламент (ЕС) 2019/1020. В съответствие с член 33 от същия регламент Комисията следва да подпомага дейностите на постоянната подгрупа за надзор на пазара чрез извършване на оценки или проучвания на пазара, по-специално с цел да се установят аспекти на настоящия регламент, изискващи специфична и спешна координация между органите за надзор на пазара. Съветът по ИИ може да създаде други постоянни или временни подгрупи, когато това е целесъобразно за разглеждането на конкретни въпроси. Съветът по ИИ следва също така да си сътрудничи, когато е целесъобразно, със съответните органи, експертни групи и мрежи на Съюза, извършващи дейност в контекста на съответното право на Съюза, включително по-специално извършващите дейност съгласно правото на Съюза в областта на данните и цифровите продукти и услуги.
(150)
Jotta voidaan varmistaa sidosryhmien osallistuminen tämän asetuksen täytäntöönpanoon ja soveltamiseen, olisi perustettava neuvoa-antava foorumi, joka neuvoo tekoälyneuvostoa ja komissiota ja antaa niiden käyttöön teknistä asiantuntemusta. Jotta voidaan varmistaa kaupallisia ja ei-kaupallisia intressejä edustavien sidosryhmien monipuolinen ja tasapainoinen edustus ja jotta pk-yritykset ja muut yritykset olisivat monipuolisesti ja tasapuolisesti edustettuina kaupallisten intressien luokassa, neuvoa-antavassa foorumissa olisi oltava jäseniä muun muassa teollisuudesta, startup- ja pk-yrityksistä, tiedeyhteisöstä, kansalaisyhteiskunnasta, johon kuuluvat myös työmarkkinaosapuolet, sekä perusoikeusvirastosta, ENISAsta, Euroopan standardointikomiteasta (CEN), Euroopan sähkötekniikan standardointikomiteasta (Cenelec) ja Euroopan telealan standardointilaitoksesta (ETSI).
(150)
За да се гарантира участието на заинтересованите страни в изпълнението и прилагането на настоящия регламент, следва да се създаде консултативен форум, който да консултира и да предоставя технически експертни становища на Съвета по ИИ и на Комисията. За да се гарантира разнообразно и балансирано представителство на заинтересованите страни, свързани с търговски и нетърговски интереси и, в рамките на категорията на търговските интереси, на МСП и други предприятия, консултативният форум следва да включва, наред с другото, стопанския сектор, новосъздадените предприятия, МСП, академичните среди, гражданското общество, включително социалните партньори, както и Агенцията за основните права, ENISA, Европейския комитет по стандартизация (CEN), Европейския комитет за стандартизация в електротехниката (CENELEC) и Европейския институт за стандарти в далекосъобщенията (ETSI).
(151)
Olisi perustettava riippumattomista asiantuntijoista koostuva tiedelautakunta, joka tukee tämän asetuksen täytäntöönpanoa ja noudattamisen valvontaa erityisesti tekoälytoimiston suorittaman yleiskäyttöisten tekoälymallien seurannan osalta. Tiedelautakunnan asiantuntijat olisi valittava tekoälyalan ajantasaisen tieteellisen tai teknisen asiantuntemuksen perusteella, ja heidän olisi suoritettava tehtävänsä puolueettomasti ja objektiivisesti sekä varmistettava tehtäviään ja toimiaan suorittaessaan saamiensa tietojen ja datan luottamuksellisuus. Jotta voidaan lujittaa tämän asetuksen tehokkaan täytäntöönpanon edellyttämiä kansallisia valmiuksia, jäsenvaltioiden olisi voitava pyytää noudattamisen valvontaa varten tukea tiedelautakunnan asiantuntijapoolilta.
(151)
За да се подпомогне изпълнението и прилагането на настоящия регламент, и по-специално дейностите по мониторинг на Службата по ИИ по отношение на моделите на ИИ с общо предназначение, следва да се създаде експертна група, съставена от независими експерти. Независимите експерти, които влизат в състава на експертната група, следва да бъдат подбрани въз основа на актуални научни или технически експертни познания в областта на ИИ, да изпълняват задачите си безпристрастно и обективно и да гарантират поверителността на информацията и данните, получени при изпълнението на задачите и дейностите си. За да се даде възможност за укрепване на националния капацитет, необходим за ефективното прилагане на настоящия регламент, държавите членки следва да могат да искат съдействие от експертите, влизащи в състава на експертната група, във връзка с дейностите си по прилагане на регламента.
(152)
Jotta voidaan tukea asianmukaista noudattamisen valvontaa tekoälyjärjestelmien alalla ja lujittaa jäsenvaltioiden valmiuksia, olisi perustettava unionin tekoälyn testauksen tukirakenteita, jotka annetaan jäsenvaltioiden käyttöön.
(152)
С цел да се допринесе за адекватното правоприлагане по отношение на системите с ИИ и да се укрепи капацитетът на държавите членки, следва да се създадат структури на Съюза за подкрепа на изпитванията в областта на ИИ, които да бъдат на разположение на държавите членки.
(153)
Jäsenvaltioilla on keskeinen rooli tämän asetuksen soveltamisessa ja noudattamisen valvonnassa. Tältä osin kunkin jäsenvaltion olisi nimettävä vähintään yksi ilmoittamisesta vastaava viranomainen ja vähintään yksi markkinavalvontaviranomainen kansallisiksi toimivaltaisiksi viranomaisiksi valvomaan tämän asetuksen soveltamista ja täytäntöönpanoa. Jäsenvaltiot voivat päättää nimittää minkä tahansa julkisyhteisön suorittamaan tässä asetuksessa tarkoitettuja kansallisten toimivaltaisten viranomaisten tehtäviä erityisten kansallisten organisatoristen ominaisuuksiensa ja tarpeidensa mukaisesti. Jotta voidaan lisätä organisoinnin tehokkuutta jäsenvaltioissa ja perustaa keskitetty yhteyspiste yleisölle ja muille vastaaville tahoille jäsenvaltioissa ja unionissa, kunkin jäsenvaltion olisi nimettävä markkinavalvontaviranomainen, joka toimii keskitettynä yhteyspisteenä.
(153)
Държавите членки заемат ключово място в прилагането и изпълнението на настоящия регламент. Във връзка с това всяка държава членка следва да определи най-малко един нотифициращ орган и най-малко един орган за надзор на пазара в качеството им на национални компетентни органи за целите на надзора върху прилагането и изпълнението на настоящия регламент. Държавите членки могат да решат да определят всякакъв вид публичен субект да изпълнява задачите на националните компетентни органи по смисъла на настоящия регламент, в съответствие със своите конкретни национални организационни характеристики и нужди. С цел да се повиши ефективността на организацията от страна на държавите членки и да се създаде единно звено за контакт с обществеността и други партньори на равнището на държавите членки и на Съюза, всяка държава членка следва да определи орган за надзор на пазара, който да изпълнява функциите на единно звено за контакт.
(154)
Kyseisten kansallisten toimivaltaisten viranomaisten olisi käytettävä valtuuksiaan itsenäisesti, puolueettomasti ja ilman ennakkoasenteita, jotta voidaan turvata objektiivisuusperiaatteen noudattaminen niiden toiminnassa ja tehtävien hoitamisessa ja varmistaa tämän asetuksen soveltaminen ja täytäntöönpano. Viranomaisten henkilöstön olisi pidätyttävä kaikesta toiminnasta, joka on ristiriidassa sen tehtävien kanssa, ja siihen olisi sovellettava tämän asetuksen mukaisia luottamuksellisuussääntöjä.
(154)
Националните компетентни органи следва да упражняват правомощията си независимо, безпристрастно и непредубедено, за да бъдат спазени принципите за обективност в дейностите и задачите им и да се гарантира прилагането и изпълнението на настоящия регламент. Членовете на тези органи следва да се въздържат от всякакви действия, несъвместими с техните задължения, и да спазват правилата за поверителност съгласно настоящия регламент.
(155)
Sen varmistamiseksi, että suuririskisten tekoälyjärjestelmien tarjoajat voivat ottaa huomioon suuririskisten tekoälyjärjestelmien käytöstä saadut kokemukset järjestelmiensä ja suunnittelu- ja kehitysprosessiensa parantamiseksi ja toteuttaa ajoissa kaikki mahdolliset korjaavat toimet, kaikilla tarjoajilla olisi oltava käytössä markkinoille saattamisen jälkeinen seurantajärjestelmä. Markkinoille saattamisen jälkeiseen seurantaan olisi tarvittaessa sisällyttävä analyysi vuorovaikutuksesta muiden tekoälyjärjestelmien, myös muiden laitteiden ja ohjelmistojen, kanssa. Markkinoille saattamisen jälkeisen seurannan ei pitäisi kattaa niiden käyttöönottajien arkaluonteisia operatiivisia tietoja, jotka ovat lainvalvontaviranomaisia. Tämä järjestelmä on keskeisessä asemassa myös sen varmistamisessa, että riskeihin, joita voi aiheutua tekoälyjärjestelmistä, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen, voidaan puuttua tehokkaammin ja oikea-aikaisemmin. Tässä yhteydessä olisi myös edellytettävä, että tarjoajilla on käytössä järjestelmä, jolla ne voivat ilmoittaa asiaankuuluville viranomaisille kaikista vakavista vaaratilanteista, jotka ovat seurausta niiden tekoälyjärjestelmien käytöstä, kuten vaaratilanne tai toimintahäiriö, joka johtaa kuolemaan tai vakavaan terveysvahinkoon, vakava tai peruuttamaton häiriö kriittisen infrastruktuurin hallinnassa ja toiminnassa, perusoikeuksien suojaamiseen tarkoitettujen unionin oikeuden mukaisten velvoitteiden rikkominen tai vakava vahinko omaisuudelle tai ympäristölle.
(155)
За да се гарантира, че доставчиците на високорискови системи с ИИ могат да вземат предвид опита от използването на високорискови системи с ИИ с цел да подобряват своите системи и процеса на проектиране и разработване, или че могат своевременно да предприемат евентуални коригиращи действия, всички доставчици следва да разполагат със система за мониторинг след пускането на пазара. Когато е целесъобразно, мониторингът след пускането на пазара следва да включва анализ на взаимодействието с други системи с ИИ, включително други устройства и софтуер. Мониторингът след пускането на пазара не следва да обхваща чувствителни оперативни данни на внедрители, които са правоохранителни органи. Тази система е от ключово значение и с оглед на това да се гарантира, че възможните рискове, произтичащи от системите с ИИ, които продължават да се обучават след пускането им на пазара или пускането им в действие, могат да бъдат преодолени по-ефикасно и своевременно. В този контекст от доставчиците следва също да се изисква да разполагат със система за докладване до съответните органи за всякакви сериозни инциденти, които произтичат от използването на техните системи с ИИ и представляват инцидент или неизправност, водещ(а) до смърт или сериозно увреждане на здравето, сериозно и необратимо нарушаване на управлението и експлоатацията на критична инфраструктура, нарушения на задължения съгласно правото на Съюза, имащо за цел да защитава основните права, или сериозно увреждане на имущество или на околната среда.
(156)
Jotta voidaan varmistaa tässä asetuksessa, joka on osa unionin yhdenmukaistamislainsäädäntöä, vahvistettujen vaatimusten ja velvollisuuksien asianmukainen ja tehokas täytäntöönpano, asetuksella (EU) 2019/1020 perustettua markkinavalvontaa ja tuotteiden vaatimustenmukaisuutta koskevaa järjestelmää olisi sovellettava kokonaisuudessaan. Tämän asetuksen mukaisesti nimetyillä markkinavalvontaviranomaisilla olisi oltava kaikki tässä asetuksessa ja asetuksessa (EU) 2019/1020 säädetyt täytäntöönpanovaltuudet, ja niiden olisi käytettävä valtuuksiaan ja suoritettava tehtävänsä itsenäisesti, puolueettomasti ja ilman ennakkokäsityksiä. Vaikka suurimpaan osaan tekoälyjärjestelmiä ei sovelleta tämän asetuksen mukaisia erityisvaatimuksia tai -velvoitteita, markkinavalvontaviranomaiset voivat toteuttaa tekoälyjärjestelmiä koskevia toimenpiteitä, jos järjestelmistä aiheutuu tämän asetuksen mukainen riski. Kun otetaan huomioon tämän asetuksen soveltamisalaan kuuluvien unionin toimielinten, virastojen ja elinten erityisluonne, on aiheellista nimetä niiden toimivaltaiseksi markkinavalvontaviranomaiseksi Euroopan tietosuojavaltuutettu. Tämä ei saisi vaikuttaa jäsenvaltioiden suorittamaan kansallisten toimivaltaisten viranomaisten nimeämiseen. Markkinavalvontatoimet eivät saisi vaikuttaa valvottujen yhteisöjen kykyyn suorittaa tehtävänsä riippumattomasti, kun tällaista riippumattomuutta edellytetään unionin oikeudessa.
(156)
С оглед да се гарантира подходящо и ефективно прилагане на изискванията и задълженията, установени с настоящия регламент, който е част от законодателството на Съюза за хармонизация, системата за надзор на пазара и съответствие на продуктите, установена с Регламент (ЕС) 2019/1020, следва да се прилага в своята цялост. Органите за надзор на пазара, определени съгласно настоящия регламент, следва да разполагат с всички правомощия за осигуряване на спазването, установени съгласно настоящия регламент и Регламент (ЕС) 2019/1020, и следва да упражняват своите правомощия и да изпълняват своите задължения независимо, безпристрастно и непредубедено. Въпреки че за по-голямата част от системите с ИИ не се прилагат специални изисквания и задължения съгласно настоящия регламент, органите за надзор на пазара могат да предприемат мерки по отношение на всички системи с ИИ, когато те представляват риск в съответствие с настоящия регламент. Поради особеното естество на институциите, агенциите и органите на Съюза, попадащи в обхвата на настоящия регламент, е целесъобразно Европейският надзорен орган по защита на данните да бъде определен за компетентен орган за надзор на пазара по отношение на тях. Това не следва да засяга определянето на национални компетентни органи от държавите членки. Дейностите по надзор на пазара не следва да засягат способността на поднадзорните субекти да изпълняват задачите си по независим начин, когато тази независимост се изисква от правото на Съюза.
(157)
Tämä asetus ei rajoita perusoikeuksien suojelusta annetun unionin oikeuden soveltamista valvovien asiaankuuluvien kansallisten viranomaisten tai elinten, mukaan lukien tasa-arvoelimet ja tietosuojaviranomaiset, toimivaltaa, tehtäviä, valtuuksia ja riippumattomuutta. Näiden kansallisten viranomaisten ja elinten olisi myös voitava saada käyttöönsä kaikki tämän asetuksen nojalla laadittu dokumentaatio, jos se on tarpeen niiden toimeksiannon kannalta. Olisi otettava käyttöön erityinen suojamenettely, jolla varmistetaan riittävä ja oikea-aikainen täytäntöönpano sellaisten tekoälyjärjestelmien osalta, joihin liittyy terveyteen, turvallisuuteen tai perusoikeuksiin kohdistuva riski. Tällaisia riskin aiheuttavia tekoälyjärjestelmiä koskevaa menettelyä olisi sovellettava suuririskisiin tekoälyjärjestelmiin, joihin liittyy riski, kiellettyihin järjestelmiin, jotka on saatettu markkinoille tai otettu käyttöön tai joita käytetään tässä asetuksessa säädettyjen käytäntöjä koskevien kieltojen vastaisesti, ja tekoälyjärjestelmiin, jotka on asetettu saataville tässä asetuksessa säädettyjen avoimuusvaatimusten vastaisesti ja joihin liittyy riski.
(157)
Настоящият регламент не засяга компетентността, задачите, правомощията и независимостта на съответните национални публични органи или структури, които упражняват надзор върху прилагането на правото на Съюза за защита на основните права, включително органите по въпросите на равенството и органите за защита на данните. Когато това е необходимо за упражняването на техните правомощия, тези национални публични органи или структури следва също така да имат достъп до всяка документация, изготвена съгласно настоящия регламент. Следва да се установи специална предпазна процедура, за да се гарантира адекватното и навременно осигуряване на спазването по отношение на системите с ИИ, които представляват риск за здравето, безопасността и основните права. Процедурата за такива системи с ИИ, представляващи риск, следва да се прилага за високорисковите системи с ИИ, представляващи риск, забранените системи, които са били пуснати на пазара, пуснати в действие или използвани в нарушение на определените в настоящия регламент забранени практики, и системите с ИИ, които са били предоставени в нарушение на установените в настоящия регламент изисквания за прозрачност и представляващи риск.
(158)
Rahoituspalveluja koskevaan unionin oikeuteen sisältyy sisäistä hallintoa ja riskinhallintaa koskevia säännöksiä ja vaatimuksia, joita sovelletaan säänneltyihin rahoituslaitoksiin niiden tarjotessa kyseisiä palveluja, myös silloin, kun ne käyttävät tekoälyjärjestelmiä. Jotta voidaan varmistaa tämän asetuksen mukaisten velvoitteiden ja rahoituspalveluja koskevan unionin säädösten asiaa koskevien sääntöjen ja vaatimusten johdonmukainen soveltaminen ja täytäntöönpano, rahoituspalvelulainsäädännön valvonnasta ja täytäntöönpanosta vastaavat toimivaltaiset viranomaiset, sellaisina kuin ne on määritelty Euroopan parlamentin ja neuvoston asetuksessa (EU) N:o 575/2013 (46) ja Euroopan parlamentin ja neuvoston direktiiveissä 2008/48/EY (47), 2009/138/EY (48), 2013/36/EU (49), 2014/17/EU (50) ja (EU) 2016/97 (51), olisi nimettävä toimivaltuuksiensa puitteissa toimivaltaisiksi viranomaisiksi valvomaan tämän asetuksen täytäntöönpanoa, myös markkinavalvontatoimia, säänneltyjen ja valvottujen rahoituslaitosten tarjoamien tai käyttämien tekoälyjärjestelmien osalta, elleivät jäsenvaltiot päätä nimetä muuta viranomaista täyttämään nämä markkinavalvontatehtävät. Näillä toimivaltaisilla viranomaisilla olisi oltava kaikki tämän asetuksen ja asetuksen (EU) 2019/1020 mukaiset valtuudet valvoa tämän asetuksen vaatimusten ja velvoitteiden noudattamista, mukaan lukien valtuudet toteuttaa jälkikäteen markkinavalvontatoimia, jotka voidaan integroida tarvittaessa niiden olemassa oleviin asiaankuuluvan unionin rahoituspalvelulainsäädännön mukaisiin valvontamekanismeihin ja -menettelyihin. On aiheellista säätää, että kun ne toimivat tämän asetuksen mukaisina markkinavalvontaviranomaisina, kansallisten viranomaisten, jotka vastaavat sellaisten direktiivillä 2013/36/EU säänneltyjen luottolaitosten valvonnasta, jotka osallistuvat neuvoston asetuksella (EU) N:o 1024/2013 (52) perustettuun yhteiseen valvontamekanismiin, olisi ilmoitettava viipymättä Euroopan keskuspankille kaikki markkinavalvontatoimiensa yhteydessä määrittämät tiedot, joilla voi olla merkitystä Euroopan keskuspankin vakavaraisuuden valvontatehtäville sellaisina kuin ne määritetään kyseisessä asetuksessa. Jotta voidaan edelleen lisätä johdonmukaisuutta tämän asetuksen ja direktiivillä 2013/36/EU säänneltyihin luottolaitoksiin sovellettavien sääntöjen välillä, direktiivin 2013/36/EU mukaisiin nykyisiin velvoitteisiin ja menettelyihin on aiheellista sisällyttää myös jotkin tarjoajien menettelylliset velvoitteet, jotka liittyvät riskinhallintaan, markkinoille saattamisen jälkeiseen seurantaan ja dokumentaatioon. Päällekkäisyyksien välttämiseksi olisi säädettävä myös rajoitettuja poikkeuksia tarjoajien laadunhallintajärjestelmään ja suuririskisten tekoälyjärjestelmien käyttöönottajille asetettuun seurantavelvoitteeseen siltä osin kuin niitä sovelletaan direktiivillä 2013/36/EU säänneltyihin luottolaitoksiin. Samaa järjestelyä olisi sovellettava direktiivin 2009/138/EY mukaisiin vakuutus- ja jälleenvakuutusyrityksiin ja vakuutushallintayhtiöihin ja direktiivin (EU) 2016/97 mukaisiin vakuutusedustajiin ja muun tyyppisiin rahoituslaitoksiin, joihin sovelletaan asiaankuuluvan unionin rahoituspalvelulainsäädännön mukaisesti vahvistettuja sisäisiä hallintojärjestelyjä tai -prosesseja koskevia vaatimuksia, jotta voidaan varmistaa johdonmukaisuus ja yhdenvertainen kohtelu rahoitusalalla.
(158)
Правото на Съюза в областта на финансовите услуги включва правила и изисквания за вътрешно управление и управление на риска, които са приложими за регулираните финансови институции в процеса на предоставяне на тези услуги, включително когато те използват системи с ИИ. За да се гарантира съгласувано изпълнение и прилагане на задълженията по настоящия регламент и на съответните правила и изисквания съгласно правните актове на Съюза в областта на финансовите услуги, органите, компетентни за надзора и прилагането съгласно тези правни актове, и по-специално компетентните органи по смисъла на Регламент (ЕС) 575/2013 на Европейския парламент и на Съвета (46) и директиви 2008/48/ЕО (47), 2009/138/ЕО (48), 2013/36/ЕС (49), 2014/17/ЕС (50) и (ЕС) 2016/97 (51) на Европейския парламент и на Съвета, следва да бъдат определени, в рамките на съответната им компетентност, за компетентни органи за целите на надзора на прилагането на настоящия регламент, включително за дейностите по надзор на пазара по отношение на системите с ИИ, предоставяни или използвани от регулирани и поднадзорни финансови институции, освен ако държавите членки не решат да определят друг орган, който да изпълнява тези задачи по надзор на пазара. Тези компетентни органи следва да разполагат с всички правомощия съгласно настоящия регламент и Регламент (ЕС) 2019/1020 за налагане на изпълнението на изискванията и задълженията по настоящия регламент, включително правомощия за извършване на дейности по надзор след пускане на пазара, които могат да бъдат включени, когато е целесъобразно, в техните налични надзорни механизми и процедури съгласно съответното право на Съюза в областта на финансовите услуги. Целесъобразно е да се предвиди, че когато действат като органи за надзор на пазара съгласно настоящия регламент, националните органи, отговорни за надзора над кредитните институции, регулирани съгласно Директива 2013/36/ЕС, които участват в единния надзорен механизъм, създаден с Регламент (ЕС) № 1024/2013 на Съвета (52), следва незабавно да докладват на Европейската централна банка всяка информация, установена в хода на дейностите им по надзор на пазара, която може да представлява потенциален интерес във връзка със задачите на Европейската централна банка по упражняване на пруденциален надзор, определени в посочения регламент. За да се подобри още повече съгласуваността между настоящия регламент и правилата, приложими за кредитните институции, регулирани съгласно Директива 2013/36/ЕС, е целесъобразно също така някои от процедурните задължения на доставчиците във връзка с управлението на риска, мониторинга след пускането на пазара и документирането да бъдат включени в съществуващите задължения и процедури съгласно Директива 2013/36/ЕС. За да се избегне припокриване, следва да се предвидят и ограничени дерогации във връзка със системата за управление на качеството на доставчиците и задължението за мониторинг, наложено на внедрителите на високорискови системи с ИИ, доколкото те се прилагат за кредитни институции, регулирани с Директива 2013/36/ЕС. Същият режим следва да се прилага за застрахователните и презастрахователните предприятия и застрахователните холдинги съгласно Директива 2009/138/ЕО и за застрахователните посредници съгласно Директива (ЕС) 2016/97, както и за други видове финансови институции, за които се прилагат изискванията по отношение на вътрешното управление, механизмите или процесите, установени съгласно съответното право на Съюза в областта на финансовите услуги, с цел да се гарантира последователност и равно третиране във финансовия сектор.
(159)
Kullakin sellaisten biometriikan alan suuririskisten tekoälyjärjestelmien markkinavalvontaviranomaisella, jotka on lueteltu tämän asetuksen liitteessä, siltä osin kuin kyseisiä järjestelmiä käytetään lainvalvonnan, muuttoliikkeen hallinnan, turvapaikka-asioiden ja rajavalvonnan tarkoituksiin tai oikeudenkäytössä ja demokraattisissa prosesseissa, olisi oltava tehokkaat tutkinta- ja korjaavat valtuudet, mukaan lukien ainakin valtuudet saada pääsy kaikkiin käsiteltäviin henkilötietoihin ja kaikkiin sen tehtävien suorittamisen kannalta tarvittaviin tietoihin. Markkinavalvontaviranomaisten olisi voitava käyttää valtuuksiaan täysin riippumattomasti. Mahdollisten rajoitusten, joita tässä asetuksessa asetetaan markkinaviranomaisten pääsylle arkaluonteisiin operatiivisiin tietoihin, ei pitäisi vaikuttaa niille direktiivillä (EU) 2016/680 annettuihin valtuuksiin. Tässä asetuksessa säädettyjen poikkeusten, jotka koskevat tietojen luovuttamista kansallisille tietosuojaviranomaisille, ei pitäisi vaikuttaa näiden viranomaisten nykyisiin tai tuleviin valtuuksiin tämän asetuksen soveltamisalan ulkopuolella.
(159)
Всеки орган за надзор на пазара на високорисковите системи с ИИ в областта на биометричните данни, чийто списък се съдържа в приложение към настоящия регламент — доколкото системите се използват за правоохранителни цели или за целите на миграцията, убежището, управлението на граничния контрол или правораздаването и демократичните процеси — следва да разполага с ефективни правомощия за разследване и с коригиращи правомощия, включително най-малко правомощието да получава достъп до всички лични данни, които се обработват, и до цялата информация, необходима за изпълнението на неговите задачи. Органите за надзор на пазара следва да могат да упражняват правомощията си, като действат напълно независимо. Ограниченията на достъпа им до чувствителни оперативни данни съгласно настоящия регламент не следва да засягат правомощията, предоставени им с Директива (ЕС) 2016/680. Случаите, в които се изключва разкриването на данни пред националните органи за защита на данните съгласно настоящия регламент, не следва да засягат настоящите или бъдещите правомощия на тези органи извън обхвата на настоящия регламент.
(160)
Markkinavalvontaviranomaisten ja komission olisi voitava ehdottaa yhteisiä toimia, myös yhteisiä tutkimuksia, jotka markkinavalvontaviranomaiset toteuttavat itse tai yhdessä komission kanssa ja joiden tavoitteena on edistää vaatimusten noudattamista, havaita vaatimusten noudattamatta jättäminen, lisätä tietämystä ja antaa neuvoja tähän asetukseen liittyvistä asioista ja niistä suuririskisten tekoälyjärjestelmien luokista, joihin on todettu liittyvän vakava riski kahdessa tai useammassa jäsenvaltiossa. Vaatimusten noudattamista edistävät toimet olisi toteutettava asetuksen (EU) 2019/1020 9 artiklan mukaisesti. Tekoälytoimiston olisi annettava koordinointitukea yhteisiä tutkimuksia varten.
(160)
Органите за надзор на пазара и Комисията следва да могат да предлагат съвместни дейности, включително съвместни разследвания, които да се провеждат от органите за надзор на пазара или от органите за надзор на пазара съвместно с Комисията, и да имат за цел насърчаване на постигането на съответствие, установяване на несъответствие, повишаване на осведомеността и осигуряване на насоки във връзка с настоящия регламент по отношение на конкретни категории високорискови системи с ИИ, за които е установено, че представляват сериозен риск в две или повече държави членки. Съвместни дейности за насърчаване на постигането на съответствие следва да се извършват съгласно член 9 от Регламент (ЕС) 2019/1020. Службата по ИИ следва да предоставя координационна подкрепа за съвместни разследвания.
(161)
On aiheellista selventää unionin ja kansallisen tason vastuut ja toimivalta niiden tekoälyjärjestelmien osalta, jotka perustuvat yleiskäyttöisiin tekoälymalleihin. Kun tekoälyjärjestelmä perustuu yleiskäyttöiseen tekoälymalliin ja kun mallia ja järjestelmää tarjoaa sama tarjoaja, valvonta olisi päällekkäisten toimivaltuuksien välttämiseksi toteutettava unionin tasolla tekoälytoimistossa, jolla olisi tätä tarkoitusta varten oltava asetuksessa (EU) 2019/1020 tarkoitetun markkinavalvontaviranomaisen valtuudet. Kaikissa muissa tapauksissa tekoälyjärjestelmien valvonnasta vastaavat kansalliset markkinavalvontaviranomaiset. Niiden yleiskäyttöisten tekoälymallien osalta, joita käyttöönottajat voivat käyttää suoraan vähintään yhteen suuririskiseksi luokiteltuun tarkoitukseen, markkinavalvontaviranomaisten olisi kuitenkin tehtävä yhteistyötä tekoälytoimiston kanssa vaatimustenmukaisuuden arviointien suorittamisessa ja ilmoitettava arviointien tuloksista tekoälyneuvostolle ja muille markkinavalvontaviranomaisille. Lisäksi markkinavalvontaviranomaisten olisi voitava pyytää apua tekoälytoimistolta, jos ne eivät pysty saattamaan päätökseen suuririskistä tekoälyjärjestelmää koskevaa tutkintaa, koska niillä ei ole pääsyä tiettyihin tietoihin, jotka liittyvät yleiskäyttöiseen tekoälymalliin, jonka pohjalta suuririskinen tekoälyjärjestelmä on rakennettu. Tällaisissa tapauksissa olisi sovellettava soveltuvin osin asetuksen (EU) 2019/1020 VI luvussa säädettyä rajatylittävän keskinäisen avunannon menettelyä.
(161)
Необходимо е да се изяснят отговорностите и компетентността на равнището на Съюза и на национално равнище по отношение на системите с ИИ, изградени въз основа на модели на ИИ с общо предназначение. За да се избегне припокриването на компетентност, когато дадена система с ИИ се основава на модел на ИИ с общо предназначение и моделът и системата се предоставят от един и същи доставчик, надзорът следва да се извършва на равнището на Съюза чрез Службата по ИИ, която следва да разполага с правомощията на орган за надзор на пазара по смисъла на Регламент (ЕС) 2019/1020 за тази цел. Във всички останали случаи националните органи за надзор на пазара продължават да носят отговорност за надзора на системите с ИИ. За системите с ИИ с общо предназначение обаче, които могат да се използват пряко от внедрителите с най-малко едно предназначение, класифицирано като високорисково, органите за надзор на пазара следва да си сътрудничат със Службата по ИИ, за да извършат оценки на съответствието, и да информират съответно Съвета по ИИ и другите органи за надзор на пазара. Освен това органите за надзор на пазара следва да могат да искат съдействие от Службата по ИИ, когато органът за надзор на пазара не е в състояние да приключи дадено разследване на високорискова система с ИИ поради невъзможност да получи достъп до определена информация, свързана с модела на ИИ с общо предназначение, въз основа на който е изградена високорисковата система с ИИ. В такива случаи следва да се прилага mutatis mutandis процедурата за трансгранична взаимопомощ, предвидена в глава VI от Регламент (ЕС) 2019/1020.
(162)
Jotta unionin tason keskitetystä asiantuntemuksesta ja unionin tason synergioista saataisiin paras hyöty, yleiskäyttöisten tekoälymallien tarjoajien valvonnan ja niiden velvoitteiden noudattamisen valvonnan olisi kuuluttava komission toimivaltaan. Tekoälytoimiston olisi voitava toteuttaa kaikki tarvittavat toimet tämän asetuksen tehokkaan täytäntöönpanon seuraamiseksi yleiskäyttöisten tekoälymallien osalta. Sen olisi voitava tutkia yleiskäyttöisten tekoälymallien tarjoajia koskevien sääntöjen mahdollisia rikkomisia sekä omasta aloitteestaan seurantatoimiensa tulosten perusteella tai markkinavalvontaviranomaisten pyynnöstä tässä asetuksessa säädettyjen edellytysten mukaisesti. Jotta voidaan tukea tekoälytoimiston suorittamaa tehokasta seurantaa, tekoälytoimiston olisi tarjottava ketjun loppupään toimijoille mahdollisuus tehdä valituksia yleiskäyttöisten tekoälymallien ja -järjestelmien tarjoajia koskevien sääntöjen mahdollisista rikkomisista.
(162)
За да се използват по най-добрия начин централизираният експертен опит на Съюза и полезните взаимодействия на равнището на Съюза, правомощията за надзор и осигуряване на спазване по отношение на задълженията на доставчиците на модели на ИИ с общо предназначение следва да бъдат от компетентността на Комисията. Службата по ИИ следва да може да извършва всички необходими действия за мониторинг на ефективното прилагане на настоящия регламент по отношение на моделите на ИИ с общо предназначение. Тя следва да може да разследва евентуални нарушения на правилата относно доставчиците на модели на ИИ с общо предназначение както по собствена инициатива, на основание на резултатите от своите дейности по мониторинг, така и по искане на органите за надзор на пазара, в съответствие с условията, установени в настоящия регламент. За да се допринесе за извършването на ефективен мониторинг от страна на Службата по ИИ, следва да се предвиди възможността доставчиците надолу по веригата да подават жалби във връзка с евентуални нарушения на правилата относно доставчиците на модели на ИИ с общо предназначение и системи с ИИ с общо предназначение.
(163)
Jotta täydennettäisiin yleiskäyttöisten tekoälymallien hallintojärjestelmiä, tiedelautakunnan olisi tuettava tekoälytoimiston seurantatoimia ja se voi tietyissä tapauksissa toimittaa tekoälytoimistolle perusteltuja varoituksia, joilla käynnistetään jatkotoimia, kuten tutkimuksia. Näin olisi oltava silloin, kun tiedelautakunnalla on aihetta epäillä, että yleiskäyttöinen tekoälymalli aiheuttaa konkreettisen ja tunnistettavan riskin unionin tasolla. Näin olisi oltava myös silloin, kun tiedelautakunnalla on aihetta epäillä, että yleiskäyttöinen tekoälymalli täyttää perusteet, joiden mukaisesti se olisi luokiteltava yleiskäyttöiseksi tekoälymalliksi, johon liittyy systeeminen riski. Jotta tiedelautakunta saisi näiden tehtäviensä suorittamiseen tarvittavat tiedot, olisi perustettava mekanismi, jonka avulla tiedelautakunta voi pyytää komissiota vaatimaan tarjoajalta asiakirjoja tai tietoja.
(163)
С цел допълване на системите за управление на моделите на ИИ с общо предназначение, експертната група следва да подпомага дейностите по мониторинг на Службата по ИИ и да може в определени случаи да отправя приоритетни сигнали до Службата по ИИ, които да водят до последващи действия, например разследвания. Такъв следва да бъде случаят, когато експертната група има основания да предполага, че даден модел на ИИ с общо предназначение представлява конкретен и установим риск на равнището на Съюза. Освен това такъв следва да бъде случаят, когато експертната група има основания да предполага, че даден модел на ИИ с общо предназначение отговаря на критериите, които биха довели до класифицирането му като модел на ИИ с общо предназначение, пораждащ системен риск. За да може експертната група да разполага с информацията, необходима за изпълнението на тези задачи, следва да има механизъм, чрез който експертната група да може да отправи искане към Комисията с цел да бъде изискана документация или информация от даден доставчик.
(164)
Tekoälytoimiston olisi voitava toteuttaa tarvittavat toimet seuratakseen tässä asetuksessa säädettyjen yleiskäyttöisten tekoälymallien tarjoajia koskevien velvoitteiden tehokasta täytäntöönpanoa ja noudattamista. Tekoälytoimiston olisi voitava tutkia mahdollisia rikkomisia tässä asetuksessa säädettyjen valtuuksiensa mukaisesti, mukaan lukien pyytämällä asiakirjoja ja tietoja, suorittamalla arviointeja ja pyytämällä yleiskäyttöisten tekoälymallien tarjoajia toteuttamaan toimenpiteitä. Jotta voidaan hyödyntää riippumatonta asiantuntemusta arviointien suorittamisessa, tekoälytoimiston olisi voitava pyytää riippumattomia asiantuntijoita suorittamaan arvioinnit sen puolesta. Velvoitteiden noudattamista olisi voitava valvoa muun muassa asianmukaisten toimenpiteiden toteuttamiseen kehottavilla pyynnöillä, mukaan lukien riskinvähentämistoimenpiteet tunnistettujen systeemisten riskien tapauksessa, ja rajoittamalla mallin asettamista saataville markkinoilla, poistamalla se markkinoilta tai soveltamalla mallin palautusmenettelyä. Tässä asetuksessa säädettyjen menettelyllisten oikeuksien lisäksi voidaan tarvittaessa soveltaa takeita, joiden mukaan yleiskäyttöisten tekoälymallien tarjoajilla olisi oltava asetuksen (EU) 2019/1020 18 artiklassa säädetyt menettelylliset oikeudet, joita olisi sovellettava soveltuvin osin, sanotun kuitenkaan rajoittamatta tässä asetuksessa säädettyjen yksityiskohtaisempien menettelyllisten oikeuksien soveltamista.
(164)
Службата по ИИ следва да може да предприема необходимите действия за мониторинг на ефективното изпълнение и спазване на установените в настоящия регламент задължения на доставчиците на модели на ИИ с общо предназначение. Службата за ИИ следва да може да разследва евентуални нарушения в съответствие с правомощията, предвидени в настоящия регламент, включително като изисква документация и информация, като извършва оценки, както и като изисква предприемането на мерки от доставчиците на модели на ИИ с общо предназначение. При извършването на оценките, с цел да използва независим експертен опит, Службата по ИИ следва да може да привлича независими експерти, които да извършват оценките от нейно име. Спазването на задълженията следва да бъде осигурено, наред с другото, чрез искания за предприемане на подходящи мерки, включително мерки за ограничаване на риска в случай на установени системни рискове, както и чрез ограничаване на предоставянето на пазара на даден модел, неговото изтегляне или изземване. Като гаранция в случай на необходимост, освен процесуалните права, предвидени в настоящия регламент, доставчиците на модели на ИИ с общо предназначение следва да разполагат с процесуалните права съгласно член 18 от Регламент (ЕС) 2019/1020, които следва да се прилагат, mutatis mutandis, без да се засягат специалните процесуални права, предвидени в настоящия регламент.
(165)
Muiden tekoälyjärjestelmien kuin suuririskisten tekoälyjärjestelmien kehittäminen tämän asetuksen vaatimusten mukaisesti voi johtaa eettisen ja luotettavan tekoälyn laajempaan käyttöönottoon unionissa. Muiden kuin suuririskisten tekoälyjärjestelmien tarjoajia olisi kannustettava laatimaan käytännesääntöjä, mukaan lukien asiaankuuluvat hallintomekanismit, joilla pyritään edistämään joidenkin tai kaikkien suuririskisiin tekoälyjärjestelmiin sovellettavien pakollisten vaatimusten vapaaehtoista soveltamista ja jotka on mukautettu järjestelmien käyttötarkoituksen ja niihin liittyvän pienemmän riskin perusteella ja joissa otetaan huomioon saatavilla olevat tekniset ratkaisut ja alan parhaat käytännöt, kuten malli- ja datakortit. Kaikenlaisten, sekä suuririskisten että muiden tekoälyjärjestelmien ja tekoälymallien tarjoajia ja tapauksen mukaan käyttöönottajia olisi myös kannustettava soveltamaan vapaaehtoisesti lisävaatimuksia, jotka liittyvät esimerkiksi luotettavaa tekoälyä koskevien unionin eettisten ohjeiden osatekijöihin, ympäristökestävyyteen, tekoälylukutaitoa edistäviin toimenpiteisiin, tekoälyjärjestelmien osallistavaan ja monimuotoiseen suunnitteluun ja kehittämiseen, mukaan lukien haavoittuvassa asemassa olevien henkilöiden huomiointi ja vammaisten henkilöiden esteettömyys, sidosryhmien osallistumiseen, mukaan lukien tarvittaessa asiaankuuluvien sidosryhmien, kuten liike-elämän ja kansalaisyhteiskunnan järjestöjen, tiedeyhteisön ja tutkimusorganisaatioiden, ammattiliittojen ja kuluttajansuojajärjestöjen osallistuminen, tekoälyjärjestelmien suunnitteluun ja kehittämiseen sekä kehitysryhmien moninaisuuteen, mukaan lukien sukupuolten tasapuolinen edustus. Jotta voidaan varmistaa vapaaehtoisten käytännesääntöjen tehokkuus, niiden olisi perustuttava selkeisiin tavoitteisiin ja keskeisiin tulosindikaattoreihin, joilla mitataan näiden tavoitteiden saavuttamista. Niitä olisi myös kehitettävä osallistavalla tavalla ottamalla mukaan tarvittaessa asiaankuuluvia sidosryhmiä, kuten liike-elämän ja kansalaisyhteiskunnan järjestöt, tiedeyhteisö ja tutkimusorganisaatiot, ammattiliitot ja kuluttajansuojajärjestöt. Komissio voi kehittää aloitteita, myös alakohtaisia aloitteita, vähentääkseen tekoälyn kehittämistä varten tapahtuvaa rajat ylittävää datanvaihtoa haittaavia teknisiä esteitä, muun muassa datan käyttöinfrastruktuurin sekä eri datatyyppien semanttisen ja teknisen yhteentoimivuuden aloilla.
(165)
Разработването на системи с ИИ, различни от високорискови системи с ИИ, в съответствие с изискванията на настоящия регламент може да доведе до по-широко внедряване на етичен и надежден ИИ в Съюза. Доставчиците на системи с ИИ, които не са високорискови, следва да бъдат насърчавани да изготвят кодекси за поведение, включително свързани с тях управленски механизми, предназначени да поощряват прилагането на доброволна основа на някои или на всички задължителни изисквания, приложими за високорисковите системи с ИИ и адаптирани с оглед на предназначението на системите и по-ниския риск, като вземат предвид наличните технически решения и най-добрите практики в сектора, например карти за модели и данни. Доставчиците и, когато е целесъобразно, внедрителите на всички системи с ИИ — високорискови или не, както и на всички модели с ИИ, следва също да бъдат насърчавани да прилагат на доброволна основа допълнителни изисквания, свързани например с елементи на Насоките на Съюза относно етичните аспекти за надежден ИИ, екологичната устойчивост, мерките относно грамотността в областта на ИИ, приобщаващия характер и многообразието при проектирането и разработването на системи с ИИ, включително повишеното внимание към уязвимите лица и достъпността за хора с увреждания, участието на заинтересованите страни чрез привличане, когато е целесъобразно, на заинтересовани страни като професионални организации и организации на гражданското общество, академични среди, научноизследователски организации, синдикати и организации за защита на потребителите, в проектирането и разработването на системи с ИИ, както и многообразието на екипите от разработчици, включително баланса между половете. За да се гарантира, че незадължителните кодекси за поведение са ефективни, те следва да се основават на ясни цели и ключови показатели за ефективност, за да може да бъде оценено постигането на тези цели. Те следва също така да бъдат разработени по приобщаващ начин, когато е целесъобразно - с участието на съответните заинтересовани страни, като професионални организации и организации на гражданското общество, академични среди, научноизследователски организации, синдикати и организации за защита на потребителите. Комисията може да разработва инициативи, включително от секторен характер, за да улесни преодоляването на техническите пречки пред трансграничния обмен на данни за разработването на ИИ, включително свързаните с инфраструктурата за достъп до данни и семантичната и техническата оперативна съвместимост на различните видове данни.
(166)
On tärkeää, että tuotteisiin liittyvät tekoälyjärjestelmät, jotka eivät ole tämän asetuksen mukaisesti suuririskisiä ja joiden ei näin ollen tarvitse täyttää suuririskisille tekoälyjärjestelmille vahvistettuja vaatimuksia, ovat kuitenkin turvallisia, kun ne saatetaan markkinoille tai otetaan käyttöön. Tämän tavoitteen saavuttamiseksi Euroopan parlamentin ja neuvoston asetusta (EU) 2023/988 (53) sovellettaisiin turvaverkkona.
(166)
Важно е системите с ИИ, свързани с продукти, които не са високорискови в съответствие с настоящия регламент и поради това не е задължително да отговарят на изискванията, установени за високорисковите системи с ИИ, да бъдат въпреки това безопасни при пускането им на пазара или пускането им в действие. За да се допринесе за постигането на тази цел, допълнителна гаранция ще представлява възможността за прилагане на Регламент (ЕС) 2023/988 на Европейския парламент и на Съвета (53).
(167)
Jotta voidaan varmistaa toimivaltaisten viranomaisten luotettava ja rakentava yhteistyö unionin ja kansallisella tasolla, kaikkien tämän asetuksen soveltamiseen osallistuvien osapuolten olisi kunnioitettava tehtäviään suorittaessaan saamiensa tietojen ja datan luottamuksellisuutta unionin tai kansallisen lainsäädännön mukaisesti. Niiden olisi hoidettava tehtävänsä ja toimensa siten, että suojellaan erityisesti teollis- ja tekijänoikeuksia, luottamuksellisia liiketoimintatietoja ja liikesalaisuuksia, tämän asetuksen tehokasta täytäntöönpanoa, yleisiä ja kansallisia turvallisuusetuja, rikosoikeudellisten ja hallinnollisten menettelyjen koskemattomuutta sekä turvallisuusluokiteltujen tietojen eheyttä.
(167)
За да се гарантира надеждно и конструктивно сътрудничество между компетентните органи на равнището на Съюза и на национално равнище, всички страни, участващи в прилагането на настоящия регламент, следва да зачитат поверителността на информацията и данните, получавани при изпълнението на техните задачи, в съответствие с правото на Съюза и националното право. Те следва да изпълняват задачите и дейностите си по такъв начин, че да закрилят по-специално правата върху интелектуалната собственост, поверителната търговска информация и търговските тайни, ефективното прилагане на настоящия регламент, обществените интереси и националната сигурност, независимостта на наказателните или административните производства и неприкосновеността на класифицираната информация.
(168)
Tämän asetuksen noudattamisen varmistamiseksi olisi voitava määrätä seuraamuksia ja muita täytäntöönpanotoimenpiteitä. Jäsenvaltioiden olisi toteutettava kaikki tarvittavat toimenpiteet sen varmistamiseksi, että tämän asetuksen säännökset pannaan täytäntöön, myös säätämällä niiden rikkomiseen sovellettavista tehokkaista, oikeasuhteisista ja varoittavista seuraamuksista, ja ne bis in idem -periaatteen noudattamiseksi. Jotta voidaan tehostaa ja yhdenmukaistaa tämän asetuksen rikkomisesta määrättäviä hallinnollisia seuraamuksia, tietyistä rikkomisista määrättäville hallinnollisille sakoille olisi vahvistettava enimmäismäärät. Sakkojen määrää arvioidessaan jäsenvaltioiden olisi kussakin yksittäistapauksessa otettava huomioon kaikki kyseisen tilanteen kannalta merkittävät olosuhteet sekä erityisesti rikkomisen ja sen seurausten luonne, vakavuus ja kesto sekä tarjoajan organisaation koko erityisesti, jos tarjoaja on pk-yritys, startup-yritykset mukaan lukien. Euroopan tietosuojavaltuutetulla olisi oltava valtuudet määrätä sakkoja tämän asetuksen soveltamisalaan kuuluville unionin toimielimille, virastoille ja elimille.
(168)
Спазването на настоящия регламент следва да може да се гарантира чрез налагането на санкции и други мерки за изпълнение. Държавите членки следва да предприемат всички необходими мерки, за да гарантират прилагането на разпоредбите на настоящия регламент, включително чрез установяването на ефективни, пропорционални и възпиращи санкции за тяхното нарушаване, за да осигурят зачитането на принципа non bis in idem. С цел подсилване и хармонизиране на административните санкции за нарушения на настоящия регламент, следва да се установят горните граници за определяне на административните глоби и имуществени санкции за някои конкретни нарушения. При определянето на размера на глобите и имуществените санкции държавите членки следва във всеки отделен случай да вземат предвид всички обстоятелства на конкретния случай, като надлежно отчитат по-специално естеството, тежестта и продължителността на нарушението и неговите последици, както и размера на доставчика, по-специално ако доставчикът е МСП, включително новосъздадено предприятие. Европейският надзорен орган по защита на данните следва да има правомощията да налага глоби на институциите, агенциите и органите на Съюза, попадащи в обхвата на настоящия регламент.
(169)
Yleiskäyttöisten tekoälymallien tarjoajille tämän asetuksen nojalla asetettujen velvoitteiden noudattamisen varmistamiseksi olisi voitava määrätä muun muassa sakkoja. Tätä varten olisi myös vahvistettava asianmukaiset tasot sakoille, joita määrätään kyseisten velvoitteiden rikkomisesta, mukaan lukien komission tämän asetuksen mukaisesti pyytämien toimenpiteiden noudattamatta jättäminen, jollei suhteellisuusperiaatteen mukaisista asianmukaisista vanhentumisajoista muuta johdu. Kaikki tämän asetuksen mukaiset komission päätökset voidaan Euroopan unionin toiminnasta tehdyn Euroopan unionin toiminnasta tehdyn sopimuksen mukaisesti saattaa Euroopan unionin tuomioistuimen tutkittaviksi, mukaan lukien unionin tuomioistuimen täysi harkintavalta seuraamusten osalta Euroopan unionin toiminnasta tehdyn sopimuksen 261 artiklan nojalla.
(169)
Спазването на задълженията на доставчиците на модели на ИИ с общо предназначение, наложени с настоящия регламент, следва да може да се гарантира, наред с другото, чрез глоби. За тази цел следва да се определят и подходящи размери на глобите за нарушение на тези задължения, включително неизпълнението на мерките, изисквани от Комисията в съответствие с настоящия регламент, при прилагане на подходящи давностни срокове в съответствие с принципа на пропорционалност. Всички решения, приемани от Комисията съгласно настоящия регламент, подлежат на контрол от Съда на Европейския съюз в съответствие с ДФЕС, включително на пълната юрисдикция на Съда във връзка със санкциите съгласно член 261 ДФЕС.
(170)
Unionin oikeudessa ja kansallisessa lainsäädännössä säädetään jo tehokkaista oikeussuojakeinoista luonnollisille henkilöille ja oikeushenkilöille, joiden oikeuksiin ja vapauksiin tekoälyjärjestelmien käyttö vaikuttaa haitallisesti. Kaikilla luonnollisilla henkilöillä tai oikeushenkilöillä, joilla on perusteita katsoa, että tätä asetusta on rikottu, olisi oltava oikeus tehdä valitus asianomaiselle markkinavalvontaviranomaiselle.
(170)
В правото на Съюза и националното право вече са предвидени ефективни правни средства за защита на физическите и юридическите лица, чиито права и свободи са неблагоприятно засегнати от използването на системи с ИИ. Без да се засягат тези правни средства за защита, всяко физическо или юридическо лице, което има основания да счита, че е налице нарушение на настоящия регламент, следва да има правото да подаде жалба до съответния орган за надзор на пазара.
(171)
Henkilöillä, joihin vaikutukset kohdistuvat, olisi oltava oikeus saada selvitys, kun käyttöönottajan päätöksen pääasiallinen perusta on tämän asetuksen soveltamisalaan kuuluvien tiettyjen suuririskisten tekoälyjärjestelmien tuotos ja kun kyseisellä päätöksellä on oikeusvaikutuksia tai se vaikuttaa asianomaisiin henkilöihin vastaavasti merkittävästi tavalla, jonka asianomaiset henkilöt katsovat olevan haitallinen terveyteensä, turvallisuuteensa tai perusoikeuksiinsa nähden. Kyseisen selvityksen olisi oltava selkeä ja merkityksellinen, ja sen olisi tarjottava henkilöille, joihin vaikutukset kohdistuvat, perusta, jonka avulla nämä voivat käyttää oikeuksiaan. Oikeutta selvityksen saamiseen ei pitäisi soveltaa sellaisten tekoälyjärjestelmien käyttöön, joita koskevat poikkeukset tai rajoitukset johtuvat unionin oikeudesta tai kansallisesta lainsäädännöstä, ja tätä olisi sovellettava vain siltä osin kuin kyseessä olevasta oikeudesta ei ole jo säädetty unionin oikeudessa.
(171)
Засегнатите лица следва да имат правото да получат обяснение, в случай че дадено решение, взето от внедрител преди всичко въз основа на резултата от работата на определени високорискови системи с ИИ, попадащи в обхвата на настоящия регламент, поражда правни последици за тях или по сходен начин ги засяга в значителна степен по начин, който според тях оказва неблагоприятно въздействие върху тяхното здраве, безопасност или основни права. Това обяснение следва да бъде ясно и изчерпателно и да дава основание на засегнатите лица да упражнят правата си. Правото на получаване на обяснение не следва да се прилага относно използването на системи с ИИ, по отношение на които от правото на Съюза или от националното право произтичат изключения или ограничения, и следва да се прилага само доколкото това право все още не е предвидено в законодателството на Съюза.
(172)
Henkilöitä, jotka toimivat väärinkäytösten paljastajina tämän asetuksen rikkomistapauksissa, olisi suojeltava unionin oikeuden nojalla. Tämän asetuksen rikkomisesta ilmoittamiseen ja rikkomisesta ilmoittavien henkilöiden suojeluun olisi näin ollen sovellettava Euroopan parlamentin ja neuvoston direktiiviä (EU) 2019/1937 (54).
(172)
Лица, сигнализиращи за нередности във връзка с нарушения на настоящия регламент, следва да бъдат защитени в съответствие с правото на Съюза. Поради това по отношение на подаването на сигнали за нарушения на настоящия регламент и защитата на лицата, които подават сигнали за такива нарушения, следва да се прилага Директива (ЕС) 2019/1937 на Европейския парламент и на Съвета (54).
(173)
Sen varmistamiseksi, että sääntelykehystä voidaan tarvittaessa mukauttaa, komissiolle olisi siirrettävä valta hyväksyä Euroopan unionin toiminnasta tehdyn sopimuksen 290 artiklan mukaisesti säädösvallan siirron nojalla annettavia delegoituja säädöksiä, joilla muutetaan niitä edellytyksiä, joiden nojalla tekoälyjärjestelmää ei ole pidettävä suuririskisenä, suuririskisten tekoälyjärjestelmien luetteloa, teknistä dokumentaatiota koskevia säännöksiä, EU-vaatimustenmukaisuusvakuutuksen sisältöä, vaatimustenmukaisuuden arviointimenettelyjä koskevia säännöksiä, säännöksiä, joilla määritetään suuririskiset tekoälyjärjestelmät, joihin olisi sovellettava laadunhallintajärjestelmän ja teknisen dokumentaation arviointiin perustuvaa vaatimustenmukaisuuden arviointimenettelyä, kynnystä, vertailuarvoja ja indikaattoreita, muun muassa täydentäen kyseisiä vertailuarvoja ja indikaattoreita, joista on säädetty sellaisten yleiskäyttöisten tekoälymallien, joihin liittyy systeeminen riski, luokittelua koskevissa säännöissä, kriteereitä yleiskäyttöisille tekoälymalleille, joihin liittyy systeeminen riski, yleiskäyttöisten tekoälymallien tarjoajia koskevaa teknistä dokumentaatiota ja yleiskäyttöisten tekoälymallien tarjoajia koskevia avoimuustietoja. On erityisen tärkeää, että komissio asiaa valmistellessaan toteuttaa asianmukaiset kuulemiset, myös asiantuntijatasolla, ja että nämä kuulemiset toteutetaan paremmasta lainsäädännöstä 13 päivänä huhtikuuta 2016 tehdyssä toimielinten välisessä sopimuksessa (55) vahvistettujen periaatteiden mukaisesti. Jotta voitaisiin erityisesti varmistaa tasavertainen osallistuminen delegoitujen säädösten valmisteluun, Euroopan parlamentille ja neuvostolle toimitetaan kaikki asiakirjat samaan aikaan kuin jäsenvaltioiden asiantuntijoille, ja Euroopan parlamentin ja neuvoston asiantuntijoilla on järjestelmällisesti oikeus osallistua komission asiantuntijaryhmien kokouksiin, joissa valmistellaan delegoituja säädöksiä.
(173)
С цел да се гарантира, че регулаторната рамка може да бъде адаптирана при необходимост, на Комисията следва да бъде делегирано правомощието да приема актове в съответствие с член 290 ДФЕС за изменение на условията, при които дадена система с ИИ не се смята за високорискова, списъка на високорисковите системи с ИИ, разпоредбите относно техническата документация, съдържанието на ЕС декларацията за съответствие, разпоредбите относно процедурите за оценяване на съответствието, разпоредбите за определяне на високорисковите системи с ИИ, за които се прилага процедурата за оценяване на съответствието въз основа на оценката на системата за управление на качеството и оценката на техническата документация, праговете, референтните стойности и показателите, включително чрез допълване на тези референтни стойности и показатели, в правилата за класифициране на моделите на ИИ с общо предназначение, пораждащи системен риск, критериите за определяне на моделите на ИИ с общо предназначение, пораждащи системен риск, техническата документация за доставчиците на модели на ИИ с общо предназначение и информацията с цел прозрачност за доставчиците на модели на ИИ с общо предназначение. От особена важност е по време на подготвителната си работа Комисията да проведе подходящи консултации, включително на експертно равнище, и тези консултации да бъдат проведени в съответствие с принципите, заложени в Междуинституционалното споразумение от 13 април 2016 г. за по-добро законотворчество (55). По-специално, с цел осигуряване на равно участие при подготовката на делегираните актове, Европейският парламент и Съветът получават всички документи едновременно с експертите от държавите членки, като техните експерти получават систематично достъп до заседанията на експертните групи на Комисията, занимаващи се с подготовката на делегираните актове.
(174)
Koska teknologia kehittyy nopeasti ja tämän asetuksen tehokas soveltaminen edellyttää teknistä asiantuntemusta, komission olisi arvioitava ja tarkasteltava tätä asetusta uudelleen viimeistään 2 päivänä elokuuta 2029 [viiden vuoden kuluttua asetuksen voimaantulosta] ja sen jälkeen joka neljäs vuosi ja annettava asiasta kertomus Euroopan parlamentille ja neuvostolle. Komission olisi lisäksi arvioitava kerran vuodessa tarvetta muuttaa suuririskisten tekoälyjärjestelmien luetteloa ja kiellettyjen käytäntöjen luetteloa, ottaen huomioon tämän asetuksen soveltamisalaan kohdistuvat vaikutukset. Lisäksi komission olisi 2 päivään elokuuta 2028 mennessä ja sen jälkeen neljän vuoden välein tehtävä arvio, joka koskee tarvetta muuttaa tämän asetuksen liitteessä olevaa suuririskisten alojen otsikoiden luetteloa, avoimuusvelvoitteiden soveltamisalaan kuuluvia tekoälyjärjestelmiä, valvonta- ja hallintojärjestelmän tehokkuutta ja edistymistä yleiskäyttöisten tekoälymallien energiatehokasta kehittämistä koskevien standardointituotteiden kehittämisessä, mukaan lukien lisätoimenpiteiden tai toimien tarve, ja raportoitava tästä Euroopan parlamentille ja neuvostolle. Komission olisi arvioitava 2 päivään elokuuta 2028 mennessä ja sen jälkeen kolmen vuoden välein vapaaehtoisten käytännesääntöjen vaikutusta ja sitä, kuinka tehokkaasti ne edistävät suuririskisiä tekoälyjärjestelmiä koskevien vaatimusten soveltamista muiden kuin suuririskisten tekoälyjärjestelmien tapauksessa ja mahdollisesti muiden tällaisia tekoälyjärjestelmiä koskevien lisävaatimusten soveltamista.
(174)
Предвид бързото технологично развитие и техническия експертен опит, необходим за ефективното прилагане на настоящия регламент, Комисията следва да направи оценка и преглед на настоящия регламент до 2 август 2029 г. и на всеки четири години след това, и да докладва на Европейския парламент и на Съвета. Освен това, с оглед на последиците за обхвата на настоящия регламент, Комисията следва веднъж годишно да прави оценка на необходимостта от изменение на списъка на високорисковите системи с ИИ и на списъка на забранените практики. Наред с това, до 2 август 2028 г. и на всеки четири години след това Комисията следва да оценява и да докладва на Европейския парламент и на Съвета за необходимостта от изменение на наименованията на високорисковите области в приложението към настоящия регламент, системите с ИИ, попадащи в обхвата на задълженията за прозрачност, ефективността на системата за надзор и управление и напредъка по разработването на стандартизационни документи за енергийно ефективно разработване на модели на ИИ с общо предназначение, включително за необходимостта от допълнителни мерки или действия. И на последно място, до 2 август 2028 г. и на всеки три години след това Комисията следва да оценява въздействието и ефективността на незадължителните кодекси за поведение с цел да се насърчи прилагането на изискванията, предвидени за високорисковите системи с ИИ, по отношение на системи, различни от високорискови системи с ИИ, и евентуално на други допълнителни изисквания за такива системи с ИИ.
(175)
Jotta voidaan varmistaa tämän asetuksen yhdenmukainen täytäntöönpano, komissiolle olisi siirrettävä täytäntöönpanovaltaa. Tätä valtaa olisi käytettävä Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 182/2011 (56) mukaisesti.
(175)
За да се гарантират еднакви условия за изпълнение на настоящия регламент, на Комисията следва да бъдат предоставени изпълнителни правомощия. Тези правомощия следва да бъдат упражнявани в съответствие с Регламент (ЕС) № 182/2011 на Европейския парламент и на Съвета (56).
(176)
Jäsenvaltiot eivät voi riittävällä tavalla saavuttaa tämän asetuksen tavoitetta eli parantaa sisämarkkinoiden toimintaa ja edistää ihmiskeskeisen ja luotettavan tekoälyn käyttöönottoa, samalla varmistaen terveyden, turvallisuuden ja perusoikeuskirjassa vahvistettujen perusoikeuksien suojelun korkea taso, mukaan lukien demokratia, oikeusvaltio ja tekoälyjärjestelmien haitallisia vaikutuksia torjuva ympäristönsuojelu unionissa, ja tukea innovointia, vaan se voidaan toiminnan laajuuden tai vaikutusten vuoksi saavuttaa paremmin unionin tasolla. Sen vuoksi unioni voi toteuttaa toimenpiteitä Euroopan unionista tehdyn sopimuksen 5 artiklassa vahvistetun toissijaisuusperiaatteen mukaisesti. Mainitussa artiklassa vahvistetun suhteellisuusperiaatteen mukaisesti tässä asetuksessa ei ylitetä sitä, mikä on tarpeen tämän tavoitteen saavuttamiseksi.
(176)
Доколкото целта на настоящия регламент, а именно да се подобри функционирането на вътрешния пазар и да се насърчи навлизането на ориентиран към човека и надежден ИИ, като същевременно се гарантира високо равнище на защита на здравето, безопасността, основните права, залегнали в Хартата, включително демокрацията, принципите на правовата държава и опазването на околната среда, срещу вредното въздействие на системите с ИИ в Съюза и да се подкрепят иновациите, не може да бъде постигната в достатъчна степен от държавите членки, а поради мащаба или последиците на действието може да бъде по-добре постигната на равнището на Съюза, Съюзът може да приеме мерки в съответствие с принципа на субсидиарност, уреден в член 5 от Договора за Европейския съюз. В съответствие с принципа на пропорционалност, уреден в същия член, настоящият регламент не надхвърля необходимото за постигането на тази цел.
(177)
Jotta voidaan taata oikeusvarmuus, varmistaa asianmukainen sopeutumisaika toimijoille ja välttää markkinoiden vääristyminen, myös varmistamalla tekoälyjärjestelmien käytön jatkuvuus, on asianmukaista, että tätä asetusta sovelletaan suuririskisiin tekoälyjärjestelmiin, jotka on saatettu markkinoille tai otettu käyttöön ennen asetuksen yleistä soveltamispäivää, ainoastaan, jos kyseisten järjestelmien suunnitteluun tai käyttötarkoitukseen tehdään kyseisen päivän jälkeen huomattavia muutoksia. On aiheellista selventää, että tässä yhteydessä huomattavan muutoksen käsitteellä olisi tarkoitettava sisällöltään samaa kuin merkittävän muutoksen käsitteellä, jota käytetään ainoastaan tässä asetuksessa tarkoitettujen suuririskisten tekoälyjärjestelmien osalta. Poikkeuksellisesti ja julkisen vastuuvelvollisuuden vuoksi tämän asetuksen liitteessä luetelluilla säädöksillä perustettujen laaja-alaisten tietojärjestelmien komponentteja olevien tekoälyjärjestelmien ylläpitäjien ja viranomaiskäyttöön tarkoitettujen suuririskisten tekoälyjärjestelmien ylläpitäjien olisi toteutettava tarvittavat toimenpiteet, joilla ne osaltaan varmistavat noudattavansa tämän asetuksen vaatimuksia vuoden 2030 loppuun mennessä ja viimeistään 2 päivänä elokuuta 2030.
(177)
С цел да се гарантира правна сигурност, да се осигури подходящ срок за адаптация за операторите и да се избегнат смущения на пазара, включително чрез осигуряване на непрекъснатост в използването на системите с ИИ, е целесъобразно настоящият регламент да се прилага за високорисковите системи с ИИ, които са били пуснати на пазара или пуснати в действие преди общата начална дата на прилагането му, само в случай че след тази дата бъдат извършени значителни промени в проекта или предназначението на тези системи. Следва да се поясни, че в този контекст понятието „значителна промяна“ следва да се разбира като равностойно по същество на понятието „съществено изменение“, което се използва само по отношение на високорисковите системи с ИИ съгласно определението в настоящия регламент. По изключение и с оглед на публичната отчетност операторите на системи с ИИ, които са компоненти на широкомащабните информационни системи, създадени с правните актове, чийто списък е приложен към настоящия регламент, и операторите на високорискови системи с ИИ, предназначени да бъдат използвани от публични органи, следва да предприемат мерките, необходими, за да се съобразят с изискванията на настоящия регламент, съответно до края на 2030 г. и в срок до 2 август 2030 г.
(178)
Suuririskisten tekoälyjärjestelmien tarjoajia kannustetaan aloittamaan vapaaehtoisesti tämän asetuksen asiaankuuluvien velvoitteiden noudattaminen jo siirtymäkauden aikana.
(178)
Доставчиците на високорискови системи с ИИ се насърчават да започнат да спазват на доброволна основа съответните задължения, предвидени съгласно настоящия регламент, още по време на преходния период.
(179)
Tätä asetusta olisi sovellettava 2 päivästä elokuuta 2026. Kun kuitenkin otetaan huomioon tietyt tekoälyn käyttötavat, joita ei voida hyväksyä, kieltoja ja tämän asetuksen yleisiä säännöksiä olisi sovellettava jo 2 päivästä helmikuuta 2025. Vaikka kyseiset kiellot vaikuttavat täysimääräisesti tätä asetusta koskevaan valvontaan ja sen täytäntöönpanoon, kieltojen soveltamistavan ennakointi on tärkeää, jotta voidaan ottaa huomioon sellainen riski, jota ei voida hyväksyä, ja vaikuttaa muihin menettelyihin esimerkiksi siviilioikeudessa. Hallintoon ja vaatimustenmukaisuuden arviointijärjestelmään liittyvän infrastruktuurin olisi lisäksi oltava toiminnassa ennen 2 päivää elokuuta 2026, minkä vuoksi ilmoitettuja laitoksia ja hallintorakennetta koskevia säännöksiä olisi sovellettava 2 päivästä elokuuta 2026. Kun otetaan huomioon teknologian nopea kehitys ja yleiskäyttöisten tekoälymallien käyttöönotto, yleiskäyttöisten tekoälymallien tarjoajia koskevia velvoitteita olisi sovellettava 2 päivästä elokuuta 2025. Käytännesäännöt olisi vahvistettava viimeistään 2 päivänä toukokuuta 2025, jotta tarjoajat voivat ajoissa osoittaa toimintansa vaatimustenmukaisuuden. Tekoälytoimiston olisi varmistettava, että luokitussäännöt ja -menettelyt ovat ajan tasalla teknologian kehitykseen nähden. Jäsenvaltioiden olisi lisäksi vahvistettava säännöt, jotka koskevat seuraamuksia, myös hallinnollisia sakkoja, ja ilmoitettava niistä komissiolle sekä varmistettava, että ne pannaan asianmukaisesti ja tehokkaasti täytäntöön tämän asetuksen soveltamispäivään mennessä. Sen vuoksi seuraamuksia koskevia säännöksiä olisi sovellettava 2 päivästä elokuuta 2025.
(179)
Настоящият регламент следва да се прилага от 2 август 2026 г. Същевременно, като се има предвид неприемливият риск, свързан с използването на ИИ по определени начини, забраните, както и общите разпоредби на настоящия регламент следва да се прилагат още от 2 февруари 2025 г. Въпреки че тези забрани ще влязат напълно в действие, след като бъде установено управлението и прилагането на настоящия регламент, предварителното им прилагане е важно с оглед да се вземе предвид неприемливият риск и да се въздейства върху други процедури, например в гражданското право. Наред с това, инфраструктурата, свързана с управлението и системата за оценяване на съответствието, следва да започне да функционира преди 2 август 2026 г., поради което разпоредбите относно нотифицираните органи и структурата на управление следва да се прилагат от 2 август 2025 г. Като се има предвид бързият темп на технологичния напредък и възприемането на модели на ИИ с общо предназначение, задълженията на доставчиците на модели на ИИ с общо предназначение следва да се прилагат от 2 август 2025 г. Кодексите за добри практики следва да бъдат готови в срок до 2 май 2025 г., за да се даде възможност на доставчиците своевременно да докажат спазването им. Службата по ИИ следва да гарантира, че правилата и процедурите за класифициране са актуални с оглед на технологичното развитие. Освен това държавите членки следва да установят и изпратят до Комисията правилата относно санкциите, включително административните глоби и имуществени санкции, и да гарантират, че те се прилагат правилно и ефективно към началната дата на прилагане на настоящия регламент. Поради това разпоредбите относно санкциите следва да се прилагат от 2 август 2025 г.
(180)
Euroopan tietosuojavaltuutettua ja Euroopan tietosuojaneuvostoa on kuultu asetuksen (EU) 2018/1725 42 artiklan 1 ja 2 kohdan mukaisesti, ja ne ovat antaneet yhteisen lausuntonsa 18 päivänä kesäkuuta 2021,
(180)
В съответствие с член 42, параграфи 1 и 2 от Регламент (ЕС) 2018/1725 беше проведена консултация с Европейския надзорен орган по защита на данните и Европейския комитет по защита на данните, които представиха съвместното си становище на 18 юни 2021 г.,
OVAT HYVÄKSYNEET TÄMÄN ASETUKSEN:
ПРИЕХА НАСТОЯЩИЯ РЕГЛАМЕНТ:
1. Tätä asetusta sovelletaan
1. Настоящият регламент се прилага по отношение на:
a)
tekoälyjärjestelmien tarjoajiin, jotka saattavat markkinoille tai ottavat käyttöön tekoälyjärjestelmiä tai saattavat markkinoille yleiskäyttöisiä tekoälymalleja unionissa, riippumatta siitä, ovatko kyseiset tarjoajat sijoittautuneet unioniin tai kolmanteen maahan vai sijaitsevatko ne unionissa tai kolmannessa maassa;
a)
доставчици, които пускат на пазара или пускат в действие системи с ИИ или пускат на пазара модели на ИИ с общо предназначение в Съюза, независимо дали тези доставчици са установени или се намират на територията на Съюза или в трета държава;
b)
unioniin sijoittautuneisiin tai unionissa sijaitseviin tekoälyjärjestelmien käyttöönottajiin;
б)
внедрители на системи с ИИ, чието място на установяване е на територията на Съюза или които се намират на територията на Съюза;
c)
kolmannessa maassa kolmanteen maahan sijoittautuneisiin tai sellaisessa sijaitseviin tekoälyjärjestelmien tarjoajiin ja käyttöönottajiin, kun tekoälyjärjestelmän tuottamaa tuotosta käytetään unionissa;
в)
доставчици и внедрители на системи с ИИ, чието място на установяване е в трета държава или които се намират в трета държава, когато резултатът, получен от системата с ИИ, се използва в Съюза;
d)
tekoälyjärjestelmien maahantuojiin ja jakelijoihin;
г)
вносители и дистрибутори на системи с ИИ;
e)
tuotteiden valmistajiin, jotka saattavat markkinoille tai ottavat käyttöön tekoälyjärjestelmän yhdessä tuotteensa kanssa ja omalla nimellään tai tavaramerkillään;
д)
производители на продукти, които пускат на пазара или пускат в действие система с ИИ заедно със своя продукт и със своето име или търговска марка;
f)
muualle kuin unioniin sijoittautuneisiin tarjoajien valtuutettuihin edustajiin;
е)
упълномощени представители на доставчици, които не са установени в Съюза;
g)
unioniin sijoittautuneisiin henkilöihin, joihin vaikutukset kohdistuvat.
ж)
засегнати лица, които се намират в Съюза.
2. Tekoälyjärjestelmiin, jotka on luokiteltu suuririskisiksi tekoälyjärjestelmiksi 6 artiklan 1 kohdan mukaisesti ja jotka liittyvät liitteessä I olevassa B jaksossa luetellun unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluviin tuotteisiin, sovelletaan ainoastaan 6 artiklan 1 kohtaa, 102–109 artiklaa ja 112 artiklaa. Asetuksen 57 artiklaa sovelletaan vain siltä osin kuin tämän asetuksen mukaiset suuririskisiä tekoälyjärjestelmiä koskevat vaatimukset on sisällytetty kyseiseen unionin yhdenmukaistamislainsäädäntöön.
2. За системи с ИИ, които са класифицирани като високорискови системи с ИИ в съответствие с член 6, параграф 1, които са свързани с продукти, обхванати от законодателството на Съюза за хармонизация, посочено в раздел Б от приложение I, се прилагат само член 6, параграф 1 и членове 102 – 109 и 112. Член 57 се прилага само доколкото изискванията за високорисковите системи с ИИ съгласно настоящия регламент са били включени в това законодателство на Съюза за хармонизация.
3. Tätä asetusta ei sovelleta aloihin, jotka eivät kuulu unionin oikeuden soveltamisalaan, eikä se missään tapauksessa vaikuta kansalliseen turvallisuuteen liittyvään jäsenvaltioiden toimivaltaan riippumatta siitä, minkä tyyppisiä tahoja jäsenvaltiot ovat valtuuttaneet suorittamaan näihin toimivaltuuksiin liittyviä tehtäviä.
3. Настоящият регламент не се прилага в области извън обхвата на правото на Съюза и не засяга компетентността на държавите членки по отношение на националната сигурност, независимо от вида на субекта, на който държавите членки са възложили изпълнението на задачите във връзка с тази компетентност.
Tätä asetusta ei sovelleta tekoälyjärjestelmiin, jos ja siltä osin kuin ne saatetaan markkinoille, otetaan käyttöön tai niitä käytetään muutettuina tai muuttamattomina yksinomaan sotilaallisia, puolustuksen tai kansallisen turvallisuuden tarkoituksia varten, riippumatta kyseisiä toimia toteuttavan toimijan tyypistä.
Настоящият регламент не се прилага за системи с ИИ, ако и доколкото те са пуснати на пазара, пуснати в действие или използвани със или без изменение на тези системи изключително за военни цели и цели, свързани с отбраната или националната сигурност, независимо от вида на субекта, който извършва тези дейности.
Tätä asetusta ei sovelleta tekoälyjärjestelmiin, joita ei saateta markkinoille tai oteta käyttöön unionissa, jos tuotosta käytetään unionissa yksinomaan sotilaallisia, puolustuksen tai kansallisen turvallisuuden tarkoituksia varten, riippumatta kyseisiä toimia toteuttavan toimijan tyypistä.
Настоящият регламент не се прилага за системи с ИИ, които не са пуснати на пазара или пуснати в действие в Съюза, когато резултатите се използват в Съюза изключително за военни цели и цели, свързани с отбраната или националната сигурност, независимо от вида на субекта, който извършва тези дейности.
4. Tätä asetusta ei sovelleta kolmannen maan viranomaisiin eikä tämän asetuksen soveltamisalaan 1 kohdan nojalla kuuluviin kansainvälisiin järjestöihin, jos kyseiset viranomaiset tai järjestöt käyttävät tekoälyjärjestelmiä unionin tai yhden tai useamman jäsenvaltion kanssa tehtyjen lainvalvontaa ja rikosoikeudellista yhteistyötä koskevan kansainvälisen yhteistyön tai sopimusten puitteissa, edellyttäen, että asianomainen kolmas maa tai kansainvälinen järjestö antaa yksityisyydensuojaa, perusoikeuksia ja yksilön vapauksia koskevat riittävät takeet.
4. Настоящият регламент не се прилага за публични органи в трета държава, нито за международни организации, попадащи в обхвата на настоящия регламент съгласно параграф 1, когато тези органи или организации използват системи с ИИ в рамките на международно сътрудничество или споразумения за правоприлагане и съдебно сътрудничество със Съюза или с една или повече държави членки, при условие че тази трета държава или международна организация осигурява подходящи гаранции по отношение на защитата на основните права и свободи на физическите лица.
5. Tämä asetus ei vaikuta asetuksen (EU) 2022/2065 II luvussa vahvistettujen välityspalvelujen tarjoajien vastuuta koskevien säännösten soveltamiseen.
5. Настоящият регламент не засяга прилагането на разпоредбите относно отговорността на доставчиците на посреднически услуги, установени в глава II от Регламент (ЕС) 2022/2065.
6. Tätä asetusta ei sovelleta tekoälyjärjestelmiin tai tekoälymalleihin, jotka on erityisesti kehitetty ja otettu käyttöön yksinomaan tieteellistä tutkimusta ja kehittämistä varten, eikä myöskään niiden tuotoksiin.
6. Настоящият регламент не се прилага за системите с ИИ или моделите на ИИ, които са специално разработени и пуснати в действие единствено с цел научноизследователска и развойна дейност, включително за техните резултати.
7. Henkilötietojen suojaa, yksityisyyttä ja viestinnän luottamuksellisuutta koskevaa unionin oikeutta sovelletaan henkilötietoihin, joita käsitellään tässä asetuksessa säädettyjen oikeuksien ja velvoitteiden yhteydessä. Tämä asetus ei vaikuta asetusten (EU) 2016/679 ja (EU) 2018/1725 eikä direktiivien 2002/58/EY ja (EU) 2016/680 soveltamiseen, sanotun kuitenkaan rajoittamatta tämän asetuksen 10 artiklan 5 kohdan ja 59 artiklan soveltamista.
7. Правото на Съюза относно защитата на личните данни, неприкосновеността на личния живот и поверителността на съобщенията се прилага за личните данни, обработвани във връзка с правата и задълженията, предвидени в настоящия регламент. Настоящият регламент не засяга регламенти (ЕС) 2016/679 и (ЕС) 2018/1725, нито директиви 2002/58/ЕО и (ЕС) 2016/680, без да се засягат член 10, параграф 5 и член 59 от настоящия регламент.
8. Tätä asetusta ei sovelleta mihinkään tekoälyjärjestelmiä tai tekoälymalleja koskevaan tutkimus-, testaus- ja kehittämistoimintaan ennen niiden markkinoille saattamista tai käyttöönottoa. Tällaiset toimet on toteutettava noudattaen sovellettavaa unionin oikeutta. Kyseinen poikkeus ei kata testausta tosielämän olosuhteissa.
8. Настоящият регламент не се прилага за научноизследователски дейности, изпитвания или развойни дейности по отношение на системи с ИИ или модели на ИИ преди пускането на пазара или пускането в действие на тези системи или модели. Тези дейности се извършват в съответствие с приложимото право на Съюза. Изпитването в реални условия не попада в обхвата на това изключение.
9. Tällä asetuksella ei rajoiteta muissa kuluttajansuojaan ja tuoteturvallisuuteen liittyvissä unionin säädöksissä vahvistettujen sääntöjen soveltamista.
9. Настоящият регламент не засяга правилата, установени в други правни актове на Съюза, свързани със защитата на потребителите и безопасността на продуктите.
10. Tätä asetusta ei sovelleta niiden käyttöönottajien velvoitteisiin, jotka ovat luonnollisia henkilöitä, jotka käyttävät tekoälyjärjestelmiä pelkästään henkilökohtaisessa muussa kuin ammattitoiminnassa.
10. Настоящият регламент не се прилага за задълженията на внедрители, които са физически лица, използващи системи с ИИ в рамките на изцяло лична непрофесионална дейност.
11. Tällä asetuksella ei estetä unionia tai jäsenvaltioita pitämästä voimassa tai ottamasta käyttöön lakeja, asetuksia tai hallinnollisia määräyksiä, jotka ovat työntekijöiden kannalta suotuisampia ja suojelevat heidän oikeuksiaan liittyen tekoälyjärjestelmien käyttöön työnantajien toimesta, tai kannustamasta soveltamaan työntekijöiden kannalta suotuisampia työehtosopimuksia tai sallimasta niiden soveltamisen.
11. Настоящият регламент не e пречка Съюзът или държавите членки да запазят или въведат законови, подзаконови или административни разпоредби, които са по-благоприятни за работниците по отношение на защитата на правата им във връзка с използването от работодателите на системи с ИИ, нито да насърчават или разрешават прилагането на колективни трудови договори, които са по-благоприятни за работниците.
12. Tätä asetusta ei sovelleta vapaisiin ja avoimeen lähdekoodiin perustuviin tekoälyjärjestelmiin, paitsi jos ne saatetaan markkinoille tai otetaan käyttöön suuririskisinä tekoälyjärjestelminä taikka 5 tai 50 artiklan soveltamisalaan kuuluvina tekoälyjärjestelminä.
12. Настоящият регламент не се прилага за системи с ИИ, предоставени с безплатен лиценз с отворен код, освен ако не са пуснати на пазара или пуснати в действие като високорискови системи с ИИ или като система с ИИ, попадаща в обхвата на член 5 или 50.
Kielletyt tekoälyyn liittyvät käytännöt
Забранени практики в областта на ИИ
1. Seuraavat tekoälyyn liittyvät käytännöt ovat kiellettyjä:
1. Забраняват се следните практики в областта на ИИ:
a)
sellaisen tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tai käyttö, jossa käytetään subliminaalisia tekniikoita, joita henkilö ei havaitse tietoisesti, tai tarkoituksellisesti manipuloivia tai harhaanjohtavia tekniikoita, joiden tavoitteena on vääristää tai jotka olennaisesti vääristävät henkilön tai henkilöryhmän käyttäytymistä heikentäen tuntuvasti tämän kykyä tehdä tietoinen päätös ja saaden tämän tekemään päätöksen, jota tämä ei olisi muussa tapauksessa tehnyt, tavalla, joka aiheuttaa tai kohtuullisella todennäköisyydellä aiheuttaa kyseiselle henkilölle, toiselle henkilölle tai henkilöryhmälle merkittävää haittaa.
a)
пускането на пазара, пускането в действие или използването на система с ИИ, която си служи със техники, действащи на подсъзнанието и отвъд рамките на съзнаваното от човека, или с умишлено манипулативни или измамни техники, с цел или последици, изразяващи се в съществено изменение на поведението на дадено лице или група лица чрез значително нарушаване на способността за вземане на информирано решение, като по този начин се подтиква да вземе решение, което в противен случай не би взело, по начин, който причинява или има разумна вероятност да причини значителни вреди на същото или на друго лице, или на група лица;
b)
sellaisen tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tai käyttö, jossa hyödynnetään luonnollisen henkilön tai tietyn henkilöryhmän haavoittuvuuksia, jotka liittyvät heidän ikäänsä, vammaansa tai erityiseen sosiaaliseen tai taloudelliseen tilanteeseensa, siten, että tavoitteena tai vaikutuksena on olennaisesti vääristää kyseisen henkilön tai kyseiseen ryhmään kuuluvan henkilön käyttäytymistä tavalla, joka aiheuttaa tai kohtuullisella todennäköisyydellä aiheuttaa kyseiselle henkilölle tai toiselle henkilölle merkittävää haittaa;
б)
пускането на пазара, пускането в действие или използването на система с ИИ, която използва някое от уязвимите места на дадено физическо лице или на конкретна група лица, дължащи се на възраст, увреждане или конкретно социално или икономическо положение, с цел или последици, изразяващи се в съществено изменение на поведението на това лице или на лице, спадащо към тази група, по начин, който причинява или има разумна вероятност да причини значителни вреди на същото или на друго лице;
c)
tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tai käyttö luonnollisten henkilöiden tai henkilöryhmien arvioimiseksi tai luokittelemiseksi tiettynä ajanjaksona heidän sosiaalisen käyttäytymisensä tai tunnettujen, pääteltyjen tai ennakoitujen henkilökohtaisten ominaisuuksiensa tai luonteenpiirteidensä perusteella siten, että sosiaalinen pisteytys johtaa jompaankumpaan tai molempiin seuraavista:
в)
пускането на пазара, пускането в действие или използването на системи с ИИ с цел оценка или класифициране на физически лица или групи от лица през определен период от време въз основа на тяхното социално поведение или известни, изведени или предполагаеми лични или личностни характеристики, като социалната класация води до едната или и до двете посочени по-долу последици:
i)
tiettyjen luonnollisten henkilöiden tai henkilöryhmien haitallinen tai epäedullinen kohtelu sosiaalisissa yhteyksissä, jotka eivät liity siihen asiayhteyteen, jossa tiedot alun perin tuotettiin tai kerättiin;
i)
увреждащо или неблагоприятно третиране на определени физически лица или на групи лица в социален контекст, който няма връзка с контекста, в който първоначално са били генерирани или събрани данните;
ii)
tiettyjen luonnollisten henkilöiden tai henkilöryhmien haitallinen tai epäedullinen kohtelu, joka on perusteetonta tai suhteetonta heidän sosiaaliseen käyttäytymiseensä tai sen vakavuuteen nähden;
ii)
увреждащо или неблагоприятно третиране на определени физически лица или на групи лица, което е неоправдано или непропорционално с оглед на тяхното социално поведение или на тежестта, която му се отдава;
d)
tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tätä erityistarkoitusta varten tai käyttö luonnollisia henkilöitä koskevien riskinarviointien tekemiseen, jotta voidaan arvioida tai ennustaa sen riskiä, että luonnollinen henkilö syyllistyy rikokseen, kun tämä perustuu yksinomaan luonnollisen henkilön profilointiin tai hänen persoonallisuuspiirteidensä ja persoonallisuusominaisuuksiensa arviointiin; tätä kieltoa ei sovelleta tekoälyjärjestelmiin, joita käytetään tukemaan ihmisen tekemää arviointia jonkun henkilön osallistumisesta rikolliseen toimintaan, kun arvio jo perustuu objektiivisiin ja todennettavissa oleviin tosiseikkoihin, jotka liittyvät suoraan rikolliseen toimintaan;
г)
пускането на пазара, пускането в действие с това конкретно предназначение или използването на система с ИИ за извършване на оценки на риска по отношение на физически лица с цел да се прецени или предвиди вероятността дадено физическо лице да извърши престъпление, въз основа единствено на профилирането на дадено физическо лице или на оценката на личностните му черти и характеристики; тази забрана не се прилага за системи с ИИ, използвани за подпомагане на извършването от човек на оценка на участието на дадено лице в престъпна дейност, която вече е изградена на основата на обективни и проверими факти, пряко свързани с престъпна дейност;
e)
sellaisten tekoälyjärjestelmien saattaminen markkinoille, käyttöönotto tähän tiettyyn tarkoitukseen tai käyttö, joilla luodaan tai laajennetaan kasvojentunnistustietokantoja haravoimalla kasvokuvia kohdentamattomasti internetistä tai valvontakamerakuvista;
д)
пускането на пазара, пускането в действие с това конкретно предназначение или използването на системи с ИИ, които създават или разширяват бази данни за разпознаване на лица чрез нецеленасочено извличане на лицеви изображения от интернет или записи от видеонаблюдение;
f)
tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tätä tarkoitusta varten tai käyttö luonnollisen henkilön tunteiden päättelemiseksi työpaikalla ja oppilaitoksissa, paitsi jos tekoälyjärjestelmän käyttöä on tarkoitus hyödyntää tai saattaa markkinoille lääketieteellisiin tai turvallisuuteen liittyviin tarkoituksiin;
е)
пускането на пазара, пускането в действие с това конкретно предназначение или използването на системи с ИИ с цел да се направят заключения за емоциите на дадено физическо лице на работното място или в образователните институции, освен в случаите, когато системата с ИИ е предназначена да бъде внедрена или пусната на пазара по медицински съображения или съображения, свързани с безопасността;
g)
sellaisten biometristen luokittelujärjestelmien markkinoille saattaminen, käyttöönotto tätä tiettyä tarkoitusta varten tai sellaisten biometristen luokittelujärjestelmien käyttö, joissa luonnolliset henkilöt luokitellaan heidän biometristen tietojensa perusteella rodun, poliittisten mielipiteiden, ammattiliiton jäsenyyden, uskonnollisen tai filosofisen vakaumuksen, seksuaalisen käyttäytymisen tai seksuaalisen suuntautumisen perusteella; tämä kielto ei koske laillisesti hankittujen biometristen tietoaineistojen, kuten kuvien, merkitsemistä tai suodattamista biometristen tietojen perusteella lainvalvonta-alalla;
ж)
пускането на пазара, пускането в действие с това конкретно предназначение или използването на системи за биометрично категоризиране, които категоризират по индивидуализиран начин физическите лица въз основа на техните биометрични данни с цел да се направят заключения или логически изводи за тяхната раса, политически възгледи, членство в синдикални организации, религиозни или философски убеждения, сексуален живот или сексуална ориентация; тази забрана не обхваща обозначаването или филтрирането на законно придобити набори от биометрични данни, например основани на биометрични данни изображения, или категоризиране на биометрични данни в правоохранителната област;
h)
reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö julkisissa tiloissa lainvalvontatarkoituksessa, paitsi jos ja siltä osin kuin se on ehdottoman välttämätöntä jonkin seuraavan tavoitteen saavuttamiseksi:
з)
използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели, освен ако и доколкото такова използване е строго необходимо за една от следните цели:
i)
kaappauksen, ihmiskaupan ja seksuaalisen hyväksikäytön uhrien kohdennettu etsintä sekä kadonneiden henkilöiden etsiminen;
i)
целево издирване на конкретни жертви на отвличане, трафик на хора и сексуална експлоатация на хора, както и издирване на изчезнали лица;
ii)
luonnollisten henkilöiden henkeen tai fyysiseen turvallisuuteen kohdistuvan erityisen, merkittävän ja välittömän uhan taikka aidon ja välittömän tai aidon ja ennakoitavissa olevan terrori-iskun uhan ehkäiseminen;
ii)
предотвратяване на конкретна, значителна и непосредствена заплаха за живота или физическата безопасност на физически лица или на действителна и настояща или действителна и предвидима заплаха от терористично нападение;
iii)
rikoksesta epäillyn henkilön paikantaminen tai tunnistaminen liitteessä II tarkoitettujen rikosten tutkintaa tai syytteeseenpanoa tai rikosoikeudellisen seuraamuksen täytäntöönpanoa varten ja joista voi asianomaisessa jäsenvaltiossa seurata vapaudenmenetyksen käsittävä rangaistus tai turvaamistoimenpide, jonka enimmäisaika on vähintään neljä vuotta.
iii)
установяване на местонахождението или самоличността на лице, заподозряно в извършването на престъпление, за целите на провеждането на разследване или наказателно преследване или на изпълнението на наказание за престъпления, посочени в приложение II и наказуеми в съответната държава членка с лишаване от свобода или мярка за задържане с максимален срок не по-малко от четири години.
Ensimmäisen alakohdan h alakohta ei rajoita asetuksen (EU) 2016/679 9 artiklan soveltamista, kun kyse on biometristen tietojen käsittelystä muihin tarkoituksiin kuin lainvalvontaan.
Първа алинея, буква з) не засяга член 9 от Регламент (ЕС) 2016/679 за обработването на биометрични данни за цели, различни от правоохранителни цели.
2. Kun reaaliaikaisia biometrisiä etätunnistusjärjestelmiä käytetään julkisissa tiloissa lainvalvontatarkoituksessa minkä tahansa 1 kohdan ensimmäisen alakohdan h alakohdassa tarkoitetun tavoitteen saavuttamiseksi, käytön on tapahduttava kyseisessä kohdassa vahvistettuihin tarkoituksiin ainoastaan erityisesti kohteena olevan henkilön henkilöllisyyden vahvistamiseksi, ja siinä on otettava huomioon seuraavat seikat:
2. Използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели за която и да е от целите, посочени в параграф 1, първа алинея, буква з), се извършва за целите, посочени в същата буква, само с оглед на потвърждаването на самоличността на конкретно лице и при отчитане на следните елементи:
a)
mahdollisen käytön aiheuttavan tilanteen luonne, erityisesti aiheutuvan vahingon vakavuus, todennäköisyys ja laajuus siinä tapauksessa, että järjestelmää ei käytetä;
a)
естеството на ситуацията, която води до евентуалното използване, и по-специално тежестта, вероятността от настъпването и мащабът на вредата, която би била причинена, ако системата не се използва;
b)
järjestelmän käytön seuraukset kaikkien asianomaisten henkilöiden oikeuksille ja vapauksille, erityisesti näiden seurausten vakavuus, todennäköisyys ja laajuus.
б)
последиците от използването на системата за правата и свободите на всички засегнати лица, и по-специално тежестта, вероятността от настъпването и мащабът на тези последици.
Lisäksi kun reaaliaikaisia biometrisiä etätunnistusjärjestelmiä käytetään julkisissa tiloissa lainvalvontatarkoituksessa minkä tahansa tämän artiklan 1 kohdan ensimmäisen alakohdan h alakohdassa tarkoitetun tavoitteen saavuttamiseksi, on noudatettava käyttöön liittyviä välttämättömiä ja oikeasuhteisia suojatoimia ja edellytyksiä niiden käytön sallivan kansallisen lainsäädännön mukaisesti, erityisesti ajallisia, maantieteellisiä ja henkilötason rajoituksia. Reaaliaikaisen biometrisen etätunnistusjärjestelmän käyttö julkisissa tiloissa sallitaan vain, jos lainvalvontaviranomainen on saattanut päätökseen 27 artiklassa tarkoitetun perusoikeuksia koskevan vaikutustenarvioinnin ja rekisteröinyt järjestelmän EU:n tietokantaan 49 artiklan mukaisesti. Asianmukaisesti perustelluissa kiireellisissä tapauksissa tällaisten järjestelmien käyttö voidaan kuitenkin aloittaa ilman rekisteröintiä EU:n tietokantaan edellyttäen, että rekisteröinti saatetaan päätökseen ilman aiheetonta viivytystä.
Освен това използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели за някоя от целите, посочени в параграф 1, първа алинея, буква з) от настоящия член, трябва да съответства на необходимите и пропорционални гаранции и условия за използване в съответствие с националното право, което допуска такова използване, и по-специално по отношение на времевите, териториалните ограничения и ограниченията по отношение на лицата. Използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места се разрешава само ако правоохранителният орган е извършил оценката на въздействието върху основните права, посочена в член 27, и е регистрирал системата в базата данни на ЕС в съответствие с член 49. В надлежно обосновани спешни случаи обаче използването на тези системи може да започне без регистрация в базата данни на ЕС, при условие че регистрацията бъде извършена без ненужно забавяне.
3. Edellä olevan 1 kohdan ensimmäisen alakohdan h alakohdan ja 2 kohdan tarkoituksiin jokainen reaaliaikaisen biometrisen etätunnistusjärjestelmän käyttö lainvalvontatarkoituksessa julkisissa tiloissa edellyttää sen jäsenvaltion, jossa käyttö tapahtuu, sellaisen oikeusviranomaisen tai riippumattoman hallintoviranomaisen, jonka päätös on sitova, myöntämää ennakkolupaa, joka annetaan perustellusta pyynnöstä ja 5 kohdassa tarkoitetun kansallisen lainsäädännön yksityiskohtaisten sääntöjen mukaisesti. Asianmukaisesti perustelluissa kiireellisissä tapauksissa tällaisen järjestelmän käyttö voidaan kuitenkin aloittaa ilman lupaa, kunhan asianmukainen lupa pyydetään ilman aiheetonta viivytystä ja viimeistään 24 tunnin kuluessa. Jos tällainen lupa evätään, käyttö on lopetettava välittömästi ja kaikki tiedot sekä tällaiseen käyttöön liittyvät tulokset ja tuotokset on välittömästi poistettava.
3. За целите на параграф 1, първа алинея, буква з) и параграф 2, за всяко използване за правоохранителни цели на система за дистанционна биометрична идентификация в реално време на обществено достъпни места се изисква предварително разрешение, което се издава от съдебен орган или от независим административен орган, чието решение е задължително, на държавата членка, в която ще се осъществи използването, след получаване на мотивирано искане и в съответствие с подробните правила на националното право, посочени в параграф 5. В надлежно обосновани спешни случаи обаче използването на системата може да започне без разрешение, при условие че такова разрешение се поиска без ненужно забавяне, най-късно в рамките на 24 часа. Ако искането за разрешение бъде отхвърлено, използването се прекратява незабавно и всички данни, както и резултатите от това използване, незабавно се премахват и заличават.
Toimivaltainen oikeusviranomainen tai riippumaton hallintoviranomainen, jonka päätös on sitova, saa myöntää luvan ainoastaan, jos se katsoo sille esitettyjen objektiivisten todisteiden tai selkeiden seikkojen perusteella, että kyseessä oleva reaaliaikaisen biometrisen etätunnistusjärjestelmän käyttö on välttämätöntä ja oikeasuhteista jonkin 1 kohdan ensimmäisen alakohdan h alakohdassa tarkoitetun ja pyynnössä yksilöidyn tavoitteen saavuttamiseksi, ja se rajoittuu erityisesti siihen, mikä on ehdottoman välttämätöntä ajanjakson sekä maantieteellisen ja henkilötason soveltamisalan osalta. Toimivaltaisen viranomaisen on pyyntöä koskevaa päätöstä tehdessään otettava huomioon 2 kohdassa tarkoitetut seikat. Päätöstä, jolla on henkilöön kohdistuvia kielteisiä oikeusvaikutuksia, ei saa tehdä pelkästään reaaliaikaisen biometrisen etätunnistusjärjestelmän tuotosten perusteella.
Компетентният съдебен орган или независим административен орган, чието решение е задължително, издава разрешението само ако въз основа на обективни доказателства или данни за ясни признаци, които са му представени, се убеди, че използването на въпросната система за дистанционна биометрична идентификация в реално време е необходимо и пропорционално за постигането на една от целите, посочени в параграф 1, първа алинея, буква з), която се посочва в искането, и по-специално се ограничава до строго необходимото по отношение на времевия и териториалния обхват и обхвата по отношение на лицата. Когато взема решение по искането, този орган взема предвид елементите, посочени в параграф 2. Не може да бъде взето решение, пораждащо неблагоприятни правни последици за дадено лице, единствено въз основа на резултата от системата за дистанционна биометрична идентификация в реално време.
4. Jokaisesta reaaliaikaisen biometrisen etätunnistusjärjestelmän käytöstä julkisissa tiloissa lainvalvontatarkoituksiin on ilmoitettava asianomaiselle markkinavalvontaviranomaiselle ja kansalliselle tietosuojaviranomaiselle 5 kohdassa tarkoitettujen kansallisten sääntöjen mukaisesti, sanotun kuitenkaan rajoittamatta 3 kohdan soveltamista. Ilmoituksen on sisällettävä vähintään 6 kohdassa täsmennetyt tiedot, eikä se saa sisältää arkaluonteisia operatiivisia tietoja.
4. Без да се засяга параграф 3, за всяко използване на система за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели се уведомяват съответният орган за надзор на пазара и националният орган за защита на данните в съответствие с националните правила, посочени в параграф 5. Уведомлението съдържа най-малко информацията, посочена в параграф 6, и не включва чувствителни оперативни данни.
5. Jäsenvaltio voi päättää säätää mahdollisuudesta sallia kokonaan tai osittain reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö julkisissa tiloissa lainvalvontatarkoituksessa 1 kohdan ensimmäisen alakohdan h alakohdassa sekä 2 ja 3 kohdassa luetelluin rajoituksin ja edellytyksin. Asianomaisten jäsenvaltioiden on vahvistettava kansallisessa lainsäädännössään tarvittavat yksityiskohtaiset säännöt 3 kohdassa tarkoitettujen lupien pyytämistä, myöntämistä ja käyttöä sekä niihin liittyvää valvontaa ja raportointia varten. Näissä säännöissä on myös täsmennettävä, minkä 1 kohdan ensimmäisen alakohdan h alakohdassa lueteltujen tavoitteiden osalta, myös minkä mainitun h alakohdan iii alakohdassa tarkoitettujen rikosten osalta, toimivaltaisille viranomaisille voidaan antaa lupa käyttää kyseisiä järjestelmiä lainvalvontatarkoituksessa. Jäsenvaltioiden on ilmoitettava näistä säännöistä komissiolle viimeistään 30 päivän kuluttua niiden hyväksymisestä. Jäsenvaltiot voivat unionin oikeuden mukaisesti ottaa käyttöön rajoittavampaa lainsäädäntöä biometristen etätunnistusjärjestelmien käytön osalta.
5. Държава членка може да реши да предвиди възможността за пълно или частично разрешаване на използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели в рамките на ограниченията и при условията, изброени в параграф 1, първа алинея, буква з) и в параграфи 2 и 3. Съответните държави членки установяват в националното си право необходимите подробни правила за подаване на искания за разрешенията, посочени в параграф 3, за тяхното издаване и изпълнение, както и за надзора и докладването по отношение на тях. В тези правила се конкретизира също така по отношение на кои от целите, посочени в параграф 1, първа алинея, буква з), включително по отношение на кои престъпления, посочени в буква з), точка iii) от същата разпоредба, на компетентните органи може да бъде разрешено да използват тези системи за правоохранителни цели. Държавите членки съобщават на Комисията тези правила най-късно 30 дни след приемането им. Държавите членки могат да въведат, в съответствие с правото на Съюза, по-ограничителни законови разпоредби относно използването на системи за дистанционна биометрична идентификация.
6. Kansallisten markkinavalvontaviranomaisten ja jäsenvaltioiden kansallisten tietosuojaviranomaisten, joille on 4 kohdan mukaisesti ilmoitettu reaaliaikaisten biometristen etätunnistusjärjestelmien käytöstä julkisissa tiloissa lainvalvontatarkoituksiin, on toimitettava komissiolle vuosittain raportti tällaisesta käytöstä. Tätä varten komissio toimittaa jäsenvaltioille ja kansallisille markkinavalvonta- ja tietosuojaviranomaisille mallin, joka sisältää tiedot sellaisen toimivaltaisen oikeusviranomaisen tai riippumattoman hallintoviranomaisen, joiden päätös on sitova, tekemien päätösten lukumäärästä, jotka koskevat 3 kohdan mukaisia lupapyyntöjä, ja niiden tuloksista.
6. Националните органи за надзор на пазара и националните органи за защита на данните на държавите членки, които са били уведомени за използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели съгласно параграф 4, представят на Комисията годишни доклади относно това използване. За тази цел Комисията осигурява на държавите членки и на националните органи за надзор на пазара и за защита на данните образец, включващ информация за броя на решенията, взети от компетентните съдебни органи или от независим административен орган, чието решение е задължително, по отношение на искания за разрешения в съответствие с параграф 3 и за резултатите от тях.
7. Komissio julkaisee vuosittaisia raportteja reaaliaikaisten biometristen etätunnistusjärjestelmien käytöstä julkisissa tiloissa lainvalvontatarkoituksiin jäsenvaltioiden yhdistettyjen tietojen nojalla perustuen 6 kohdassa tarkoitettuihin vuosittaisiin raportteihin. Vuosittaisiin raportteihin ei saa sisältyä arkaluonteisia operatiivisia tietoja asiaan liittyvistä lainvalvontatoimista.
7. Комисията публикува годишни доклади относно използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за правоохранителни цели на базата на обобщени данни в държавите членки, основани на посочените в параграф 6 годишни доклади. Тези годишни доклади не съдържат чувствителни оперативни данни от съответните правоохранителни дейности.
8. Tämä artikla ei vaikuta kieltoihin, joita sovelletaan, jos tekoälyyn liittyvä käytäntö rikkoo muuta unionin oikeutta.
8. Настоящият член не засяга забраните, които се прилагат, когато дадена практика в областта на ИИ нарушава друго право на Съюза.
Suuririskisten tekoälyjärjestelmien luokitussäännöt
Правила за класифициране на системи с ИИ като високорискови
1. Riippumatta siitä, saatetaanko tekoälyjärjestelmä markkinoille tai otetaanko se käyttöön erillään a ja b alakohdassa tarkoitetuista tuotteista, kyseistä tekoälyjärjestelmää on pidettävä suuririskisenä, jos molemmat seuraavista edellytyksistä täyttyvät:
1. Без оглед на това дали дадена система с ИИ се пуска на пазара или се пуска в действие независимо от продуктите, посочени в букви а) и б), тази система с ИИ се счита за високорискова, когато са изпълнени следните две условия:
a)
tekoälyjärjestelmä on tarkoitettu käytettäväksi tuotteen turvakomponenttina tai tekoälyjärjestelmä on itse tuote, joka kuuluu liitteessä I luetellun unionin yhdenmukaistamislainsäädännön soveltamisalaan;
a)
системата с ИИ е предназначена да се използва като защѝтен елемент на продукт или самата система с ИИ е продукт, попадащ в обхвата на законодателството на Съюза за хармонизация, посочено в приложение I;
b)
tuotteelle, jonka turvakomponentti on a alakohdan mukaisesti tekoälyjärjestelmä, tai tekoälyjärjestelmälle, joka on itse tuote, on tehtävä kolmannen osapuolen suorittama vaatimustenmukaisuuden arviointi kyseisen tuotteen saattamiseksi markkinoille tai käyttöön ottamiseksi liitteessä I luetellun unionin yhdenmukaistamislainsäädännön mukaisesti.
б)
продуктът, чийто защѝтен елемент съгласно буква а) е системата с ИИ, или самата система с ИИ като продукт трябва да премине оценяване на съответствието от трето лице с оглед на пускането на пазара или пускането в действие на посочения продукт в съответствие със законодателството на Съюза за хармонизация, посочено в приложение I.
2. Edellä 1 kohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien lisäksi liitteessä III tarkoitettuja tekoälyjärjestelmiä pidetään suuririskisinä.
2. В допълнение към високорисковите системи с ИИ, посочени в параграф 1, за високорискови се считат и системите с ИИ, посочени в приложение III.
3. Poiketen siitä, mitä 2 kohdassa säädetään, liitteessä III tarkoitettua tekoälyjärjestelmää ei ole pidettävä suuririskisenä, jos se ei aiheuta merkittävää vahingon riskiä luonnollisten henkilöiden terveydelle, turvallisuudelle tai perusoikeuksille, mukaan lukien se, että se ei vaikuta olennaisesti päätöksenteon tulokseen.
3. Чрез дерогация от параграф 2, система с ИИ, посочена в приложение III, не се счита за високорискова, ако не представлява значителен риск от увреждане на здравето, безопасността или основните права на физическите лица, включително като не оказва съществено влияние върху резултата от вземането на решения.
Ensimmäistä alakohtaa sovelletaan, jos mikä tahansa seuraavista edellytyksistä täyttyy:
Първа алинея се прилага, когато е изпълнено някое от следните условия:
a)
tekoälyjärjestelmän tarkoituksena on suorittaa suppea menettelyllinen tehtävä;
a)
системата с ИИ е предназначена да изпълнява точно формулирана процедурна задача;
b)
tekoälyjärjestelmän tarkoituksena on parantaa aiemmin suoritetun ihmisen toiminnan tulosta;
б)
системата с ИИ е предназначена да подобри резултата от извършена преди това човешка дейност;
c)
tekoälyjärjestelmän tarkoituksena on havaita päätöksentekotapoja tai poikkeamia aiemmista päätöksentekotavoista, eikä sen tarkoituksena ole korvata aiemmin tehtyä ihmisen tekemää arviota tai vaikuttaa siihen ilman asianmukaista ihmisen suorittamaa arviota; tai
в)
системата с ИИ е предназначена да открива модели за вземане на решения или отклонения от предходни модели за вземане на решения и не е предназначена да замени или повлияе на направената преди това човешка оценка, без да бъде извършен подходящ преглед от човек; или
d)
tekoälyjärjestelmä on tarkoitettu suorittamaan valmistelutehtävä, joka koskee liitteessä III lueteltujen käyttötapausten kannalta merkityksellistä arviointia.
г)
системата с ИИ е предназначена да изпълнява подготвителна задача с оглед на извършването на оценка, която е от значение за целите на случаите на използване, посочени в приложение III.
Sen estämättä, mitä ensimmäisessä alakohdassa säädetään, liitteessä III tarkoitettua tekoälyjärjestelmää on aina pidettävä suuririskisenä, jos tekoälyjärjestelmä suorittaa luonnollisten henkilöiden profilointia.
Независимо от първа алинея, система с ИИ, посочена в приложение III, винаги се счита за високорискова, когато извършва профилиране на физически лица.
4. Tarjoajan, joka katsoo, että liitteessä III tarkoitettu tekoälyjärjestelmä ei ole suuririskinen, on dokumentoitava arvionsa ennen kuin kyseinen järjestelmä saatetaan markkinoille tai otetaan käyttöön. Tällaiseen tarjoajaan sovelletaan 49 artiklan 2 kohdassa säädettyä rekisteröintivelvollisuutta. Tarjoajan on kansallisten toimivaltaisten viranomaisten pyynnöstä toimitettava arviointia koskevat asiakirjat.
4. Доставчик, който счита, че дадена система с ИИ, посочена в приложение III, не е високорискова, документира своята оценка, преди тази система да бъде пусната на пазара или пусната в действие. За такъм доставчик се прилага задължението за регистрация, установено в член 49, параграф 2. При поискване от националните компетентни органи доставчикът предоставя документацията за оценката.
5. Komissio antaa Euroopan tekoälyneuvostoa, jäljempänä ”tekoälyneuvosto”, kuultuaan ja viimeistään 2 päivänä helmikuuta 2026 ohjeet, joissa täsmennetään tämän artiklan käytännön täytäntöönpano 96 artiklan mukaisesti, sekä kattavan luettelon käytännön esimerkeistä sellaisten tekoälyjärjestelmien käyttötapauksista, jotka ovat suuririskisiä ja muita kuin suuririskisiä.
5. Комисията, след консултация с Европейския съвет по изкуствен интелект (наричан по-долу „Съветът по ИИ“) и не по-късно от 2 февруари 2026 г., дава насоки, с които конкретизира практическото прилагане на настоящия член в съответствие с член 96, заедно с изчерпателен списък с практически примери за случаи на употреба на системи с ИИ, които са високорискови, и такива, които не са високорискови.
6. Siirretään komissiolle valta antaa delegoituja säädöksiä 97 artiklan mukaisesti tämän artiklan 3 kohdan toisen alakohdan muuttamiseksi lisäämällä uusia ehtoja kyseisessä alakohdassa säädettyihin edellytyksiin tai muuttamalla niitä, jos on konkreettista ja luotettavaa näyttöä sellaisten tekoälyjärjestelmien olemassaolosta, jotka kuuluvat liitteen III soveltamisalaan mutta jotka eivät aiheuta merkittävää vahingon riskiä luonnollisten henkilöiden terveydelle, turvallisuudelle tai perusoikeuksille.
6. На Комисията се предоставя правомощието да приема делегирани актове в съответствие с член 97 за изменение на параграф 3, втора алинея от настоящия член чрез добавяне на нови условия към установените в посочената разпоредба или за изменението им, когато има конкретни и достоверни доказателства за наличието на системи с ИИ, които попадат в обхвата на приложение III, но не пораждат значителен риск от увреждане на здравето, безопасността или основните права на физическите лица.
7. Komissio antaa delegoituja säädöksiä 97 artiklan mukaisesti tämän artiklan 3 kohdan toisen alakohdan muuttamiseksi poistamalla jonkin siinä säädetyn edellytyksen, jos on konkreettista ja luotettavaa näyttöä siitä, että tämä on tarpeen tässä asetuksessa säädetyn terveyden, turvallisuuden ja perusoikeuksien suojelun tason säilyttämiseksi.
7. Комисията приема делегирани актове в съответствие с член 97 за изменение на параграф 3, втора алинея от настоящия член чрез заличаване на някое от условията, установени в посочената разпоредба, когато има конкретни и достоверни доказателства, че това е необходимо за поддържането на равнището на защита на здравето, безопасността и основните права, предвидено в настоящия регламент.
8. Tämän artiklan 6 ja 7 kohdan mukaisesti hyväksytyt, 3 kohdan toisessa alakohdassa säädettyihin edellytyksiin tehtävät muutokset eivät saa heikentää tässä asetuksessa säädetyn terveyden, turvallisuuden ja perusoikeuksien suojelun yleistä tasoa, ja niillä on varmistettava johdonmukaisuus 7 artiklan 1 kohdan nojalla annettujen delegoitujen säädösten kanssa ja otettava huomioon markkinoiden ja teknologian kehityksen.
8. Приетите в съответствие с параграфи 6 и 7 от настоящия член изменения на условията, установени в параграф 3, втора алинея, не може да намаляват общото равнище на защита на здравето, безопасността и основните права, предвидено в настоящия регламент, трябва да осигуряват съгласуваност с делегираните актове, приети съгласно член 7, параграф 1, и да са съобразени с пазарното и технологичното развитие.
Съответствие с изискванията
1. Suuririskisten tekoälyjärjestelmien on täytettävä tässä jaksossa säädetyt vaatimukset, ottaen huomioon niiden suunnitellut käyttötarkoitukset sekä tekoälyn ja tekoälyyn liittyvien teknologioiden yleisesti tunnustettu viimeisin kehitys. Jäljempänä olevassa 9 artiklassa tarkoitettu riskinhallintajärjestelmä on otettava huomioon varmistettaessa, että kyseisiä vaatimuksia noudatetaan.
1. Високорисковите системи с ИИ трябва да съответстват на изискванията, установени в настоящия раздел, като се взема предвид тяхното предназначение, както и общоприетите съвременни технически постижения в областта на ИИ и свързаните с ИИ технологии. При осигуряването на съответствие с тези изисквания се взема предвид системата за управление на риска, посочена в член 9.
2. Jos tuote sisältää tekoälyjärjestelmän, johon sovelletaan tämän asetuksen vaatimuksia ja liitteessä I olevassa A jaksossa luetellun unionin yhdenmukaistamislainsäädännön vaatimuksia, tarjoajat ovat vastuussa sen varmistamisesta, että niiden tuote on kaikilta osin vaatimustenmukainen kaikkiin sovellettavan unionin yhdenmukaistamislainsäädännön mukaisiin vaatimuksiin nähden. Varmistaessaan, että 1 kohdassa tarkoitetut suuririskiset tekoälyjärjestelmät ovat tässä jaksossa vahvistettujen vaatimusten mukaisia, ja jotta voidaan varmistaa johdonmukaisuus, välttää päällekkäisyyttä ja minimoida lisärasitteita, tarjoajien on voitava tarvittaessa sisällyttää tarvittavat testaus- ja raportointiprosessit, tiedot ja dokumentaatio, joita ne toimittavat tuotteeseensa liittyen, dokumentaatioon ja menettelyihin, jotka ovat jo olemassa ja joita edellytetään liitteessä I olevassa A jaksossa luetellun unionin yhdenmukaistamislainsäädännön nojalla.
2. Когато даден продукт съдържа система с ИИ, за която се прилагат изискванията на настоящия регламент, както и изискванията на законодателството на Съюза за хармонизация, посочено в раздел А от приложение I, доставчиците носят отговорност за осигуряване на пълното съответствие на продукта с всички приложими изисквания съгласно приложимото законодателство на Съюза за хармонизация. С оглед на осигуряване на съответствието на високорисковите системи с ИИ, посочени в параграф 1, с изискванията, установени в настоящия раздел, и с цел да се осигури съгласуваност, да се избегне дублиране и да се сведе до минимум допълнителната тежест, доставчиците могат да изберат да включат, когато е целесъобразно, необходимите процеси на изпитване и докладване, информация и документация, които предоставят за своя продукт, във вече съществуваща документация и процедури, изисквани съгласно законодателството на Съюза за хармонизация, посочено в раздел А от приложение I.
Riskinhallintajärjestelmä
Система за управление на риска
1. Suuririskisille tekoälyjärjestelmille on perustettava, pantava täytäntöön ja dokumentoitava riskinhallintajärjestelmä ja sitä on pidettävä yllä.
1. Във връзка с високорисковите системи с ИИ се създава, прилага, документира и поддържа система за управление на риска.
2. Riskinhallintajärjestelmän on käsitettävä iteratiiviseksi prosessiksi, joka jatkuu suunnitellusti suuririskisen tekoälyjärjestelmän koko elinkaaren ajan ja joka on säännöllisesti ja järjestelmällisesti tarkastettava ja saatettava ajan tasalle. Siihen on sisällyttävä seuraavat vaiheet:
2. Системата за управление на риска се разбира като непрекъснат цикличен процес, планиран и протичащ през целия жизнен цикъл на високорисковата система с ИИ и изискващ редовен и систематичен преглед и актуализиране. Тя включва следните стъпки:
a)
niiden tunnettujen ja kohtuudella ennakoitavissa olevien riskien tunnistaminen ja analysointi, joita suuririskinen tekoälyjärjestelmä voi aiheuttaa liittyen terveyteen, turvallisuuteen tai perusoikeuksiin, kun suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti;
a)
установяване и анализ на известните и разумно предвидимите рискове, които високорисковата система с ИИ може да породи по отношение на здравето, безопасността и основните права, когато високорисковата система с ИИ се използва в съответствие с предназначението си;
b)
niiden riskien arviointi, joita voi syntyä, kun suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti ja kohtuudella ennakoitavissa olevissa väärinkäyttöolosuhteissa;
б)
прогноза и оценка на рисковете, които могат да възникнат, когато високорисковата система с ИИ се използва в съответствие с предназначението си и в условия на разумно предвидима неправилна експлоатация;
c)
muiden mahdollisesti syntyvien riskien arviointi 72 artiklassa tarkoitetusta markkinoille saattamisen jälkeisestä seurantajärjestelmästä kerättyjen tietojen analysoinnin perusteella;
в)
оценка на други евентуално възникващи рискове въз основа на анализ на данните, събрани от системата за мониторинг след пускането на пазара, посочена в член 72;
d)
sellaisten asianmukaisten ja kohdennettujen riskinhallintatoimenpiteiden hyväksyminen, joiden tarkoituksena on puuttua a alakohdan mukaisesti tunnistettuihin riskeihin.
г)
приемане на подходящи и целенасочени мерки за управление на риска, разработени с цел преодоляване на рисковете, установени съгласно буква а).
3. Tässä artiklassa tarkoitetut riskit koskevat ainoastaan niitä, joita voidaan kohtuudella lieventää ja poistaa suuririskisen tekoälyjärjestelmän kehittämisen tai suunnittelun avulla tai asianmukaisten teknisten tietojen antamisella.
3. Рисковете, посочени в настоящия член, се отнасят само до тези, които могат да бъдат разумно ограничени или отстранени при разработването или проектирането на високорисковата система с ИИ или чрез предоставянето на подходяща техническа информация.
4. Edellä 2 kohdan d alakohdassa tarkoitetuissa riskinhallintatoimenpiteissä on otettava asianmukaisesti huomioon vaikutukset ja mahdollinen vuorovaikutus, jotka johtuvat tässä jaksossa säädettyjen vaatimusten soveltamisesta yhdessä, jotta voidaan minimoida riskit tehokkaammin ja saavuttaa samalla asianmukainen tasapaino toteutettaessa toimenpiteet kyseisten vaatimusten täyttämiseksi.
4. Мерките за управление на риска, посочени в параграф 2, буква г), трябва да са надлежно съобразени с последиците и възможното взаимодействие в резултат на съчетаното прилагане на изискванията, установени в настоящия раздел, с цел по-ефективното свеждане до минимум на рисковете, като същевременно се постигне подходящ баланс при прилагането на мерките за изпълнение на тези изисквания.
5. Edellä 2 kohdan d alakohdassa tarkoitettujen riskinhallintatoimenpiteiden on oltava sellaisia, että kuhunkin vaaraan liittyvän asiaankuuluvan jäännösriskin ja suuririskisten tekoälyjärjestelmien kokonaisjäännösriskin katsotaan olevan hyväksyttävällä tasolla.
5. Мерките за управление на риска, посочени в параграф 2, буква г), трябва да са такива, че съответният остатъчен риск, свързан с всяка опасност, както и общият остатъчен риск на високорисковите системи с ИИ, да се считат за приемливи.
Tarkoituksenmukaisimpia riskinhallintatoimenpiteitä määritettäessä on varmistettava seuraavat seikat:
При определянето на най-подходящите мерки за управление на риска се гарантира следното:
a)
2 kohdan nojalla määritettyjen ja arvioitujen riskien poistaminen tai vähentäminen siinä määrin kuin se on teknisesti mahdollista suuririskisen tekoälyjärjestelmän asianmukaisella suunnittelulla ja kehittämisellä;
a)
отстраняване или намаляване на рисковете, установени и оценени съгласно параграф 2, доколкото е технически осъществимо, чрез адекватно проектиране и разработване на високорисковата система с ИИ;
b)
tarvittaessa asianmukaisten riskinvähentämis- ja valvontatoimenpiteiden toteuttaminen sellaisiin riskeihin puuttumiseksi, joita ei voida poistaa;
б)
когато е целесъобразно, прилагане на адекватни мерки за ограничаване и контрол по отношение на рисковете, които не могат да бъдат отстранени;
c)
vaadittavien tietojen antaminen 13 artiklan mukaisesti ja tarvittaessa käyttöönottajille annettava koulutus.
в)
предоставяне на необходимата информация съгласно член 13 и, където е целесъобразно, обучение на внедрителите.
Suuririskisen tekoälyjärjestelmän käyttöön liittyvien riskien poistamiseksi tai vähentämiseksi on otettava asianmukaisesti huomioon käyttöönottajalta odotettava tekninen tietämys, kokemus ja koulutus sekä oletettu yhteys, jossa järjestelmää on tarkoitus käyttää.
С оглед на отстраняването или намаляването на рисковете, свързани с използването на високорисковата система с ИИ, се отчитат надлежно техническите познания, опитът, образованието и обучението, които се очакват от внедрителя, и предполагаемият контекст, в който системата е предназначена да се използва.
6. Suuririskiset tekoälyjärjestelmät on testattava tarkoituksenmukaisimpien ja kohdennetuimpien riskinhallintatoimenpiteiden määrittämiseksi. Testauksella on varmistettava, että suuririskiset tekoälyjärjestelmät toimivat johdonmukaisesti käyttötarkoituksensa mukaisesti ja että ne ovat tässä jaksossa vahvistettujen vaatimusten mukaisia.
6. Високорисковите системи с ИИ се изпитват с цел набелязване на най-подходящите и целенасочени мерки за управление на риска. Изпитванията трябва да гарантират, че високорисковите системи с ИИ функционират стабилно с оглед на предназначението си и че са в съответствие с изискванията, установени в настоящия раздел.
7. Testausmenettelyihin voi sisältyä todellisissa olosuhteissa tapahtuva testaus 60 artiklan mukaisesti.
7. Процедурите за изпитване може да включват изпитване в реални условия в съответствие с член 60.
8. Suuririskisten tekoälyjärjestelmien testaus on tapauksen mukaan suoritettava milloin tahansa kehitysprosessin aikana ja joka tapauksessa ennen niiden markkinoille saattamista tai käyttöönottoa. Testauksessa on käytettävä ennalta määriteltyjä mittareita ja todennäköisyyden kynnyksiä, jotka soveltuvat suuririskisen tekoälyjärjestelmän suunniteltuun käyttötarkoitukseen.
8. Изпитването на високорисковите системи с ИИ се извършва, когато е целесъобразно, във всеки момент от процеса на разработване и — при всички случаи — преди пускането им на пазара или пускането им в действие. Изпитването се извършва спрямо предварително определени показатели и вероятностни прагове, които са подходящи с оглед на предназначението на високорисковата система с ИИ.
9. Edellä 1–7 kohdassa kuvattua riskinhallintajärjestelmää täytäntöön pantaessa tarjoajien on kiinnitettävä huomiota siihen, onko suuririskisellä tekoälyjärjestelmällä todennäköisesti sen käyttötarkoitus huomioon ottaen haitallinen vaikutus alle 18-vuotiaisiin henkilöihin ja tarvittaessa muihin haavoittuvassa asemassa oleviin ryhmiin.
9. При прилагането на системата за управление на риска, предвидена в параграфи 1—7, доставчиците разглеждат въпроса дали, с оглед на предназначението на високорисковата система с ИИ, е вероятно тя да окаже неблагоприятно въздействие върху ненавършили 18 години лица и, в зависимост от случая, върху други уязвими групи.
10. Niiden suuririskisten tekoälyjärjestelmien tarjoajien osalta, joihin sovelletaan unionin oikeuden muiden asiaankuuluvien säännösten mukaisia sisäisiä riskinhallintaprosesseja koskevia vaatimuksia, 1–9 kohdassa tarkoitetut näkökohdat voivat olla osa kyseisen lainsäädännön nojalla vahvistettuja riskinhallintamenettelyjä tai voidaan yhdistää niihin.
10. За доставчиците на високорискови системи с ИИ, спрямо които се прилагат изисквания по отношение на вътрешните процеси за управление на риска съгласно други относими разпоредби на правото на Съюза, аспектите, предвидени в параграфи 1—9, могат да бъдат част от процедурите за управление на риска, установени съгласно това право, или да се съчетават с тях.
Данни и администриране на данните
1. Suuririskiset tekoälyjärjestelmät, joissa hyödynnetään tekniikoita, joihin sisältyy tekoälymallien kouluttaminen datan avulla, on kehitettävä sellaisten koulutus-, validointi- ja testausdatajoukkojen pohjalta, jotka täyttävät 2–5 kohdassa tarkoitetut laatuvaatimukset, kun tällaisia datajoukkoja käytetään.
1. Високорисковите системи с ИИ, при които се използват техники, свързани с обучение с данни на модели с ИИ, се разработват въз основа на набори от обучителни, валидационни и изпитвателни данни, които отговарят на критериите за качество, посочени в параграфи 2—5, когато се използват такива набори от данни.
2. Koulutus-, validointi- ja testausdatajoukkoihin on sovellettava suuririskisen tekoälyjärjestelmän käyttötarkoitukseen soveltuvia datanhallinta- ja hallinnointikäytäntöjä. Näiden käytäntöjen on koskettava erityisesti seuraavia seikkoja:
2. По отношение на наборите от обучителни, валидационни и изпитвателни данни се прилагат практики за администриране и управление на данните, подходящи с оглед на предназначението на системата с ИИ. Тези практики се отнасят по-специално до:
a)
asiaankuuluvat suunnitteluvalinnat;
a)
съответните проектантски решения;
b)
datan keruuprosessit ja datan alkuperä sekä henkilötietojen osalta datankeruun alkuperäinen tarkoitus;
б)
процесите на събиране на данни и произхода на данните и в случай на лични данни — първоначалната цел на събирането на данните;
c)
asiaankuuluvat tietojenkäsittelytoimet, kuten huomautusten ja tunnisteiden lisääminen, puhdistus, ajantasaistaminen, rikastaminen ja yhdistäminen;
в)
съответните операции по подготовка на данните, като анотиране, обозначаване, изчистване, актуализиране, обогатяване и агрегиране;
d)
oletusten muotoilu erityisesti niiden tietojen osalta, joita datan on tarkoitus mitata ja edustaa;
г)
формулирането на допускания, по-специално по отношение на информацията, която данните следва да измерват и представят;
e)
tarvittavien datajoukkojen saatavuuden, määrän ja soveltuvuuden arviointi;
д)
оценка на наличието, количеството и годността на необходимите набори от данни;
f)
sellaisten mahdollisten vinoutumien selvittäminen, jotka todennäköisesti vaikuttavat ihmisten terveyteen ja turvallisuuteen, vaikuttavat kielteisesti perusoikeuksiin tai johtavat unionin oikeudessa kiellettyyn syrjintään, erityisesti silloin, kun tuotokset vaikuttavat tulevien toimintojen syöttötietoihin;
е)
преглед с оглед на евентуална предубеденост, която има вероятност да засегне здравето и безопасността на хората, да окаже отрицателно въздействие върху основните права или да доведе до дискриминация, забранена съгласно правото на Съюза, по-специално когато резултатите от данните оказват влияние върху входящите данни за бъдещи операции;
g)
asianmukaiset toimenpiteet f alakohdan mukaisesti havaittujen mahdollisten vinoutumien havaitsemiseksi, ehkäisemiseksi ja lieventämiseksi;
ж)
подходящи мерки за откриване, предотвратяване и смекчаване на евентуална предубеденост, установена съгласно буква е);
h)
sellaisten merkityksellisten puuttuvien tai puutteellisten tietojen tunnistaminen, jotka estävät noudattamasta tätä asetusta, ja se, miten nämä puutteet voidaan korjata.
з)
откриване на съответни пропуски или недостатъци в данните, които възпрепятстват съответствието с настоящия регламент, и на начините за отстраняване на тези пропуски и недостатъци.
3. Koulutus-, validointi- ja testausdatajoukkojen on oltava käyttötarkoitukseen nähden merkityksellisiä, riittävän edustavia ja niin suurelta osin kuin mahdollista virheettömiä ja täydellisiä. Niillä on oltava asianmukaiset tilastolliset ominaisuudet, tarvittaessa myös niiden henkilöiden tai henkilöryhmien osalta, joihin liittyen suuririskistä tekoälyjärjestelmää on tarkoitus käyttää. Kyseiset datajoukkojen ominaisuudet voidaan saavuttaa yksittäisten datajoukkojen tai niiden yhdistelmän tasolla.
3. Наборите от обучителни, валидационни и изпитвателни данни трябва да са подходящи, достатъчно представителни и във възможно най-голяма степен без грешки и пълни с оглед на предназначението на системата. Те трябва да притежават подходящите статистически свойства, включително, когато е приложимо, по отношение на лицата или групите лица, по отношение на които високорисковата система с ИИ е предназначена да се използва. Тези характеристики на наборите от данни могат да са налични на равнището на отделните набори от данни или по отношение на комбинация от тях.
4. Datajoukoissa on otettava käyttötarkoituksen edellyttämässä laajuudessa huomioon ne ominaisuudet tai osatekijät, jotka ovat ominaisia sille maantieteelliselle, viitekehyksenä olevalle, käyttäytymiseen liittyvälle tai toiminnalliselle ympäristölle, jossa suuririskistä tekoälyjärjestelmää on tarkoitus käyttää.
4. Наборите от данни трябва да са съобразени — доколкото това е необходимо с оглед на предназначението — с характеристиките или елементите, характерни за конкретната географска, контекстуална, поведенческа или функционална среда, в която високорисковата система с ИИ е предназначена да бъде използвана.
5. Siinä määrin kuin se on ehdottoman välttämätöntä suuririskisten tekoälyjärjestelmien vinoutumien havaitsemisen ja korjaamisen varmistamiseksi tämän artiklan 2 kohdan f ja g alakohdan mukaisesti, tällaisten järjestelmien tarjoajat voivat poikkeuksellisesti käsitellä erityisiä henkilötietoryhmiä edellyttäen, että luonnollisten henkilöiden perusoikeudet ja -vapaudet turvataan asianmukaisilla suojatoimilla. Tällainen käsittely edellyttää asetuksissa (EU) 2016/679 ja (EU) 2018/1725 ja direktiivissä (EU) 2016/680 vahvistettujen säännösten lisäksi kaikkien seuraavien ehtojen täyttymistä:
5. Доколкото това е строго необходимо, за да се гарантира откриване и коригиране на предубеденост във високорисковите системи с ИИ в съответствие с параграф 2, букви е) и ж) от настоящия член, доставчиците на такива системи могат по изключение да обработват специални категории лични данни при спазването на подходящи гаранции за основните права и свободи на физическите лица. Освен разпоредбите, предвидени в регламенти (ЕС) 2016/679 и (ЕС) 2018/1725 и Директива (ЕС) 2016/680, за да може да се извърши такова обработване, трябва да бъдат изпълнени всички посочени по-долу условия:
a)
vinoutumia ei voida tehokkaasti havaita ja korjata käsittelemällä muita tietoja, kuten synteettisiä tai anonymisoituja tietoja;
a)
откриването и коригирането на предубедеността не могат да се осъществят ефективно чрез обработването на други данни, включително синтетични или анонимизирани данни;
b)
erityisiin henkilötietoryhmiin sovelletaan henkilötietojen uudelleenkäyttöä koskevia teknisiä rajoituksia ja viimeisintä kehitystä edustavia tietoturvaa ja yksityisyyden suojaa parantavia toimenpiteitä, kuten pseudonymisointia;
б)
по отношение на специалните категории лични данни се прилагат технически ограничения, свързани с повторното използване на личните данни, както и най-съвременни мерки за сигурност и опазване на неприкосновеността на личния живот, включително псевдонимизация;
c)
erityisiin henkilötietoryhmiin kohdistetaan toimenpiteitä, joilla varmistetaan, että käsitellyt henkilötiedot turvataan ja suojataan asianmukaisia suojatoimia noudattaen, mukaan lukien tietoihin pääsyn tiukka valvonta ja dokumentointi, jotta vältetään väärinkäyttö ja varmistetaan, että ainoastaan valtuutetuilla henkilöillä on pääsy kyseisiin henkilötietoihin asianmukaista salassapitovelvollisuutta soveltaen;
в)
по отношение на специалните категории лични данни се прилагат мерки, с които се гарантира, че обработваните лични данни са обезопасени, защитени, спрямо тях се прилагат подходящи гаранции, включително строг контрол и документиране на достъпа, с цел да се избегне злоупотреба и да се гарантира, че само оправомощени лица имат достъп до тези лични данни със съответните задължения за спазване на поверителност;
d)
erityisiä henkilötietoryhmiä ei välitetä, siirretä tai muutoin saateta muiden osapuolten saataville;
г)
специалните категории лични данни не се предоставят, не се предават, нито достъпват по друг начин от други лица;
e)
erityisiä henkilötietoryhmiä poistetaan, kun vinoutuma on korjattu tai kun henkilötietojen säilytysaika on päättynyt, sen mukaan kumpi ajankohdista on aikaisempi;
д)
специалните категории лични данни се заличават, след като предубедеността бъде коригирана или личните данни достигнат края на срока си на съхранение, като се взема предвид по-рано настъпилото от двете събития;
f)
asetusten (EU) 2016/679 ja (EU) 2018/1725 sekä direktiivin (EU) 2016/680 mukaisiin käsittelytoimia koskeviin selosteisiin sisältyvät syyt, joiden vuoksi erityisten henkilötietoryhmien käsittely oli ehdottoman välttämätöntä vinoutumien havaitsemiseksi ja korjaamiseksi ja miksi tätä tavoitetta ei voitu saavuttaa käsittelemällä muita tietoja.
е)
записите за дейностите по обработване съгласно регламенти (ЕС) 2016/679 и (ЕС) 2018/1725 и Директива (ЕС) 2016/680 включват причините, поради които обработването на специални категории лични данни е било строго необходимо за откриване и коригиране на предубедеността и не било възможно тази цел да се постигне чрез обработване на други данни.
6. Sellaisen suuririskisten tekoälyjärjestelmien kehittämisen osalta, jossa ei käytetä tekniikoita, joihin sisältyy tekoälymallien kouluttaminen, 2–5 kohtaa sovelletaan ainoastaan datajoukkojen testaukseen.
6. При разработването на високорискови системи с ИИ, които не използват техники, включващи обучение на модели с ИИ, параграфи 2—5 се прилагат само за наборите от изпитвателни данни.
1. Suuririskisen tekoälyjärjestelmän tekninen dokumentaatio on laadittava ennen kuin järjestelmä saatetaan markkinoille tai otetaan käyttöön, ja se on pidettävä ajan tasalla.
1. Техническата документация на дадена високорискова система с ИИ се изготвя, преди тя да бъде пусната на пазара или пусната в действие, и се поддържа актуална.
Tekninen dokumentaatio on laadittava siten, että siinä osoitetaan suuririskisen tekoälyjärjestelmän olevan tässä jaksossa vahvistettujen vaatimusten mukainen ja annetaan kansallisille toimivaltaisille viranomaisille ja ilmoitetuille laitoksille tarvittavat tiedot selkeässä ja ymmärrettävässä muodossa sen arvioimiseksi, täyttääkö tekoälyjärjestelmä kyseiset vaatimukset. Sen on sisällettävä vähintään liitteessä IV esitetyt tiedot. Pk-yritykset, mukaan lukien startup-yritykset, voivat toimittaa liitteessä IV täsmennetyn teknisen dokumentaation osat yksinkertaistetulla tavalla. Tätä varten komissio laatii yksinkertaistetun teknisen dokumentaatiolomakkeen, joka on suunnattu pienten ja mikroyritysten tarpeisiin. Jos pk-yritys, myös startup-yritys, päättää toimittaa liitteessä IV vaaditut tiedot yksinkertaistetussa muodossa, sen on käytettävä tässä kohdassa tarkoitettua lomaketta. Ilmoitettujen laitosten on hyväksyttävä kyseinen lomake vaatimustenmukaisuuden arviointia varten.
Техническата документация се изготвя по такъв начин, че да показва, че високорисковата система с ИИ съответства на изискванията, установени в настоящия раздел, и да предоставя на националните компетентни органи и нотифицираните органи цялата необходима информация в ясна и разбираема форма с цел оценяване на съответствието на системата с ИИ с посочените изисквания. Тя съдържа най-малко елементите, установени в приложение IV. МСП, включително новосъздадените предприятия, могат да предоставят по опростен начин елементите на техническата документация, посочени в приложение IV. За тази цел Комисията създава опростен формуляр за техническа документация, съобразен с нуждите на малките предприятия и микропредприятията. Когато МСП, включително новосъздадените предприятия, изберат да предоставят по опростен начин информацията, изисквана съгласно приложение IV, те използват формуляра, посочен в настоящия параграф. Нотифицираните органи приемат формуляра за целите на оценяването на съответствието.
2. Kun markkinoille saatetaan tai käyttöön otetaan suuririskinen tekoälyjärjestelmä, joka liittyy tuotteeseen, johon sovelletaan liitteessä I olevassa A jaksossa lueteltua unionin yhdenmukaistamislainsäädäntöä, on laadittava kootusti tekninen dokumentaatio, joka sisältää kaikki 1 kohdassa esitetyt tiedot sekä kyseisissä säädöksissä vaaditut tiedot.
2. Когато се пуска на пазара или пуска в действие високорискова система с ИИ, свързана с продукт, обхванат от законодателството на Съюза за хармонизация, посочено в раздел А от приложение I, се изготвя един набор от техническа документация, съдържаща цялата посочена в параграф 1 информация, както и информацията, изисквана съгласно тези правни актове.
3. Siirretään komissiolle valta antaa delegoituja säädöksiä 97 artiklan mukaisesti liitteen IV muuttamiseksi tarvittaessa sen varmistamiseksi, että teknisessä dokumentaatiossa annetaan tekniikan kehityksen perusteella kaikki tarvittavat tiedot sen arvioimiseksi, onko järjestelmä tässä jaksossa vahvistettujen vaatimusten mukainen.
3. На Комисията се предоставя правомощието да приема делегирани актове в съответствие с член 97 за изменение на приложение IV, когато това е необходимо, за да се гарантира, че предвид техническия напредък техническата документация предоставя цялата информация, необходима за оценяване на съответствието на системата с установените в настоящия раздел изисквания.
Avoimuus ja tietojen antaminen käyttöönottajille
Прозрачност и предоставяне на информация на внедрителите
1. Suuririskiset tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että varmistetaan, että niiden toiminta on riittävän avointa, jotta käyttöönottajat voivat tulkita järjestelmän tuotoksia ja käyttää niitä asianmukaisesti. On varmistettava sopiva avoimuuden tyyppi ja taso, jotta voidaan taata 3 jaksossa säädettyjen tarjoajan ja käyttöönottajan asiaankuuluvien velvoitteiden noudattaminen.
1. Високорисковите системи с ИИ се проектират и разработват така, че да се гарантира, че функционирането им е достатъчно прозрачно, за да позволи на внедрителите да тълкуват резултатите, получени от системата, и да ги използват по подходящ начин. Осигурява се подходящ вид и степен на прозрачност с оглед изпълнение на приложимите задължения на доставчика и внедрителя, установени в раздел 3.
2. Suuririskisten tekoälyjärjestelmien mukana on oltava käyttöohjeet asianmukaisessa digitaalisessa tai muussa muodossa, ja niissä on annettava ytimekkäitä, täydellisiä, paikkansapitäviä ja selkeitä tietoja, jotka ovat käyttöönottajien kannalta olennaisia, esteettömiä ja ymmärrettäviä.
2. Високорисковите системи с ИИ се придружават от инструкции за употреба в подходящ цифров или друг формат, които включват кратка, пълна, вярна и ясна информация, която е относима, достъпна и разбираема за внедрителите.
3. Käyttöohjeiden on sisällettävä ainakin seuraavat:
3. Инструкциите за употреба съдържат най-малко следната информация:
a)
tarjoajan ja tarvittaessa tämän valtuutetun edustajan henkilöllisyys ja yhteystiedot;
a)
идентификационните данни и данните за връзка с доставчика и когато е приложимо, същите данни за неговия упълномощен представител;
b)
suuririskisen tekoälyjärjestelmän ominaisuudet, valmiudet ja suorituskyvyn rajoitukset, mukaan lukien seuraavat:
б)
характеристиките, способностите и ограниченията в действието на високорисковата система с ИИ, включително:
i)
järjestelmän käyttötarkoitus;
i)
нейното предназначение;
ii)
15 artiklassa tarkoitettu tarkkuuden, mukaan lukien sen mittarit, vakauden ja kyberturvallisuuden taso, johon nähden suuririskinen tekoälyjärjestelmä on testattu ja validoitu ja jota voidaan odottaa, sekä kaikki tunnetut ja ennakoitavissa olevat olosuhteet, joilla voi olla vaikutusta kyseiseen tarkkuuden, vakauden ja kyberturvallisuuden odotettuun tasoon;
ii)
нивото на точност, включително използваните за него показатели, на надеждност и на киберсигурност, посочено в член 15, спрямо което е изпитана и валидирана високорисковата система с ИИ и което може да се очаква, както и всички известни или предвидими обстоятелства, които могат да окажат въздействие върху очакваното ниво на точност, надеждност и киберсигурност;
iii)
kaikki tunnetut tai ennakoitavissa olevat olosuhteet, jotka liittyvät suuririskisen tekoälyjärjestelmän käyttöön sen käyttötarkoituksen mukaisesti tai kohtuudella ennakoitavissa olevissa väärinkäytön olosuhteissa ja jotka voivat aiheuttaa 9 artiklan 2 kohdassa tarkoitettuja terveyteen ja turvallisuuteen tai perusoikeuksiin kohdistuvia riskejä;
iii)
всички известни или предвидими обстоятелства, свързани с използването на високорисковата система с ИИ в съответствие с предназначението ѝ или в условия на разумно предвидима неправилна експлоатация, които могат да доведат до рискове за здравето и безопасността или за основните права, посочени в член 9, параграф 2;
iv)
tapauksen mukaan suuririskisen tekoälyjärjestelmän tekniset valmiudet ja ominaisuudet, jotta voidaan antaa tietoja, jotka ovat merkityksellisiä sen tuotoksen selittämiseksi;
iv)
когато е приложимо, техническите способности и характеристики на високорисковата система с ИИ за предоставяне на информация, която е от значение, за да се обяснят резултатите от системата;
v)
tarvittaessa sen käyttäytyminen niiden henkilöiden tai henkilöryhmien osalta, joihin järjestelmää on tarkoitus käyttää;
v)
когато е целесъобразно, действието ѝ по отношение на конкретни лица или групи лица, спрямо които системата е предназначена да се използва;
vi)
tarvittaessa syöttötietoja koskevat spesifikaatiot tai muut käytettyjä koulutus-, validointi- ja testausdatajoukkoja koskevat olennaiset tiedot ottaen huomioon suuririskisen tekoälyjärjestelmän käyttötarkoitus;
vi)
когато е целесъобразно, спецификациите на входящите данни или всякаква друга относима информация по отношение на използваните набори от обучителни, валидационни и изпитвателни данни, като се отчита предназначението на високорисковата система с ИИ;
vii)
tapauksen mukaan tiedot, joiden avulla käyttöönottajat voivat tulkita suuririskisen tekoälyjärjestelmän tuotoksia ja käyttää niitä asianmukaisesti;
vii)
когато е приложимо, информация, която да позволи на внедрителите да тълкуват резултатите от високорисковата система с ИИ и да ги използват по подходящ начин;
c)
suuririskisen tekoälyjärjestelmän ja sen suorituskyvyn muutokset, jotka tarjoaja on määritellyt ennalta ensimmäisen vaatimustenmukaisuuden arvioinnin yhteydessä, jos sellaisia on;
в)
промените във високорисковата система с ИИ и в нейното действие, които са били предварително определени от доставчика към момента на първоначалното оценяване на съответствието, ако има такива;
d)
14 artiklassa tarkoitetut ihmisen suorittamat valvontatoimenpiteet, mukaan lukien tekniset toimenpiteet, jotka on otettu käyttöön, jotta käyttöönottajien olisi helpompi tulkita suuririskisten tekoälyjärjestelmien tuotoksia;
г)
мерките за упражняване на човешки контрол, посочени в член 14, включително техническите мерки, въведени с цел улесняване на тълкуването от страна на внедрителите на резултатите от високорисковите системи с ИИ;
e)
tarvittavat laskenta- ja laiteresurssit, suuririskisen tekoälyjärjestelmän odotettu käyttöikä ja kaikki tarvittavat huolto- ja hoitotoimenpiteet, mukaan lukien niiden aikavälit, joilla varmistetaan tekoälyjärjestelmän asianmukainen toiminta, mukaan lukien ohjelmistopäivitykset;
д)
необходимите изчислителни и хардуерни ресурси, очаквания срок на експлоатация на високорисковата система с ИИ и евентуалните необходими мерки за поддръжка и обслужване, включително тяхната честота, с цел да се гарантира правилното функциониране на системата с ИИ, включително по отношение на актуализациите на софтуера;
f)
tarpeen mukaan kuvaus suuririskiseen tekoälyjärjestelmään sisältyvistä mekanismeista, joiden avulla käyttöönottajat voivat asianmukaisesti kerätä, tallentaa ja tulkita lokitietoja 12 artiklan mukaisesti.
е)
когато е приложимо, описание на механизмите, включени във високорисковата система с ИИ, които позволяват на внедрителите правилно да събират, съхраняват и тълкуват записите в съответствие с член 12.
Ihmisen suorittama valvonta
1. Suuririskiset tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että luonnolliset henkilöt voivat tehokkaasti valvoa niitä niiden ollessa käytössä, mukaan lukien asianmukaisten käyttöliittymätyökalujen käyttö.
1. Високорисковите системи с ИИ се проектират и разработват — включително като се предвиждат подходящи инструменти за интерфейса човек–машина в тях — по такъв начин, че върху тях да може да бъде упражняван ефективен контрол от физически лица в периода, през който се използват.
2. Ihmisen suorittamalla valvonnalla on pyrittävä ehkäisemään tai minimoimaan terveydelle, turvallisuudelle tai perusoikeuksille aiheutuvat riskit, joita voi syntyä, kun suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti tai kohtuudella ennakoitavissa olevissa väärinkäytön olosuhteissa, erityisesti jos tällaiset riskit jatkuvat huolimatta muiden tässä jaksossa vahvistettujen vaatimusten soveltamisesta.
2. Човешкият контрол има за цел предотвратяването или свеждането до минимум на рисковете за здравето, безопасността или основните права, които могат да възникнат при използването на високорискова система с ИИ в съответствие с нейното предназначение или при условия на разумно предвидима неправилна експлоатация, по-специално когато тези рискове продължават да съществуват, независимо от прилагането на останалите изисквания, установени в настоящия раздел.
3. Valvontatoimenpiteiden on oltava oikeassa suhteessa suuririskisen tekoälyjärjestelmän riskeihin, itsenäisyyden tasoon ja käyttöympäristöön, ja ne on varmistettava jommallakummalla tai molemmilla seuraavista toimenpidetyypeistä:
3. Мерките за контрол трябва да са съразмерни спрямо рисковете, нивото на автономност и контекста на използване на високорисковата система с ИИ и да се осигуряват чрез единия или двата вида мерки, които са посочени по-долу:
a)
toimenpiteet, jotka tarjoaja on määrittänyt ja, jos se on teknisesti toteutettavissa, sisällyttänyt suuririskiseen tekoälyjärjestelmään ennen sen markkinoille saattamista tai käyttöönottoa;
a)
мерки, които са набелязани и вградени, когато това е технически осъществимо, във високорисковата система с ИИ от доставчика преди пускането ѝ на пазара или пускането ѝ в действие;
b)
toimenpiteet, jotka tarjoaja on määrittänyt ennen suuririskisen tekoälyjärjestelmän markkinoille saattamista tai käyttöönottoa ja jotka on tarkoituksenmukaista toteuttaa käyttöönottajan toimesta.
б)
мерки, които са набелязани от доставчика преди пускането на високорисковата система с ИИ на пазара или пускането ѝ в действие и които са подходящи за прилагане от страна на внедрителя.
4. Edellä 1, 2 ja 3 kohdan täytäntöönpanoa varten suuririskinen tekoälyjärjestelmä on tarjottava käyttöönottajalle siten, että luonnolliset henkilöt, joiden tehtäväksi ihmisen suorittama valvonta on annettu, voivat tapauksen mukaan ja oikeassa suhteessa niihin nähden
4. За целите на прилагането на параграфи 1, 2 и 3 високорисковата система с ИИ се предоставя на ползвателя по начин, който дава възможност на физическите лица, на които е възложено да упражняват човешки контрол, когато е целесъобразно и пропорционално:
a)
ymmärtää asianmukaisesti suuririskisen tekoälyjärjestelmän asiaankuuluvat valmiudet ja rajoitukset ja seurata sen toimintaa asianmukaisesti, myös poikkeamien, toimintahäiriöiden ja odottamattoman toiminnan havaitsemiseksi ja niihin puuttumiseksi;
a)
да разбират добре съответните способности и ограничения на високорисковата система с ИИ и да могат надлежно да следят нейното функциониране, включително с оглед на откриването и справянето с аномалии, отклонения във функционирането и неочаквано действие;
b)
pysyä tietoisina mahdollisesta taipumuksesta luottaa automaattisesti tai liiallisesti suuririskisen tekoälyjärjestelmän tuottamiin tuotoksiin (”automaatiovinouma”), erityisesti sellaisten suuririskisten tekoälyjärjestelmien osalta, joita käytetään tietojen tai suositusten antamiseen luonnollisten henkilöiden tekemiä päätöksiä varten;
б)
да осъзнават възможната тенденция автоматично да се разчита или в прекалено голяма степен да се разчита на резултатите, получени от ви