Notice: This is a Juremy.com rendered version. Only European Union documents published in the Official Journal of the European Union are deemed authentic. Juremy accepts no responsibility or liability whatsoever with regard to the content of this document.
Base data © European Union, 1998-2024. Postprocessed and marked-up data © 2019-2024 Juremy.com, all rights reserved.
Render version: 0.1, render date: 2024-07-24
Euroopan unionin
virallinen lehti
FI
Dziennik Urzędowy
Unii Europejskiej
PL
L-sarja
Seria L
2024/1689
12.7.2024
2024/1689
12.7.2024
EUROOPAN PARLAMENTIN JA NEUVOSTON ASETUS (EU) 2024/1689,
ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY (UE) 2024/1689
annettu 13 päivänä kesäkuuta 2024,
z dnia 13 czerwca 2024 r.
tekoälyä koskevista yhdenmukaistetuista säännöistä ja asetusten (EY) N:o 300/2008, (EU) N:o 167/2013, (EU) N:o 168/2013, (EU) 2018/858, (EU) 2018/1139 ja (EU) 2019/2144 sekä direktiivien 2014/90/EU, (EU) 2016/797 ja (EU) 2020/1828 muuttamisesta (tekoälysäädös)
w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji)
(ETA:n kannalta merkityksellinen teksti)
(Tekst mający znaczenie dla EOG)
EUROOPAN PARLAMENTTI JA EUROOPAN UNIONIN NEUVOSTO, jotka
PARLAMENT EUROPEJSKI I RADA UNII EUROPEJSKIEJ,
ottavat huomioon Euroopan unionin toiminnasta tehdyn sopimuksen ja erityisesti sen 16 ja 114 artiklan,
uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 16 i 114,
ottavat huomioon Euroopan komission ehdotuksen,
uwzględniając wniosek Komisji Europejskiej,
sen jälkeen kun esitys lainsäätämisjärjestyksessä hyväksyttäväksi säädökseksi on toimitettu kansallisille parlamenteille,
po przekazaniu projektu aktu ustawodawczego parlamentom narodowym,
ottavat huomioon Euroopan talous- ja sosiaalikomitean lausunnon (1),
uwzględniając opinię Europejskiego Komitetu Ekonomiczno-Społecznego (1),
ottavat huomioon Euroopan keskuspankin lausunnon (2),
uwzględniając opinię Europejskiego Banku Centralnego (2),
ottavat huomioon alueiden komitean lausunnon (3),
uwzględniając opinię Komitetu Regionów (3),
noudattavat tavallista lainsäätämisjärjestystä (4),
stanowiąc zgodnie ze zwykłą procedurą ustawodawczą (4),
sekä katsovat seuraavaa:
a także mając na uwadze, co następuje:
(1)
Tämän asetuksen tarkoituksena on parantaa sisämarkkinoiden toimintaa vahvistamalla yhtenäinen oikeudellinen kehys erityisesti unionin arvojen mukaiselle tekoälyjärjestelmien kehittämiselle, markkinoille saattamiselle, käyttöönotolle ja käytölle unionissa, edistää ihmiskeskeisen ja luotettavan tekoälyn käyttöönottoa varmistaen samalla Euroopan unionin perusoikeuskirjassa, jäljempänä ”perusoikeuskirja”, vahvistettu terveyden, turvallisuuden ja perusoikeuksien, mukaan lukien demokratia, oikeusvaltio ja ympäristönsuojelu, suojelun korkea taso, suojautua tekoälyjärjestelmien haitallisilta vaikutuksilta unionissa sekä tukea innovointia. Tällä asetuksella varmistetaan tekoälyyn perustuvien tavaroiden ja palvelujen vapaa liikkuvuus rajojen yli, mikä estää jäsenvaltioita asettamasta tekoälyjärjestelmien kehittämistä, markkinoille saattamista ja käyttöä koskevia rajoituksia, ellei sitä nimenomaisesti sallita tällä asetuksella.
(1)
Celem niniejszego rozporządzenia jest poprawa funkcjonowania rynku wewnętrznego przez ustanowienie jednolitych ram prawnych, w szczególności w zakresie rozwoju, wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów sztucznej inteligencji (zwanych dalej „systemami AI”) w Unii, zgodnie z wartościami Unii, w celu promowania upowszechniania zorientowanej na człowieka i godnej zaufania sztucznej inteligencji (AI) przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych zapisanych w Karcie praw podstawowych Unii Europejskiej (zwanej „Kartą”), w tym demokracji, praworządności i ochrony środowiska, ochrony przed szkodliwymi skutkami systemów AI w Unii, a także wspierania innowacji. Niniejsze rozporządzenie zapewnia swobodny transgraniczny przepływ towarów i usług opartych na AI, uniemożliwiając tym samym państwom członkowskim nakładanie ograniczeń na rozwój, wprowadzanie do obrotu i wykorzystywanie systemów AI, chyba że jest to wyraźnie dozwolone w niniejszym rozporządzeniu.
(2)
Tätä asetusta olisi sovellettava perusoikeuskirjassa vahvistettujen unionin arvojen mukaisesti, mikä helpottaa luonnollisten henkilöiden, yritysten, demokratian ja oikeusvaltion sekä ympäristön suojelua ja samalla edistää innovointia ja työllisyyttä sekä varmistaa unionin johtoaseman luotettavan tekoälyn käyttöönotossa.
(2)
Niniejsze rozporządzenie należy stosować zgodnie z wartościami Unii zapisanymi w Karcie, ułatwiając ochronę osób fizycznych, przedsiębiorstw, demokracji, praworządności oraz ochronę środowiska, a jednocześnie pobudzając innowacje i zatrudnienie oraz czyniąc Unię liderem w upowszechnianiu godnej zaufania AI.
(3)
Tekoälyjärjestelmiä voidaan ottaa helposti käyttöön monilla eri talouden ja yhteiskunnan aloilla, myös rajojen yli, ja ne voivat liikkua helposti kaikkialla unionissa. Eräät jäsenvaltiot ovat jo harkinneet kansallisten sääntöjen hyväksymistä sen varmistamiseksi, että tekoäly on luotettavaa ja turvallista ja että sitä kehitetään ja käytetään perusoikeuksia koskevien velvoitteiden mukaisesti. Toisistaan poikkeavat kansalliset säännöt voivat johtaa sisämarkkinoiden pirstoutumiseen ja heikentää tekoälyjärjestelmiä kehittävien, maahantuovien tai käyttävien toimijoiden oikeusvarmuutta. Sen vuoksi olisi varmistettava suojelun yhdenmukainen ja korkea taso koko unionissa, jotta tekoäly saadaan toimimaan luotettavasti, ja samalla estettävä erot, jotka haittaavat tekoälyjärjestelmien ja niihin liittyvien tuotteiden ja palvelujen vapaata liikkuvuutta, innovointia ja käyttöönottoa sisämarkkinoilla, vahvistamalla yhdenmukaiset velvoitteet toimijoille ja takaamalla yleiseen etuun liittyvien pakottavien syiden ja henkilöiden oikeuksien yhdenmukainen suojelu koko sisämarkkinoilla Euroopan unionin toiminnasta tehdyn sopimuksen 114 artiklan mukaisesti. Siltä osin kuin tämä asetus sisältää yksilöiden suojelua henkilötietojen käsittelyssä koskevia erityissääntöjä, joilla rajoitetaan tekoälyjärjestelmien lainvalvontatarkoituksessa tapahtuvaa käyttöä biometristä etätunnistusta, luonnollisia henkilöitä koskevia riskinarviointeja ja biometristä luokittelua varten, tämä asetus on aiheellista perustaa kyseisten erityissääntöjen osalta Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklaan. Kun otetaan huomioon nämä erityissäännöt ja Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklan käyttö, on aiheellista kuulla Euroopan tietosuojaneuvostoa.
(3)
Systemy AI mogą być łatwo wdrażane w wielu różnych sektorach gospodarki i obszarach życia społecznego, w tym w wymiarze transgranicznym, i mogą w łatwy sposób być przedmiotem obrotu w całej Unii. Niektóre państwa członkowskie zastanawiają się już nad przyjęciem przepisów krajowych w celu zapewnienia, aby AI była godna zaufania i bezpieczna oraz rozwijana i wykorzystywana w sposób zgodny z obowiązkami wynikającymi z praw podstawowych. Zróżnicowane przepisy krajowe mogą prowadzić do rozdrobnienia rynku wewnętrznego i mogą zmniejszyć pewność prawa dla operatorów, którzy rozwijają, importują lub wykorzystują systemy AI. Aby zatem AI stałą się godna zaufania, należy zapewnić spójny i wysoki poziom ochrony w całej Unii poprzez ustanowienie jednolitych obowiązków dla operatorów i zagwarantowanie jednolitej ochrony nadrzędnego interesu publicznego i praw osób na całym rynku wewnętrznym na podstawie art. 114 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE), zapobiegając jednocześnie rozbieżnościom, które utrudniają swobodny obrót systemami AI oraz powiązanymi produktami i usługami na rynku wewnętrznym, a także utrudniają innowacje w ich zakresie oraz ich wdrażanie i rozpowszechnianie. W zakresie, w jakim niniejsze rozporządzenie zawiera przepisy szczególne dotyczące ochrony osób fizycznych w związku z przetwarzaniem danych osobowych w odniesieniu do ograniczenia wykorzystywania systemów AI do zdalnej identyfikacji biometrycznej do celów ścigania przestępstw, ograniczenia wykorzystywania systemów AI do oceny ryzyka w odniesieniu do osób fizycznych do celów ścigania przestępstw i ograniczenia wykorzystywania systemów AI kategoryzacji biometrycznej do celów ścigania przestępstw, podstawą niniejszego rozporządzenia w zakresie takich przepisów szczególnych powinien być art. 16 TFUE. W świetle tych przepisów szczególnych i skorzystania z art. 16 TFUE należy skonsultować się z Europejską Radą Ochrony Danych.
(4)
Tekoäly on nopeasti kehittyvä teknologiakokonaisuus, joka tuottaa monenlaisia taloudellisia, ympäristöön liittyviä ja yhteiskunnallisia hyötyjä kaikilla teollisuudenaloilla ja kaikessa sosiaalisessa toiminnassa. Tekoälyn käyttö voi tarjota yrityksille keskeisiä kilpailuetuja ja tukea yhteiskunnallisesti ja ympäristön kannalta suotuisia tuloksia esimerkiksi terveydenhuollon, maatalouden, elintarviketurvallisuuden, koulutuksen, tiedotusvälineiden, urheilun, kulttuurin, infrastruktuurin hallinnan, energian, liikenteen ja logistiikan, julkisten palvelujen, turvallisuuden, oikeuden, resurssi- ja energiatehokkuuden, ympäristönseurannan, luonnon monimuotoisuuden ja ekosysteemien säilyttämisen ja ennallistamisen sekä ilmastonmuutoksen hillitsemisen ja siihen sopeutumisen aloilla parantamalla ennakointia, optimoimalla toimintoja ja resurssien kohdentamista ja räätälöimällä yksilöille ja organisaatioille tarjolla olevia digitaalisia ratkaisuja.
(4)
AI to szybko rozwijająca się grupa technologii, która przyczynia się do wielu różnych korzyści ekonomicznych, środowiskowych i społecznych we wszystkich gałęziach przemysłu i obszarach działalności społecznej. Ponieważ wykorzystywanie AI umożliwia lepsze prognozowanie, optymalizację operacji i przydzielania zasobów oraz personalizację rozwiązań cyfrowych dostępnych dla osób fizycznych i organizacji, może ono zapewnić przedsiębiorstwom kluczową przewagę konkurencyjną i wzmacniać korzyści społeczne i środowiskowe, na przykład w zakresie opieki zdrowotnej, rolnictwa, bezpieczeństwa żywności, kształcenia i szkolenia, mediów, sportu, kultury, zarządzania infrastrukturą, energetyki, transportu i logistyki, usług publicznych, bezpieczeństwa, wymiaru sprawiedliwości, zasobooszczędności i efektywności energetycznej, monitorowania środowiska, ochrony i odtwarzania różnorodności biologicznej i ekosystemów oraz łagodzenia zmiany klimatu i przystosowywania się do niej.
(5)
Samaan aikaan tekoäly voi sen erityiseen sovellukseen, käyttöön ja teknologisen kehityksen asteeseen liittyvistä olosuhteista riippuen aiheuttaa riskejä ja vahingoittaa unionin oikeudella suojattuja yleisiä etuja ja perusoikeuksia. Tällainen vahinko voi olla aineellista tai aineetonta, kuten fyysistä, psykologista, yhteiskunnallista tai taloudellista vahinkoa.
(5)
Jednocześnie AI może stwarzać zagrożenia i wyrządzać szkody dla interesu publicznego i praw podstawowych chronionych przepisami prawa Unii, w zależności od okoliczności jej konkretnego zastosowania, wykorzystania oraz od poziomu rozwoju technologicznego. Szkody te mogą być materialne lub niematerialne, w tym fizyczne, psychiczne, społeczne lub ekonomiczne.
(6)
Kun otetaan huomioon, että tekoälyllä voi olla merkittävä vaikutus yhteiskuntaan ja että on tarpeen rakentaa luottamusta, on erittäin tärkeää, että tekoälyä ja sen sääntelykehystä kehitetään Euroopan unionista tehdyn sopimuksen, jäljempänä ”SEU-sopimus”, 2 artiklassa vahvistettujen unionin arvojen, perussopimuksissa vahvistettujen perusoikeuksien ja -vapauksien sekä SEU-sopimuksen 6 artiklan nojalla perusoikeuskirjan mukaisesti. Tekoälyn ennakkoehtona olisi oltava teknologian ihmiskeskeisyys. Ihmisten olisi voitava käyttää sitä välineenä, jonka perimmäisenä tavoitteena on lisätä heidän hyvinvointiaan.
(6)
Biorąc pod uwagę istotny wpływ, jaki AI może mieć na społeczeństwo, oraz potrzebę budowania zaufania, AI i jej ramy regulacyjne należy rozwijać zgodnie z wartościami Unii zapisanymi w art. 2 Traktatu o Unii Europejskiej (TUE), podstawowymi prawami i wolnościami zapisanymi w traktatach oraz, zgodnie z art. 6 TUE – w Karcie. Warunkiem wstępnym jest to, by AI była technologią zorientowaną na człowieka. Powinna ona służyć jako narzędzie dla ludzi, którego ostatecznym celem jest zwiększenie dobrostanu człowieka.
(7)
Jotta voidaan varmistaa terveyteen, turvallisuuteen ja perusoikeuksiin liittyvien yleisten etujen suojelun yhdenmukainen ja korkea taso, suuririskisille tekoälyjärjestelmille olisi vahvistettava yhteiset säännöt. Näiden sääntöjen olisi oltava perusoikeuskirjan mukaisia, syrjimättömiä ja yhteensopivia unionin kansainvälisten kauppasitoumusten kanssa. Niissä olisi myös otettava huomioon eurooppalainen julistus digitaalisen vuosikymmenen digitaalisista oikeuksista ja periaatteista ja tekoälyä käsittelevän korkean tason asiantuntijaryhmän luotettavaa tekoälyä koskevat eettiset ohjeet.
(7)
W celu zapewnienia spójnego i wysokiego poziomu ochrony interesów publicznych w dziedzinie zdrowia, bezpieczeństwa i praw podstawowych należy ustanowić wspólne przepisy dotyczące systemów AI wysokiego ryzyka. Przepisy te powinny być zgodne z Kartą, niedyskryminacyjne i zgodne z międzynarodowymi zobowiązaniami handlowymi Unii. Przepisy te powinny również uwzględniać Europejską deklarację praw i zasad cyfrowych w cyfrowej dekadzie oraz Wytyczne w zakresie etyki dotyczące godnej zaufania AI grupy ekspertów wysokiego szczebla ds. AI.
(8)
Sen vuoksi tarvitaan unionin oikeudellinen kehys, jossa vahvistetaan tekoälyä koskevat yhdenmukaistetut säännöt, jotta voidaan edistää tekoälyn kehittämistä, käyttöä ja käyttöönottoa sisämarkkinoilla ja samalla taata unionin oikeudessa tunnustettujen ja suojattujen yleisten etujen, kuten terveyden ja turvallisuuden, sekä perusoikeuksien, kuten demokratian, oikeusvaltion ja ympäristön, suojelun korkea taso. Tämän tavoitteen saavuttamiseksi olisi vahvistettava säännöt, joilla säännellään tiettyjen tekoälyjärjestelmien markkinoille saattamista, käyttöönottoa ja käyttöä ja varmistetaan siten sisämarkkinoiden moitteeton toiminta ja annetaan kyseisille järjestelmille mahdollisuus hyötyä tavaroiden ja palvelujen vapaan liikkuvuuden periaatteesta. Näiden sääntöjen olisi oltava selkeitä. Niiden olisi suojeltava hyvin perusoikeuksia, tuettava uusia innovatiivisia ratkaisuja ja mahdollistettava unionin arvojen mukaisia tekoälyjärjestelmiä kehittävien julkisten ja yksityisten toimijoiden eurooppalainen ekosysteemi. Niiden avulla olisi voitava hyödyntää digitalisaation mahdollisuuksia kaikilla unionin alueilla. Vahvistamalla kyseiset säännöt sekä innovointia tukevat toimenpiteet, joissa keskitytään erityisesti pk-yrityksiin, startup-yritykset mukaan luettuna, tällä asetuksella tuetaan Eurooppa-neuvoston asettamaa tavoitetta, jonka mukaan edistetään eurooppalaista ihmiskeskeistä tekoälyä ja unionin olisi oltava globaali edelläkävijä turvallisen, luotettavan ja eettisen tekoälyn kehittämisessä (5), ja varmistetaan eettisten periaatteiden suojelu, kuten Euroopan parlamentti on erityisesti pyytänyt (6).
(8)
Unijne ramy prawne określające zharmonizowane przepisy dotyczące AI są zatem niezbędne, by wspierać rozwój, wykorzystywanie i upowszechnianie AI na rynku wewnętrznym, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony interesów publicznych, takich jak zdrowie i bezpieczeństwo oraz ochrona praw podstawowych, w tym demokracji, praworządności i ochrony środowiska, uznanych i chronionych przez prawo Unii. Aby osiągnąć ten cel, należy ustanowić przepisy regulujące wprowadzanie do obrotu, oddawanie do użytku i wykorzystywanie niektórych systemów AI, zapewniając w ten sposób sprawne funkcjonowanie rynku wewnętrznego i obejmując te systemy zasadą swobodnego przepływu towarów i usług. Przepisy te powinny być jasne i solidne, aby chronić prawa podstawowe, sprzyjać nowym innowacyjnym rozwiązaniom, umożliwiać tworzenie europejskiego ekosystemu podmiotów publicznych i prywatnych tworzących systemy AI zgodnie z wartościami Unii oraz pozwalać realizować potencjał transformacji cyfrowej we wszystkich regionach Unii. Ustanawiając te przepisy, a także środki wspierające innowacje, ze szczególnym uwzględnieniem małych i średnich przedsiębiorstw (MŚP), w tym przedsiębiorstw typu start-up, niniejsze rozporządzenie wspiera realizację celu, jakim jest promowanie europejskiego zorientowanego na człowieka podejścia do AI i znalezienie się przez Unię w światowej czołówce, jeśli chodzi o rozwój bezpiecznej, godnej zaufania i etycznej AI, zgodnie z konkluzjami Rady Europejskiej (5), oraz zapewnia ochronę zasad etycznych, zgodnie z wyraźnym wnioskiem Parlamentu Europejskiego (6).
(9)
Suuririskisten tekoälyjärjestelmien markkinoille saattamiseen, käyttöönottoon ja käyttöön sovellettavat yhdenmukaistetut säännöt olisi vahvistettava johdonmukaisesti Euroopan parlamentin ja neuvoston asetuksen (EY) N:o 765/2008 (7), Euroopan parlamentin ja neuvoston päätöksen N:o 768/2008/EY (8) sekä Euroopan parlamentin ja neuvoston asetuksen (EU) 2019/1020 (9), jäljempänä ”uusi lainsäädäntökehys”, kanssa. Tässä asetuksessa säädettyjä yhdenmukaistettuja sääntöjä olisi sovellettava kaikilla aloilla, ja uuden lainsäädäntökehyksen mukaisesti säännöt eivät saisi rajoittaa olemassa olevaa unionin oikeutta, joka koskee erityisesti tietosuojaa, kuluttajansuojaa, perusoikeuksia, työllisyyttä ja työntekijöiden suojelua sekä tuoteturvallisuutta ja jota tällä asetuksella täydennetään. Näin ollen kaikki tällaisessa unionin oikeudessa vahvistetut oikeudet ja oikeussuojakeinot kuluttajille ja muille henkilöille, joihin tekoälyjärjestelmillä voi olla kielteinen vaikutus, mukaan lukien neuvoston direktiivin 85/374/ETY (10) mukainen mahdollisten vahinkojen korvaaminen, säilyvät muuttumattomina ja niitä sovelletaan täysimääräisesti. Tämä asetus ei sen vuoksi saisi työllisyyden ja työntekijöiden suojelun aloilla vaikuttaa sosiaalipolitiikkaa koskevaan unionin oikeuteen eikä unionin oikeuden mukaiseen kansalliseen työlainsäädäntöön, joka koskee työehtoja ja -oloja, mukaan lukien työterveys ja -turvallisuus, sekä työnantajien ja työntekijöiden välistä suhdetta. Tämä asetus ei myöskään saisi vaikuttaa jäsenvaltioissa ja unionin tasolla tunnustettujen perusoikeuksien noudattamiseen, mukaan lukien oikeus tai vapaus ryhtyä lakkoon tai muuhun jäsenvaltioiden työmarkkinajärjestelmien piiriin kuuluvaan toimeen, sekä oikeus neuvotella, tehdä ja panna täytäntöön työehtosopimuksia tai ryhtyä työtaistelutoimiin kansallisen lainsäädännön mukaisesti. Tämä asetus ei saisi vaikuttaa työolojen parantamisesta alustatyössä annettavassa Euroopan parlamentin ja neuvoston direktiivissä vahvistettuihin säännöksiin, joilla pyritään parantamaan työoloja alustatyössä. Tämän lisäksi tällä asetuksella pyritään vahvistamaan tällaisten olemassa olevien oikeuksien ja oikeussuojakeinojen vaikuttavuutta ottamalla käyttöön erityisiä vaatimuksia ja velvoitteita, jotka koskevat muun muassa tekoälyjärjestelmien avoimuutta, teknistä dokumentaatiota ja tietojen säilyttämistä. Lisäksi tämän asetuksen nojalla tekoälyn arvoketjun eri toimijoille asetettuja velvoitteita olisi sovellettava rajoittamatta kansallista lainsäädäntöä, unionin oikeuden mukaisesti, siten, että vaikutuksena on tiettyjen tekoälyjärjestelmien käytön rajoittaminen, silloin kun tällainen lainsäädäntö ei kuulu tämän asetuksen soveltamisalaan tai sillä on muita oikeutettuja yleisen edun mukaisia tavoitteita kuin tässä asetuksessa asetetaan. Tämä asetus ei saisi vaikuttaa esimerkiksi kansalliseen työlainsäädäntöön ja alaikäisten, eli alle 18-vuotiaiden henkilöiden, suojelua koskeviin lakeihin ottaen huomioon lapsen oikeuksien yleissopimuksen yleinen huomautus nro 25 (2021) lapsen oikeuksista suhteessa digitaaliseen ympäristöön siltä osin kuin ne eivät koske tekoälyjärjestelmiä ja niillä on muita oikeutettuja yleisen edun mukaisia tavoitteita.
(9)
Zharmonizowane przepisy mające zastosowanie do wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów AI wysokiego ryzyka należy ustanowić zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (WE) nr 765/2008 (7), decyzją Parlamentu Europejskiego i Rady nr 768/2008/WE (8) oraz rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2019/1020 (9) (zwanymi dalej „nowymi ramami prawnymi”). Zharmonizowane przepisy ustanowione w niniejszym rozporządzeniu powinny mieć zastosowanie we wszystkich sektorach i – zgodnie z nowymi ramami prawnymi – powinny pozostawać bez uszczerbku dla obowiązującego prawa Unii, w szczególności w zakresie ochrony danych, ochrony konsumentów, praw podstawowych, zatrudnienia i ochrony pracowników oraz bezpieczeństwa produktów, wobec którego to prawa niniejsze rozporządzenie ma charakter uzupełniający. W związku z tym wszystkie prawa i środki ochrony prawnej przysługujące na mocy prawa Unii konsumentom i innym osobom, na które systemy AI mogą mieć negatywny wpływ, w tym w odniesieniu do odszkodowania za ewentualne szkody zgodnie z dyrektywą Rady 85/374/EWG (10), pozostają nienaruszone i mają pełne zastosowanie. Ponadto w kontekście zatrudnienia i ochrony pracowników niniejsze rozporządzenie nie powinno zatem mieć wpływu na prawo Unii w dziedzinie polityki społecznej oraz na krajowe prawo pracy zgodne z prawem Unii dotyczące warunków zatrudnienia i pracy, w tym bezpieczeństwa i higieny pracy, oraz stosunków między pracodawcami a pracownikami. Niniejsze rozporządzenie nie powinno mieć też wpływu na korzystanie z praw podstawowych uznanych w państwach członkowskich i na poziomie Unii, w tym z prawa do strajku czy swobody prowadzenia strajku lub innych działań objętych szczególnymi systemami stosunków pracy w państwach członkowskich, ani na korzystanie z prawa do negocjowania, zawierania i egzekwowania układów zbiorowych lub podejmowania działań zbiorowych zgodnie z prawem krajowym. Niniejsze rozporządzenie nie powinno mieć wpływu na przepisy mające na celu poprawę warunków pracy świadczonej za pośrednictwem platform internetowych ustanowione w dyrektywie Parlamentu Europejskiego i Rady w sprawie poprawy warunków pracy za pośrednictwem platform internetowych. Ponadto niniejsze rozporządzenie ma na celu zwiększenie skuteczności takich istniejących praw i środków ochrony prawnej poprzez ustanowienie szczególnych wymogów i obowiązków, w tym w zakresie przejrzystości, dokumentacji technicznej i rejestrowania zdarzeń w ramach systemów AI. Co więcej obowiązki nałożone na mocy niniejszego rozporządzenia na różnych operatorów uczestniczących w łańcuchu wartości AI powinny mieć zastosowanie bez uszczerbku dla prawa krajowego zgodnego z prawem Unii, skutkującego ograniczeniem wykorzystania określonych systemów AI, gdy prawo to nie wchodzi w zakres stosowania niniejszego rozporządzenia lub służy uzasadnionym celom interesu publicznego innym niż cele niniejszego rozporządzenia. Na przykład niniejsze rozporządzenie nie powinno mieć wpływu na krajowe prawo pracy i przepisy dotyczące ochrony małoletnich, tj. osób poniżej 18. roku życia, uwzględniające komentarz ogólny nr 25 z 2021 r. w sprawie praw dziecka w środowisku cyfrowym zamieszczony w Konwencji ONZ o prawach dziecka, w zakresie w jakim prawo to i te przepisy nie dotyczą konkretnie systemów AI i służą innym uzasadnionym celom interesu publicznego.
(10)
Henkilötietojen suojaa koskeva perusoikeus on turvattu erityisesti Euroopan parlamentin ja neuvoston asetuksilla (EU) 2016/679 (11) ja (EU) 2018/1725 (12) sekä Euroopan parlamentin ja neuvoston direktiivillä (EU) 2016/680 (13). Lisäksi Euroopan parlamentin ja neuvoston direktiivillä 2002/58/EY (14) suojellaan yksityisyyttä ja viestinnän luottamuksellisuutta, mukaan lukien säätämällä ehdoista, jotka koskevat kaikkien henkilötietojen ja muiden kuin henkilötietojen tallentamista päätelaitteelle ja pääsyä näihin tietoihin. Kyseiset unionin säädökset luovat perustan kestävälle ja vastuulliselle datankäsittelylle, myös silloin kun data-aineistossa on sekä henkilötietoja että muuta dataa kuin henkilötietoja. Tällä asetuksella ei pyritä vaikuttamaan henkilötietojen käsittelyä koskevan voimassa olevan unionin oikeuden soveltamiseen, mukaan lukien kyseisten säädösten noudattamisen valvonnasta vastaavien riippumattomien valvontaviranomaisten tehtävät ja toimivalta.Tämä asetus ei vaikuta niihin tekoälyjärjestelmien tarjoajien ja käyttöönottajien velvoitteisiin rekisterinpitäjinä tai tietojen käsittelijöinä, jotka johtuvat henkilötietojen suojaa koskevasta unionin tai kansallisesta lainsäädännöstä, siltä osin kuin tekoälyjärjestelmien suunnitteluun, kehittämiseen ja käyttöön liittyy henkilötietojen käsittelyä. On myös asianmukaista selventää, että rekisteröidyillä on kaikki tällaisen unionin oikeuden mukaiset oikeudet ja takeet, myös pelkästään automatisoituun yksittäispäätöksentekoon liittyvät oikeudet, mukaan lukien profilointi. Tässä asetuksessa vahvistetuilla yhdenmukaistetuilla säännöillä tekoälyjärjestelmien markkinoille saattamiseksi, käyttöön ottamiseksi tai käyttämiseksi olisi helpotettava henkilötietojen suojaa koskevassa unionin oikeudessa taattujen rekisteröityjen oikeuksien ja muiden oikeussuojakeinojen sekä muiden perusoikeuksien tosiasiallista täytäntöönpanoa ja mahdollistettava niiden käyttö.
(10)
Podstawowe prawo do ochrony danych osobowych jest gwarantowane w szczególności przez rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 (11) i (UE) 2018/1725 (12) oraz dyrektywę Parlamentu Europejskiego i Rady (UE) 2016/680 (13). Dyrektywa Parlamentu Europejskiego i Rady 2002/58/WE (14) dodatkowo chroni życie prywatne i poufność komunikacji, w tym określając warunki dotyczące przechowywania danych osobowych i nieosobowych w urządzeniach końcowych oraz warunki uzyskiwania dostępu do tych danych z urządzeń końcowych. Te unijne akty prawne stanowią podstawę zrównoważonego i odpowiedzialnego przetwarzania danych, w tym w przypadku gdy zbiory danych zawierają połączenie danych osobowych i nieosobowych. Celem niniejszego rozporządzenia nie jest wpływanie na stosowanie obowiązującego prawa Unii regulującego przetwarzanie danych osobowych, w tym na zadania i uprawnienia niezależnych organów nadzoru właściwych do monitorowania zgodności z tymi instrumentami. W zakresie, w jakim projektowanie, rozwój lub wykorzystywanie systemów AI wiąże się z przetwarzaniem danych osobowych, niniejsze rozporządzenie nie wpływa też na wynikające z prawa Unii lub prawa krajowego obowiązki w dziedzinie ochrony danych osobowych spoczywające na dostawcach i podmiotach stosujących systemy AI, którzy pełnią funkcję administratorów danych lub podmiotów przetwarzających. Należy również wyjaśnić, że osoby, których dane dotyczą, zachowują wszystkie prawa i gwarancje przyznane im na mocy takiego prawa Unii, w tym prawa związane z całkowicie zautomatyzowanym podejmowaniem decyzji w indywidualnych sprawach, w tym z profilowaniem. Ustanowione w niniejszym rozporządzeniu zharmonizowane przepisy dotyczące wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów AI powinny ułatwiać skuteczne wdrażanie i umożliwiać korzystanie przez osoby, których dane dotyczą, z praw i innych środków ochrony prawnej zagwarantowanych na podstawie prawa Unii dotyczącego ochrony danych osobowych i innych praw podstawowych.
(11)
Tämä asetus ei saisi rajoittaa Euroopan parlamentin ja neuvoston asetuksessa (EU) 2022/2065 (15) vahvistettujen välityspalvelujen tarjoajien vastuuta koskevien säännösten soveltamista.
(11)
Niniejsze rozporządzenie powinno pozostawać bez uszczerbku dla przepisów dotyczących odpowiedzialności dostawców usług pośrednich, określonych w rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2022/2065 (15).
(12)
Tekoälyjärjestelmän käsite tässä asetuksessa olisi määriteltävä selkeästi ja yhdenmukaistettava mahdollisimman pitkälle tekoälyn alalla parissa kansainvälisten organisaatioiden tekemän työn kanssa, jotta voidaan taata oikeusvarmuus, edistää kansainvälistä lähentymistä ja laajaa hyväksyntää sekä samalla tarjota joustovaraa alan nopean teknologisen kehityksen huomioon ottamiseksi. Lisäksi käsitteen olisi perustuttava tekoälyjärjestelmien keskeisiin ominaisuuksiin, jotka erottavat sen yksinkertaisemmista perinteisistä ohjelmistojärjestelmistä tai ohjelmointitavoista. Se ei saisi kattaa järjestelmiä, jotka perustuvat yksinomaan luonnollisten henkilöiden määrittelemiin sääntöihin toimien suorittamiseksi automaattisesti. Yksi tekoälyjärjestelmien keskeisistä piirteistä on niiden päättelykyky. Päättelykyvyllä tarkoitetaan prosessia, jossa saadaan tuotoksia, kuten ennusteita, sisältöä, suosituksia tai päätöksiä, jotka voivat vaikuttaa fyysiseen ja virtuaaliympäristöön, ja tekoälyjärjestelmien kykyyn johtaa malleja tai algoritmeja tai molempia syöttötiedoista tai datasta. Tekoälyjärjestelmää kehitettäessä käytettäviä päättelyn mahdollistavia tekniikoita ovat esimerkiksi koneoppimismenetelmät, jotka oppivat datan avulla, miten tietyt tavoitteet voivat saavuttaa, ja logiikkaan ja tietämykseen perustuvat menetelmät, jotka päättelevät tuotoksensa koodatun tietämyksen tai ratkaistavan tehtävän symbolisen esityksen perusteella. Tekoälyjärjestelmän päättelykyky on laajempi kuin perustietojenkäsittelyn. Sen ansiosta tekoälyjärjestelmä voi oppia, tehdä johtopäätöksiä tai mallintaa asioita. ”Konepohjaisella” tarkoitetaan, että tekoälyjärjestelmät toimivat koneissa. Eksplisiittisillä ja implisiittisillä tavoitteilla tarkoitetaan, että tekoälyjärjestelmät voivat toimia eksplisiittisesti määriteltyjen tavoitteiden tai implisiittisten tavoitteiden mukaisesti. Tekoälyjärjestelmän tavoitteet voivat erota tekoälyjärjestelmän käyttötarkoituksesta jossakin tietyssä yhteydessä. Tätä asetusta sovellettaessa ympäristöillä olisi katsottava tarkoitettavan olosuhteita, joissa tekoälyjärjestelmät toimivat, kun taas tekoälyjärjestelmän tuotokset kuvaavat tekoälyjärjestelmien suorittamia erilaisia toimintoja ja voivat olla esimerkiksi ennusteita, sisältöä, suosituksia ja päätöksiä. Tekoälyjärjestelmät on suunniteltu toimimaan eriasteisen itsenäisesti, mikä tarkoittaa, että ne toimivat jossakin määrin ihmisen toimista riippumattomasti ja kykenevät ainakin jossakin määrin toimimaan ilman ihmisen ohjausta. Tekoälyjärjestelmän mahdollinen mukautuvuus käyttöönoton jälkeen viittaa itseoppimiskykyyn, jonka avulla järjestelmä voi muuttua käytön aikana. Tekoälyjärjestelmiä voidaan käyttää erillisinä tai tuotteen osina riippumatta siitä, onko järjestelmä fyysisesti integroitu tuotteeseen (sulautettu) vai palveleeko se tuotteen toiminnallisuutta ilman, että se on integroitu siihen (sulauttamaton).
(12)
Pojęcie „systemu AI” w niniejszym rozporządzeniu powinno być jasno zdefiniowane i ściśle powiązane z pracami organizacji międzynarodowych zajmujących się AI, aby zapewnić pewność prawa, ułatwiać międzynarodową konwergencję i szeroką akceptację, przy jednoczesnym zapewnieniu swobody umożliwiającej dostosowanie się do szybkiego rozwoju technologicznego w tej dziedzinie. Ponadto pojęcie to powinno opierać się na kluczowych cechach systemów AI, które odróżniają je od prostszych tradycyjnych systemów oprogramowania lub założeń programistycznych, i nie powinno obejmować systemów opartych na zasadach określonych wyłącznie przez osoby fizyczne w celu automatycznego wykonywania operacji. Jedną z kluczowych cech systemów AI jest ich zdolność do wnioskowania. Ta zdolność do wnioskowania odnosi się do procesu uzyskiwania wyników, takich jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne i wirtualne, oraz do zdolności systemów AI do tworzenia modeli lub algorytmów na podstawie informacji wejściowych lub danych. Techniki, które umożliwiają wnioskowanie podczas tworzenia systemu AI, obejmują mechanizmy uczenia maszynowego, które na podstawie danych uczą się, jak osiągnąć określone cele, oraz podejścia oparte na logice i wiedzy, które polegają na wnioskowaniu na podstawie zakodowanej wiedzy lub symbolicznego przedstawienia zadania, które należy rozwiązać. Zdolność systemu AI do wnioskowania wykracza poza podstawowe przetwarzanie danych w wyniku umożliwiania uczenia się, rozumowania lub modelowania. Termin „maszynowy” odnosi się do faktu, że systemy AI działają z wykorzystaniem maszyn. Odniesienie do wyraźnych lub dorozumianych celów podkreśla, że systemy AI mogą działać według jasno określonych lub dorozumianych celów. Cele systemu AI mogą różnić się od przeznaczenia systemu AI w określonym kontekście. Na potrzeby niniejszego rozporządzenia środowiska należy rozumieć jako konteksty, w których działają systemy AI, natomiast wyniki generowane przez system AI odzwierciedlają różne funkcje wykonywane przez systemy AI i obejmują predykcje, treści, zalecenia lub decyzje. Systemy AI są zaprojektowane tak, aby działały z różnym poziomem autonomii, co oznacza, że są w pewnym stopniu niezależne od zaangażowania ze strony człowieka i zdolne do działania bez interwencji człowieka. Zdolność adaptacji, jaką system AI może wykazać po jego wdrożeniu, odnosi się do zdolności do samouczenia się, która umożliwia zmianę systemu w czasie jego wykorzystywania. Systemy AI mogą być wykorzystywane jako samodzielne rozwiązania lub jako element produktu, niezależnie od tego, czy system jest fizycznie zintegrowany z produktem (wbudowany), czy też służy realizacji funkcji produktu, choć nie jest z nim zintegrowany (niewbudowany).
(13)
Tässä asetuksessa tarkoitetun ”käyttöönottajan” käsitteen olisi tulkittava tarkoittavan tekoälyjärjestelmää käyttävää luonnollista tai oikeushenkilöä, mukaan lukien viranomainen, virasto tai muu elin, jonka valvonnassa järjestelmää käytetään, paitsi jos tekoälyjärjestelmää käytetään henkilökohtaisessa muussa kuin ammattitoiminnassa. Tekoälyjärjestelmän tyypistä riippuen järjestelmän käyttö voi vaikuttaa muihin henkilöihin kuin käyttöönottajaan.
(13)
Pojęcie „podmiotu stosującego”, o którym mowa w niniejszym rozporządzeniu, należy interpretować jako osobę fizyczną lub prawną, w tym organ publiczny, agencję lub inny podmiot, która wykorzystuje system AI, nad którym sprawuje kontrolę, oprócz przypadków gdy wykorzystywanie systemu AI odbywa się w ramach osobistej działalności pozazawodowej. W zależności od rodzaju systemu AI korzystanie z takiego systemu może mieć wpływ na osoby inne niż podmiot stosujący.
(14)
Tässä asetuksessa käytettyä biometristen tietojen käsitettä olisi tulkittava asetuksen (EU) 2016/679 4 artiklan 14 alakohdassa, asetuksen (EU) 2018/1725 3 artiklan 18 alakohdassa ja direktiivin (EU) 2016/680 3 artiklan 13 alakohdassa määritellyn biometristen tietojen käsitteen perusteella. Biometrisen datan avulla voidaan todentaa, tunnistaa tai luokitella luonnollisia henkilöitä ja tunnistaa heidän tunteitaan.
(14)
Pojęcie „danych biometrycznych” stosowane w niniejszym rozporządzeniu należy interpretować w świetle pojęcia danych biometrycznych zdefiniowanego w art. 4 pkt 14 rozporządzenia (UE) 2016/679, art. 3 pkt 18 rozporządzenia (UE) 2018/1725 i art. 3 pkt 13 dyrektywy (UE) 2016/680. Dane biometryczne mogą umożliwiać uwierzytelnianie, identyfikację lub kategoryzację osób fizycznych oraz rozpoznawanie emocji osób fizycznych.
(15)
Tässä asetuksessa tarkoitettu biometrisen tunnistuksen käsite olisi määriteltävä ihmisen fyysisten, fysiologisten ja käyttäytymiseen liittyvien ominaisuuksien, kuten kasvojen, silmien liikkeen, kehon muodon, äänen, prosodian, kävelyn, asennon, sydämen lyöntitiheyden, verenpaineen, hajun, näppäinpainallusten tai muiden ominaisuuksien automaattiseksi tunnistamiseksi yksilön henkilöllisyyden toteamiseksi vertaamalla kyseisen yksilön biometrisiä tietoja viitetietokantaan tallennettuihin toisten yksilöiden biometrisiin tietoihin riippumatta siitä, onko kyseinen yksilö antanut tähän suostumustaan. Näihin eivät kuulu tekoälyjärjestelmät, joita on tarkoitus käyttää biometriseen todennukseen, joka käsittää tunnistautumisen, ja joiden ainoana tarkoituksena on vahvistaa, että tietty luonnollinen henkilö on se henkilö, joka hän väittää olevansa, sekä vahvistaa luonnollisen henkilön henkilöllisyys ainoastaan jonkin palvelun käyttämiseksi, laitteen lukituksen poistamiseksi tai valvottuun tilaan pääsemiseksi.
(15)
Pojęcie „identyfikacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako zautomatyzowane rozpoznawanie fizycznych, fizjologicznych i behawioralnych cech człowieka, takich jak twarz, ruch gałek ocznych, kształt ciała, głos, właściwości mowy, chód, postawa, tętno, ciśnienie krwi, zapach, sposób pisania na klawiaturze, w celu ustalenia tożsamości osoby fizycznej przez porównanie danych biometrycznych tej osoby z przechowywanymi w referencyjnej bazie danych danymi biometrycznymi osób fizycznych, niezależnie od tego, czy osoba ta wyraziła na to zgodę. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, która obejmuje uwierzytelnianie, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń.
(16)
Tässä asetuksessa tarkoitettu biometrisen luokittelun käsite olisi määriteltävä luonnollisten henkilöiden luokitteluksi heidän biometristen tietojensa perusteella tiettyihin ryhmiin. Tällaiset ryhmät voivat liittyä esimerkiksi sukupuoleen, ikään, hiustenväriin, silmien väriin, tatuointeihin, käyttäytymiseen tai persoonallisuuspiirteisiin, kieleen, uskontoon, kansalliseen vähemmistöön kuulumiseen taikka seksuaaliseen tai poliittiseen suuntautumiseen. Tähän eivät kuulu biometriset luokittelujärjestelmät, jotka ovat pelkästään toiseen kaupalliseen palveluun olennaisesti liittyvä liitännäistoiminto, mikä tarkoittaa, että kyseistä toimintoa ei voida objektiivisista teknisistä syistä käyttää ilman pääasiallista palvelua, ja kyseisen toiminnon integrointi ei ole keino kiertää tämän asetuksen sääntöjen soveltamista. Esimerkiksi verkkomarkkinapaikoilla käytettävät kasvonpiirteitä tai kehon ominaisuuksia luokittelevat suodattimet voisivat olla tällainen liitännäistoiminto, koska niitä voidaan käyttää ainoastaan pääasiallisen palvelun yhteydessä eli tuotteen myynnissä siten, että kuluttajaa autetaan tekemään ostopäätös esittämällä, miltä tuote näyttäisi hänen yllään. Verkkoyhteisöpalveluissa käytettäviä suodattimia, jotka luokittelevat kasvonpiirteitä tai kehon ominaisuuksia, jotta käyttäjät voivat lisätä kuvia tai videoita tai muokata niitä, voidaan myös pitää liitännäistoimintoina, koska tällaista suodatinta ei voi käyttää ilman pääasiallista palvelua eli verkkoyhteisöpalvelua, jossa sisältöä jaetaan verkossa.
(16)
Pojęcie „kategoryzacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako przypisywanie osób fizycznych do określonych kategorii na podstawie danych biometrycznych tych osób. Takie szczególne kategorie mogą odnosić się do takich aspektów jak płeć, wiek, kolor włosów, kolor oczu, tatuaże, cechy behawioralne bądź osobowości, język, religia, przynależność do mniejszości narodowej, orientacja seksualna lub poglądy polityczne. Nie obejmuje to systemów kategoryzacji biometrycznej, które pełnią jedynie funkcję pomocniczą nieodłącznie związaną z inną usługą komercyjną, co oznacza, że z obiektywnych względów technicznych funkcja ta nie może być wykorzystywana bez usługi głównej, a włączenie takiej funkcji lub funkcjonalności nie jest sposobem na obejście stosowania przepisów niniejszego rozporządzenia. Przykładem pełnienia takiej funkcji pomocniczej mogą być filtry klasyfikujące cechy twarzy lub ciała wykorzystywane na internetowych platformach handlowych, ponieważ można je stosować wyłącznie w powiązaniu z usługą główną, która polega na sprzedaży produktu przy jednoczesnym umożliwieniu konsumentowi uzyskania wyobrażenia, jak produkt będzie się na nim prezentował, aby pomóc mu w podjęciu decyzji o zakupie. Filtry stosowane w internetowych serwisach społecznościowych, które kategoryzują cechy twarzy lub ciała, aby umożliwić użytkownikom dodawanie lub modyfikowanie zdjęć lub filmów wideo, można również uznać za funkcję pomocniczą, ponieważ filtry takie nie mogą być stosowane bez usługi głównej polegającej na udostępnianiu treści online w ramach serwisu społecznościowego.
(17)
Tässä asetuksessa käytetty biometrisen etätunnistusjärjestelmän käsite olisi määriteltävä toiminnallisesti tekoälyjärjestelmäksi, joka on tarkoitettu luonnollisten henkilöiden tunnistamiseen tyypillisesti etäältä ilman heidän aktiivista osallistumistaan vertaamalla henkilön biometrisiä tietoja viitetietokannan sisältämiin biometrisiin tietoihin riippumatta käytetyistä tekniikoista, prosesseista tai biometristen tietojen tyypeistä. Tällaisia biometrisiä etätunnistusjärjestelmiä käytetään tyypillisesti havainnoimaan useita henkilöitä tai heidän käyttäytymistään samanaikaisesti, jotta voidaan merkittävästi helpottaa luonnollisten henkilöiden tunnistamista ilman heidän aktiivista osallistumistaan. Näihin eivät kuulu tekoälyjärjestelmät, joita on tarkoitus käyttää biometriseen todennukseen, joka käsittää tunnistautumisen, ja joiden ainoana tarkoituksena on vahvistaa, että tietty luonnollinen henkilö on se henkilö, joka hän väittää olevansa, sekä vahvistaa luonnollisen henkilön henkilöllisyys ainoastaan jonkin palvelun käyttämiseksi, laitteen lukituksen poistamiseksi tai valvottuun tilaan pääsemiseksi. Tämä soveltamisalan ulkopuolelle jättäminen voidaan perustella sillä, että tällaisilla järjestelmillä on todennäköisesti vähäinen vaikutus luonnollisten henkilöiden perusoikeuksiin verrattuna biometrisiin etätunnistusjärjestelmiin, joita voidaan käyttää suuren ihmismäärän biometristen tietojen käsittelyyn ilman heidän aktiivista osallistumistaan. Reaaliaikaisissa järjestelmissä biometristen tietojen kerääminen, vertailu ja tunnistaminen tapahtuvat välittömästi, lähes välittömästi tai joka tapauksessa ilman merkittävää viivettä. Tältä osin ei pitäisi olla mahdollista kiertää tämän asetuksen sääntöjä, jotka koskevat kyseisten tekoälyjärjestelmien reaaliaikaista käyttöä, käyttämällä vähäisiä viivästyksiä. Reaaliaikaisissa järjestelmissä käytetään kameran tai muun toiminnoltaan samankaltaisen laitteen tuottamaa ”suoraa” tai ”lähes suoraa” materiaalia, kuten videokuvaa. Jälkikäteisissä järjestelmissä biometriset tiedot on sitä vastoin jo kerätty, ja vertailu ja tunnistaminen tapahtuvat vasta merkittävän viiveen jälkeen. Kyse on kameravalvontajärjestelmien tai yksityisten laitteiden tuottamien kuvien tai videokuvan kaltaisesta materiaalista, joka on luotu ennen kuin järjestelmää käytetään asianomaisiin luonnollisiin henkilöihin.
(17)
Pojęcie „systemu zdalnej identyfikacji biometrycznej”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować funkcjonalnie jako system AI służący do identyfikacji osób fizycznych bez aktywnego udziału tych osób, co do zasady na odległość, poprzez porównanie danych biometrycznych danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, niezależnie od konkretnej stosowanej technologii oraz konkretnych wykorzystywanych procesów lub rodzajów danych biometrycznych. Takie systemy zdalnej identyfikacji biometrycznej są zwykle wykorzystywane do jednoczesnego obserwowania wielu osób lub ich zachowania w celu znacznego ułatwienia identyfikacji osób fizycznych bez ich aktywnego udziału. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, która obejmuje uwierzytelnianie, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń. Wyłączenie to jest uzasadnione faktem, że takie systemy w niewielkim stopniu mogą wpływać na prawa podstawowe osób fizycznych w porównaniu z systemami zdalnej identyfikacji biometrycznej, które mogą być wykorzystywane do przetwarzania danych biometrycznych dużej liczby osób bez ich aktywnego udziału. W przypadku systemów działających „w czasie rzeczywistym” zbieranie danych biometrycznych, porównanie i identyfikacja następują natychmiast, niemal natychmiast lub w każdym razie bez znacznego opóźnienia. W związku z tym nie powinno być możliwości obchodzenia przepisów niniejszego rozporządzenia dotyczących stosowania systemów AI „w czasie rzeczywistym” poprzez wprowadzanie niewielkich opóźnień. Systemy identyfikacji „w czasie rzeczywistym” obejmują wykorzystanie materiału rejestrowanego „na żywo” lub „niemal na żywo”, takiego jak materiał wideo generowany przez kamerę lub inne urządzenie o podobnej funkcjonalności. Natomiast w przypadku systemów identyfikacji post factum dane biometryczne zostały już zebrane, a porównanie i identyfikacja następują ze znacznym opóźnieniem. Dotyczy to materiałów, takich jak zdjęcia lub materiały wideo generowane przez kamery telewizji przemysłowej lub urządzenia prywatne, które to materiały zostały wygenerowane, zanim użyto systemu identyfikacji w stosunku do danej osoby fizycznej.
(18)
Tässä asetuksessa tarkoitettu tunteentunnistusjärjestelmän käsite olisi määriteltävä tekoälyjärjestelmäksi, jonka avulla luonnollisten henkilöiden tunteita tai aikomuksia voidaan tunnistaa tai päätellä heidän biometristen tietojensa perusteella. Tunteilla tai aikomuksilla tarkoitetaan tässä yhteydessä esimerkiksi onnellisuutta, surua, vihaa, yllättyneisyyttä, inhoa, häpeää, kiihtyneisyyttä, halveksuntaa, tyytyväisyyttä ja huvittuneisuutta. Ne eivät sisällä fyysisiä olotiloja, kuten kipua tai väsymystä, mukaan lukien esimerkiksi järjestelmät, joita käytetään ammattilentäjien tai -kuljettajien väsymyksen havaitsemiseen onnettomuuksien ehkäisemiseksi. Sillä ei myöskään viitata pelkkään ilmeisen selvien ilmeiden, eleiden tai liikkeiden havaitsemiseen, ellei niitä käytetä tunteiden tunnistamiseen tai päättelemiseen. Tällaiset ilmeet voivat olla perusilmeitä, kuten rypistynyt otsa tai hymy, tai eleitä, kuten käsien, käsivarsien tai pään liikkeitä, tai henkilön äänen piirteitä, esimerkiksi korotettua ääntä tai kuiskaamista.
(18)
Pojęcie „systemu rozpoznawania emocji”, o którym mowa w niniejszym rozporządzeniu, należy zdefiniować jako system AI służący do rozpoznawania emocji lub zamiarów osób fizycznych na podstawie danych biometrycznych tych osób, lub wyciągania wniosków odnośnie do tych emocji lub zamiarów. Pojęcie to dotyczy emocji lub zamiarów, takich jak radość, smutek, złość, zdziwienie, obrzydzenie, zakłopotanie, podekscytowanie, wstyd, pogarda, satysfakcja i rozbawienie. Nie obejmuje ono stanów fizycznych, takich jak ból lub zmęczenie; w tym na przykład systemów stosowanych do wykrywania poziomu zmęczenia zawodowych pilotów lub kierowców w celu zapobiegania wypadkom. Nie obejmuje ono również samego wykrywania łatwych do zauważenia form wyrazu, gestów lub ruchów, chyba że wykorzystuje się je do identyfikacji lub wnioskowania na temat emocji. Te formy wyrazu mogą obejmować podstawowe rodzaje wyrazu twarzy, takie jak grymas lub uśmiech, gesty, takie jak ruch rąk, ramion lub głowy, lub cechy głosu danej osoby, takie jak podniesiony ton lub szept.
(19)
Tätä asetusta sovellettaessa julkisen tilan käsitteen olisi ymmärrettävä tarkoittavan mitä tahansa fyysistä tilaa, johon määrittämättömällä määrällä luonnollisia henkilöitä on pääsy, riippumatta siitä, onko kyseinen tila yksityisessä vai julkisessa omistuksessa, ja riippumatta toiminnasta, johon tilaa voidaan käyttää, kuten kaupankäyntiin (esimerkiksi kaupat, ravintolat, kahvilat), palveluihin (esimerkiksi pankit, ammatillinen toiminta, majoitus- ja ravitsemisala), urheiluun (esimerkiksi uimahallit, kuntosalit, urheilukentät), liikenteeseen (esimerkiksi linja-auto-, metro- ja rautatieasemat, lentoasemat, liikennevälineet), viihteeseen (esimerkiksi elokuvateatterit, teatterit, museot, konsertti- ja kokoussalit), vapaa-aikaan tai muuhun ajanviettoon (esimerkiksi yleiset tiet ja aukiot, puistot, metsät, leikkikentät). Tila olisi luokiteltava julkiseksi tilaksi myös, jos riippumatta mahdollisista kapasiteetti- tai turvallisuusrajoituksista pääsyyn sovelletaan tiettyjä ennalta määritettyjä edellytyksiä, jotka määrittämätön määrä henkilöitä voi täyttää, kuten lipun tai matkalipun ostamista, ennakkorekisteröitymistä tai tiettyä ikää. Sitä vastoin tilaa ei olisi katsottava julkiseksi tilaksi, jos pääsy on rajattu tietyille ja määritellyille luonnollisille henkilöille joko unionin tai jäsenvaltioiden lainsäädännössä, joka liittyy suoraan yleiseen turvallisuuteen, tai sen henkilön selkeän tahdonilmaisun avulla, jolla on tilaa koskeva asiaankuuluva määräysvalta. Pelkästään pääsyn tosiasiallinen mahdollisuus (esimerkiksi lukitsematon ovi, aidassa oleva avoin portti) ei merkitse sitä, että tila on julkinen tila, jos on olemassa osoituksia tai olosuhteita, jotka viittaavat päinvastaiseen (esimerkiksi pääsyn kieltävät tai sitä rajoittavat merkit). Yritysten ja tehtaiden tilat sekä toimistot ja työpaikat, joihin on tarkoitettu olevan pääsy ainoastaan asiaankuuluvilla työntekijöillä ja palveluntarjoajilla, ovat paikkoja, jotka eivät ole julkisia tiloja. Julkisiin tiloihin ei saisi sisältyä vankiloita tai rajatarkastusasemia. Jotkin muut tilat voivat sisältää sekä tiloja, jotka ovat julkisia, että tiloja, jotka eivät ole julkisia, esimerkiksi yksityisen asuinrakennuksen käytävä, jonka kautta on kuljettava lääkärin vastaanotolle, tai lentoasema. Käsite ei kata myöskään verkkoympäristöjä, sillä ne eivät ole fyysisiä tiloja. Se, onko yleisöllä pääsy tiettyyn tilaan, olisi kuitenkin määritettävä tapauskohtaisesti ottaen huomioon kulloisenkin yksittäisen tilanteen erityispiirteet.
(19)
Do celów niniejszego rozporządzenia pojęcie „przestrzeni publicznej” należy rozumieć jako odnoszące się do każdej przestrzeni fizycznej, która jest dostępna dla nieokreślonej liczby osób fizycznych, niezależnie od tego, czy dana przestrzeń jest własnością prywatną czy publiczną, a także niezależnie od rodzaju działalności, dla której się ją wykorzystuje, takiej jak działalność handlowa (na przykład sklepy, restauracje, kawiarnie), działalność usługowa (na przykład banki, działalność zawodowa, hotelarstwo), działalność sportowa (na przykład baseny, sale do ćwiczeń, stadiony), działalność transportowa (na przykład dworce autobusowe i kolejowe, stacje metra, lotniska, środki transportu), działalność rozrywkowa (na przykład kina, teatry, muzea, sale koncertowe i konferencyjne) lub przestrzenie służące wypoczynkowi lub innym celom (na przykład drogi publiczne i place, parki, lasy i place zabaw). Przestrzeń należy uznać za przestrzeń publiczną również wtedy, gdy niezależnie od potencjalnych ograniczeń w zakresie pojemności lub bezpieczeństwa, dostęp do niej podlega pewnym określonym z góry warunkom, które mogą zostać spełnione przez nieokreśloną liczbę osób, takich jak zakup biletu wstępu lub biletu na przejazd, uprzednia rejestracja lub osiągnięcie określonego wieku. Danej przestrzeni nie należy natomiast uznawać za przestrzeń publiczną, jeśli dostęp do niej ograniczony jest do konkretnych i określonych osób fizycznych na mocy prawa Unii lub prawa krajowego bezpośrednio związanego z bezpieczeństwem publicznym lub ochroną publiczną lub w wyniku wyraźnego wyrażenia woli przez osobę posiadającą odpowiednie uprawnienia związane z taką przestrzenią. Faktyczna możliwość samego dostępu (taka jak niezamknięte drzwi, otwarta bramka w ogrodzeniu) nie oznacza, że dana przestrzeń stanowi przestrzeń publiczną, jeśli istnieją wskazania lub okoliczności sugerujące inaczej (takie jak znaki zakazujące dostępu lub go ograniczające). Tereny przedsiębiorstw i fabryk, a także biura i miejsca pracy, do których dostęp powinni mieć wyłącznie odpowiedni pracownicy i usługodawcy, to przestrzenie, które nie stanowią przestrzeni publicznej. Do przestrzeni publicznej nie zaliczają się więzienia ani strefy kontroli granicznej. Niektóre przestrzenie mogą zawierać zarówno przestrzenie publiczne, jak i niepubliczne, takie jak hol w prywatnym budynku mieszkalnym prowadzący do gabinetu lekarskiego lub lotnisko. Przestrzenie internetowe również nie są objęte tym pojęciem, ponieważ nie są to przestrzenie fizyczne. To, czy dana przestrzeń jest dostępna publicznie, powinno być jednak ustalane indywidualnie w każdym przypadku, z uwzględnieniem specyfiki danej sytuacji.
(20)
Jotta saadaan mahdollisimman paljon hyötyä tekoälyjärjestelmistä ja samalla suojellaan perusoikeuksia, terveyttä ja turvallisuutta ja mahdollistetaan demokraattinen valvonta, tarjoajilla, käyttöönottajilla ja henkilöillä, joihin vaikutukset kohdistuvat, olisi oltava riittävä tekoälylukutaito, jotta he ymmärtävät tarvittavat käsitteet ja voivat tehdä tekoälyjärjestelmiä koskevia tietoon perustuvia päätöksiä. Nämä käsitteet voivat vaihdella asiayhteyden mukaan, ja niitä voivat olla esimerkiksi käsitys teknisten elementtien asianmukaisesta soveltamisesta tekoälyjärjestelmän kehitysvaiheessa, järjestelmän käytön aikana sovellettavista toimenpiteistä ja sopivista tavoista tulkita tekoälyjärjestelmän tuotoksia sekä henkilöiden, joihin vaikutukset kohdistuvat, osalta tarvittava tietämys sen ymmärtämiseksi, miten tekoälyn avulla tehdyt päätökset vaikuttavat heihin. Tämän asetuksen soveltamisen yhteydessä kaikilla tekoälyn arvoketjun asiaankuuluvilla toimijoilla olisi oltava riittävä tekoälylukutaito, jotta voidaan varmistaa asetuksen asianmukainen noudattaminen ja täytäntöönpano. Lisäksi toteuttamalla tekoälylukutaitoa koskevia toimia laaja-alaisesti ja ottamalla käyttöön asianmukaiset jatkotoimet voitaisiin osaltaan parantaa työoloja ja viime kädessä lujittaa luotettavaa tekoälyä ja sen innovointipolkua unionissa. Euroopan tekoälyneuvoston, jäljempänä ”tekoälyneuvosto”, olisi tuettava komissiota, jotta voidaan edistää tekoälylukutaidon välineitä sekä yleistä tietoisuutta ja ymmärrystä tekoälyjärjestelmien käyttöön liittyvistä hyödyistä, riskeistä, suojatoimista, oikeuksista ja velvollisuuksista. Komission ja jäsenvaltioiden olisi yhteistyössä asiaankuuluvien sidosryhmien kanssa edistettävä vapaaehtoisten käytännesääntöjen laatimista, jotta voidaan parantaa tekoälyn kehittämisestä, toiminnasta ja käytöstä vastaavien henkilöiden tekoälylukutaitoa.
(20)
Dostawców, podmioty stosujące i osoby, na które AI ma wpływ, należy wyposażyć w niezbędne kompetencje w zakresie AI umożliwiające im podejmowanie świadomych decyzji w odniesieniu do systemów AI, co pozwoli czerpać największe korzyści z systemów AI, a jednocześnie chronić prawa podstawowe, zdrowie i bezpieczeństwo oraz sprawować kontrolę demokratyczną. Kompetencje te mogą różnić się w zależności od danego kontekstu i mogą obejmować rozumienie prawidłowego stosowania elementów technicznych na etapie rozwoju systemu AI, rozumienie środków, które mają być stosowane podczas jego wykorzystywania, odpowiednich sposobów interpretacji wyników działania systemu AI oraz, w przypadku osób, na które AI ma wpływ – wiedzę niezbędną do zrozumienia, jaki wpływ będą miały na nie decyzje podejmowane przy pomocy AI. W kontekście stosowania niniejszego rozporządzenia kompetencje w zakresie AI powinny oznaczać, że wszystkie odpowiednie podmioty w łańcuchu wartości AI będą posiadać wiedzę konieczną do zapewnienia odpowiedniej zgodności z przepisami niniejszego rozporządzenia i ich prawidłowego egzekwowania. Ponadto szerokie wdrażanie środków rozwijających kompetencje w zakresie AI oraz wprowadzanie odpowiednich działań następczych mogłyby przyczynić się do poprawy warunków pracy, a w ostatecznym rozrachunku wsparłyby konsolidację i innowacyjną ścieżkę godnej zaufania AI w Unii. Europejska Rada ds. Sztucznej Inteligencji (zwana dalej „Radą ds. AI”) powinna wspierać Komisję w promowaniu narzędzi rozwijających kompetencje w zakresie AI, świadomości społecznej oraz zrozumienia korzyści, ryzyka, zabezpieczeń, praw i obowiązków związanych z wykorzystaniem systemów AI. We współpracy z odpowiednimi zainteresowanymi stronami Komisja i państwa członkowskie powinny ułatwiać opracowywanie dobrowolnych kodeksów postępowania w celu podnoszenia kompetencji w zakresie AI wśród osób zajmujących się rozwojem, działaniem i wykorzystywaniem AI.
(21)
Jotta voidaan varmistaa tasapuoliset toimintaedellytykset ja yksilöiden oikeuksien ja vapauksien tehokas suojelu kaikkialla unionissa, tällä asetuksella vahvistettuja sääntöjä olisi sovellettava tekoälyjärjestelmien tarjoajiin syrjimättömällä tavalla riippumatta siitä, ovatko ne sijoittautuneet unioniin vai kolmanteen maahan, sekä unioniin sijoittautuneisiin tekoälyjärjestelmien käyttöönottajiin.
(21)
W celu zapewnienia równych szans oraz skutecznej ochrony praw i wolności osób fizycznych w całej Unii przepisy ustanowione niniejszym rozporządzeniem powinny mieć zastosowanie do dostawców systemów AI w sposób niedyskryminacyjny, niezależnie od tego, czy mają oni siedzibę w Unii, czy w państwie trzecim, oraz do podmiotów stosujących systemy AI mających siedzibę w Unii.
(22)
Tiettyjen tekoälyjärjestelmien digitaalisen luonteen vuoksi niiden olisi kuuluttava tämän asetuksen soveltamisalaan myös silloin, kun niitä ei saateta markkinoille, oteta käyttöön eikä käytetä unionissa. Tämä koskee esimerkiksi tilanteita, joissa unioniin sijoittautunut toimija hankkii tiettyjä palveluja kolmanteen maahan sijoittautuneelta toimijalta sellaisen tekoälyjärjestelmän toteuttaman toiminnon osalta, joka katsotaan suuririskiseksi. Tällaisessa tapauksessa kolmanteen maahan sijoittautuneen toimijan käyttämä tekoälyjärjestelmä voisi käsitellä dataa, joka on kerätty unionissa ja siirretty sieltä laillisesti, ja toimittaa unionissa sijaitsevalle hankintasopimuksen tehneelle toimijalle tästä käsittelystä saatavia tekoälyjärjestelmän tuloksia ilman, että kyseistä tekoälyjärjestelmää saatetaan markkinoille, otetaan käyttöön tai käytetään unionissa. Jotta estettäisiin tämän asetuksen kiertäminen ja varmistettaisiin unionissa sijaitsevien luonnollisten henkilöiden tehokas suojelu, tätä asetusta olisi sovellettava myös kolmanteen maahan sijoittautuneisiin tekoälyjärjestelmien tarjoajiin ja käyttöönottajiin siltä osin kuin kyseisten järjestelmien tuottamaa tuotosta on tarkoitus käyttää unionissa.Jotta otettaisiin kuitenkin huomioon olemassa olevat järjestelyt ja erityiset tarpeet tulevaan yhteistyöhön sellaisten ulkomaisten kumppanien kanssa, joiden kanssa vaihdetaan tietoja ja todisteita, tätä asetusta ei pitäisi soveltaa kolmannen maan viranomaisiin eikä kansainvälisiin järjestöihin, kun ne toimivat unionin tai sen jäsenvaltioiden kanssa yhteistyössä tai unionin tai kansallisella tasolla tehtyjen lainvalvontaa ja rikosoikeudellista yhteistyötä koskevien kansainvälisten sopimusten puitteissa edellyttäen, että asiaankuuluva kolmas maa tai kansainvälinen järjestö antaa yksityisyydensuojaa, perusoikeuksia ja yksilön vapauksia koskevat riittävät takeet. Tarvittaessa tämä voi kattaa sellaisten yhteisöjen toimet, joille kolmannet maat ovat antaneet erityistehtäviä, joilla tuetaan tällaista lainvalvonta- ja oikeusyhteistyötä. Tällaisia yhteistyökehyksiä on otettu käyttöön ja tällaisia sopimuksia on tehty kahdenvälisesti jäsenvaltioiden ja kolmansien maiden välillä tai Euroopan unionin, Europolin ja muiden unionin virastojen sekä kolmansien maiden ja kansainvälisten järjestöjen välillä. Viranomaisten, joilla on tämän asetuksen nojalla toimivalta valvoa lainvalvonta- ja oikeusviranomaisia, olisi arvioitava, sisältävätkö nämä yhteistyökehykset tai kansainväliset sopimukset riittävät takeet yksilöiden perusoikeuksien ja -vapauksien suojelemiseksi. Vastaanottavat kansalliset viranomaiset ja unionin toimielimet, elimet ja laitokset, jotka käyttävät tällaisia tuotoksia unionissa, vastaavat sen varmistamisesta, että niiden käyttö on unionin oikeuden mukaista. Kun kyseisiä kansainvälisiä sopimuksia tarkistetaan tai uusia sopimuksia tehdään tulevaisuudessa, sopimuspuolten olisi pyrittävä kaikin keinoin saattamaan kyseiset sopimukset tämän asetuksen vaatimusten mukaisiksi.
(22)
Ze względu na swój cyfrowy charakter niektóre systemy AI powinny zostać objęte zakresem stosowania niniejszego rozporządzenia, nawet jeśli nie zostały wprowadzane do obrotu, oddane do użytku ani są wykorzystywane w Unii. Dotyczy to na przykład operatora mającego siedzibę w Unii, który zleca operatorowi mającemu siedzibę w państwie trzecim określone usługi w związku z działaniem, które ma być wykonywane przez system AI, który zostałby zakwalifikowany jako system wysokiego ryzyka. W takich okolicznościach system AI wykorzystywany w państwie trzecim przez operatora mógłby przetwarzać dane, które legalnie zgromadzono w Unii i przekazano poza Unię, oraz przekazywać zlecającemu operatorowi z Unii wynik przetwarzania tych danych przez system AI, natomiast sam system AI nie byłby wprowadzony do obrotu lub oddany do użytku w Unii ani nie byłby w Unii wykorzystywany. Aby zapobiec obchodzeniu przepisów niniejszego rozporządzenia oraz zapewnić skuteczną ochronę osób fizycznych znajdujących się w Unii, niniejsze rozporządzenie powinno mieć również zastosowanie do dostawców i podmiotów stosujących systemy AI, którzy mają siedzibę lub miejsce zamieszkania w państwie trzecim, w zakresie, w jakim wyniki wytworzone przez te systemy są przeznaczone do wykorzystywania w Unii. Aby uwzględnić jednak istniejące ustalenia i szczególne potrzeby w zakresie przyszłej współpracy z partnerami zagranicznymi, z którymi wymienia się informacje i dowody, niniejszego rozporządzenia nie powinno się stosować do organów publicznych państwa trzeciego i organizacji międzynarodowych działających w ramach współpracy lub na mocy zawartych na poziomie Unii lub poziomie krajowym umów międzynarodowych o współpracy organów ścigania i wymiarów sprawiedliwości z Unią lub państwami członkowskimi, pod warunkiem zapewnienia przez to państwo trzecie lub organizację międzynarodową odpowiednich zabezpieczeń w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych. W stosownych przypadkach może to obejmować działania podmiotów, którym państwa trzecie powierzyły wykonywanie szczególnych zadań w ramach wsparcia ścigania przestępstw i współpracy wymiarów sprawiedliwości. Takie ramy współpracy lub umowy zostały ustanowione dwustronnie między państwami członkowskimi a państwami trzecimi lub między Unią Europejską, Europolem i innymi agencjami Unii a państwami trzecimi i organizacjami międzynarodowymi. Organy właściwe do sprawowania nadzoru nad organami ścigania i organami wymiaru sprawiedliwości na mocy niniejszego rozporządzenia powinny ocenić, czy te ramy współpracy lub umowy międzynarodowe zawierają odpowiednie zabezpieczenia w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych. Będące odbiorcami organy krajowe oraz instytucje, organy i jednostki organizacyjne Unii korzystające z takich wyników w Unii pozostają odpowiedzialne za zapewnienie zgodności ich stosowania z prawem Unii. W przypadku zmiany takich umów międzynarodowych lub zawarcia nowych w przyszłości umawiające się strony powinny dołożyć wszelkich starań, by dostosować takie umowy do wymogów niniejszego rozporządzenia.
(23)
Tätä asetusta olisi sovellettava myös unionin toimielimiin, elimiin ja laitoksiin, kun ne toimivat tekoälyjärjestelmän tarjoajana tai käyttöönottajana.
(23)
Niniejsze rozporządzenie powinno być również stosowane do instytucji, organów i jednostek organizacyjnych Unii, gdy działają one jako dostawca systemu AI lub podmiot stosujący system AI.
(24)
Jos ja siltä osin kuin tekoälyjärjestelmiä saatetaan markkinoille, otetaan käyttöön tai käytetään tällaisten järjestelmien muutoksin tai ilman muutoksia sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin, ne olisi suljettava tämän asetuksen soveltamisalan ulkopuolelle riippumatta siitä, minkä tyyppinen toimija toteuttaa näitä toimia, esimerkiksi siitä, onko se julkinen vai yksityinen toimija. Kun kyseessä ovat sotilaalliset ja puolustustarkoitukset, tällainen soveltamisalan ulkopuolelle sulkeminen perustuu sekä SEU-sopimuksen 4 artiklan 2 kohtaan että SEU-sopimuksen V osaston 2 luvun piiriin kuuluvan jäsenvaltioiden puolustuspolitiikan ja unionin yhteisen puolustuspolitiikan erityispiirteisiin, joihin sovelletaan kansainvälistä julkisoikeutta, joka on näin ollen asianmukaisempi oikeuskehys tekoälyjärjestelmien sääntelylle tappavan voimankäytön yhteydessä ja muiden tekoälyjärjestelmien sääntelylle sotilas- ja puolustustoimien yhteydessä. Kun kyseessä ovat kansallisen turvallisuuden tarkoitukset, tällainen soveltamisalan ulkopuolelle sulkeminen perustuu sekä siihen, että kansallinen turvallisuus kuuluu jäsenvaltioiden yksinomaiseen toimivaltaan SEU 4 artiklan 2 kohdan mukaisesti, että kansallisen turvallisuuden toimien erityisluonteeseen ja operatiivisiin tarpeisiin ja näihin toimiin sovellettaviin erityisiin kansallisiin sääntöihin. Jos sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin kehitettyä, markkinoille saatettua, käyttöön otettua tai käytettyä tekoälyjärjestelmää kuitenkin käytetään väliaikaisesti tai pysyvästi muihin tarkoituksiin, esimerkiksi siviili- tai humanitaarisiin tarkoituksiin, lainvalvonnan tai yleisen turvallisuuden tarkoituksiin, järjestelmä kuuluu tämän asetuksen soveltamisalaan. Tässä tapauksessa toimijan, joka käyttää tekoälyjärjestelmää muihin kuin sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin, olisi varmistettava, että tekoälyjärjestelmässä noudatetaan tätä asetusta, jollei järjestelmässä jo noudateta tätä asetusta. Tekoälyjärjestelmät, jotka saatetaan markkinoille tai otetaan käyttöön soveltamisalan ulkopuolelle jääviin tarkoituksiin eli sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin ja yhteen tai useampaan soveltamisalaan kuuluvaan tarkoitukseen, kuten siviilitarkoituksiin tai lainvalvonnan tarkoituksiin, kuuluvat tämän asetuksen soveltamisalaan ja näiden järjestelmien tarjoajien olisi varmistettava tämän asetuksen noudattaminen. Näissä tapauksissa sen seikan, että tekoälyjärjestelmä voi kuulua tämän asetuksen soveltamisalaan, ei saisi vaikuttaa kansallisen turvallisuuden, puolustuksen ja sotilaallisia toimia toteuttavien toimijoiden, riippumatta siitä, minkä tyyppinen toimija toteuttaa näitä toimia, mahdollisuuteen käyttää tekoälyjärjestelmiä, joiden käyttö on suljettu tämän asetuksen soveltamisalan ulkopuolelle, kansallisen turvallisuuden, sotilaallisiin ja puolustuksen tarkoituksiin. Tekoälyjärjestelmän, joka saatetaan markkinoille siviili- tai lainvalvontatarkoituksia varten ja jota käytetään muutoksin tai ilman muutoksia sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin, ei pitäisi kuulua tämän asetuksen soveltamisalaan riippumatta siitä, minkä tyyppinen toimija toteuttaa näitä toimia.
(24)
Jeżeli i w zakresie, w jakim systemy AI wprowadza się do obrotu, oddaje do użytku lub wykorzystuje się je ze zmianami lub bez zmian – do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego, systemy te należy wyłączyć z zakresu stosowania niniejszego rozporządzenia niezależnie od tego, jaki podmiot wykonuje te działania – nie ma znaczenia na przykład, czy jest on podmiotem publicznym czy prywatnym. W przypadku celów wojskowych i obronnych, takie wyłączenie jest uzasadnione zarówno art. 4 ust. 2 TUE, jak i specyfiką polityki obronnej państw członkowskich i wspólnej polityki obronnej Unii objętej tytułem V rozdział 2 TUE, które podlegają prawu międzynarodowemu publicznemu stanowiącemu zatem bardziej odpowiednie ramy prawne dla regulacji systemów AI w kontekście stosowania śmiercionośnej siły i innych systemów AI w kontekście działań wojskowych i obronnych. W przypadku celów bezpieczeństwa narodowego wyłączenie to jest uzasadnione zarówno faktem, że za bezpieczeństwo narodowe wyłączną odpowiedzialność ponoszą państwa członkowskie zgodnie z art. 4 ust. 2 TUE, jak i faktem, że działania w zakresie bezpieczeństwa narodowego mają szczególny charakter, wiążą się ze szczególnymi potrzebami operacyjnymi i że stosuje się do nich szczególne przepisy krajowe. Jeżeli jednak system AI rozwinięty, wprowadzony do obrotu, oddany do użytku lub wykorzystywany do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego jest tymczasowo lub na stałe wykorzystywany do innych celów, na przykład do celów cywilnych lub humanitarnych, do celów ścigania przestępstw lub bezpieczeństwa publicznego, system taki objęty zostanie zakresem stosowania niniejszego rozporządzenia. W takim przypadku podmiot wykorzystujący system AI do celów inne niż cele wojskowe, obronne lub cele bezpieczeństwa narodowego powinien zapewnić zgodność systemu AI z niniejszym rozporządzeniem, chyba że system ten jest już z nim zgodny. Systemy AI wprowadzane do obrotu lub oddawane do użytku do celu stanowiącego podstawę wyłączenia, tzn. celu wojskowego, obronnego lub celu bezpieczeństwa narodowego, oraz do jednego lub kilku celów niestanowiących podstawy wyłączenia, takich jak cele cywilne lub ściganie przestępstw, są objęte zakresem stosowania niniejszego rozporządzenia, a dostawcy tych systemów powinni zapewnić zgodność z niniejszym rozporządzeniem. W takich przypadkach fakt, że system AI może wchodzić w zakres stosowania niniejszego rozporządzenia, nie powinien mieć wpływu na możliwość wykorzystywania – przez podmioty prowadzące działania dotyczące bezpieczeństwa narodowego, działania obronne i wojskowe, bez względu na rodzaj podmiotu prowadzącego te działania – systemów AI do celów bezpieczeństwa narodowego, celów wojskowych i obronnych, których wykorzystanie jest wyłączone z zakresu stosowania niniejszego rozporządzenia. System AI wprowadzany do obrotu do celów cywilnych lub w celu ścigania przestępstw, który jest wykorzystywany ze zmianami lub bez zmian do celów wojskowych, obronnych lub do celów bezpieczeństwa narodowego, nie powinien być objęty zakresem stosowania niniejszego rozporządzenia, bez względu na rodzaj podmiotu prowadzącego działania związane z tymi celami.
(25)
Tällä asetuksella olisi tuettava innovointia, kunnioitettava tieteen vapautta, eikä se saisi heikentää tutkimus- ja kehitystoimintaa. Sen vuoksi on tarpeen jättää sen soveltamisalan ulkopuolelle tekoälyjärjestelmät ja -mallit, jotka on erityisesti kehitetty ja otettu käyttöön yksinomaan tieteellistä tutkimusta ja kehittämistoimintaa varten. Lisäksi on tarpeen varmistaa, että tämä asetus ei muulla tavoin vaikuta tekoälyjärjestelmiä tai -malleja koskevaan tieteelliseen tutkimukseen ja kehittämistoimintaan ennen niiden markkinoille saattamista tai käyttöönottoa. Tekoälyjärjestelmiä tai -malleja koskevan tuotesuuntautuneen tutkimus-, testaus- ja kehittämistoiminnan osalta tämän asetuksen säännöksiä ei myöskään pitäisi soveltaa ennen näiden järjestelmien ja mallien käyttöönottoa tai markkinoille saattamista. Tämä poissulkeminen ei rajoita velvoitetta noudattaa tätä asetusta, kun tämän asetuksen soveltamisalaan kuuluva tekoälyjärjestelmä saatetaan markkinoille tai otetaan käyttöön tällaisen tutkimus- ja kehitystoiminnan tuloksena, eikä tekoälyn sääntelyn testiympäristöjä ja tosielämän olosuhteissa tapahtuvaa testausta koskevien säännösten soveltamista. Lisäksi kaikkiin muihin tekoälyjärjestelmiin, joita voidaan käyttää tutkimus- ja kehitystoimintaan, olisi sovellettava tämän asetuksen säännöksiä, rajoittamatta sellaisten tekoälyjärjestelmien poissulkemista, jotka on erityisesti kehitetty ja otettu käyttöön yksinomaan tieteellistä tutkimusta ja kehitystoimintaa varten. Kaikissa tutkimus- ja kehitystoimissa olisi joka tapauksessa noudatettava tunnustettuja tutkimuseettisiä ja -ammatillisia periaatteita sekä sovellettavaa unionin oikeutta.
(25)
Niniejsze rozporządzenie powinno wspierać innowacje, szanować wolność nauki i nie powinno osłabiać działalności badawczo-rozwojowej. Należy zatem wyłączyć z jego zakresu stosowania systemy i modele AI rozwinięte i oddane do użytku wyłącznie do celów badań naukowych i rozwojowych. Ponadto należy zapewnić, aby niniejsze rozporządzenie nie wpływało w żaden inny sposób na działalność badawczo-rozwojową dotyczącą systemów lub modeli AI przed wprowadzeniem tych systemów lub modeli do obrotu lub oddaniem ich do użytku. Przepisów niniejszego rozporządzenia nie powinno się również stosować do zorientowanej na produkty działalności badawczej, testowej i rozwojowej dotyczącej systemów lub modeli AI przed oddaniem tych systemów i modeli do użytku lub wprowadzaniem ich do obrotu. Wyłączenie to pozostaje to bez uszczerbku dla obowiązku zapewnienia zgodności z niniejszym rozporządzeniem, gdy system AI objęty zakresem stosowania niniejszego rozporządzenia jest wprowadzany do obrotu lub oddawany do użytku w wyniku takiej działalności badawczo-rozwojowej, oraz dla stosowania przepisów dotyczących piaskownic regulacyjnych w zakresie AI i testów w warunkach rzeczywistych. Ponadto bez uszczerbku dla wyłączenia systemów AI rozwiniętych i oddanych do użytku wyłącznie do celów badań naukowych i rozwojowych, wszelkie inne systemy AI, które mogą być wykorzystywane do prowadzenia wszelkiej działalności badawczo-rozwojowej, powinny podlegać przepisom niniejszego rozporządzenia. W każdym przypadku wszelka działalność badawczo-rozwojowa powinna być prowadzona zgodnie z uznanymi normami etycznymi i zawodowymi dotyczącymi badań naukowych oraz zgodnie z mającym zastosowanie prawem Unii.
(26)
Tekoälyjärjestelmiä koskevien oikeasuhteisten ja tehokkaiden sitovien sääntöjen käyttöön ottamiseksi olisi noudatettava selkeästi määriteltyä riskiperusteista lähestymistapaa. Tässä lähestymistavassa tällaisten sääntöjen tyyppi ja sisältö olisi sovitettava niiden riskien voimakkuuden ja laajuuden mukaan, joita tekoälyjärjestelmät voivat aiheuttaa. Sen vuoksi on tarpeen kieltää tietyt tekoälyyn liittyvät käytännöt, joita ei voida hyväksyä, vahvistaa suuririskisiä tekoälyjärjestelmiä koskevat vaatimukset ja asianomaisten toimijoiden velvollisuudet sekä asettaa avoimuusvelvoitteita tietyille tekoälyjärjestelmille.
(26)
Aby wprowadzić proporcjonalny i skuteczny zbiór wiążących przepisów dotyczących systemów AI, należy zastosować jasno określone podejście oparte na analizie ryzyka. Takie podejście powinno polegać na dostosowywaniu rodzaju i treści takich przepisów do intensywności i zakresu ryzyka, jakie mogą powodować systemy AI. Konieczne jest zatem wprowadzenie zakazu stosowania niektórych niedopuszczalnych praktyk w zakresie AI, ustanowienie wymogów dotyczących systemów AI wysokiego ryzyka i obowiązków spoczywających na odpowiednich operatorach oraz ustanowienie obowiązków w zakresie przejrzystości w odniesieniu do niektórych systemów AI.
(27)
Riskiperusteinen lähestymistapa toimii perustana oikeasuhteisille ja tehokkaille sitoville säännöille. On kuitenkin tärkeää palauttaa mieleen komission nimittämän tekoälyä käsittelevän korkean tason asiantuntijaryhmän laatimat luotettavaa tekoälyä koskevat eettiset ohjeet vuodelta 2019. Asiantuntijaryhmä laati näihin ohjeisiin seitsemän ei-sitovaa tekoälyä koskevaa eettistä periaatetta, joiden on tarkoitus auttaa varmistamaan, että tekoäly on luotettavaa ja eettisesti hyväksyttävää. Nämä seitsemän periaatetta ovat ihmisen toimijuus ja ihmisen suorittama valvonta, tekninen vakaus ja turvallisuus, yksityisyyden suoja ja datanhallinta, avoimuus, monimuotoisuus, syrjimättömyys ja oikeudenmukaisuus sekä yhteiskunnallinen ja ympäristöön liittyvä hyvinvointi ja vastuuvelvollisuus. Eettisillä ohjeilla edistetään johdonmukaisen, luotettavan ja ihmiskeskeisen tekoälyn suunnittelua perusoikeuskirjan ja unionin perustana olevien arvojen mukaisesti, sanotun kuitenkaan rajoittamatta tämän asetuksen oikeudellisesti sitovien vaatimusten ja muun sovellettavan unionin oikeuden soveltamista. Tekoälyä käsittelevän korkean tason asiantuntijaryhmän eettisten ohjeiden mukaan ihmisen toimijuudella ja ihmisen suorittamalla valvonnalla tarkoitetaan, että tekoälyjärjestelmät kehitetään työkaluiksi ja niitä käytetään työkaluina, jotka palvelevat ihmisiä, kunnioittavat ihmisarvoa ja itsemääräämisoikeutta ja toimivat siten, että ihmisen on mahdollista hallita ja valvoa niitä.Teknisellä vakaudella ja turvallisuudella tarkoitetaan, että tekoälyjärjestelmät kehitetään ja niitä käytetään tavalla, jolla tahattomat ongelmatilanteet voidaan ratkaista vakaasti, jolla tekoälyjärjestelmä voi palautua yrityksistä muuttaa sen käyttöä tai toimintaa siten, että kolmannet osapuolet voisivat käyttää sitä laittomasti, ja jolla pidetään tahattomat haitat mahdollisimman vähäisinä. Yksityisyydellä ja datanhallinnalla tarkoitetaan, että tekoälyjärjestelmät kehitetään ja niitä käytetään yksityisyydensuojaa ja tietosuojaa koskevien säännösten mukaisesti käsiteltäessä tietoja, jotka täyttävät tiukat vaatimukset laadun ja eheyden osalta. Avoimuudella tarkoitetaan, että tekoälyjärjestelmiä kehitetään ja käytetään tavalla, joka mahdollistaa asianmukaisen jäljitettävyyden ja selitettävyyden, saa ihmiset tietoiseksi siitä, että he viestivät tai ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, ja tiedottaa käyttöönottajille asianmukaisesti kulloisenkin tekoälyjärjestelmän suorituskykyyn liittyvistä valmiuksista ja rajoituksista sekä henkilöille, joihin vaikutukset kohdistuvat, heidän oikeuksistaan. Monimuotoisuudella, syrjimättömyydellä ja oikeudenmukaisuudella tarkoitetaan, että tekoälyjärjestelmiä kehitetään ja käytetään tavalla, jossa on mukana monimuotoisia toimijoita ja jolla edistetään yhtäläisiä mahdollisuuksia, sukupuolten tasa-arvoa ja kulttuurien monimuotoisuutta ja vältetään unionin tai kansallisessa lainsäädännössä kiellettyjä syrjiviä vaikutuksia ja epäoikeudenmukaisia vääristymiä. Sosiaalisella ja ympäristöön liittyvällä hyvinvoinnilla tarkoitetaan, että tekoälyjärjestelmiä kehitetään ja käytetään kestävällä ja ympäristöystävällisellä tavalla sekä siten, että ne ovat hyödyksi kaikille ihmisille, seuraten ja arvioiden samalla pitkän aikavälin vaikutuksia yksilöihin, yhteyskuntaan ja demokratiaan. Nämä periaatteet olisi mahdollisuuksien mukaan otettava huomioon tekoälymallien suunnittelussa ja käytössä. Niiden olisi joka tapauksessa toimittava perustana, kun tämän asetuksen mukaiset käytännesäännöt laaditaan. Kaikkia sidosryhmiä, kuten teollisuutta, tiedeyhteisöä, kansalaisyhteiskuntaa ja standardointijärjestöjä, kannustetaan ottamaan tarvittaessa huomioon eettiset periaatteet, kun ne kehittävät vapaaehtoisia parhaita käytäntöjä ja standardeja.
(27)
Chociaż podstawą proporcjonalnego i skutecznego zbioru wiążących przepisów jest podejście oparte na analizie ryzyka, należy przypomnieć Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji z 2019 r. opracowane przez niezależną grupę ekspertów wysokiego szczebla ds. AI powołaną przez Komisję. W tych wytycznych grupa ekspertów wysokiego szczebla ds. AI opracowała siedem niewiążących zasad etycznych dotyczących AI, które mają pomóc zapewnić, aby AI była godna zaufania i zgodna z normami etycznymi. Te siedem zasad to: przewodnia i nadzorcza rola człowieka; solidność techniczna i bezpieczeństwo; ochrona prywatności i zarządzanie danymi; przejrzystość; różnorodność, niedyskryminacja i sprawiedliwość; dobrostan społeczny i środowiskowy oraz odpowiedzialność. Bez uszczerbku dla prawnie wiążących wymogów niniejszego rozporządzenia i wszelkich innych mających zastosowanie przepisów prawa Unii, wytyczne te przyczyniają się do zaprojektowania spójnej, wiarygodnej i zorientowanej na człowieka AI, zgodnie z Kartą i wartościami, na których opiera się Unia. Zgodnie z wytycznymi grupy ekspertów wysokiego szczebla ds. AI przewodnia i nadzorcza rola człowieka oznacza, że systemy AI rozwija się i wykorzystuje jako narzędzia służące ludziom, szanujące godność ludzką i autonomię osobistą oraz działające w sposób, który może być odpowiednio kontrolowany i nadzorowany przez człowieka. Solidność techniczna i bezpieczeństwo oznaczają, że systemy AI rozwija się i wykorzystuje w taki sposób, by okazały się wytrzymałe w przypadku wystąpienia problemów oraz odporne na próby zmiany ich wykorzystania lub skuteczności działania, co pozwoli zapobiec bezprawnemu wykorzystaniu przez osoby trzecie i zminimalizować niezamierzone szkody. Ochrona prywatności i zarządzanie danymi oznaczają, że systemy AI rozwija się i wykorzystuje zgodnie z przepisami dotyczącymi prywatności i ochrony danych, przy czym przetwarzanie danych spełnia wysokie standardy pod względem jakości i integralności. Przejrzystość oznacza, że systemy AI rozwija się i wykorzystuje w sposób umożliwiający odpowiednią identyfikowalność i wytłumaczalność, jednocześnie informując ludzi o tym, że komunikują się z systemem AI lub podejmują z nim interakcję, a także należycie informując podmioty stosujące o zdolnościach i ograniczeniach tego systemu AI, a osoby, na które AI ma wpływ, o przysługujących im prawach. Różnorodność, niedyskryminacja i sprawiedliwość oznaczają, że systemy AI rozwija się i wykorzystuje w sposób, który angażuje różne podmioty i propaguje równy dostęp, równouprawnienie płci i różnorodność kulturową, jednocześnie unikając dyskryminujących skutków i niesprawiedliwej stronniczości, których zakazują prawo Unii lub prawo krajowe. Dobrostan społeczny i środowiskowy oznacza, że systemy AI rozwija się i wykorzystuje w sposób zrównoważony, przyjazny dla środowiska i przynoszący korzyści wszystkim ludziom, jednocześnie monitorując i oceniając długoterminowy wpływ tych systemów na osoby fizyczne, społeczeństwo i demokrację. Stosowanie tych zasad powinno w miarę możliwości znaleźć odzwierciedlenie w projektowaniu i wykorzystywaniu modeli AI. Zasady te powinny w każdym przypadku stanowić fundament przy opracowywaniu kodeksów postępowania na podstawie niniejszego rozporządzenia. Wszystkie zainteresowane strony, w tym przedstawicieli przemysłu, środowisko akademickie, społeczeństwo obywatelskie i organizacje normalizacyjne, zachęca się, by przy opracowywaniu dobrowolnych najlepszych praktyk i norm uwzględniali odpowiednio przedmiotowe zasady etyczne.
(28)
Tekoälyn monien hyödyllisten käyttötarkoitusten lisäksi sitä voidaan myös käyttää väärin, ja se voi tarjota uusia ja tehokkaita välineitä käytäntöihin, joihin liittyy manipulointia, hyväksikäyttöä ja sosiaalista valvontaa. Tällaiset käytännöt ovat erityisen haitallisia ja loukkaavia, ja ne olisi kiellettävä, koska ne ovat ihmisarvon kunnioittamista, vapautta, tasa-arvoa, demokratiaa ja oikeusvaltiota koskevien unionin arvojen sekä perusoikeuskirjassa vahvistettujen perusoikeuksien vastaisia, mukaan lukien oikeus syrjimättömyyteen, tietosuoja ja yksityisyyden suoja sekä lapsen oikeudet.
(28)
Oprócz wielu korzystnych zastosowań AI może ona być również wykorzystywana niewłaściwie i może dostarczać nowych i potężnych narzędzi do praktyk manipulacji, wyzyskiwania i kontroli społecznej. Takie praktyki są szczególnie szkodliwe i stanowią nadużycie i powinny być zakazane, ponieważ są sprzeczne z unijnymi wartościami dotyczącymi poszanowania godności ludzkiej, wolności, równości, demokracji i praworządności oraz z prawami podstawowymi zapisanymi w Karcie, w tym z prawem do niedyskryminacji, ochrony danych i prywatności oraz z prawami dziecka.
(29)
Tekoälyä hyödyntäviä manipulointitekniikoita voidaan käyttää taivuttelemaan henkilöitä haitallisiin käyttäytymismalleihin tai harhauttamaan heitä suuntaamalla heitä tekemään päätöksiä tavalla, joka horjuttaa ja heikentää heidän itsenäisyyttään, päätöksentekoaan ja valinnanvapauttaan. Sellaisten tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tai käyttö, joiden tarkoitus on vääristää olennaisesti tai joiden käytön tuloksena vääristetään olennaisesti ihmisten käyttäytymistä, mistä todennäköisesti aiheutuu huomattavia haittoja, joilla on erityisesti riittävän merkittävä kielteinen vaikutus fyysiseen tai psyykkiseen terveyteen taikka taloudellisiin etuihin, on erityisen vaarallista ja se olisi näin ollen kiellettävä. Tällaisissa tekoälyjärjestelmissä käytetään subliminaalisia komponentteja, kuten ääni-, kuva- ja videoärsykkeitä, joita henkilöt eivät voi havaita, koska tällaiset ärsykkeet ovat ihmisen havaitsemiskyvyn ulkopuolella, tai muita manipuloivia tai harhaanjohtavia tekniikkoja, joilla horjutetaan tai heikennetään henkilön itsenäisyyttä, päätöksentekoa ja valinnanvapautta tavoilla, joista ihmiset eivät ole tietoisia tai vaikka olisivatkin, he voivat silti tulla harhaanjohdetuiksi tai eivät pysty hallitsemaan tai vastustamaan niitä. Tällaista harhaanjohtamista voisivat helpottaa esimerkiksi aivojen ja tietokoneen rajapinnat tai virtuaalitodellisuus, koska niiden avulla voidaan paremmin hallita sitä, mitä ärsykkeitä esitetään henkilöille, siinä määrin kuin ne voivat vääristää olennaisesti heidän käyttäytymistään merkittävästi haitallisella tavalla. Lisäksi tekoälyjärjestelmissä voidaan myös muutoin hyödyntää henkilön tai tietyn henkilöryhmän haavoittuvuuksia, jotka liittyvät heidän ikäänsä, Euroopan parlamentin ja neuvoston direktiivissä (EU) 2019/882 (16) tarkoitettuun vammaan tai erityiseen sosiaaliseen tai taloudelliseen tilanteeseen, joka todennäköisesti saattaa nämä henkilöt haavoittuvammiksi hyväksikäytölle, kuten äärimmäisessä köyhyydessä elävät henkilöt tai etniset tai uskonnolliset vähemmistöt.Tällaisia tekoälyjärjestelmiä saatetaan saattaa markkinoille, ottaa käyttöön tai käyttää siten, että tavoitteena tai vaikutuksena on henkilön käytöksen olennainen vääristyminen, ja tavalla, joka aiheuttaa tai kohtuullisella todennäköisyydellä aiheuttaa huomattavaa haittaa kyseiselle henkilölle tai muulle henkilölle tai henkilöryhmälle, mukaan lukien ajan kuluessa mahdollisesti kumuloituvat haitat, ja siksi tekoälyjärjestelmien tällainen käyttö olisi kiellettävä. Voi olla mahdotonta olettaa, että käyttäytymisen vääristyminen on tarkoituksellista, jos käyttäytymisen vääristyminen johtuu tekoälyjärjestelmän ulkopuolisista tekijöistä, jotka eivät ole tarjoajan tai käyttöönottajan hallittavissa, eli tekijöistä, joita tekoälyjärjestelmän tarjoaja tai käyttöönottaja ei voi kohtuudella ennustaa ja näin ollen lieventää. Joka tapauksessa tarjoajalla tai käyttöönottajalla ei tarvitse olla aikomusta aiheuttaa huomattavaa haittaa, vaan kiellon perusteeksi riittää, että tällaista haittaa aiheutuu manipuloivista tai hyväksikäyttävistä tekoälyä hyödyntävistä käytännöistä. Tällaisia tekoälykäytäntöjä koskevilla kielloilla täydennetään Euroopan parlamentin ja neuvoston direktiivissä 2005/29/EY (17) olevia säännöksiä erityisesti siltä osin, että kuluttajille taloudellisia tai rahoituksellisia haittoja aiheuttavat hyvän kauppatavan vastaiset käytännöt kielletään kaikissa olosuhteissa riippumatta siitä, onko ne otettu käyttöön tekoälyjärjestelmien avulla tai muutoin. Tässä asetuksessa säädetyt manipuloivien ja hyväksikäyttävien käytäntöjen kiellot eivät saisi vaikuttaa laillisiin käytäntöihin sairaanhoidon alalla, kuten mielenterveyshäiriöiden psykologiseen hoitoon tai fyysiseen kuntoutumiseen, kun tällaiset käytännöt toteutetaan sovellettavan lainsäädännön ja sovellettavien lääketieteellisten standardien mukaisesti, esimerkiksi edellyttämällä asianomaisten henkilöiden tai heidän edustajiensa nimenomaista suostumusta. Sovellettavan lainsäädännön mukaisten, esimerkiksi mainonnan alalla toteutettavien yleisten ja oikeutettujen kaupallisten menettelyjen ei myöskään saisi itsessään katsoa olevan haitallisia manipuloivia tekoälyä hyödyntäviä käytäntöjä.
(29)
Techniki manipulacyjne oparte na AI mogą być wykorzystywane w celu nakłaniania osób do niepożądanych zachowań lub w celu wprowadzania ich w błąd poprzez skłanianie ich do podejmowania decyzji w sposób, który podważa i ogranicza ich autonomię, decyzyjność i swobodę wyboru. Wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie niektórych systemów AI, których celem lub skutkiem jest znacząca zmiana ludzkiego zachowania, w związku z czym mogą wystąpić poważne szkody, w szczególności mające wystarczająco istotny niepożądany wpływ na zdrowie fizyczne, psychiczne lub na interesy finansowe, są szczególnie niebezpieczne i w związku z tym powinny być zakazane. Takie systemy AI wykorzystują elementy działające podprogowo, takie jak bodźce dźwiękowe, bodźce będące obrazami lub materiałami wideo, których nie można dostrzec, ponieważ bodźce takie wykraczają poza świadomą ludzką percepcję, lub stosują inne techniki manipulacyjne lub wprowadzające w błąd, które podważają lub ograniczają autonomię człowieka, decyzyjność lub swobodę wyboru w taki sposób, że osoby nie są świadome takich technik lub nawet jeśli są ich świadome, mogą zostać wprowadzone w błąd lub nie są w stanie sprawować nad nimi kontroli ani im się sprzeciwić. Przyczyniać się do tego mogą na przykład interfejsy maszyna-mózg lub rzeczywistość wirtualna, ponieważ pozwalają one na większą kontrolę nad tym, jakim bodźcom są poddawane osoby, do tego stopnia, że mogą one znacząco zmieniać zachowanie tych osób w sposób znacząco szkodliwy. Ponadto systemy AI mogą również w inny sposób wykorzystywać słabości danej osoby lub określonej grupy osób ze względu na ich wiek, niepełnosprawność w rozumieniu dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/882 (16) lub szczególną sytuację społeczną lub ekonomiczną, która może sprawić, że osoby te, takie jak osoby żyjące w skrajnym ubóstwie, osoby z mniejszości etnicznych lub religijnych, będą bardziej narażone na ich wykorzystanie. Takie systemy AI mogą być wprowadzane do obrotu, oddawane do użytku lub wykorzystywane w celu lub ze skutkiem znaczącej zmiany zachowania danej osoby, oraz w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić poważną szkodę tej osoby lub innej osoby lub grupy osób, w tym szkody kumulujące się z biegiem czasu, i w związku z tym powinny być zakazane. Nie można zakładać, że zaistniał zamiar dokonania zmiany zachowania, jeżeli zmiana ta wynika z czynników, które mają charakter zewnętrzny w stosunku do systemu AI i które są poza kontrolą dostawcy lub podmiotu stosującego, a zatem ani dostawca ani podmiot stosujący AI nie mogą ich racjonalnie przewidzieć ani im przeciwdziałać. W każdym razie nie ma znaczenia, czy dostawca lub podmiot stosujący mieli zamiar wyrządzić poważną szkodę, istotny jest fakt, że szkoda wynika z praktyk manipulacyjnych opartych na AI lub ich wykorzystywania. Zakazy dotyczące takich praktyk w zakresie AI stanowią uzupełnienie przepisów zawartych w dyrektywie Parlamentu Europejskiego i Rady 2005/29/WE (17), w szczególności przepisu zakazującego stosowania we wszelkich okolicznościach nieuczciwych praktyk handlowych powodujących dla konsumentów szkody ekonomiczne lub finansowe, niezależnie od tego, czy praktyki te stosuje się za pomocą systemów AI czy w innym kontekście. Zawarty w niniejszym rozporządzeniu zakaz praktyk polegających na manipulacji lub wykorzystywaniu nie powinien mieć wpływu na zgodne z prawem praktyki w kontekście leczenia, takie jak terapia psychologiczna w związku z chorobą psychiczną lub rehabilitacja fizyczna, gdy praktyki te są prowadzone zgodnie z mającymi zastosowanie prawem i normami medycznymi, na przykład za wyraźną zgodą danej osoby fizycznej lub jej przedstawiciela prawnego. Ponadto powszechne i zasadne praktyki handlowe, na przykład w dziedzinie reklamy, które są zgodne z mającym zastosowanie prawem, nie powinny być same w sobie uznawane za szkodliwe praktyki manipulacyjne oparte na AI.
(30)
Olisi kiellettävä biometriset luokittelujärjestelmät, jotka perustuvat luonnollisten henkilöiden biometrisiin tietoihin, kuten henkilön kasvokuva- tai sormenjälkitietoihin, joiden perusteella päätellään tai johdetaan henkilön poliittisia mielipiteitä, ammattiliiton jäsenyyttä, uskonnollista tai filosofista vakaumusta, rotua, seksuaalista käyttäytymistä tai seksuaalista suuntautumista koskevia seikkoja. Tämä kielto ei saisi koskea sellaisten biometristen tietoaineistojen laillista merkitsemistä, suodattamista tai luokittelua, jotka on hankittu biometrisiä tietoja koskevan unionin tai kansallisen lainsäädännön mukaisesti, mukaan lukien hiusten tai silmien värin mukaan tapahtuva kuvien lajittelu, jota voidaan käyttää esimerkiksi lainvalvonnassa.
(30)
Należy zakazać stosowania systemów kategoryzacji biometrycznej, które opierają się na danych biometrycznych osób fizycznych, takich jak twarz lub odciski palców danej osoby, w celu wydedukowania lub wywnioskowania informacji na temat opinii politycznych, przynależności do związków zawodowych, przekonań religijnych lub filozoficznych, rasy, życia seksualnego lub orientacji seksualnej danej osoby. Zakaz ten nie powinien obejmować zgodnego z prawem etykietowania, filtrowania lub kategoryzacji zbiorów danych biometrycznych, pozyskanych zgodnie z prawem Unii lub prawem krajowym, według danych biometrycznych, takiego jak sortowanie obrazów według koloru włosów lub koloru oczu, które można na przykład wykorzystać w obszarze ścigania przestępstw.
(31)
Tekoälyjärjestelmät, joiden avulla julkiset tai yksityiset toimijat toteuttavat luonnollisten henkilöiden sosiaalista pisteyttämistä, voivat johtaa syrjiviin tuloksiin ja tiettyjen ryhmien syrjäytymiseen. Ne voivat loukata oikeutta ihmisarvoon ja syrjimättömyyteen sekä tasa-arvon ja oikeussuojan arvoja. Tällaiset tekoälyjärjestelmät arvioivat tai luokittelevat luonnollisia henkilöitä tai henkilöryhmiä tiettyinä ajanjaksoina heidän sosiaaliseen käyttäytymiseensä useissa yhteyksissä liittyvien monien tietopisteiden perusteella tai heidän tunnettujen, pääteltyjen tai ennakoitujen henkilökohtaisten ominaisuuksiensa tai luonteenpiirteidensä perusteella. Tällaisista tekoälyjärjestelmistä saadut sosiaaliset pisteet voivat johtaa luonnollisten henkilöiden tai kokonaisten henkilöryhmien haitalliseen tai epäedulliseen kohteluun sosiaalisissa yhteyksissä, jotka eivät liity siihen asiayhteyteen, jossa tiedot alun perin tuotettiin tai kerättiin, tai haitalliseen kohteluun, joka on suhteetonta tai perusteetonta heidän sosiaalisen käyttäytymisensä vakavuuteen nähden. Tekoälyjärjestelmät, jotka tuottavat tällaisia pisteytyskäytäntöjä, joita ei voida hyväksyä ja jotka johtavat tällaisiin haitallisiin tai epäedullisiin tuloksiin, olisi näin ollen kiellettävä. Tämä kielto ei saisi vaikuttaa luonnollisten henkilöiden lainmukaisiin arviointikäytäntöihin, joita toteutetaan erityistä tarkoitusta varten unionin ja kansallisen lainsäädännön mukaisesti.
(31)
Systemy AI, które umożliwiają prowadzenie przez podmioty publiczne lub prywatne scoringu społecznego, mogą prowadzić do wyników stanowiących dyskryminację i do wykluczenia pewnych grup. Mogą one naruszać prawo do godności i niedyskryminacji oraz wartości, jakimi są równość i sprawiedliwość. Takie systemy AI oceniają lub klasyfikują osoby fizyczne lub grupy osób fizycznych na podstawie wielu punktów danych dotyczących ich zachowań społecznych w wielu kontekstach lub na podstawie znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości w określonych przedziałach czasowych. Scoring społeczny uzyskany w rezultacie działania takich systemów AI może prowadzić do krzywdzącego lub niekorzystnego traktowania osób fizycznych lub całych grup osób fizycznych w kontekstach społecznych, które nie są związane z kontekstem, w którym pierwotnie wygenerowano lub zgromadzono dane, lub do krzywdzącego traktowania, które jest nieproporcjonalne lub nieuzasadnione w stosunku do wagi ich zachowań społecznych. Należy zatem zakazać systemów AI, w których stosuje się takie niedopuszczalne praktyki scoringu, które przynoszą takie krzywdzące lub niekorzystne wyniki. Zakaz ten nie powinien mieć wpływu na zgodne z prawem praktyki oceny osób fizycznych, które są stosowane w konkretnym celu zgodnie z prawem Unii i prawem krajowym.
(32)
Käyttämällä tekoälyjärjestelmiä luonnollisten henkilöiden reaaliaikaiseen biometriseen etätunnistukseen julkisissa tiloissa lainvalvontatarkoituksessa puututaan erityisen pitkälle menevällä tavalla asianomaisten henkilöiden oikeuksiin ja vapauksiin, sillä tämä voi vaikuttaa suuren väestönosan yksityiselämään, synnyttää tunteen jatkuvasta valvonnasta ja estää välillisesti kokoontumisvapauden ja muiden perusoikeuksien käyttämisen. Luonnollisten henkilöiden biometriseen etätunnistukseen tarkoitettujen tekoälyjärjestelmien tekniset epätarkkuudet voivat johtaa vinoutuneisiin tuloksiin ja aiheuttaa syrjiviä vaikutuksia. Tällaiset mahdolliset vinoutuneet tulokset ja syrjivät vaikutukset ovat erityisen merkityksellisiä, kun ne liittyvät ikään, etniseen alkuperään, rotuun, sukupuoleen tai vammaisuuteen. Lisäksi tällaisten reaaliaikaisten järjestelmien käyttöön liittyvien vaikutusten välittömyys ja rajalliset mahdollisuudet lisätarkastuksiin tai korjauksiin lisäävät asianomaisten henkilöiden oikeuksiin ja vapauksiin kohdistuvia riskejä lainvalvontatoimien yhteydessä tai asianomaisten henkilöiden, joihin lainvalvontatoimet vaikuttavat, oikeuksiin ja vapauksiin kohdistuvia riskejä.
(32)
Wykorzystanie systemów AI do zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw szczególnie ingeruje w prawa i wolności zainteresowanych osób, do tego stopnia że może ono wpływać na życie prywatne dużej części społeczeństwa, wywoływać poczucie stałego nadzoru i pośrednio zniechęcać do korzystania z wolności zgromadzeń i innych praw podstawowych. Techniczne niedokładności systemów AI przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Takie ewentualne nieobiektywne wyniki i skutki w postaci dyskryminacji są szczególnie istotne w odniesieniu do wieku, pochodzenia etnicznego, rasy, płci lub niepełnosprawności. Ponadto bezpośredniość oddziaływania i ograniczone możliwości późniejszej kontroli lub korekty wykorzystania takich systemów działających w czasie rzeczywistym niosą ze sobą zwiększone ryzyko dla praw i wolności osób zainteresowanych w związku z działaniami organów ścigania lub na które działania te miały wpływ.
(33)
Näiden järjestelmien käyttö lainvalvontatarkoituksiin olisi sen vuoksi kiellettävä lukuun ottamatta tyhjentävästi lueteltuja ja kapeasti määriteltyjä tilanteita, joissa käyttö on ehdottoman välttämätöntä sellaisen tärkeän yleisen edun saavuttamiseksi, jonka merkitys on riskejä suurempi. Näihin tilanteisiin kuuluvat tiettyjen rikosten uhrien, myös kadonneiden henkilöiden, etsintä; tietyt luonnollisten henkilöiden henkeen tai fyysiseen turvallisuuteen kohdistuvan uhat tai terrori-iskun uhat; sekä tämän asetuksen liitteessä lueteltujen rikosten tekijöiden tai tällaisista rikoksista epäiltyjen paikantaminen tai tunnistaminen, jos näistä rikoksista voi asianomaisessa jäsenvaltiossa seurata vapaudenmenetyksen käsittävä rangaistus tai turvaamistoimenpide, jonka enimmäisaika on vähintään neljä vuotta, sellaisina kuin ne on määritelty kyseisen jäsenvaltion lainsäädännössä. Tällainen kansallisen lainsäädännön mukaisen vapaudenmenetyksen käsittävän rangaistuksen tai turvaamistoimenpiteen vähimmäisaika auttaa osaltaan varmistamaan, että rikoksen olisi oltava riittävän vakava, jotta sillä voidaan tarvittaessa perustella reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö. Lisäksi tämän asetuksen liitteessä vahvistettu rikosten luettelo perustuu neuvoston puitepäätöksessä 2002/584/YOS (18) lueteltuihin 32 rikokseen ottaen huomioon, että jotkin niistä ovat käytännössä todennäköisesti merkityksellisempiä kuin toiset, koska reaaliaikaiseen biometriseen etätunnistukseen turvautuminen olisi oletettavasti hyvin vaihtelevassa määrin välttämätöntä ja oikeasuhteista, kun eri lueteltujen rikosten tekijöitä tai niistä epäiltyjä pyritään käytännössä paikantamaan tai tunnistamaan ja kun otetaan huomioon todennäköiset erot vahingon tai mahdollisten kielteisten seurausten vakavuudessa, todennäköisyydessä ja laajuudessa. Välitön uhka, joka kohdistuu luonnollisen henkilön henkeen tai fyysiseen turvallisuuteen, voi olla seurausta myös Euroopan parlamentin ja neuvoston direktiivin (EU) 2022/2557 (19) 2 artiklan 4 alakohdassa määritellyn elintärkeän infrastruktuurin vakavasta häiriöstä, kun tällaisen elintärkeän infrastruktuurin vahingoittuminen tai tuhoutuminen johtaisi henkilön henkeen tai fyysiseen turvallisuuteen kohdistuvaan välittömään uhkaan, myös väestölle tarkoitettujen perustarvikkeiden toimitukselle tai valtion ydintehtävien hoitamiselle aiheutuvan vakavan haitan kautta. Lisäksi tässä asetuksessa olisi säilytettävä lainvalvonta-, rajavalvonta-, maahanmuutto- ja turvapaikkaviranomaisten kyky suorittaa henkilöllisyyden toteamistoimia kyseessä olevan henkilön läsnä ollessa unionin ja jäsenvaltioiden lainsäädännössä tällaisille tarkastuksille asetettujen edellytysten mukaisesti. Lainvalvonta-, rajavalvonta-, maahanmuutto- ja turvapaikkaviranomaisten olisi erityisesti voitava käyttää tietojärjestelmiä unionin tai jäsenvaltioiden lainsäädännön mukaisesti tunnistaakseen henkilön, joka henkilöllisyyden toteamisen yhteydessä joko kieltäytyy henkilöllisyyden toteamisesta tai ei pysty ilmoittamaan tai todistamaan henkilöllisyyttään, ilman että niiltä vaaditaan tässä asetuksessa ennakkoluvan saamista. Kyseessä voisi olla esimerkiksi rikokseen osallistunut henkilö, joka ei halua tai pysty onnettomuuden tai sairauden takia ilmoittamaan henkilöllisyyttään lainvalvontaviranomaisille.
(33)
Wykorzystanie tych systemów w celu ścigania przestępstw powinno zatem być zabronione, z wyjątkiem wyczerpującej listy wąsko zdefiniowanych sytuacji, w których wykorzystanie to jest bezwzględnie konieczne do realizacji istotnego interesu publicznego, którego waga przeważa nad ryzykiem. Sytuacje te obejmują poszukiwanie określonych ofiar przestępstw, w tym osób zaginionych; zapobieganie niektórym zagrożeniom życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu; oraz lokalizowanie lub identyfikowanie sprawców przestępstw lub podejrzanych o popełnienie przestępstw wymienionych w załączniku do niniejszego rozporządzenia, w przypadku gdy przestępstwa te podlegają w danym państwie członkowskim karze pozbawienia wolności lub środkowi polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej cztery lata, zgodnie z ich definicją w prawie tego państwa członkowskiego. Taki próg kary pozbawienia wolności lub środka polegającego na pozbawieniu wolności zgodnie z prawem krajowym pozwala zapewnić, aby przestępstwo było na tyle poważne, by potencjalnie uzasadniać wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym. Ponadto wykaz przestępstw przedstawiony w załączniku do niniejszego rozporządzenia opiera się na 32 przestępstwach wymienionych w decyzji ramowej Rady 2002/584/WSiSW (18), biorąc pod uwagę, że niektóre z tych przestępstw mogą w praktyce mieć większe znaczenie niż inne, ponieważ można przewidzieć, że korzystanie ze zdalnej identyfikacji biometrycznej w czasie rzeczywistym może być w bardzo różnym stopniu konieczne i proporcjonalne do praktycznych celów lokalizowania lub identyfikowania sprawcy poszczególnych wymienionych przestępstw lub podejrzanego o popełnienie tych przestępstw, przy uwzględnieniu prawdopodobnych różnic w odniesieniu do powagi, prawdopodobieństwa i skali szkody lub ewentualnych negatywnych konsekwencji. Bezpośrednie zagrożenie życia lub bezpieczeństwa fizycznego osób fizycznych może również wynikać z poważnego zakłócenia funkcjonowania infrastruktury krytycznej zdefiniowanej w art. 2 pkt 4 dyrektywy Parlamentu Europejskiego i Rady (UE) 2022/2557 (19), w przypadku gdy zakłócenie lub zniszczenie takiej infrastruktury krytycznej spowodowałoby bezpośrednie zagrożenie życia lub bezpieczeństwa fizycznego osoby, w tym poprzez poważną szkodę w dostarczaniu podstawowych dostaw dla ludności lub w wykonywaniu podstawowych funkcji państwa. Ponadto niniejsze rozporządzenie powinno utrzymać możliwość przeprowadzania przez organy ścigania, organy kontroli granicznej, organy imigracyjne lub organy azylowe kontroli tożsamości w obecności danej osoby zgodnie z warunkami określonymi w prawie Unii i prawie krajowym w odniesieniu do takich kontroli. W szczególności organy ścigania, organy kontroli granicznej, organy imigracyjne lub organy azylowe powinny mieć możliwość korzystania z systemów informacyjnych, zgodnie z prawem Unii lub prawem krajowym, w celu zidentyfikowania osób, które podczas kontroli tożsamości odmawiają identyfikacji lub nie są w stanie podać lub dowieść swojej tożsamości – bez konieczności uzyskiwania uprzedniego zezwolenia na podstawie niniejszego rozporządzenia. Może to na przykład dotyczyć osoby mającej związek z przestępstwem, która nie chce lub – w wyniku wypadku lub z powodu stanu zdrowia – nie jest w stanie ujawnić swojej tożsamości organom ścigania.
(34)
Sen varmistamiseksi, että näitä järjestelmiä käytetään vastuullisella ja oikeasuhteisella tavalla, on myös tärkeää vahvistaa, että kussakin näistä tyhjentävästi luetellusta ja suppeasti määritellystä tilanteesta olisi otettava huomioon tietyt tekijät, erityisesti pyynnön perusteena olevan tilanteen luonne ja käytön seuraukset kaikkien asianomaisten henkilöiden oikeuksille ja vapauksille sekä käyttöä koskevat suojatoimet ja ehdot. Lisäksi reaaliaikaisia biometrisiä etätunnistusjärjestelmiä olisi käytettävä julkisissa tiloissa lainvalvontatarkoituksessa ainoastaan vahvistamaan kohteena olevan yksilön henkilöllisyys ja tämä käyttö olisi rajoitettava siihen, mikä on ehdottoman välttämätöntä, kun otetaan huomioon tällaisen järjestelmän käytön kesto sekä maantieteellinen ja henkilötason laajuus ja erityisesti uhkia, uhreja tai rikoksentekijää koskevat todisteet tai tiedossa olevat seikat. Reaaliaikaisen biometrisen etätunnistusjärjestelmän käyttö julkisissa tiloissa olisi sallittava vain, jos lainvalvontaviranomainen on saattanut päätökseen perusoikeuksia koskevan vaikutustenarvioinnin ja, jollei tässä asetuksessa toisin säädetä, rekisteröinyt järjestelmän tietokantaan tämän asetuksen mukaisesti. Henkilöitä koskevan viitetietokannan olisi oltava kuhunkin käyttötapaukseen sopiva kussakin edellä mainitussa tapauksessa.
(34)
W celu zapewnienia, aby systemy te były wykorzystywane w sposób odpowiedzialny i proporcjonalny, należy również zastrzec, że w każdej z tych wąsko zdefiniowanych sytuacji z wyczerpującej listy należy uwzględniać pewne elementy, w szczególności charakter sytuacji, która skutkowała złożeniem wniosku, wpływ wykorzystania takich systemów na prawa i wolności wszystkich zainteresowanych osób, a także zabezpieczenia i warunki przewidziane na potrzeby wykorzystania takich systemów. Ponadto wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw powinno mieć miejsce jedynie, by potwierdzić tożsamość konkretnej poszukiwanej osoby, i nie powinno wykraczać poza to, co jest bezwzględnie konieczne w odniesieniu do przedziału czasowego, a także zakresu geograficznego i podmiotowego, z uwzględnieniem w szczególności dowodów lub wskazówek dotyczących zagrożeń, ofiar lub sprawcy. Wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej powinno być dozwolone tylko wtedy, gdy odpowiedni organ ścigania przeprowadził ocenę skutków dla praw podstawowych oraz, o ile niniejsze rozporządzenie nie stanowi inaczej, zarejestrował system w bazie danych, jak określono w niniejszym rozporządzeniu. Referencyjna baza danych osób powinna być odpowiednia dla każdego przypadku wykorzystania w każdej z wyżej wymienionych sytuacji.
(35)
Jokaisen reaaliaikaisen biometrisen etätunnistusjärjestelmän käytön julkisissa tiloissa lainvalvontatarkoituksessa olisi edellytettävä nimenomaista ja erityistä lupaa jäsenvaltion oikeusviranomaiselta tai riippumattomalta hallintoviranomaiselta, jonka päätös on sitova. Tällainen lupa olisi periaatteessa saatava ennen kuin tekoälyjärjestelmää käytetään henkilön tai henkilöiden tunnistamiseksi. Poikkeuksia tähän sääntöön olisi sallittava asianmukaisesti perustelluissa kiireellisissä tapauksissa eli tilanteissa, joissa kyseisten järjestelmien käyttötarve on sellainen, että luvan saaminen ennen tekoälyjärjestelmän käytön aloittamista on tosiasiallisesti ja objektiivisesti mahdotonta. Tällaisissa kiireellisissä tilanteissa tekoälyjärjestelmän käyttö olisi rajoitettava siihen, mikä on ehdottoman välttämätöntä, ja siihen olisi sovellettava asianmukaisia suojatoimia ja ehtoja, jotka määritellään kansallisessa lainsäädännössä ja jotka lainvalvontaviranomainen itse määrittää kunkin yksittäisen kiireellisen käyttötapauksen yhteydessä. Lisäksi lainvalvontaviranomaisen olisi näissä tilanteissa pyydettävä tällaista lupaa ja esitettävä samalla ilman aiheetonta viivytystä ja viimeistään 24 tunnin kuluessa syyt siihen, miksi se ei ole voinut pyytää lupaa aikaisemmin. Jos lupa evätään, siihen liittyvien reaaliaikaisten biometristen tunnistusjärjestelmien käyttö olisi lopetettava välittömästi ja kaikki tällaiseen käyttöön liittyvät tiedot olisi poistettava. Tällaisia tietoja ovat esimerkiksi syöttötiedot, jotka tekoälyjärjestelmä on sen käytön aikana hankkinut suoraan, sekä kyseiseen lupaan liittyvän käytön tulokset ja tuotokset. Siihen ei pitäisi sisällyttää tietoja, jotka on hankittu laillisesti jonkin muun unionin tai kansallisen lainsäädännön mukaisesti. Missään tapauksessa päätöstä, jolla on henkilöön kohdistuvia kielteisiä oikeusvaikutuksia, ei saisi tehdä pelkästään biometrisen etätunnistusjärjestelmän tuotosten perusteella.
(35)
Każde wykorzystanie systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw powinno wymagać wyraźnego i szczególnego zezwolenia wydanego przez organ wymiaru sprawiedliwości lub niezależny organ administracyjny państwa członkowskiego, którego decyzje są wiążące. Takie zezwolenie należy co do zasady uzyskać przed wykorzystaniem systemu AI w celu zidentyfikowania osoby lub osób. Wyjątki od tej zasady powinny być dozwolone w należycie uzasadnionych sytuacjach nadzwyczajnych, to znaczy w sytuacjach, w których potrzeba wykorzystania danego systemu jest na tyle duża, że uzyskanie zezwolenia przed rozpoczęciem korzystania z tego systemu AI jest faktycznie i obiektywnie niemożliwe. W takich sytuacjach nadzwyczajnych wykorzystanie systemu AI powinno być ograniczone do bezwzględnie niezbędnego minimum i powinno podlegać odpowiednim zabezpieczeniom i warunkom określonym w prawie krajowym i sprecyzowanym przez sam organ ścigania w kontekście każdego przypadku nadzwyczajnego wykorzystania. Ponadto organ ścigania powinien w takich sytuacjach wystąpić o takie zezwolenie, podając powody, dla których nie był w stanie wystąpić o nie wcześniej, bez zbędnej zwłoki i nie później niż w ciągu 24 godzin. W przypadku odmowy udzielenia takiego zezwolenia wykorzystywanie systemów identyfikacji biometrycznej w czasie rzeczywistym powiązanych z tym zezwoleniem powinno zostać wstrzymane ze skutkiem natychmiastowym, a wszystkie dane związane z takim wykorzystaniem powinny zostać odrzucone i usunięte. Dane takie obejmują dane wejściowe uzyskane bezpośrednio przez system AI w trakcie korzystania z takiego systemu, a także związane z tym zezwoleniem rezultaty i wyniki uzyskane podczas tego wykorzystania. Powyższe nie powinno mieć zastosowania do danych wejściowych uzyskanych legalnie zgodnie z innymi przepisami prawa Unii lub prawa krajowego. W każdym przypadku żadnej decyzji wywołującej niepożądane skutki prawne dla osoby nie należy podejmować wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej.
(36)
Jotta asianomainen markkinavalvontaviranomainen ja kansallinen tietosuojaviranomainen voisivat hoitaa tehtävänsä tässä asetuksessa ja kansallisissa säännöissä vahvistettujen vaatimusten mukaisesti, niille olisi ilmoitettava aina, kun reaaliaikaista biometristä tunnistusjärjestelmää käytetään. Ilmoituksia saaneiden markkinavalvontaviranomaisten ja kansallisten tietosuojaviranomaisten olisi toimitettava komissiolle vuosittain kertomus reaaliaikaisten biometristen tunnistusjärjestelmien käytöstä.
(36)
Aby umożliwić odpowiednim organom nadzoru rynku i krajowym organom ochrony danych wykonywanie ich zadań zgodnie z wymogami ustanowionymi w niniejszym rozporządzeniu oraz w przepisach krajowych, należy powiadamiać je o każdym wykorzystaniu systemu identyfikacji biometrycznej w czasie rzeczywistym. Organy nadzoru rynku i krajowe organy ochrony danych, które otrzymały powiadomienie, powinny przedkładać Komisji roczne sprawozdanie na temat wykorzystania systemów identyfikacji biometrycznej w czasie rzeczywistym.
(37)
Osana tässä asetuksessa vahvistettuja kattavia puitteita on myös aiheellista säätää, että tällaisen tämän asetuksen mukaisen käytön olisi oltava mahdollista jäsenvaltion alueella vain jos ja siltä osin kuin kyseinen jäsenvaltio on kansallisen lainsäädäntönsä yksityiskohtaisissa säännöissä nimenomaisesti päättänyt säätää mahdollisuudesta sallia tällainen käyttö. Näin ollen jäsenvaltiot voivat tämän asetuksen nojalla olla säätämättä tällaisesta mahdollisuudesta lainkaan tai säätää tällaisesta mahdollisuudesta vain joidenkin tässä asetuksessa yksilöityjen tavoitteiden osalta, joilla sallittu käyttö voidaan perustella. Tällaisista kansallisista säännöistä olisi ilmoitettava komissiolle 30 päivän kuluessa niiden hyväksymisestä.
(37)
Ponadto należy zapewnić, z zastosowaniem wyczerpujących ram określonych w niniejszym rozporządzeniu, aby takie wykorzystanie na terytorium państwa członkowskiego zgodnie z niniejszym rozporządzeniem było możliwe tylko wówczas, gdy – i w zakresie, w jakim – dane państwo członkowskie postanowiło wyraźnie przewidzieć możliwość zezwolenia na takie wykorzystanie w swoich szczegółowych przepisach prawa krajowego. W związku z tym państwa członkowskie mogą na mocy niniejszego rozporządzenia w ogóle nie przewidywać takiej możliwości lub przewidzieć ją jedynie w odniesieniu do niektórych celów mogących uzasadniać dozwolone wykorzystanie, określonych w niniejszym rozporządzeniu. Komisja powinna zostać powiadomiona o takich przepisach krajowych w terminie 30 dni od ich przyjęcia.
(38)
Tekoälyjärjestelmien käyttö luonnollisten henkilöiden reaaliaikaiseen biometriseen etätunnistukseen julkisissa tiloissa lainvalvontatarkoituksessa edellyttää välttämättä biometristen tietojen käsittelyä. Tämän asetuksen sääntöjä, joissa kielletään tietyin poikkeuksin tällainen käyttö ja jotka perustuvat Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklaan, olisi sovellettava erityissäännöksinä (lex specialis) suhteessa direktiivin (EU) 2016/680 10 artiklaan sisältyviin biometristen tietojen käsittelyä koskeviin sääntöihin, eli niillä säännellään kattavasti tällaista käyttöä ja siihen liittyvien biometristen tietojen käsittelyä. Sen vuoksi tällaisen käytön ja käsittelyn olisi oltava mahdollista ainoastaan siinä määrin kuin se on yhteensopivaa tässä asetuksessa vahvistetun kehyksen kanssa, eikä toimivaltaisten viranomaisten pitäisi kyseisen kehyksen ulkopuolella lainvalvontatarkoituksessa toimiessaan voida käyttää tällaisia järjestelmiä ja käsitellä niiden yhteydessä tällaisia tietoja direktiivin (EU) 2016/680 10 artiklassa luetelluin perustein. Tässä yhteydessä tämän asetuksen tarkoituksena ei ole muodostaa oikeusperustaa direktiivin (EU) 2016/680 8 artiklan mukaiselle henkilötietojen käsittelylle. Reaaliaikaisten biometristen etätunnistusjärjestelmien käyttöä julkisissa tiloissa muihin tarkoituksiin kuin lainvalvontaan, myös toimivaltaisten viranomaisten toimesta, ei kuitenkaan pitäisi sisällyttää tässä asetuksessa vahvistettuun erityiskehykseen, joka koskee tällaista käyttöä lainvalvontatarkoituksessa. Tällaisen muussa kuin lainvalvontatarkoituksessa tapahtuvan käytön ei sen vuoksi pitäisi edellyttää tämän asetuksen mukaista lupaa eikä sen täytäntöönpanemiseksi annettujen kansallisen lainsäädännön yksityiskohtaisten sääntöjen soveltamista.
(38)
Wykorzystanie systemów AI do zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw nieuchronnie wiąże się z przetwarzaniem danych biometrycznych. Przepisy niniejszego rozporządzenia zakazujące, z zastrzeżeniem pewnych wyjątków, takiego wykorzystywania, a których podstawę stanowi art. 16 TFUE, powinny mieć zastosowanie jako lex specialis w odniesieniu do przepisów dotyczących przetwarzania danych biometrycznych zawartych w art. 10 dyrektywy (UE) 2016/680, regulując tym samym w sposób wyczerpujący takie wykorzystywanie i przetwarzanie wspomnianych danych biometrycznych. W związku z tym takie wykorzystywanie i przetwarzanie powinno być możliwe wyłącznie w zakresie, w jakim jest zgodne z ramami określonymi w niniejszym rozporządzeniu, przy czym wykorzystywanie takich systemów i przetwarzanie takich danych przez właściwe organy – gdy działają w celu ścigania przestępstw – w oparciu o przesłanki wymienione w art. 10 dyrektywy (UE) 2016/680 może mieć miejsce wyłącznie w granicach wyznaczonych przez te ramy. W tym kontekście niniejsze rozporządzenie nie ma na celu ustanowienia podstawy prawnej do przetwarzania danych osobowych na podstawie art. 8 dyrektywy (UE) 2016/680. Wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów innych niż ściganie przestępstw, w tym przez właściwe organy, nie powinno być jednak objęte szczególnymi ramami dotyczącymi takiego wykorzystywania w celu ścigania przestępstw, określonymi w niniejszym rozporządzeniu. Takie wykorzystywanie do celów innych niż ściganie przestępstw nie powinno zatem podlegać wymogowi uzyskania zezwolenia na mocy niniejszego rozporządzenia ani obowiązującym szczegółowym przepisom prawa krajowego, które mogą stanowić podstawę ubiegania się o takie zezwolenie.
(39)
Kaikessa biometristen tietojen ja muiden henkilötietojen käsittelyssä, joka liittyy tekoälyjärjestelmien käyttöön biometriseen tunnistamiseen muussa yhteydessä kuin tässä asetuksessa säännellyssä reaaliaikaisten biometristen etätunnistusjärjestelmien käytössä julkisissa tiloissa lainvalvontatarkoituksessa olisi edelleen noudatettava kaikkia direktiivin (EU) 2016/680 10 artiklasta johtuvia vaatimuksia. Muita tarkoituksia kuin lainvalvontaa varten asetuksen (EU) 2016/679 9 artiklan 1 kohdassa ja asetuksen (EU) 2018/1725 10 artiklan 1 kohdassa kielletään biometristen tietojen käsittely joitakin kyseisissä artikloissa säädettyjä rajoitettuja poikkeuksia lukuun ottamatta. Asetuksen (EU) 2016/679 9 artiklan 1 kohtaa sovellettaessa kansalliset tietosuojaviranomaiset ovat jo kieltäneet biometrisen etätunnistuksen käytön muihin tarkoituksiin kuin lainvalvontatarkoituksiin.
(39)
Wszelkie przetwarzanie danych biometrycznych i innych danych osobowych związane z wykorzystaniem systemów AI do identyfikacji biometrycznej, inne niż w związku z wykorzystywaniem systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw zgodnie z przepisami niniejszego rozporządzenia, powinno pozostawać zgodne z wymogami wynikającymi z art. 10 dyrektywy (UE) 2016/680. Do celów innych niż ściganie przestępstw art. 9 ust. 1 rozporządzenia (UE) 2016/679 i art. 10 ust. 1 rozporządzenia (UE) 2018/1725 zakazują przetwarzania danych biometrycznych z uwzględnieniem ograniczonej liczby wyjątków określonych w tych artykułach. W ramach stosowania art. 9 ust. 1 rozporządzenia (UE) 2016/679 wykorzystywanie zdalnej identyfikacji biometrycznej do celów innych niż ściganie przestępstw było już przedmiotem decyzji zakazujących takiego wykorzystywania, wydawanych przez krajowe organy ochrony danych.
(40)
Euroopan unionista tehtyyn sopimukseen ja Euroopan unionin toiminnasta tehtyyn sopimukseen liitetyn, Yhdistyneen kuningaskunnan ja Irlannin asemasta vapauden, turvallisuuden ja oikeuden alueen osalta tehdyssä pöytäkirjassa N:o 21 olevan 6 a artiklan mukaisesti Irlantia eivät sido tämän asetuksen 5 artiklan 1 kohdan ensimmäisen alakohdan g alakohdassa vahvistetut säännöt, siltä osin kuin ne koskevat biometristen luokittelujärjestelmien käytöstä poliisiyhteistyössä ja rikosasioissa tehtävässä oikeudellisessa yhteistyössä, 5 artiklan 1 kohdan ensimmäisen alakohdan d alakohdassa vahvistetut säännöt, siltä osin kuin ne koskevat tekoälyjärjestelmien käyttöä, johon kyseisiä säännöksiä sovelletaan sekä 5 artiklan 1 kohdan ensimmäisen alakohdan h alakohdassa, 5 artiklan 2–6 kohdassa ja 26 artiklan 10 kohdassa vahvistetut säännöt, jotka on hyväksytty Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklan perusteella ja jotka koskevat jäsenvaltioiden suorittamaa henkilötietojen käsittelyä näiden toteuttaessa Euroopan unionin toiminnasta tehdyn sopimuksen kolmannen osan V osaston 4 tai 5 luvun soveltamisalaan kuuluvaa toimintaa, siinä tapauksessa, että Irlantia eivät sido rikosasioissa tehtävän oikeudellisen yhteistyön tai poliisiyhteistyön muotoa koskevat säännöt, jotka edellyttävät Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklan perusteella vahvistettujen säännösten noudattamista.
(40)
Zgodnie z art. 6a Protokołu nr 21 w sprawie stanowiska Zjednoczonego Królestwa i Irlandii w odniesieniu do przestrzeni wolności, bezpieczeństwa i sprawiedliwości, załączonego do TUE i TFUE, Irlandia nie jest związana przepisami ustanowionymi w art. 5 ust. 1 akapit pierwszy lit. g) – w takim zakresie, w jakim dotyczy on wykorzystania systemów kategoryzacji biometrycznej w odniesieniu do działań w obszarze współpracy policyjnej i współpracy wymiarów sprawiedliwości w sprawach karnych, w art. 5 ust. 1 akapit pierwszy lit. d) – w takim zakresie, w jakim dotyczy on wykorzystania systemów AI objętych tym przepisem, w art. 5 ust. 1 akapit pierwszy lit. h), art. 5 ust. 2–6 i art. 26 ust. 10 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, dotyczącymi przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres stosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, jeśli Irlandia nie jest związana przepisami Unii w dziedzinie współpracy wymiarów sprawiedliwości w sprawach karnych lub współpracy policyjnej, w ramach której należy zapewnić zgodność z przepisami ustanowionymi na podstawie art. 16 TFUE.
(41)
Euroopan unionista tehtyyn sopimukseen ja Euroopan unionin toiminnasta tehtyyn sopimukseen liitetyn, Tanskan asemasta tehdyssä pöytäkirjassa N:o 22 olevien 2 ja 2 a artiklan mukaisesti tämän asetuksen 5 artiklan 1 kohdan ensimmäisen alakohdan g alakohdassa vahvistetut säännöt, siltä osin kuin ne koskevat biometristen luokittelujärjestelmien käytöstä poliisiyhteistyössä ja rikosasioissa tehtävässä oikeudellisessa yhteistyössä, 5 artiklan 1 kohdan ensimmäisen alakohdan d alakohdassa vahvistetut säännöt, siltä osin kuin ne koskevat tekoälyjärjestelmien käyttöä, johon kyseisiä säännöksiä sovelletaan sekä 5 artiklan 1 kohdan ensimmäisen alakohdan h alakohdassa, 5 artiklan 2–6 kohdassa ja 26 artiklan 10 kohdassa vahvistetut säännöt, jotka on hyväksytty Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklan perusteella ja jotka koskevat jäsenvaltioiden suorittamaa henkilötietojen käsittelyä näiden toteuttaessa Euroopan unionin toiminnasta tehdyn sopimuksen kolmannen osan V osaston 4 tai 5 luvun soveltamisalaan kuuluvaa toimintaa, eivät sido Tanskaa eikä niitä sovelleta Tanskaan.
(41)
Zgodnie z art. 2 i 2a Protokołu nr 22 w sprawie stanowiska Danii, załączonego do TUE i TFUE, Dania nie jest związana przepisami określonymi w art. 5 ust. 1 akapit pierwszy lit. g) – w takim zakresie, w jakim dotyczy on wykorzystania systemów kategoryzacji biometrycznej w odniesieniu do działań w obszarze współpracy policyjnej i współpracy wymiarów sprawiedliwości w sprawach karnych, w art. 5 ust. 1 akapit pierwszy lit. d) – w takim zakresie, w jakim dotyczy on wykorzystania systemów AI objętych tym przepisem, w art. 5 ust. 1 lit. h), art. 5 ust. 2–6 i art. 26 ust. 10 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, które dotyczą przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres zastosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, ani przepisy te nie mają do niej zastosowania.
(42)
Syyttömyysolettaman mukaisesti unionissa olevia luonnollisia henkilöitä olisi aina arvioitava heidän tosiasiallisen käyttäytymisensä perusteella. Luonnollisia henkilöitä ei pitäisi koskaan arvioida tekoälyn ennustaman käyttäytymisen perusteella, kun tämän ennusteen pohjana on pelkästään kyseisten henkilöiden profilointi, persoonallisuuspiirteet tai persoonallisuusominaisuudet, kuten kansallisuus, syntymäpaikka, asuinpaikka, lasten lukumäärä, velkataso tai autotyyppi, ilman, että on perusteltua syytä epäillä kyseisen henkilön osallistuvan rikolliseen toimintaan objektiivisten todennettavissa olevien tosiseikkojen perusteella, ja ilman ihmisen tekemää arviointia niistä. Sen vuoksi olisi kiellettävä luonnollisia henkilöitä koskevat riskinarvioinnit, joiden tarkoituksena on arvioida, miten todennäköisesti he tekevät rikoksia, tai ennakoida todellisen tai mahdollisen rikoksen tapahtumista yksinomaan kyseisten henkilöiden profiloinnin tai persoonallisuuspiirteiden ja persoonallisuusominaisuuksien arvioinnin perusteella. Kielto ei missään tapauksessa koske riskianalytiikkaa, joka ei perustu yksilöiden profilointiin tai yksilöiden persoonallisuuspiirteisiin ja persoonallisuusominaisuuksiin, kuten tekoälyjärjestelmiä, joissa käytetään riskianalytiikkaa yritysten talouspetosten todennäköisyyden arvioimiseksi epäilyttävien liiketoimien perusteella, tai riskianalytiikkavälineitä, joilla tulliviranomaiset voivat ennustaa, kuinka todennäköisesti tietyissä paikoissa esiintyy huumausaineita tai laittomia tavaroita, esimerkiksi tunnettujen salakuljetusreittien perusteella.
(42)
Zgodnie z domniemaniem niewinności osoby fizyczne w Unii powinny być zawsze oceniane na podstawie ich faktycznego zachowania. Osoby fizyczne nigdy nie powinny być oceniane na podstawie zachowań prognozowanych przez AI wyłącznie na podstawie poddania ich profilowaniu, na podstawie ich cech osobowości lub cech charakterystycznych, takich jak narodowość, miejsce urodzenia, miejsce zamieszkania, liczba dzieci, poziom zadłużenia lub rodzaj samochodu, bez uzasadnionego podejrzenia, że osoba ta uczestniczy w działalności przestępczej w oparciu o obiektywne możliwe do zweryfikowania fakty i bez ich oceny przez człowieka. W związku z tym należy zakazać ocen ryzyka przeprowadzanych w odniesieniu do osób fizycznych w celu oceny prawdopodobieństwa popełnienia przez te osoby przestępstwa lub przewidywania wystąpienia faktycznego lub potencjalnego przestępstwa wyłącznie na podstawie przeprowadzonego wobec nich profilowania lub oceny ich cech osobistych i charakterystycznych. W każdym razie zakaz ten nie odnosi się do ani nie dotyczy analizy ryzyka, która nie opiera się na profilowaniu osób fizycznych ani na cechach osobistych i charakterystycznych osób fizycznych, w takich przypadkach jak wykorzystywanie przez systemy AI analizy ryzyka w celu oceny prawdopodobieństwa nadużyć finansowych przez przedsiębiorstwa na podstawie podejrzanych transakcji lub narzędzi analizy ryzyka w celu przewidywania przez organy celne prawdopodobnej lokalizacji środków odurzających lub nielegalnych towarów, na przykład na podstawie znanych szlaków przemytu.
(43)
Sellaisten tekoälyjärjestelmien markkinoille saattaminen, kyseiseen erityiseen tarkoitukseen käyttöönotto tai käyttö, jotka luovat kasvojentunnistustietokantoja tai laajentavat niitä haravoimalla kasvokuvia kohdentamattomasti internetistä tai valvontakamerakuvista, olisi kiellettävä, koska tämä käytäntö lisää tunnetta joukkovalvonnasta ja voi johtaa perusoikeuksien, myös yksityisyyden suojaa koskevan oikeuden, räikeisiin loukkauksiin.
(43)
Należy zakazać wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej, ponieważ praktyka ta zwiększa poczucie masowego nadzoru i może prowadzić do poważnych naruszeń praw podstawowych, w tym prawa do prywatności.
(44)
Sellaisten tekoälyjärjestelmien tieteellinen perusta, joilla pyritään havaitsemaan tai päättelemään tunteita, herättää vakavia huolenaiheita erityisesti siksi, että tunteita ilmaistaan huomattavan erilaisin tavoin eri kulttuureissa ja eri tilanteissa; huomattavaa vaihtelua voi esiintyä jopa saman yksilön tunteiden ilmaisussa. Tällaisten järjestelmien keskeisiä puutteita ovat heikko luotettavuus, tarkkuuden puute ja heikko yleistettävyys. Sen vuoksi tekoälyjärjestelmät, jotka havaitsevat tai päättelevät luonnollisten henkilöiden tunteita tai aikomuksia heidän biometristen tietojensa perusteella, voivat tuottaa syrjiviä tuloksia ja loukata asianomaisten henkilöiden oikeuksia ja vapauksia. Kun otetaan huomioon vallan epätasapaino työelämässä tai koulutuksen alalla sekä näiden järjestelmien yksityisyyttä loukkaava luonne, tällaiset järjestelmät voivat johtaa tiettyjen luonnollisten henkilöiden tai kokonaisten henkilöryhmien haitalliseen tai epäedulliseen kohteluun. Sen vuoksi sellaisten tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tai käyttö, jotka on tarkoitettu yksilöiden emotionaalisen tilan havaitsemiseen työpaikalla ja oppilaitoksissa, olisi kiellettävä. Kielto ei saisi koskea tekoälyjärjestelmiä, jotka saatetaan markkinoille yksinomaan lääketieteellisistä tai turvallisuussyistä, kuten hoitotarkoituksiin käytettäviä järjestelmiä.
(44)
Istnieją poważne obawy co do podstaw naukowych systemów AI mających na celu rozpoznawanie emocji lub wyciąganie wniosków na temat emocji, zwłaszcza że wyrażanie emocji znacznie się różni w zależności od kultur i sytuacji, a nawet w przypadku pojedynczej osoby. Wśród głównych wad takich systemów znajdują się ograniczona wiarygodność, nieprecyzyjność i ograniczona możliwość uogólnienia. W związku z tym systemy AI rozpoznające emocje lub zamiary osób fizycznych lub wyciągające wnioski na temat emocji lub zamiarów na podstawie danych biometrycznych tych osób mogą prowadzić do dyskryminacyjnych wyników i mogą naruszać prawa i wolności zainteresowanych osób. Biorąc pod uwagę brak równowagi sił w kontekście pracy lub edukacji, w połączeniu z inwazyjnym charakterem tych systemów, systemy takie mogą prowadzić do krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup. W związku z tym należy zakazać wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI przeznaczonych do wykrywania stanu emocjonalnego osób fizycznych w sytuacjach związanych z miejscem pracy i edukacją. Zakaz ten nie powinien obejmować systemów AI wprowadzanych do obrotu wyłącznie ze względów medycznych lub bezpieczeństwa, takich jak systemy przeznaczone do użytku terapeutycznego.
(45)
Tämä asetus ei saisi vaikuttaa käytäntöihin, jotka on kielletty unionin oikeudessa, kuten tietosuojaa, syrjimättömyyttä, kuluttajansuojaa ja kilpailua koskevassa lainsäädännössä.
(45)
Niniejsze rozporządzenie nie powinno mieć wpływu na praktyki, które są zakazane na mocy prawa Unii, w tym prawa o ochronie danych, prawa o niedyskryminacji, prawa o ochronie konsumentów i prawa konkurencji.
(46)
Suuririskisiä tekoälyjärjestelmiä olisi saatettava unionin markkinoille, otettava käyttöön tai käytettävä vain, jos ne täyttävät tietyt pakolliset vaatimukset. Näillä vaatimuksilla olisi varmistettava, että suuririskiset tekoälyjärjestelmät, jotka ovat saatavilla unionissa tai joiden tuloksia muutoin käytetään unionissa, eivät aiheuta kohtuuttomia riskejä unionin tärkeille julkisille eduille, sellaisina kuin ne on tunnustettu ja suojattu unionin oikeudessa. Uuden lainsäädäntökehyksen perusteella, kuten komission tiedonannossa ”Sininen opas – EU:n tuotesääntöjen täytäntöönpano-opas 2022” (20) selvennetään, yleissääntönä on, että useampaa kuin yhtä unionin yhdenmukaistamislainsäädännön säädöstä, kuten Euroopan parlamentin ja neuvoston asetuksia (EU) 2017/745 (21) ja (EU) 2017/746 (22) tai Euroopan parlamentin ja neuvoston direktiiviä 2006/42/EY (23), voidaan soveltaa yhteen tuotteeseen, koska saataville asettaminen tai käyttöönotto voidaan sallia vain, jos tuote on kaiken sovellettavan unionin yhdenmukaistamislainsäädännön mukainen. Johdonmukaisuuden varmistamiseksi sekä tarpeettomien hallinnollisten rasitteiden ja kustannusten välttämiseksi sellaisen tuotteen, joka sisältää yhden tai useamman suuririskisen tekoälyjärjestelmän, johon sovelletaan tämän asetuksen ja tämän asetuksen liitteessä luetellun unionin yhdenmukaistamislainsäädännön vaatimuksia, tarjoajien olisi oltava joustavia niiden operatiivisten päätösten osalta, joilla varmistetaan parhaalla mahdollisella tavalla yhden tai useamman tekoälyjärjestelmän sisältävän tuotteen vaatimustenmukaisuus kaikkien unionin yhdenmukaistamislainsäädännön säännösten kanssa. Suuririskisiksi määritellyt tekoälyjärjestelmät olisi rajattava järjestelmiin, joilla on merkittävä haitallinen vaikutus ihmisten terveyteen, turvallisuuteen ja perusoikeuksiin unionissa, ja tällaisella rajauksella olisi minimoitava mahdolliset kansainvälisen kaupan rajoitukset.
(46)
Systemy AI wysokiego ryzyka powinny być wprowadzane do obrotu w Unii, oddawane do użytku lub wykorzystywane wyłącznie wówczas, gdy są zgodne z określonymi obowiązkowymi wymogami. Wymogi te powinny zapewniać, aby systemy AI wysokiego ryzyka dostępne w Unii lub takie, których wyniki są w inny sposób wykorzystywane w Unii, nie stwarzały niedopuszczalnego ryzyka dla istotnych interesów publicznych Unii uznanych w prawie Unii i przez to prawo chronionych. W oparciu o nowe ramy prawne, jak wyjaśniono w zawiadomieniu Komisji „Niebieski przewodnik – wdrażanie unijnych przepisów dotyczących produktów 2022” (20), ogólna zasada stanowi, że do jednego produktu można stosować więcej niż jeden akt prawny unijnego prawodawstwa harmonizacyjnego, taki jak rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 (21), rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/746 (22) lub dyrektywa 2006/42/WE Parlamentu Europejskiego i Rady (23), ponieważ udostępnianie lub oddawanie do użytku może mieć miejsce tylko wtedy, gdy produkt jest zgodny z całością obowiązującego unijnego prawodawstwa harmonizacyjnego. Aby zapewnić spójność i uniknąć niepotrzebnych obciążeń administracyjnych lub kosztów, dostawcy produktu, który zawiera co najmniej jeden system AI wysokiego ryzyka, do którego stosuje się wymogi niniejszego rozporządzenia oraz unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku do niniejszego rozporządzenia, powinni mieć swobodę w zakresie decyzji operacyjnych dotyczących sposobu zapewnienia w optymalny sposób zgodności produktu zawierającego co najmniej jeden system AI ze wszystkimi mającymi zastosowanie wymogami unijnego prawodawstwa harmonizacyjnego. Jako systemy AI wysokiego ryzyka należy uznawać jedynie te systemy AI, które mają znaczący szkodliwy wpływ na zdrowie, bezpieczeństwo i prawa podstawowe osób w Unii, przy czym takie ograniczenie powinno minimalizować wszelkie potencjalne przeszkody w handlu międzynarodowym.
(47)
Tekoälyjärjestelmät voivat vaikuttaa haitallisesti ihmisten terveyteen ja turvallisuuteen erityisesti silloin, kun tällaiset järjestelmät toimivat tuotteiden turvakomponentteina. Unionin yhdenmukaistamislainsäädännön tavoitteena on helpottaa tuotteiden vapaata liikkuvuutta sisämarkkinoilla ja varmistaa, että markkinoille pääsee ainoastaan turvallisia ja muuten vaatimustenmukaisia tuotteita, ja näiden tavoitteiden mukaisesti on tärkeää, että turvallisuusriskejä, joita tuotteesta kokonaisuudessaan voi aiheutua sen digitaalisten komponenttien, kuten tekoälyjärjestelmien, vuoksi, ehkäistään ja vähennetään asianmukaisesti. Esimerkiksi yhä autonomisempien robottien olisi voitava toimia ja suorittaa tehtävänsä turvallisesti monimutkaisissa ympäristöissä, olipa kyse sitten valmistuksesta tai henkilökohtaisesta avusta ja huolenpidosta. Samoin terveydenhuoltoalalla, jossa panokset ovat elämän ja terveyden kannalta erityisen suuret, yhä kehittyneempien diagnostiikkajärjestelmien ja ihmisten päätöksiä tukevien järjestelmien olisi oltava luotettavia ja tarkkoja.
(47)
Systemy AI mogą mieć niepożądany wpływ na zdrowie i bezpieczeństwo osób, w szczególności w przypadku gdy takie systemy funkcjonują jako związane z bezpieczeństwem elementy produktów. Zgodnie z celami unijnego prawodawstwa harmonizacyjnego, polegającymi na ułatwieniu swobodnego przepływu produktów na rynku wewnętrznym oraz zapewnieniu, aby na rynek trafiały wyłącznie produkty bezpieczne i zgodne w pozostałym zakresie, istotne jest odpowiednie zapobieganie ryzyku dla bezpieczeństwa, które mogą być powodowane przez produkt jako całość ze względu na jego elementy cyfrowe, w tym systemy AI, a także ograniczanie tych zagrożeń. Na przykład coraz bardziej autonomiczne roboty, zarówno w kontekście działalności produkcyjnej, jak i świadczenia pomocy oraz opieki osobistej, powinny być w stanie bezpiecznie funkcjonować i wykonywać swoje funkcje w złożonych środowiskach. Podobnie w sektorze opieki zdrowotnej, w którym chodzi o szczególnie wysoką stawkę, jaką jest życie i zdrowie, coraz bardziej zaawansowane systemy diagnostyczne i systemy wspomagające decyzje podejmowane przez człowieka powinny być niezawodne i dokładne.
(48)
Tekoälyjärjestelmästä perusoikeuskirjassa suojatuille perusoikeuksille aiheutuvan haitallisen vaikutuksen laajuus on erityisen merkityksellinen, kun tekoälyjärjestelmä luokitellaan suuririskiseksi. Näitä oikeuksia ovat muun muassa oikeus ihmisarvoon, yksityis- ja perhe-elämän kunnioittaminen, henkilötietojen suoja, sananvapaus ja tiedonvälityksen vapaus, kokoontumis- ja yhdistymisvapaus, oikeus syrjimättömyyteen, oikeus koulutukseen, kuluttajansuoja, työntekijöiden oikeudet, vammaisten oikeudet, sukupuolten tasa-arvo, teollis- ja tekijänoikeudet, oikeus tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen, oikeus puolustukseen ja syyttömyysolettama sekä oikeus hyvään hallintoon. Näiden oikeuksien lisäksi on tärkeää korostaa, että lapsilla on erityisiä oikeuksia, jotka on vahvistettu perusoikeuskirjan 24 artiklassa ja Yhdistyneiden kansakuntien lapsen oikeuksien yleissopimuksessa, jota on täydennetty digitaalisen ympäristön osalta lapsen oikeuksien yleissopimuksen yleisessä huomautuksessa nro 25, ja joissa molemmissa edellytetään lasten haavoittuvuuden huomioon ottamista ja lasten hyvinvoinnin kannalta välttämättömän suojelun ja huolenpidon tarjoamista. Perusoikeuskirjaan kirjattu ja unionin politiikoissa täytäntöönpantu perusoikeus korkeaan ympäristönsuojelun tasoon olisi myös otettava huomioon arvioitaessa tekoälyjärjestelmästä mahdollisesti aiheutuvan haitan vakavuutta, myös suhteessa ihmisten terveyteen ja turvallisuuteen.
(48)
Przy klasyfikowaniu systemu AI jako systemu wysokiego ryzyka zasadnicze znaczenie ma to, w jakim stopniu system AI wywiera niepożądany wpływ na prawa podstawowe chronione na mocy Karty. Do praw tych należą prawo do godności człowieka, poszanowanie życia prywatnego i rodzinnego, ochrona danych osobowych, wolność wypowiedzi i informacji, wolność zgromadzania się i stowarzyszania się oraz prawo do niedyskryminacji, prawo do edukacji, ochrona konsumentów, prawa pracownicze, prawa osób z niepełnosprawnościami, równość płci, prawa własności intelektualnej, prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, prawo do obrony i domniemania niewinności, a także prawo do dobrej administracji. Oprócz tych praw należy podkreślić, że dzieciom przysługują szczególne prawa zapisane w art. 24 Karty oraz w Konwencji ONZ o prawach dziecka, szerzej rozwinięte w komentarzu ogólnym nr 25 w sprawie praw dziecka w środowisku cyfrowym zamieszczony w Konwencji ONZ o prawach dziecka, które to prawa wymagają uwzględnienia szczególnej wrażliwości dzieci oraz zapewnienia im takiej ochrony i opieki, jaka jest konieczna dla ich dobra. Podstawowe prawo do wysokiego poziomu ochrony środowiska zapisane w Karcie i wdrażane w strategiach politycznych Unii również należy uwzględnić w ocenie dotkliwości szkody, jaką może wyrządzić system AI, w tym w odniesieniu do zdrowia i bezpieczeństwa osób.
(49)
Sellaisten suuririskisten tekoälyjärjestelmien osalta, jotka ovat tuotteiden tai järjestelmien turvakomponentteja tai ovat itse tuotteita tai järjestelmiä, jotka kuuluvat Euroopan parlamentin ja neuvoston asetuksen (EY) N:o 300/2008 (24), Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 167/2013 (25), Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 168/2013 (26), Euroopan parlamentin ja neuvoston direktiivin 2014/90/EU (27), Euroopan parlamentin ja neuvoston direktiivin (EU) 2016/797 (28), Euroopan parlamentin ja neuvoston asetuksen (EU) 2018/858 (29), Euroopan parlamentin ja neuvoston asetuksen (EU) 2018/1139 (30) ja Euroopan parlamentin ja neuvoston asetuksen (EU) 2019/2144 (31) soveltamisalaan, on asianmukaista muuttaa mainittuja säädöksiä sen varmistamiseksi, että kun komissio hyväksyy mahdollisia asiaa koskevia delegoituja säädöksiä tai täytäntöönpanosäädöksiä mainittujen säädösten perusteella, se ottaa huomioon tässä asetuksessa vahvistetut suuririskisiä tekoälyjärjestelmiä koskevat pakolliset vaatimukset kunkin alan teknisten ja sääntelyllisten ominaispiirteiden perusteella ja puuttumatta mainituilla säädöksillä perustettuihin olemassa oleviin hallinnointi-, vaatimustenmukaisuuden arviointi- ja valvontamekanismeihin ja -viranomaisiin.
(49)
W odniesieniu do systemów AI wysokiego ryzyka, które są związanymi z bezpieczeństwem elementami produktów lub systemów objętych zakresem stosowania rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 300/2008 (24), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 167/2013 (25), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 168/2013 (26), dyrektywy Parlamentu Europejskiego i Rady 2014/90/UE (27), dyrektywy Parlamentu Europejskiego i Rady (UE) 2016/797 (28), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/858 (29), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/1139 (30) oraz rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/2144 (31) lub które same są takimi produktami lub systemami, wskazane jest dokonanie zmian tych aktów w celu zapewnienia, aby Komisja, przyjmując wszelkie stosowne akty delegowane lub wykonawcze na podstawie wspomnianych aktów, uwzględniła – w oparciu o techniczną i regulacyjną charakterystykę każdego sektora oraz bez ingerowania w istniejące mechanizmy zarządzania, oceny zgodności i egzekwowania oraz w powołane na mocy tych aktów organy – obowiązkowe wymogi dotyczące systemów AI wysokiego ryzyka ustanowione w niniejszym rozporządzeniu.
(50)
Tekoälyjärjestelmät, jotka ovat tämän asetuksen liitteessä luetellun tietyn unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluvien tuotteiden turvakomponentteja tai ovat itse tuotteita, on aiheellista luokitella suuririskisiksi tämän asetuksen mukaisesti, jos kyseiselle tuotteelle tehdään vaatimustenmukaisuuden arviointimenettely kolmatta osapuolta edustavassa vaatimustenmukaisuuden arviointilaitoksessa mainitun asiaa koskevan unionin yhdenmukaistamislainsäädännön mukaisesti. Tällaisia tuotteita ovat erityisesti koneet, lelut, hissit, räjähdysvaarallisissa tiloissa käytettäviksi tarkoitetut laitteet ja suojajärjestelmät, radiolaitteet, painelaitteet, huviveneet, köysiratalaitteistot, kaasumaisia polttoaineita polttavat laitteet sekä lääkinnälliset laitteet, in vitro -diagnostiikkaan tarkoitetut lääkinnälliset laitteet, ajoneuvot ja ilma-alukset.
(50)
W przypadku systemów AI, które są związanymi z bezpieczeństwem elementami produktów objętych zakresem stosowania niektórych przepisów unijnego prawodawstwa harmonizacyjnego wymienionych w załączniku do niemniejszego rozporządzenia lub które same są takimi produktami, systemy te należy klasyfikować jako systemy wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, jeżeli dany produkt jest poddawany procedurze oceny zgodności przez jednostkę oceniającą zgodność będącą stroną trzecią na podstawie tych stosownych przepisów unijnego prawodawstwa harmonizacyjnego. W szczególności produktami takimi są maszyny, zabawki, dźwigi, urządzenia i systemy ochronne przeznaczone do użytku w atmosferze potencjalnie wybuchowej, urządzenia radiowe, urządzenia ciśnieniowe, wyposażenie rekreacyjnych jednostek pływających, urządzenia kolei linowych, urządzenia spalające paliwa gazowe, wyroby medyczne, wyroby medyczne do diagnostyki in vitro, motoryzacja i lotnictwo.
(51)
Tekoälyjärjestelmän luokittelun suuririskiseksi tämän asetuksen mukaisesti ei välttämättä pitäisi tarkoittaa sitä, että tuotetta, jonka turvakomponentti on tekoälyjärjestelmä, tai itse tekoälyjärjestelmää tuotteena pidetään suuririskisenä tuotteeseen sovellettavassa asiaa koskevassa unionin yhdenmukaistamislainsäädännössä vahvistettujen perusteiden mukaisesti. Tämä koskee erityisesti asetuksia (EU) 2017/745 ja (EU) 2017/746, joissa säädetään kolmannen osapuolen suorittamasta vaatimustenmukaisuuden arvioinnista keskisuuren ja suuren riskin tuotteille.
(51)
Klasyfikacja systemu AI jako systemu wysokiego ryzyka na podstawie niniejszego rozporządzenia nie powinna koniecznie oznaczać, że produkt, którego związanym z bezpieczeństwem elementem jest system AI, lub sam system AI jako produkt uznaje się za produkt „wysokiego ryzyka” zgodnie z kryteriami ustanowionymi w stosownym unijnym prawodawstwie harmonizacyjnym, które stosuje się do tego produktu. Dotyczy to w szczególności rozporządzeń (UE) 2017/745 i (UE) 2017/746, w przypadku gdy ocenę zgodności przeprowadza strona trzecia w odniesieniu do produktów średniego i wysokiego ryzyka.
(52)
Erilliset tekoälyjärjestelmät eli muut suuririskiset tekoälyjärjestelmät kuin ne, jotka ovat tuotteiden turvakomponentteja tai jotka ovat itsenäisiä tuotteita, olisi luokiteltava suuririskisiksi, jos ne suunnitellun käyttötarkoituksensa perusteella aiheuttavat suuren riskin ihmisten terveydelle ja turvallisuudelle tai perusoikeuksille, kun otetaan huomioon sekä mahdollisen haitan vakavuus että sen esiintymistodennäköisyys, ja niitä käytetään tässä asetuksessa erikseen määritellyillä aloilla. Näiden järjestelmien yksilöinti perustuu samoihin menetelmiin ja kriteereihin, joita sovelletaan myös suuririskisten tekoälyjärjestelmien luetteloon tulevaisuudessa tehtäviin muutoksiin. Komissiolle olisi siirrettävä valta hyväksyä tällaisia muutoksia täytäntöönpanosäädöksillä, jotta voidaan ottaa huomioon teknologian nopea kehitys ja tekoälyjärjestelmien käytön mahdolliset muutokset.
(52)
W odniesieniu do samodzielnych systemów AI, a mianowicie systemów AI wysokiego ryzyka inne niż te, które są związanymi z bezpieczeństwem elementami produktów lub które same są produktami, należy je klasyfikować jako systemy wysokiego ryzyka, jeżeli w związku z ich przeznaczeniem stwarzają one wysokie ryzyko szkody dla zdrowia i bezpieczeństwa lub praw podstawowych osób, biorąc pod uwagę zarówno dotkliwość potencjalnych szkód, jak i prawdopodobieństwo ich wystąpienia, oraz jeżeli są one wykorzystywane w szeregu ściśle określonych z góry obszarów wskazanych w niniejszym rozporządzeniu. Identyfikacja tych systemów opiera się na tej samej metodyce i kryteriach przewidzianych również w odniesieniu do wszelkich przyszłych zmian w wykazie systemów AI wysokiego ryzyka, do przyjmowania których – w drodze aktów delegowanych – powinna być uprawniona Komisja, aby uwzględniać szybkie tempo rozwoju technologicznego, a także potencjalne zmiany w wykorzystaniu systemów AI.
(53)
On myös tärkeää selventää, että tietyissä tapauksissa tekoälyjärjestelmät, joihin viitataan tässä asetuksessa täsmennetyillä erikseen määritellyillä aloilla, eivät aiheuta merkittävän haitan riskiä kyseisillä aloilla suojatuille oikeudellisille eduille, koska ne eivät vaikuta olennaisesti päätöksentekoon tai vahingoita kyseisiä etuja merkittävästi. Tätä asetusta sovellettaessa tekoälyjärjestelmän, joka ei olennaisesti vaikuta päätöksenteon tulokseen, olisi katsottava olevan tekoälyjärjestelmä, jolla ei ole vaikutusta päätöksenteon sisältöön ja näin ollen sen tulokseen riippumatta siitä, onko tämä päätöksenteko automatisoitua vai vastaako siitä ihminen. Tekoälyjärjestelmä voidaan katsoa sellaiseksi, joka ei olennaisesti vaikuta päätöksenteon tulokseen, esimerkiksi tilanteissa, joissa yksi tai useampi seuraavista edellytyksistä täyttyy. Ensimmäisenä tällaisena edellytyksenä olisi oltava, että tekoälyjärjestelmä on tarkoitettu suorittamaan suppeaa menettelyllistä tehtävää. Tällaiseksi katsotaan esimerkiksi tekoälyjärjestelmä, joka muuntaa jäsentämättömän datan jäsennellyksi dataksi, tekoälyjärjestelmä, joka luokittelee saapuvia asiakirjoja, tai tekoälyjärjestelmä, jota käytetään päällekkäisyyksien havaitsemiseen useiden sovellusten välillä. Nämä tehtävät ovat niin kapea-alaisia ja rajallisia, että niistä aiheutuu vain vähäisiä riskejä, jotka eivät lisäänny sellaisen tekoälyjärjestelmän käytön yhteydessä, joka mainitaan tämän asetuksen liitteessä suuririskisenä käyttönä. Toisena edellytyksenä olisi oltava, että tekoälyjärjestelmän suorittaman tehtävän tarkoituksena on parantaa aiemmin päätökseen saatetun ihmisen toiminnan tulosta, jolla voi olla merkitystä tämän asetuksen liitteessä luetellun suuririskisen käytön kannalta. Kun otetaan huomioon nämä ominaisuudet, tekoälyjärjestelmä tuottaa vain täydentävän kerroksen ihmisen toiminnalle, jolloin riski on alentunut. Tätä edellytystä sovellettaisiin esimerkiksi tekoälyjärjestelmiin, joiden tarkoituksena on parantaa aiemmin laadituissa asiakirjoissa käytettyä kieltä esimerkiksi ammatillisen sävyn tai akateemisen tyylin osalta tai mukauttamalla teksti tietynlaisen brändiviestinnän mukaiseksi.Kolmantena edellytyksenä olisi oltava, että tekoälyjärjestelmä on tarkoitettu havaitsemaan päätöksentekotapoja tai poikkeamia aiemmista päätöksentekotavoista. Riski olisi alentunut, koska tekoälyjärjestelmän käyttö perustuu ihmisen aiemmin tekemään arviointiin, jota sen ei ole tarkoitus korvata tai johon sen ei ole tarkoitus vaikuttaa ilman asianmukaista ihmisen suorittamaa arviointia. Tällaisia tekoälyjärjestelmiä ovat esimerkiksi järjestelmät, joiden avulla voidaan esimerkiksi tietyn opettajan arvostelutapojen pohjalta tarkistaa jälkikäteen, onko kyseinen opettaja mahdollisesti poikennut arvostelutavoistaan. Näin voidaan ilmoittaa mahdollisista epäjohdonmukaisuuksista tai poikkeamista. Neljäntenä edellytyksenä olisi oltava, että tekoälyjärjestelmä on tarkoitettu suorittamaan tehtävä, joka on ainoastaan tämän asetuksen liitteessä lueteltujen tekoälyjärjestelmien kannalta merkityksellisen arvioinnin valmistelua, jolloin järjestelmän tuotoksen mahdollinen vaikutus on hyvin vähäinen siltä osin kuin se muodostaa riskin arvioinnissa. Tämä edellytys kattaa muun muassa tiedostojen käsittelyä koskevat älykkäät ratkaisut, joihin kuuluu erilaisia toimintoja, kuten indeksointi, haku, tekstin- ja puheenkäsittely tai tietojen yhdistäminen muihin tietolähteisiin, ja tekoälyjärjestelmät, joita käytetään alkuperäisten asiakirjojen kääntämiseen. Tämän asetuksen liitteessä luetelluissa suuririskisen käytön tapauksissa käytetyt tekoälyjärjestelmät olisi joka tapauksessa katsottava aiheuttavan merkittävän haitan riskin terveydelle, turvallisuudelle tai perusoikeuksille, jos tekoälyjärjestelmä edellyttää asetuksen (EU) 2016/679 4 artiklan 4 alakohdassa, direktiivin (EU) 2016/680 3 artiklan 4 alakohdassa tai asetuksen (EU) 2018/1725 3 artiklan 5 alakohdassa tarkoitettua profilointia. Jäljitettävyyden ja avoimuuden varmistamiseksi tarjoajan, joka edellä tarkoitettujen edellytysten perusteella katsoo, että tekoälyjärjestelmä ei ole suuririskinen, olisi laadittava arviointia koskeva dokumentaatio ennen kyseisen järjestelmän markkinoille saattamista tai käyttöönottoa ja toimitettava tämä dokumentaatio pyynnöstä kansallisille toimivaltaisille viranomaisille. Tällainen tarjoaja olisi velvoitettava rekisteröimään tekoälyjärjestelmä tämän asetuksen nojalla perustettuun EU:n tietokantaan. Jotta voidaan antaa lisäohjeita niiden edellytysten käytännön täytäntöönpanosta, joiden mukaisesti tämän asetuksen liitteessä luetellut tekoälyjärjestelmät ovat poikkeuksellisesti muita kuin suuririskisiä, komission olisi tekoälyneuvostoa kuultuaan annettava ohjeet, joissa täsmennetään, että käytännön täytäntöönpanoa täydennetään kattavalla luettelolla, jossa on käytännön esimerkkejä sellaisten tekoälyjärjestelmien käyttötapauksista, jotka ovat suuririskisiä, ja käyttötapauksista, jotka eivät sitä ole.
(53)
Ważne jest również wyjaśnienie, że mogą istnieć szczególne przypadki, w których systemy AI odnoszące się do z góry określonych obszarów wskazanych w niniejszym rozporządzeniu nie prowadzą do znaczącego ryzyka szkody dla interesów prawnych chronionych w tych obszarach, ponieważ nie mają istotnego wpływu na proces decyzyjny lub nie szkodzą tym interesom w istotny sposób. Do celów niniejszego rozporządzenia system AI, który nie ma istotnego wpływu na wynik procesu decyzyjnego, należy rozumieć jako system AI, który nie ma wpływu na istotę, a tym samym na wynik procesu decyzyjnego, zarówno przeprowadzanego przez człowieka, jak i w sposób zautomatyzowany. System AI, który nie ma istotnego wpływu na wynik procesu decyzyjnego, może obejmować sytuacje, w których spełniony jest co najmniej jeden z poniższych warunków. Pierwszym takim warunkiem powinno być to, aby system AI miał na celu wykonywanie wąsko określonych zadań proceduralnych – jak np. system AI, który przekształca nieustrukturyzowane dane w dane ustrukturyzowane, system AI kategoryzujący przychodzące dokumenty lub system AI wykorzystywany do wykrywania duplikatów w dużej liczbie zastosowań. Zadania te mają tak wąski i ograniczony charakter, że stwarzają jedynie ograniczone ryzyko, które nie wzrasta w wyniku wykorzystania systemu AI w kontekście wymienionym w wykazie przypadków wykorzystania wysokiego ryzyka zamieszczonym w załączniku do niniejszego rozporządzenia. Drugim warunkiem powinno być to, aby zadanie wykonywane przez system AI miało na celu poprawę wyników już zakończonego działania przeprowadzonego przez człowieka, które może być istotne w kontekście celów przypadków wykorzystania wysokiego ryzyka, wymienionych w załączniku do niniejszego rozporządzenia. Biorąc pod uwagę te cechy, system AI uzupełnia jedynie działanie człowieka, co w konsekwencji wiąże się z niższym ryzykiem. Warunek ten miałby zastosowanie na przykład do systemów AI, które mają na celu językową korektę przygotowanych wcześniej dokumentów, na przykład by wprowadzić profesjonalny ton, styl akademicki lub by dostosować tekst do określonego przekazu marki. Trzecim warunkiem powinno być to, aby system AI miał na celu wykrywanie wzorców podejmowania decyzji lub odstępstw od wzorców podjętych uprzednio decyzji. W tym przypadku ryzyko byłoby mniejsze, ponieważ system AI wykorzystuje się po przeprowadzeniu oceny przez człowieka i nie służy on temu, by ją zastąpić lub na nią wpłynąć bez przeprowadzenia właściwej weryfikacji przez człowieka. Takie systemy AI obejmują na przykład te, które – uwzględniając określony wzorzec oceniania stosowany przez nauczyciela – mogą być wykorzystywane ex post, by sprawdzić, czy nauczyciel nie odszedł od stosowanego wzorca, i w ten sposób wskazać potencjalne niespójności lub nieprawidłowości. Czwartym warunkiem powinno być to, by system AI był przeznaczony jedynie do wykonywania zadań przygotowawczych w kontekście oceny istotnej z punktu widzenia systemów AI wymienionych w załączniku do niniejszego rozporządzenia, co sprawi, że podczas mającej nastąpić oceny prawdopodobieństwo stwierdzenia ryzyka w kontekście wyników systemu będzie bardzo niskie. Mowa tu między innymi o inteligentnych rozwiązaniach w zakresie zarządzania plikami, które obejmują różne funkcje, takie jak indeksowanie, przeszukiwanie, przetwarzanie tekstów i mowy lub łączenie danych z innymi źródłami danych, lub o systemach AI wykorzystywanych do tłumaczenia dokumentów wstępnych. W każdym przypadku systemy AI wykorzystywane w przypadkach wykorzystania wysokiego ryzyka, wymienionych w załączniku do niniejszego rozporządzenia, należy uznać za stwarzające znaczące ryzyko szkody dla zdrowia, bezpieczeństwa lub praw podstawowych, jeżeli dany system AI wiąże się z profilowaniem w rozumieniu art. 4 pkt 4 rozporządzenia (UE) 2016/679 lub art. 3 pkt 4 dyrektywy (UE) 2016/680 lub art. 3 pkt 5 rozporządzenia (UE) 2018/1725. Aby zapewnić identyfikowalność i przejrzystość, dostawca, który na podstawie warunków, o których mowa powyżej, uważa, że system AI nie jest systemem wysokiego ryzyka, powinien sporządzić dokumentację oceny przed wprowadzeniem tego systemu do obrotu lub oddaniem go do użytku i przekazać tę dokumentację na wniosek właściwym organom krajowym. Taki dostawca powinien być zobowiązany do zarejestrowania systemu AI w bazie danych UE ustanowionej na mocy niniejszego rozporządzenia. By zapewnić dalsze wskazówki dotyczące praktycznego wdrażania warunków, na jakich systemy AI wymienione w załączniku do niniejszego rozporządzenia są, w drodze wyjątku, uznawane za niebędące systemami wysokiego ryzyka, Komisja powinna, po konsultacji z Radą ds. AI, przedstawić wytyczne w sprawie tego praktycznego wdrażania, uzupełnione wyczerpującym wykazem praktycznych przypadków wykorzystania systemów AI, które stanowią przypadki wykorzystania wysokiego ryzyka oraz które nie stanowią przypadków takiego wykorzystania.
(54)
Biometriset tiedot muodostavat erityisen henkilötietojen ryhmän, joten on aiheellista luokitella suuririskisiksi biometristen järjestelmien useita kriittisiä käyttötapauksia, jos niiden käyttö on sallittua asiaa koskevan unionin ja kansallisen lainsäädännön nojalla. Luonnollisten henkilöiden biometriseen etätunnistukseen tarkoitettujen tekoälyjärjestelmien tekniset epätarkkuudet voivat johtaa vinoutuneisiin tuloksiin ja aiheuttaa syrjiviä vaikutuksia. Tällaisten vinoutuneiden tulosten ja syrjivien vaikutusten riski on erityisen merkityksellinen, kun tulokset tai vaikutukset liittyvät ikään, etniseen alkuperään, rotuun, sukupuoleen tai vammaisuuteen. Biometriset etätunnistusjärjestelmät olisi näin ollen luokiteltava suuririskisiksi niiden aiheuttamien riskien vuoksi. Tällaisen luokittelun ulkopuolelle jäävät tekoälyjärjestelmät, joita on tarkoitus käyttää biometriseen todennukseen, joka käsittää tunnistautumisen, ja joiden ainoana tarkoituksena on vahvistaa, että tietty luonnollinen henkilö on se henkilö, joka hän väittää olevansa, sekä vahvistaa luonnollisen henkilön henkilöllisyys ainoastaan jonkin palvelun käyttämiseksi, laitteen lukituksen poistamiseksi tai valvottuun tilaan pääsemiseksi. Lisäksi tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi biometriseen luokitteluun sellaisten arkaluonteisten ominaisuuksien tai ominaisuuspiirteiden mukaan, jotka on suojattu asetuksen (EU) 2016/679 9 artiklan 1 kohdan nojalla biometrisinä tietoina, siltä osin kuin tällaisia järjestelmiä ei ole kielletty tässä asetuksessa, ja tunteentunnistusjärjestelmät, joita ei ole kielletty tässä asetuksessa, olisi luokiteltava suuririskisiksi. Biometrisiä järjestelmiä, joita on tarkoitus käyttää yksinomaan kyberturvallisuutta ja henkilötietojen suojaamista koskeviin toimiin, ei olisi katsottava suuririskisiksi tekoälyjärjestelmiksi.
(54)
Ponieważ dane biometryczne stanowią szczególną kategorię danych osobowych, kilka krytycznych przypadków wykorzystania systemów biometrycznych należy zaklasyfikować jako obarczone wysokim ryzykiem, o ile ich wykorzystywanie jest dozwolone na mocy odpowiednich przepisów prawa Unii i prawa krajowego. Techniczne niedokładności systemów AI przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Ryzyko wystąpienia takich nieobiektywnych wyników i skutków w postaci dyskryminacji jest szczególnie istotne w odniesieniu do wieku, pochodzenia etnicznego, rasy, płci lub niepełnosprawności. Systemy zdalnej identyfikacji biometrycznej należy zatem zaklasyfikować jako systemy wysokiego ryzyka ze względu na ryzyko, jakie stwarzają. Do tej kategorii nie należą systemy AI przeznaczone do weryfikacji biometrycznej, w tym uwierzytelniania, prowadzonej jedynie w celu potwierdzenia, że dana osoba fizyczna jest tą osobą, za którą się podaje, oraz potwierdzenia tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, uruchomienia urządzenia lub uzyskania bezpiecznego dostępu do pomieszczeń. Ponadto jako systemy wysokiego ryzyka należy zaklasyfikować systemy AI przeznaczone do kategoryzacji biometrycznej na podstawie danych biometrycznych według wrażliwych atrybutów lub cech chronionych na podstawie art. 9 ust. 1 rozporządzenia (UE) 2016/679, o ile nie są one zakazane na mocy niniejszego rozporządzenia, oraz systemy rozpoznawania emocji, które nie są zakazane na mocy niniejszego rozporządzenia. Za systemy AI wysokiego ryzyka nie należy uznawać systemów biometrycznych, które są przeznaczone wyłącznie do tego, by umożliwić stosowanie środków na rzecz cyberbezpieczeństwa i ochrony danych osobowych.
(55)
Kriittisen infrastruktuurin hallinnan ja toiminnan osalta on aiheellista luokitella suuririskisiksi tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi turvakomponentteina direktiivin (EU) 2022/2557 liitteessä olevassa 8 kohdassa luetellun kriittisen digitaalisen infrastruktuurin, tieliikenteen sekä vesi-, kaasu-, lämmitys- ja sähköhuollon hallinnassa ja toiminnassa, koska niiden viat tai toimintahäiriöt voivat vaarantaa ihmisten hengen ja terveyden suuressa mittakaavassa ja aiheuttaa tuntuvia häiriöitä yhteiskunnallisen ja taloudellisen toiminnan tavanomaisessa harjoittamisessa. Kriittisen infrastruktuurin, mukaan lukien kriittinen digitaalinen infrastruktuuri, turvakomponentit ovat järjestelmiä, joita käytetään suoraan suojaamaan kriittisen infrastruktuurin fyysistä koskemattomuutta tai henkilöiden terveyttä ja turvallisuutta ja omaisuuden turvallisuutta mutta jotka eivät ole tarpeellisia järjestelmän toiminnan kannalta. Tällaisten komponenttien vikaantuminen tai toimintahäiriö saattaa johtaa suoraan riskeihin kriittisen infrastruktuurin fyysiselle koskemattomuudelle ja näin ollen riskeihin henkilöiden terveydelle ja turvallisuudelle ja omaisuuden turvallisuudelle. Komponentteja, jotka on tarkoitettu käytettäviksi pelkästään kyberturvallisuustarkoituksiin, ei pitäisi katsoa turvakomponenteiksi. Esimerkkejä tällaisen kriittisen infrastruktuurin turvakomponenteista voivat olla järjestelmät vedenpaineen seuraamiseksi tai palohälytysohjausjärjestelmät pilvipalvelukeskuksissa.
(55)
W odniesieniu do zarządzania infrastrukturą krytyczną i jej działania jako systemy wysokiego ryzyka należy klasyfikować systemy AI, które są przeznaczone do wykorzystania jako związane z bezpieczeństwem elementy procesów zarządzania i działania w przypadku krytycznej infrastruktury cyfrowej wymienionej w pkt 8 załącznika do dyrektywy (UE) 2022/2557, ruchu drogowego i zaopatrzenia w wodę, gaz, ciepło i energię elektryczną, ponieważ ich awaria lub nieprawidłowe działanie mogą stworzyć ryzyko dla życia i zdrowia osób na dużą skalę i prowadzić do znacznych zakłóceń w zwykłym prowadzeniu działalności społecznej i gospodarczej. Związane z bezpieczeństwem elementy infrastruktury krytycznej, w tym krytycznej infrastruktury cyfrowej, to systemy, które są wykorzystywane do bezpośredniej ochrony fizycznej integralności infrastruktury krytycznej lub zdrowia i bezpieczeństwa osób i mienia, ale które nie są konieczne do funkcjonowania systemu. Awaria lub nieprawidłowe działanie takich elementów mogą bezpośrednio prowadzić do ryzyka dla fizycznej integralności infrastruktury krytycznej, a co za tym idzie, do ryzyka dla zdrowia i bezpieczeństwa osób i mienia. Elementów przeznaczonych wyłącznie do celów cyberbezpieczeństwa nie należy kwalifikować jako związanych z bezpieczeństwem elementów. Przykładami związanych z bezpieczeństwem elementów takiej infrastruktury krytycznej są systemy monitorowania ciśnienia wody lub systemy sterowania alarmem przeciwpożarowym w centrach przetwarzania danych w chmurze (ang. cloud computing centres).
(56)
Tekoälyjärjestelmien käyttöönotto koulutuksessa on tärkeää, jotta voidaan edistää laadukasta digitaalista koulutusta ja antaa kaikille oppijoille ja opettajille mahdollisuus hankkia ja jakaa tarvittavia digitaalisia taitoja ja osaamista, myös medialukutaitoa ja kriittistä ajattelua, jotta he voivat osallistua aktiivisesti talouteen, yhteiskuntaan ja demokraattisiin prosesseihin. Tekoälyjärjestelmiä, joita käytetään yleissivistävässä tai ammatillisessa koulutuksessa, erityisesti kun määritetään pääsyä tai hyväksymistä tai osoitetaan henkilöitä yleissivistävän tai ammatillisen koulutuksen oppilaitoksiin tai ohjelmiin kaikilla tasoilla, arvioidaan henkilöiden oppimistuloksia, arvioidaan yksittäiselle henkilölle soveltuvaa koulutustasoa ja vaikutetaan olennaisesti sen yleissivistävän tai ammatillisen koulutuksen tasoon, jota henkilö myöhemmin saa tai johon hän voi päästä, tai kun kokeiden aikana tarkkaillaan opiskelijoita tai pyritään havaitsemaan kiellettyä käyttäytymistä, olisi kuitenkin pidettävä suuririskisinä tekoälyjärjestelminä, koska ne voivat määrittää henkilön elämän koulutuksellisen ja ammatillisen suunnan ja voivat siten vaikuttaa kyseisen henkilön kykyyn turvata toimeentulonsa. Kun tällaiset järjestelmät suunnitellaan ja niitä käytetään epäasianmukaisesti, ne voivat olla erityisen tunkeilevia ja loukata oikeutta koulutukseen ja oikeutta olla joutumatta syrjityksi, ja ne voivat jatkaa historiallisia syrjinnän muotoja, jotka kohdistuvat esimerkiksi naisiin, tiettyihin ikäryhmiin, vammaisiin henkilöihin tai henkilöihin, joilla on tietty rodullinen tai etninen alkuperä tai seksuaalinen suuntautuminen.
(56)
Wdrażanie systemów AI w edukacji jest ważne, by promować wysokiej jakości kształcenie i szkolenie cyfrowe oraz by umożliwić wszystkim osobom uczącym się i nauczycielom zdobywanie niezbędnych umiejętności i kompetencji cyfrowych, w tym umiejętności korzystania z mediów, i krytycznego myślenia oraz dzielenie się tymi umiejętnościami i kompetencjami, z myślą o aktywnym udziale w gospodarce, społeczeństwie i procesach demokratycznych. Jako systemy AI wysokiego ryzyka należy natomiast zaklasyfikować systemy AI wykorzystywane w obszarze edukacji lub szkolenia zawodowego – w szczególności przeznaczone do celów podejmowania decyzji o dostępie lub przyjęciu do instytucji edukacyjnych i instytucji szkolenia zawodowego lub programów edukacyjnych lub szkolenia zawodowego na wszystkich poziomach lub do przydzielania osób do tych instytucji lub programów, do oceniania wyników nauki osób, do oceniania odpowiedniego poziomu wykształcenia i istotnego oddziaływania na poziom wykształcenia i szkolenia, jaki dana osoba fizyczna otrzyma lub do jakiego będzie mogła mieć dostęp, lub do monitorowania i wykrywania zabronionego zachowania uczniów podczas testów – ponieważ systemy te mogą decydować o przebiegu kształcenia i kariery zawodowej danej osoby, a tym samym mogą wpływać na jej zdolność do zapewnienia sobie źródła utrzymania. Takie systemy, jeżeli są niewłaściwie zaprojektowane i wykorzystywane, mogą być szczególnie inwazyjne i naruszać prawo do kształcenia i szkolenia, a także prawo do niedyskryminacji oraz mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym bądź określonej orientacji seksualnej.
(57)
Tekoälyjärjestelmät, joita käytetään työllistämisessä, henkilöstöhallinnossa ja itsenäisen ammatinharjoittamisen mahdollistamisessa, erityisesti henkilöiden rekrytoinnin ja valinnan osalta, sellaisten päätösten tekemisen osalta, jotka vaikuttavat työsuhteen ehtoihin sekä uralla etenemistä ja työsuhteen päättämistä koskeviin työehtoihin, työhön liittyviin sopimussuhteisiin perustuvan tehtävien jakamisen osalta yksilöllisen käyttäytymisen tai personallisuuspiirteiden tai -ominaisuuksien perusteella sekä työhön liittyvissä sopimussuhteissa olevien henkilöiden seurannan tai arvioinnin osalta, olisi myös luokiteltava suuririskisiksi, koska kyseiset järjestelmät voivat vaikuttaa merkittävästi näiden henkilöiden tuleviin uranäkymiin, toimeentuloon ja työntekijöiden oikeuksiin. Näiden työhön liittyvien sopimussuhteiden olisi koskettava merkityksellisellä tavalla myös työntekijöitä ja henkilöitä, jotka tarjoavat palveluja alustojen kautta, kuten komission vuoden 2021 työohjelmassa esitetään. Tällaiset järjestelmät voivat koko rekrytointiprosessin ajan sekä työhön liittyvissä sopimussuhteissa olevien henkilöiden arvioinnin, uralla etenemisen tai työsuhteen jatkamisen yhteydessä pitää yllä historiallisia syrjinnän muotoja, jotka kohdistuvat esimerkiksi naisiin, tiettyihin ikäryhmiin, vammaisiin henkilöihin tai henkilöihin, joilla on tietty rodullinen tai etninen alkuperä tai seksuaalinen suuntautuminen. Tekoälyjärjestelmät, joita käytetään tällaisten henkilöiden suorituskyvyn ja käyttäytymisen seurantaan, voivat heikentää myös heidän tietosuojaansa ja yksityisyyden suojaa koskevia perusoikeuksiaan.
(57)
Systemy AI wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, do podejmowania decyzji mających wpływ na warunki stosunków pracy, decyzji o awansie i rozwiązaniu umownego stosunku pracy, do spersonalizowanego przydzielania zadań w oparciu o indywidualne zachowania, cechy osobowości lub charakter i do monitorowania lub oceny osób pozostających w umownych stosunkach pracy, należy również zaklasyfikować jako systemy wysokiego ryzyka, ponieważ systemy te mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe, źródła utrzymania tych osób i prawa pracownicze. Odpowiednie umowne stosunki pracy powinny w znaczący sposób obejmować pracowników i osoby pracujące za pośrednictwem platform internetowych, o czym mowa w programie prac Komisji na 2021 r. W całym procesie rekrutacji oraz w ramach oceniania, awansowania lub utrzymywania na stanowisku osób pozostających w umownych stosunkach pracy systemy takie mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym lub o określonej orientacji seksualnej. Systemy AI wykorzystywane do monitorowania wydajności i zachowania takich osób mogą również podważać ich prawa podstawowe w zakresie ochrony danych i prywatności.
(58)
Toinen osa-alue, jolla tekoälyjärjestelmien käyttöön on kiinnitettävä erityistä huomiota, on sellaisten olennaisten yksityisten ja julkisten palvelujen ja etujen saatavuus ja käyttö, joita ihmiset tarvitsevat voidakseen osallistua täysipainoisesti yhteiskuntaan tai parantaakseen elintasoaan. Erityisesti luonnolliset henkilöt, jotka hakevat tai saavat viranomaisilta olennaisia julkisen avun etuuksia ja palveluja, kuten terveydenhuoltopalveluja, sosiaaliturvaetuuksia, sosiaalipalveluja, joilla taataan suoja muun muassa raskauden ja synnytyksen aikana ja sairauden, työtapaturman, hoidon tarpeen ja vanhuuden varalta sekä työpaikan menetyksen yhteydessä, ja toimeentuloturvaa ja asumisen tukea, ovat yleensä riippuvaisia näistä etuuksista ja palveluista ja haavoittuvassa asemassa vastuuviranomaisiin nähden. Jos tekoälyjärjestelmiä käytetään sen määrittämiseen, olisiko viranomaisten myönnettävä tai evättävä tällaiset etuudet ja palvelut tai rajoitettava niitä, peruutettava ne tai perittävä ne takaisin, mukaan lukien se, onko edunsaajilla laillinen oikeus tällaisiin etuuksiin tai palveluihin, näillä järjestelmillä voi olla merkittävä vaikutus henkilöiden toimeentuloon ja ne voivat loukata heidän perusoikeuksiaan, kuten oikeutta sosiaaliseen suojeluun, syrjimättömyyteen, ihmisarvoon tai tehokkaisiin oikeussuojakeinoihin, ja ne olisi sen vuoksi luokiteltava suuririskisiksi. Tämä asetus ei kuitenkaan saisi haitata innovatiivisten lähestymistapojen kehittämistä ja käyttöä julkishallinnossa, sillä se hyötyisi vaatimustenmukaisten ja turvallisten tekoälyjärjestelmien laajemmasta käytöstä edellyttäen, että kyseisiin järjestelmiin ei liity suurta oikeushenkilöihin ja luonnollisiin henkilöihin kohdistuvaa riskiä.Lisäksi tekoälyjärjestelmät, joita käytetään arvioitaessa luonnollisten henkilöiden luottopisteytystä tai luottokelpoisuutta, olisi luokiteltava suuririskisiksi tekoälyjärjestelmiksi, koska ne määrittävät kyseisten henkilöiden mahdollisuuden saada taloudellisia resursseja tai olennaisia palveluja, kuten asumis-, sähkö- ja televiestintäpalveluja. Näihin tarkoituksiin käytetyt tekoälyjärjestelmät voivat johtaa henkilöiden tai henkilöryhmien syrjintään ja voivat pitää yllä historiallisia syrjinnän muotoja, jotka perustuvat esimerkiksi rotuun tai etniseen alkuperään, sukupuoleen, vammaisuuteen, ikään tai sukupuoliseen suuntautumiseen, tai luoda uusia syrjiviä vaikutuksia. Tekoälyjärjestelmiä, joista säädetään unionin oikeudessa rahoituspalvelujen tarjoamiseen liittyvien petosten havaitsemiseksi ja vakavaraisuussyistä luottolaitosten ja vakuutusyritysten pääomavaatimusten laskemiseksi, ei kuitenkaan pitäisi katsoa suuririskisiksi tämän asetuksen nojalla. Lisäksi tekoälyjärjestelmillä, joita on tarkoitus käyttää luonnollisia henkilöitä koskevaan riskiarviointiin ja hinnoitteluun sairaus- ja henkivakuutusten tapauksessa, voi myös olla merkittävä vaikutus henkilöiden toimeentuloon ja jos niitä ei ole asianmukaisesti suunniteltu, kehitetty ja käytetty, ne voivat loukata heidän perusoikeuksiaan sekä aiheuttaa vakavia seurauksia ihmisten elämälle ja terveydelle, mukaan lukien taloudellinen syrjäytyminen ja syrjintä. Myös tekoälyjärjestelmät, joita käytetään luonnollisten henkilöiden hätäpuhelujen arvioinnissa ja luokittelussa tai pelastus- ja ensihoitopalvelujen, mukaan lukien poliisi, palokunta ja lääkintäapu sekä kiireellistä ensihoitoa tarvitsevien potilaiden lajittelujärjestelmä, lähettämisessä tai tärkeysjärjestyksen määrittämisessä, olisi luokiteltava suuririskisiksi, koska ne tekevät päätöksiä tilanteissa, jotka ovat erittäin kriittisiä ihmisten hengen ja terveyden ja heidän omaisuutensa kannalta.
(58)
Innym obszarem, w którym wykorzystanie systemów AI wymaga szczególnej uwagi, jest dostęp do niektórych podstawowych usług i świadczeń prywatnych i publicznych niezbędnych ludziom do pełnego uczestnictwa w życiu społecznym lub do poprawy poziomu życia oraz korzystanie z tych usług i świadczeń. W szczególności osoby fizyczne ubiegające się o podstawowe świadczenia i usługi w ramach pomocy publicznej lub korzystające z takich świadczeń i usług zapewnianych przez organy publiczne, a mianowicie usług opieki zdrowotnej, świadczeń z zabezpieczenia społecznego, usług społecznych zapewniających ochronę w przypadkach takich jak macierzyństwo, choroba, wypadki przy pracy, zależność lub podeszły wiek oraz utrata zatrudnienia, a także z pomocy społecznej i mieszkaniowej, są zazwyczaj zależne od tych świadczeń i usług oraz znajdują się w słabszym położeniu względem odpowiedzialnych organów. Jeżeli systemy AI są wykorzystywane do ustalenia, czy organy powinny przyznać takie świadczenia i usługi, odmówić ich, ograniczyć je, cofnąć lub odzyskać, w tym do stwierdzenia, czy świadczeniobiorcy są w świetle prawa uprawnieni do takich świadczeń lub usług, systemy te mogą mieć znaczący wpływ na źródła utrzymania osób i mogą naruszać ich prawa podstawowe, takie jak prawo do ochrony socjalnej, niedyskryminacji, godności człowieka lub skutecznego środka prawnego i w związku z tym systemy te należy zaklasyfikować jako systemy wysokiego ryzyka. Niniejsze rozporządzenie nie powinno jednak utrudniać rozwoju i stosowania innowacyjnych rozwiązań w administracji publicznej, która może odnieść korzyści z powszechniejszego wykorzystywania zgodnych i bezpiecznych systemów AI, pod warunkiem że systemy te nie stwarzają wysokiego ryzyka dla osób prawnych i fizycznych. Ponadto jako systemy wysokiego ryzyka należy zaklasyfikować systemy AI wykorzystywane do przeprowadzania scoringu kredytowego lub oceny zdolności kredytowej osób fizycznych, ponieważ systemy te decydują o dostępie tych osób do zasobów finansowych lub podstawowych usług, takich jak mieszkalnictwo, energia elektryczna i usługi telekomunikacyjne. Systemy AI wykorzystywane do tych celów mogą prowadzić do dyskryminacji osób lub grup i mogą utrwalać historyczne wzorce dyskryminacji, takie jak dyskryminacja ze względu na pochodzenie rasowe lub etniczne, płeć, niepełnosprawność, wiek, orientację seksualną, lub mogą powodować powstawanie nowych rodzajów dyskryminacji. Za systemy wysokiego ryzyka na mocy niniejszego rozporządzenia nie należy jednak uznawać systemów AI przewidzianych w prawie Unii do celów wykrywania oszustw w ramach oferowania usług finansowych oraz do celów ostrożnościowych do obliczania wymogów kapitałowych instytucji kredytowych i zakładów ubezpieczeń. Ponadto systemy AI przeznaczone do przeprowadzania oceny ryzyka w przypadku ubezpieczenia zdrowotnego i na życie dla osób fizycznych i ustalania cen tych ubezpieczeń mogą mieć również znaczący wpływ na źródła utrzymania osób, a jeżeli nie są odpowiednio zaprojektowane, rozwinięte i wykorzystywane, mogą naruszać ich prawa podstawowe i prowadzić do poważnych konsekwencji dla życia i zdrowia ludzi, w tym wykluczenia finansowego i dyskryminacji. Wreszcie systemy AI przeznaczone do przeprowadzania oceny i klasyfikowania zgłoszeń alarmowych dokonywanych przez osoby fizyczne lub do wysyłania lub ustalania priorytetów w wysyłaniu służb pierwszej pomocy, w tym policji, straży pożarnej i pomocy medycznej, a także w ramach systemów oceny stanu zdrowia pacjentów w nagłych wypadkach, należy zaklasyfikować jako systemy wysokiego ryzyka, ponieważ służą one do podejmowania decyzji o krytycznym znaczeniu dla życia i zdrowia osób oraz ich mienia.
(59)
Lainvalvontaviranomaisten toimille, joihin liittyy tiettyä tekoälyjärjestelmien käyttöä, on ominaista huomattava vallan epätasapaino niiden roolin ja vastuun vuoksi, ja ne voivat johtaa luonnollisen henkilön valvontaan, pidättämiseen tai vapaudenmenetykseen sekä muihin perusoikeuskirjassa taattuihin perusoikeuksiin kohdistuviin haitallisiin vaikutuksiin. Erityisesti jos tekoälyjärjestelmää ei ole koulutettu laadukkaalla datalla, se ei täytä riittäviä vaatimuksia toimintansa, tarkkuutensa tai vakautensa suhteen tai sitä ei ole suunniteltu ja testattu asianmukaisesti ennen markkinoille saattamista tai muuta käyttöönottoa, se voi valikoida henkilöitä syrjivästi tai muulla tavoin väärin tai epäoikeudenmukaisesti. Lisäksi merkittävien menettelyllisten perusoikeuksien, joita ovat muun muassa oikeus tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen sekä oikeus puolustukseen ja syyttömyysolettama, käyttö voisi vaikeutua erityisesti silloin, kun tällaiset tekoälyjärjestelmät eivät ole riittävän avoimia, selitettävissä olevia ja dokumentoituja. Sen vuoksi on aiheellista luokitella suuririskisiksi joukko tekoälyjärjestelmiä, jotka on tarkoitettu käytettäviksi lainvalvonnan yhteydessä, siltä osin kuin niiden käyttö on sallittua asiaa koskevan unionin oikeuden ja kansallisen lainsäädännön nojalla, kun tarkkuus, luotettavuus ja avoimuus ovat erityisen tärkeitä haitallisten vaikutusten välttämiseksi, kansalaisten luottamuksen säilyttämiseksi sekä vastuuvelvollisuuden ja tehokkaiden oikeussuojakeinojen varmistamiseksi. Kun otetaan huomioon toimintojen luonne ja niihin liittyvät riskit, näihin suuririskisiin tekoälyjärjestelmiin olisi katsottava kuuluvan erityisesti tekoälyjärjestelmät, joita on tarkoitus käyttää valheenpaljastimina ja vastaavina välineinä lainvalvontaviranomaisten toimesta tai niiden puolesta taikka unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi, jotta voidaan arvioida luonnollisen henkilön riskiä joutua rikoksen uhriksi ja todistusaineiston luotettavuutta rikostutkinnassa tai rikosoikeudellisissa menettelyissä ja, siltä osin kuin sitä ei kielletä tässä asetuksessa, arvioida luonnollisen henkilön rikoksen esiintymisen tai toistumisen riskiä myös muilla keinoilla kuin luonnollisten henkilöiden profiloinnin tai luonnollisten henkilöiden tai ryhmien persoonallisuuspiirteiden ja -ominaisuuksien tai aiemman rikollisen käyttäytymisen arvioinnin perusteella, rikosten paljastamisen, tutkimisen tai rikoksiin liittyvien syytetoimien yhteydessä tapahtuvaa profilointia varten. Tekoälyjärjestelmiä, jotka on erityisesti tarkoitettu käytettäviksi vero- ja tulliviranomaisten hallinnollisissa menettelyissä sekä rahanpesun selvittelykeskuksissa, jotka suorittavat hallinnollisia tehtäviä, joissa analysoidaan tietoja unionin rahanpesunvastaisen lainsäädännön nojalla, ei pitäisi luokitella suuririskisiksi tekoälyjärjestelmiksi, joita lainvalvontaviranomaiset käyttävät rikosten ennalta estämiseen, tutkimiseen, paljastamiseen tai rikoksiin liittyviin syytetoimiin. Lainvalvontaviranomaisten ja muiden asiaankuuluvien viranomaisten harjoittama tekoälyn käyttö ei saisi lisätä eriarvoisuutta tai syrjäytymistä. Tekoälyvälineiden käytön vaikutuksia rikoksesta epäiltyjen puolustusoikeuksiin ei pitäisi jättää huomiotta, etenkään vaikeuksia saada kyseisten järjestelmien toimintaa koskevia merkityksellisiä tietoja ja siitä erityisesti tutkinnan kohteena oleville luonnollisille henkilöille aiheutuvaa ongelmaa haastaa tekoälyvälineiden tulokset tuomioistuimessa.
(59)
Ze względu na rolę i odpowiedzialność organów ścigania ich działania związane z niektórymi rodzajami wykorzystania systemów AI charakteryzują się znacznym brakiem równowagi sił i mogą prowadzić do objęcia osoby fizycznej nadzorem, do jej aresztowania lub pozbawienia wolności, jak również do zaistnienia innego niepożądanego wpływu na prawa podstawowe zagwarantowane w Karcie. W szczególności jeżeli system AI nie jest trenowany z wykorzystaniem danych wysokiej jakości, nie spełnia odpowiednich wymogów pod względem skuteczności jego działania, dokładności lub solidności lub nie został odpowiednio zaprojektowany i przetestowany przed wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób, może on wskazywać osoby w sposób dyskryminacyjny lub w inny nieprawidłowy lub niesprawiedliwy sposób. Ponadto korzystanie z istotnych procesowych praw podstawowych, takich jak prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, jak również prawo do obrony i domniemania niewinności, może być utrudnione, w szczególności w przypadku gdy takie systemy AI nie są w wystarczającym stopniu przejrzyste, wyjaśnialne i udokumentowane. W związku z tym szereg systemów AI przeznaczonych do wykorzystania w kontekście ścigania przestępstw, w którym dokładność, wiarygodność i przejrzystość są szczególnie ważne dla uniknięcia niepożądanego wpływu, zachowania zaufania publicznego oraz zapewnienia odpowiedzialności i skutecznego dochodzenia roszczeń, należy klasyfikować jako systemy wysokiego ryzyka, o ile ich wykorzystanie jest dozwolone zgodnie z właściwymi przepisami prawa Unii i prawa krajowego. Ze względu na charakter działań i związane z nimi ryzyko do takich systemów AI wysokiego ryzyka należy zaliczyć w szczególności systemy AI przeznaczone do wykorzystywania przez organy ścigania lub w ich imieniu lub przez instytucje, organy i jednostki organizacyjne Unii w ramach wsparcia udzielanego organom ścigania w zakresie oceny ryzyka, że osoba fizyczna stanie się ofiarą przestępstwa, takie jak wariografy i podobne narzędzia, do oceny wiarygodności dowodów podczas prowadzenia postępowań przygotowawczych w sprawie przestępstw lub ich ścigania oraz, o ile nie jest to zakazane na mocy niniejszego rozporządzenia, do oceny ryzyka popełnienia przestępstwa lub ponownego popełnienia przestępstwa przez osobę fizyczną niewyłącznie na podstawie profilowania osób fizycznych lub oceny cech osobowości i charakteru lub wcześniejszego zachowania przestępnego osób fizycznych lub grup, do profilowania w trakcie wykrywania przestępstw, prowadzenia postępowań przygotowawczych w ich sprawie lub ich ścigania. Systemów AI przeznaczonych specjalnie do wykorzystania w postępowaniach administracyjnych prowadzonych przez organy podatkowe i celne, jak również przez jednostki analityki finansowej wykonujące zadania administracyjne dotyczące analizy informacji na podstawie przepisów prawa Unii dotyczących przeciwdziałania praniu pieniędzy, nie należy zaklasyfikować jako systemów AI wysokiego ryzyka wykorzystywanych przez organy ścigania do celów zapobiegania przestępstwom, ich wykrywania, prowadzenia postępowań przygotowawczych w ich sprawie i ich ścigania. Wykorzystanie narzędzi sztucznej inteligencji przez organy ścigania i inne odpowiednie organy nie powinno stać się czynnikiem powodującym nierówności lub wykluczenie. Nie należy ignorować wpływu wykorzystania narzędzi AI na prawo podejrzanych do obrony, w szczególności na trudności w uzyskaniu istotnych informacji na temat funkcjonowania tych systemów oraz wynikające z tego trudności w kwestionowaniu dostarczanych przez nie wyników przed sądem, w szczególności przez osoby fizyczne objęte postępowaniem przygotowawczym.
(60)
Muuttoliikkeen hallinnassa, turvapaikka-asioissa ja rajavalvonnassa käytettävät tekoälyjärjestelmät vaikuttavat henkilöihin, jotka ovat usein erityisen haavoittuvassa asemassa ja riippuvaisia toimivaltaisten viranomaisten toimien tuloksista. Näissä yhteyksissä käytettävien tekoälyjärjestelmien tarkkuus, syrjimätön luonne ja avoimuus on sen vuoksi erityisen tärkeää, jotta voidaan taata henkilöiden, joihin vaikutukset kohdistuvat, perusoikeuksien kunnioittaminen, erityisesti heidän oikeutensa vapaaseen liikkuvuuteen, syrjimättömyyteen, yksityiselämän ja henkilötietojen suojaan, kansainväliseen suojeluun ja hyvään hallintoon. Sen vuoksi on aiheellista luokitella suuririskisiksi tekoälyjärjestelmät, siltä osin kuin niiden käyttö on sallittua asiaa koskevan unionin ja kansallisen lainsäädännön nojalla, joita on tarkoitus käyttää valheenpaljastimina ja vastaavina välineinä muuttoliikkeen hallinnassa, turvapaikka-asioissa ja rajavalvonnassa vastaavien toimivaltaisten viranomaisten toimesta tai niiden puolesta taikka vastaavien unionin elinten, toimistojen tai virastojen toimesta; jäsenvaltion alueelle saapuvien tai viisumia tai turvapaikkaa hakevien luonnollisten henkilöiden aiheuttamien tiettyjen riskien arvioimiseen; toimivaltaisten viranomaisten avustamiseen turvapaikka-, viisumi- ja oleskelulupahakemusten ja niihin liittyvien valitusten käsittelyssä, myös todistusaineiston luotettavuuden arvioinnin osalta, kun tavoitteena on vahvistaa asemaa hakevien luonnollisten henkilöiden kelpoisuus; sekä luonnollisten henkilöiden havaitsemiseen, tunnistamiseen tai henkilöllisyyden määrittämiseen muuttoliikkeen, turvapaikka-asioiden ja rajavalvonnan yhteydessä, pois lukien matkustusasiakirjojen tarkastaminen.Tämän asetuksen soveltamisalaan kuuluvien muuttoliikkeen hallinnan, turvapaikka-asioiden ja rajavalvonnan alan tekoälyjärjestelmien olisi oltava Euroopan parlamentin ja neuvoston asetuksessa (EY) N:o 810/2009 (32), Euroopan parlamentin ja neuvoston direktiivissä 2013/32/EU (33) ja muussa asiaa koskevassa unionin oikeudessa säädettyjen asiaankuuluvien menettelyvaatimusten mukaisia. Jäsenvaltioiden tai unionin toimielinten, elinten, toimistojen tai virastojen ei pitäisi missään tapauksessa käyttää tekoälyjärjestelmiä muuttoliikkeen, turvapaikka-asioiden ja rajavalvonnan hallinnassa keinona kiertää Genevessä 28 päivänä heinäkuuta 1951 tehdyn pakolaisten oikeusasemaa koskevan YK:n yleissopimuksen, sellaisena kuin se on muutettuna 31 päivänä tammikuuta 1967 tehdyllä pöytäkirjalla, mukaisia kansainvälisiä velvoitteitaan. Niiden käyttö ei myöskään saisi millään tavoin loukata palauttamiskiellon periaatetta eikä evätä unionin alueelle pääsemiseksi turvallisia ja toimivia laillisia väyliä tai oikeutta kansainväliseen suojeluun.
(60)
Systemy AI wykorzystywane w zarządzaniu migracją, azylem i kontrolą graniczną mają wpływ na osoby, które często znajdują się w szczególnie trudnej sytuacji i które są zależne od rezultatów działań właściwych organów publicznych. Dokładność, niedyskryminujący charakter i przejrzystość systemów AI wykorzystywanych w tych kontekstach są zatem szczególnie istotne w celu zapewnienia poszanowania praw podstawowych osób, na które AI ma wpływ, w szczególności ich prawa do swobodnego przemieszczania się, niedyskryminacji, ochrony życia prywatnego i danych osobowych, ochrony międzynarodowej i dobrej administracji. O ile wykorzystanie systemów AI jest dozwolone zgodnie z właściwymi przepisami prawa Unii i prawa krajowego, za systemy wysokiego ryzyka należy zatem uznać systemy AI przeznaczone do wykorzystywania przez właściwe organy publiczne lub w ich imieniu lub przez instytucje, organy i jednostki organizacyjne Unii odpowiedzialne za wykonywanie zadań w dziedzinach zarządzania migracją, azylem i kontrolą graniczną, takie jak wariografy i podobne narzędzia, gdy systemy te stosuje się do oceny niektórych rodzajów ryzyka stwarzanych przez osoby fizyczne wjeżdżające na terytorium państwa członkowskiego lub ubiegające się o wizę lub azyl, do wspierania właściwych organów publicznych przy rozpatrywaniu wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych oraz związanych z nimi skarg w odniesieniu do celu, jakim jest ustalenie kwalifikowalności osób fizycznych ubiegających się o przyznanie określonego statusu, w tym przy powiązanej ocenie wiarygodności dowodów, do celów wykrywania, rozpoznawania lub identyfikacji osób fizycznych w kontekście zarządzania migracją, azylem i kontrolą graniczną, z wyjątkiem weryfikacji dokumentów podróży. Systemy AI w obszarze zarządzania migracją, azylem i kontrolą graniczną objęte niniejszym rozporządzeniem powinny być zgodne z odpowiednimi wymogami proceduralnymi określonymi w rozporządzeniu Parlamentu Europejskiego i Rady (WE) nr 810/2009 (32), dyrektywie Parlamentu Europejskiego i Rady 2013/32/UE (33) i w innych właściwych przepisach prawa Unii. Wykorzystanie systemów AI w zarządzaniu migracją, azylem i kontrolą graniczną nie powinno w żadnym wypadku być wykorzystywane przez państwa członkowskie lub instytucje, organy i jednostki organizacyjne Unii jako sposób na obejście ich międzynarodowych zobowiązań wynikających z Konwencji ONZ dotyczącej statusu uchodźców sporządzonej w Genewie dnia 28 lipca 1951 r., zmienionej protokołem z dnia 31 stycznia 1967 r. Nie powinny być one również wykorzystywane w żaden sposób do naruszania zasady non-refoulement ani do odmawiania bezpiecznych i skutecznych legalnych sposobów wjazdu na terytorium Unii, w tym prawa do ochrony międzynarodowej.
(61)
Tietyt oikeudenhoitoon ja demokraattisiin prosesseihin tarkoitetut tekoälyjärjestelmät olisi luokiteltava suuririskisiksi ottaen huomioon niiden mahdollinen merkittävä vaikutus demokratiaan, oikeusvaltioon, yksilön vapauksiin sekä oikeuteen tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen. Erityisesti mahdollisten vinoutumien, virheiden ja läpinäkymättömyyden riskeihin puuttumiseksi on aiheellista luokitella suuririskisiksi tekoälyjärjestelmät, joita on tarkoitus käyttää oikeusviranomaisten toimesta tai niiden puolesta ja joiden tarkoituksena on auttaa oikeusviranomaisia tutkimaan ja tulkitsemaan tosiseikkoja ja lainsäädäntöä sekä soveltamaan lainsäädäntöä konkreettisiin tosiseikkoihin. Tekoälyjärjestelmiä, joita vaihtoehtoisten riidanratkaisuelinten on tarkoitus käyttää näihin tarkoituksiin, olisi myös pidettävä suuririskisinä, jos vaihtoehtoisten riidanratkaisumenettelyjen tuloksilla on oikeusvaikutuksia osapuolille. Tekoälyvälineiden käytöllä voidaan tukea mutta se ei saisi korvata tuomareiden päätöksentekovaltaa tai oikeuslaitoksen riippumattomuutta, koska lopullisten päätösten on myös jatkossa oltava ihmisen tekemiä. Tekoälyjärjestelmien luokittelua suuririskiseksi ei kuitenkaan pitäisi ulottaa tekoälyjärjestelmiin, jotka on tarkoitettu puhtaasti hallinnollisiin tukitoimiin, jotka eivät vaikuta oikeudenkäyttöön yksittäisissä tapauksissa, kuten tuomioistuinten päätösten, asiakirjojen tai tietojen anonymisointiin tai pseudonymisointiin, henkilöstön väliseen viestintään tai hallinnollisiin tehtäviin.
(61)
Niektóre systemy AI przeznaczone na potrzeby sprawowania wymiaru sprawiedliwości i procesów demokratycznych należy zaklasyfikować jako systemy wysokiego ryzyka, biorąc pod uwagę ich potencjalnie istotny wpływ na demokrację, praworządność, wolności osobiste, a także prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu. W szczególności, aby wyeliminować potencjalne ryzyko stronniczości, błędów i efektu czarnej skrzynki, jako systemy wysokiego ryzyka należy zakwalifikować systemy AI przeznaczone do wykorzystania przez organy wymiaru sprawiedliwości lub w ich imieniu, aby pomóc tym organom w poszukiwaniu i interpretacji faktów i prawa oraz w stosowaniu przepisów prawa do konkretnego stanu faktycznego. Systemy AI przeznaczone do wykorzystania w tych celach przez organy alternatywnego rozstrzygania sporów również należy uznać za systemy wysokiego ryzyka, jeżeli wyniki postępowania w sprawie alternatywnego rozstrzygania sporów wywołują skutki prawne dla stron. Wykorzystanie narzędzi AI może wspierać uprawnienia decyzyjne sędziów lub niezależność sądownictwa, ale nie powinno ich zastępować; podejmowanie ostatecznej decyzji musi pozostać działaniem kierowanym przez człowieka. Kwalifikacja systemów AI jako systemów AI wysokiego ryzyka nie powinna jednak rozciągać się na systemy AI przeznaczone do czysto pomocniczych czynności administracyjnych, które nie mają wpływu na faktyczne sprawowanie wymiaru sprawiedliwości w poszczególnych przypadkach, takich jak anonimizacja lub pseudonimizacja orzeczeń sądowych, dokumentów lub danych, komunikacja między członkami personelu, zadania administracyjne.
(62)
Jotta voidaan puuttua perusoikeuskirjan 39 artiklassa vahvistettuun äänioikeuteen kohdistuviin asiattoman ulkopuolisen sekaantumisen riskeihin sekä riskeihin haitallisista vaikutuksista demokratiaan ja oikeusvaltioon, sellaiset tekoälyjärjestelmät olisi luokiteltava suuririskisiksi, jotka on tarkoitettu käytettäviksi vaikuttamaan vaalien tai kansanäänestysten tulokseen tai vaaleissa tai kansanäänestyksissä äänioikeuttaan käyttävien luonnollisten henkilöiden äänestyskäyttäytymiseen, lukuun ottamatta tekoälyjärjestelmiä, joiden tuotoksille luonnolliset henkilöt eivät suoraan altistu, kuten välineet, joita käytetään poliittisten kampanjoiden hallinnolliseen ja logistiseen järjestämiseen, optimointiin ja jäsentämiseen, sanotun kuitenkaan rajoittamatta Euroopan parlamentin ja neuvoston asetuksessa (EU) 2024/900 (34) säädettyjen sääntöjen soveltamista.
(62)
Bez uszczerbku dla przepisów ustanowionych w rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2024/900 (34) oraz aby zapobiec ryzyku nadmiernej zewnętrznej ingerencji w prawo do głosowania zapisane w art. 39 Karty oraz niepożądanemu wpływowi na demokrację i praworządność, systemy AI przeznaczone do wykorzystania, by wpływać na wynik wyborów lub referendum lub na zachowania wyborcze osób fizycznych podczas głosowania w wyborach lub referendach, należy zaklasyfikować jako systemy AI wysokiego ryzyka, z wyjątkiem systemów AI, na których wyniki osoby fizyczne nie są bezpośrednio narażone, takich jak narzędzia wykorzystywane do organizowania, optymalizacji i strukturyzowania kampanii politycznych z administracyjnego i logistycznego punktu widzenia.
(63)
Sen, että tekoälyjärjestelmä luokitellaan tässä asetuksessa suuririskiseksi tekoälyjärjestelmäksi, ei saisi tulkita osoittavan, että järjestelmän käyttö on laillista muiden unionin säädösten tai unionin oikeuden kanssa yhteensopivan kansallisen lainsäädännön nojalla, jota on annettu esimerkiksi henkilötietojen suojasta tai valheenpaljastimien ja vastaavien välineiden tai muiden järjestelmien käytöstä tai luonnollisen henkilön tunnetilan havaitsemisesta. Tällaisen käytön olisi jatkuttava yksinomaan perusoikeuskirjasta ja sovellettavista unionin johdetun oikeuden säädöksistä ja kansallisesta lainsäädännöstä johtuvien sovellettavien vaatimusten mukaisesti. Tätä asetusta ei pitäisi ymmärtää niin, että siinä säädettäisiin oikeusperustasta henkilötietojen käsittelylle, mukaan lukien tarvittaessa erityiset henkilötietoryhmät, ellei siitä nimenomaisesti toisin säädetä tässä asetuksessa.
(63)
Faktu, że dany system AI został zaklasyfikowany jako system AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, nie należy interpretować jako wskazującego na to, że korzystanie z tego systemu jest zgodne z prawem na podstawie innych aktów prawa Unii lub prawa krajowego zgodnego z prawem Unii, na przykład w zakresie ochrony danych osobowych, stosowania wariografów i podobnych narzędzi lub innych systemów służących wykrywaniu stanu emocjonalnego osób fizycznych. Każde takie wykorzystanie można kontynuować wyłącznie w sposób zgodny z mającymi zastosowanie wymogami wynikającymi z Karty oraz z mającymi zastosowanie aktami prawa wtórnego Unii i prawa krajowego. Niniejszego rozporządzenia nie należy rozumieć jako ustanawiającego podstawę prawną przetwarzania danych osobowych, w tym w stosownych przypadkach szczególnych kategorii danych osobowych, o ile niniejsze rozporządzenie nie stanowi wyraźnie inaczej.
(64)
Jotta voidaan vähentää riskejä, joita markkinoille saatetuista tai muuten käyttöön otetuista suuririskisistä tekoälyjärjestelmistä aiheutuu, ja jotta voidaan varmistaa korkea luotettavuuden taso, suuririskisiin tekoälyjärjestelmiin olisi sovellettava tiettyjä pakollisia vaatimuksia ottaen huomioon tekoälyjärjestelmän käyttötarkoitus ja -yhteys ja noudattaen tarjoajan perustamaa riskinhallintajärjestelmää. Toimenpiteissä, joita tarjoajat toteuttavat noudattaakseen tämän asetuksen pakollisia vaatimuksia, olisi otettava huomioon yleisesti tunnustettu tekoälyä koskeva viimeisin kehitys, ja niiden olisi oltava oikeasuhteisia ja tehokkaita tämän asetuksen tavoitteiden saavuttamiseksi. Uuden lainsäädäntökehyksen perusteella, kuten komission tiedonannossa ”Sininen opas – EU:n tuotesääntöjen täytäntöönpano-opas 2022” selvennetään, yleissääntönä on, että useampaa kuin yhtä unionin yhdenmukaistamislainsäädännön säädöstä voidaan soveltaa yhteen tuotteeseen, koska saataville asettaminen tai käyttöönotto voidaan sallia vain, jos tuote on kaiken sovellettavan unionin yhdenmukaistamislainsäädännön mukainen. Tämän asetuksen vaatimusten soveltamisalaan kuuluvien tekoälyjärjestelmien vaarat koskevat eri näkökohtia kuin voimassa oleva unionin yhdenmukaistamislainsäädäntö, minkä vuoksi tämän asetuksen vaatimukset täydentäisivät nykyistä unionin yhdenmukaistamislainsäädäntöä. Esimerkiksi tekoälyjärjestelmän sisältäviin koneisiin tai lääkinnällisiin laitteisiin voi liittyä riskejä, joita ei käsitellä asiaa koskevan unionin yhdenmukaistamislainsäädännön vahvistetuissa olennaisissa terveys- ja turvallisuusvaatimuksissa, koska kyseisessä alakohtaisessa lainsäädännössä ei käsitellä tekoälyjärjestelmille ominaisia riskejä.Tämä edellyttää eri säädösten samanaikaista ja täydentävää soveltamista. Johdonmukaisuuden varmistamiseksi sekä tarpeettoman hallinnollisen rasitteen ja turhien kustannusten välttämiseksi sellaisen tuotteen, joka sisältää yhden tai useamman suuririskisen tekoälyjärjestelmän, johon sovelletaan tämän asetuksen ja tämän asetuksen liitteessä luetellun uuteen lainsäädäntökehykseen perustuvan unionin yhdenmukaistamislainsäädännön vaatimuksia, tarjoajien olisi oltava joustavia niiden operatiivisten päätösten osalta, joilla varmistetaan parhaalla mahdollisella tavalla yhden tai useamman tekoälyjärjestelmän sisältävän tuotteen vaatimustenmukaisuus kaikkien kyseisen unionin yhdenmukaistetun lainsäädännön säännösten kanssa. Tämä joustavuus voisi tarkoittaa esimerkiksi tarjoajan päätöstä sisällyttää osa tämän asetuksen nojalla vaadittavista testaus- ja raportointiprosesseista, tiedoista ja asiakirjoista jo olemassa oleviin asiakirjoihin ja menettelyihin, joita edellytetään tämän asetuksen liitteessä lueteltuun uuteen lainsäädäntökehykseen perustuvassa voimassa olevassa unionin yhdenmukaistamislainsäädännössä. Tämä ei saisi millään tavoin vähentää tarjoajan velvollisuutta noudattaa kaikkia sovellettavia vaatimuksia.
(64)
Aby ograniczyć ryzyko stwarzane przez systemy AI wysokiego ryzyka wprowadzone do obrotu lub oddawane do użytku oraz aby zapewnić wysoki poziom wiarygodności, należy stosować pewne obowiązkowe wymogi do systemów AI wysokiego ryzyka, z uwzględnieniem przeznaczenia systemu AI i kontekstu jego wykorzystania oraz zgodnie z systemem zarządzania ryzykiem, który ma zostać ustanowiony przez dostawcę. Środki przyjęte przez dostawców w celu zapewnienia zgodności z obowiązkowymi wymogami niniejszego rozporządzenia powinny uwzględniać powszechnie uznany stan wiedzy technicznej w zakresie AI, być proporcjonalne i skuteczne do osiągnięcia celów niniejszego rozporządzenia. W oparciu o nowe ramy prawne, jak wyjaśniono w zawiadomieniu Komisji „Niebieski przewodnik – wdrażanie unijnych przepisów dotyczących produktów 2022”, ogólna zasada stanowi, że do jednego produktu można stosować więcej niż jedne akt prawny unijnego prawodawstwa harmonizacyjnego, ponieważ udostępnianie lub oddawanie do użytku może mieć miejsce tylko wtedy, gdy produkt jest zgodny z całością obowiązującego unijnego prawodawstwa harmonizacyjnego. Zagrożenia związane z systemami AI objętymi wymogami niniejszego rozporządzenia dotyczą innych aspektów niż obowiązujące unijne prawodawstwo harmonizacyjne, w związku z czym wymogi niniejszego rozporządzenia uzupełnią obowiązujące unijne prawodawstwo harmonizacyjne. Na przykład maszyny lub wyroby medyczne zawierające system AI mogą stwarzać ryzyko, które nie zostało uwzględnione w zasadniczych wymogach w zakresie zdrowia i bezpieczeństwa ustanowionych w odpowiednim unijnym prawodawstwie harmonizacyjnym, ponieważ to prawo sektorowe nie reguluje ryzyka specyficznego dla systemów AI. Wymaga to jednoczesnego i komplementarnego stosowania różnych aktów ustawodawczych. Aby zapewnić spójność i uniknąć niepotrzebnych obciążeń administracyjnych i niepotrzebnych kosztów, dostawcy produktu, który zawiera co najmniej jeden system AI wysokiego ryzyka, do którego stosuje się wymogi niniejszego rozporządzenia i unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, wymienionego w załączniku do niniejszego rozporządzenia, powinni mieć swobodę w zakresie decyzji operacyjnych dotyczących sposobu zapewnienia w optymalny sposób zgodności produktu zawierającego co najmniej jeden system AI ze wszystkimi mającymi zastosowanie wymogami unijnego prawodawstwa harmonizacyjnego. Swoboda ta może oznaczać na przykład decyzję dostawcy o włączeniu części niezbędnych procesów testowania i sprawozdawczości, informacji i dokumentacji wymaganych na mocy niniejszego rozporządzenia do już istniejącej dokumentacji i procedur wymaganych na mocy obowiązującego unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych i wymienionego w załączniku do niniejszego rozporządzenia. Nie powinno to w żaden sposób podważać spoczywającego na dostawcy obowiązku zapewnienia zgodności z wszystkimi mającymi zastosowanie wymogami.
(65)
Riskinhallintajärjestelmän olisi koostuttava iteratiivisesta prosessista, joka jatkuu suunnitellusti suuririskisen tekoälyjärjestelmän koko elinkaaren ajan. Kyseisellä prosessilla olisi pyrittävä määrittämään ja lieventämään tekoälyjärjestelmien terveyteen, turvallisuuteen ja perusoikeuksiin liittyviä riskejä. Riskinhallintajärjestelmää olisi tarkasteltava ja päivitettävä säännöllisesti, jotta voidaan varmistaa sen jatkuva tehokkuus sekä tämän asetuksen soveltamisalaan kuuluvien merkittävien päätösten ja toteutettujen toimien perustelut ja dokumentointi. Tällä prosessilla olisi varmistettava, että tarjoaja määrittää riskit tai haitalliset vaikutukset ja toteuttaa lieventäviä toimenpiteitä ottaen huomioon tekoälyjärjestelmien käyttötarkoituksen ja kohtuudella ennakoitavissa olevan väärinkäytön, jotta voidaan torjua niiden terveyteen, turvallisuuteen ja perusoikeuksiin kohdistuvia tunnettuja ja kohtuudella ennakoitavissa olevia riskejä, mukaan lukien mahdolliset riskit, jotka johtuvat tekoälyjärjestelmän ja sen toimintaympäristön välisestä vuorovaikutuksesta. Riskinhallintajärjestelmässä olisi otettava käyttöön asianmukaisimmat riskinhallintatoimenpiteet ottaen huomioon tekoälyn viimeisin kehitys. Asianmukaisimpia riskinhallintatoimenpiteitä määrittäessään tarjoajan olisi dokumentoitava ja selitettävä tehdyt valinnat sekä tarvittaessa otettava mukaan asiantuntijoita ja ulkopuolisia sidosryhmiä. Määrittäessään suuririskisten tekoälyjärjestelmien kohtuudella ennakoitavissa olevaa väärinkäyttöä tarjoajan olisi käsiteltävä tekoälyjärjestelmien käyttötarkoitukset, joiden voidaan kohtuudella olettaa johtuvan ihmisen helposti ennustettavissa olevasta käyttäytymisestä tietyn tekoälyjärjestelmän ominaisuuksien ja käytön yhteydessä, vaikka ne eivät kuuluisi suoraan käyttötarkoituksen piiriin ja niitä ei ole mainittu käyttöohjeissa. Kaikki tunnetut tai ennakoitavissa olevat olosuhteet, jotka liittyvät suuririskisen tekoälyjärjestelmän käyttöön sen käyttötarkoituksen mukaisesti tai kohtuudella ennakoitavissa olevissa väärinkäytön olosuhteissa ja jotka voivat aiheuttaa terveyteen, turvallisuuteen tai perusoikeuksiin kohdistuvia riskejä, olisi sisällytettävä tarjoajan antamiin käyttöohjeisiin. Näin varmistetaan, että käyttöönottaja on tietoinen niistä ja ottaa ne huomioon käyttäessään suuririskistä tekoälyjärjestelmää. Tämän asetuksen mukaisten ennakoitavissa olevan väärinkäytön riskinvähentämistoimenpiteiden määrittäminen ja toteuttaminen ei saisi edellyttää tarjoajalta suuririskistä tekoälyjärjestelmää koskevaa erityistä lisäkoulutusta ennakoitavissa olevan väärinkäytön käsittelemiseksi. Tarjoajia kannustetaan kuitenkin harkitsemaan tällaisia lisäkoulutustoimenpiteitä tarpeen mukaan kohtuullisesti ennakoitavissa olevien väärinkäytösten lieventämiseksi.
(65)
System zarządzania ryzykiem powinien obejmować ciągły, iteracyjny proces, który jest planowany i realizowany przez cały cykl życia systemu AI wysokiego ryzyka. Proces ten powinien mieć na celu identyfikację i ograniczenie istotnego ryzyka, jakie systemy AI stwarzają dla zdrowia, bezpieczeństwa i praw podstawowych. System zarządzania ryzykiem powinien podlegać regularnym przeglądom i aktualizacji, aby zapewnić jego stałą skuteczność oraz uzasadnienie i dokumentację wszelkich istotnych decyzji i działań podjętych zgodnie z niniejszym rozporządzeniem. Proces ten powinien zapewniać, aby dostawca identyfikował ryzyko lub niepożądany wpływ oraz wdrażał środki ograniczające znane i racjonalnie przewidywalne ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych związane z systemami AI w świetle ich przeznaczenia i dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, w tym możliwego ryzyka wynikającego z interakcji między systemem AI a środowiskiem, w którym ten system działa. W systemie zarządzania ryzykiem należy przyjąć najbardziej odpowiednie – w świetle aktualnego stanu wiedzy technicznej w dziedzinie AI – środki zarządzania ryzykiem. Przy określaniu najbardziej odpowiednich środków zarządzania ryzykiem dostawca powinien udokumentować i wyjaśnić dokonane wybory oraz, w stosownych przypadkach, zaangażować ekspertów i zewnętrzne zainteresowane strony. Identyfikując dające się racjonalnie przewidzieć niewłaściwe wykorzystanie systemów AI wysokiego ryzyka, dostawca powinien uwzględnić przypadki wykorzystania systemów AI, w odniesieniu do których można zasadnie oczekiwać, że będą one wynikać z łatwo przewidywalnego zachowania ludzkiego w kontekście szczególnych cech i wykorzystania danego systemu AI, chociaż takich przypadków wykorzystania nie przewidziano w przeznaczeniu danego systemu ani w jego instrukcji obsługi. Wszelkie znane lub dające się przewidzieć okoliczności związane z wykorzystaniem systemu AI wysokiego ryzyka zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, mogące powodować ryzyko dla zdrowia i bezpieczeństwa lub praw podstawowych, powinny zostać uwzględnione w instrukcji obsługi dostarczonej przez dostawcę. Ma to na celu zapewnienie, aby podmiot stosujący był ich świadomy i uwzględniał je przy korzystaniu z systemu AI wysokiego ryzyka. Określenie i wdrożenie – na podstawie niniejszego rozporządzenia – środków ograniczających ryzyko w odniesieniu dodającego się przewidzieć niewłaściwego wykorzystania nie powinno wymagać od dostawcy wprowadzenia szczególnego dodatkowego szkolenia, by zaradzić temu dającemu się przewidzieć niewłaściwemu wykorzystaniu. Zachęca się jednak dostawców do rozważenia takich dodatkowych środków szkoleniowych w celu ograniczenia dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, o ile będzie to konieczne i stosowne.
(66)
Suuririskisiin tekoälyjärjestelmiin olisi sovellettava vaatimuksia, jotka koskevat käytettyjen datajoukkojen riskinhallintaa, laatua ja merkityksellisyyttä, teknistä dokumentaatiota ja tietojen säilyttämistä, avoimuutta ja tietojen antamista käyttöönottajille, ihmisen suorittamaa valvontaa sekä vakautta, tarkkuutta ja kyberturvallisuutta. Nämä vaatimukset ovat tarpeen, jotta voidaan tehokkaasti vähentää terveyteen, turvallisuuteen ja perusoikeuksiin kohdistuvia riskejä. Koska muita vähemmän kauppaa rajoittavia toimenpiteitä ei ole kohtuudella käytettävissä, ja näin ollen kyseiset vaatimukset eivät ole perusteettomia kaupan rajoituksia.
(66)
Do systemów AI wysokiego ryzyka należy stosować wymogi dotyczące zarządzania ryzykiem, jakości i istotności wykorzystywanych zbiorów danych, dokumentacji technicznej i rejestrowania zdarzeń, przejrzystości i przekazywania informacji podmiotom stosującym, nadzoru ze strony człowieka oraz solidności, dokładności i cyberbezpieczeństwa. Wymogi te są konieczne, aby skutecznie ograniczyć ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych. Z uwagi na brak innych racjonalnie dostępnych środków, które powodowałyby mniejsze ograniczenia w handlu, wymogi te nie stanowią nieuzasadnionych ograniczeń w handlu.
(67)
Korkealaatuisella datalla ja sen saatavuudella on ensisijainen rooli monien tekoälyjärjestelmien rakenteen luomisen ja suorituskyvyn varmistamisen kannalta, erityisesti kun käytetään tekniikoita, joihin sisältyy mallien kouluttamista, jotta voidaan varmistaa, että suuririskinen tekoälyjärjestelmä toimii tarkoitetulla tavalla ja turvallisesti eikä siitä tule unionin oikeudessa kiellettyä syrjinnän lähdettä. Korkealaatuiset koulutus-, validointi- ja testausdatajoukot edellyttävät asianmukaisten datanhallinta- ja hallinnointikäytäntöjen täytäntöönpanoa. Koulutus-, validointi- ja testausdatajoukkojen, myös tunnisteiden, olisi oltava merkityksellisiä, riittävän edustavia ja niin suurelta osin kuin mahdollista virheettömiä ja täydellisiä järjestelmän käyttötarkoitusta ajatellen. Datanhallinta- ja hallinnointikäytäntöihin olisi henkilötietojen osalta sisällytettävä avoimuus datankeruun alkuperäisestä tarkoituksesta, jotta voidaan helpottaa unionin tietosuojalainsäädännön, kuten asetuksen (EU) 2016/679, noudattamista. Datajoukoilla olisi myös oltava asianmukaiset tilastolliset ominaisuudet, myös niiden henkilöiden tai henkilöryhmien osalta, joihin suuririskistä tekoälyjärjestelmää on tarkoitus käyttää, kiinnittäen erityistä huomiota sellaisten datajoukkojen mahdollisten vinoutumien vähentämiseen, jotka todennäköisesti vaikuttavat henkilöiden terveyteen ja turvallisuuteen, vaikuttavat kielteisesti perusoikeuksiin tai johtavat unionin oikeudessa kiellettyyn syrjintään, erityisesti silloin, kun datan tuotokset vaikuttavat tulevien toimintojen syöttötietoihin (palautesilmukat). Taustalla oleviin datajoukkoihin voi esimerkiksi sisältyä vinoutumia erityisesti silloin, kun käytetään historiallisia tietoja tai kun järjestelmät otetaan käyttöön todellisissa olosuhteissa.Dataan sisältyvät vinoutumat voivat vaikuttaa tekoälyjärjestelmien tuottamiin tuloksiin, ja tällaisilla vinoutumilla on taipumus vähitellen lisääntyä ja siten ylläpitää ja lisätä olemassa olevaa syrjintää erityisesti tiettyihin haavoittuvassa asemassa oleviin ryhmiin, myös rodullisiin tai etnisiin ryhmiin, kuuluvien henkilöiden osalta. Datajoukkojen mahdollisimman suurta täydellisyyttä ja virheettömyyttä koskeva vaatimus ei saisi vaikuttaa yksityisyyden suojaa parantavien tekniikoiden käyttöön tekoälyjärjestelmien kehittämisen ja testauksen yhteydessä. Datajoukoissa olisi otettava erityisesti huomioon niiden käyttötarkoituksen edellyttämässä laajuudessa ne ominaispiirteet, ominaisuudet tai osatekijät, jotka ovat ominaisia sille maantieteelliselle, viitekehyksenä olevalle, käyttäytymiseen liittyvälle tai toiminnalliselle ympäristölle, jossa tekoälyjärjestelmää on tarkoitus käyttää. Datanhallintaan liittyviä vaatimuksia voidaan noudattaa turvautumalla kolmansiin osapuoliin, jotka tarjoavat sertifioituja vaatimustenmukaisuuspalveluja, mukaan lukien datanhallinnan, datajoukkojen eheyden sekä dataa koskevien koulutus-, validointi- ja testauskäytäntöjen todentaminen, kunhan tämän asetuksen datavaatimusten noudattaminen on varmistettu.
(67)
Wysokiej jakości dane i dostęp do wysokiej jakości danych odgrywają kluczową rolę w ustanawianiu struktury i zapewnianiu skuteczności działania wielu systemów AI, w szczególności w przypadku stosowania technik obejmujących trenowanie modeli, w celu zapewnienia, aby system AI wysokiego ryzyka działał zgodnie z przeznaczeniem i bezpiecznie oraz aby nie stał się źródłem zakazanej przez prawo Unii dyskryminacji. Wysokiej jakości zbiory danych treningowych, walidacyjnych i testowych wymagają wdrożenia odpowiednich praktyk w zakresie administrowania i zarządzania danymi. Zbiory danych treningowych, walidacyjnych i testowych, w tym etykiety, powinny być adekwatne, wystarczająco reprezentatywne oraz w jak największym stopniu wolne od błędów i kompletne z punktu widzenia przeznaczenia systemu. Aby ułatwić zapewnienie zgodności z prawem Unii o ochronie danych, takim jak rozporządzenie (UE) 2016/679, praktyki w zakresie administrowania i zarządzania danymi powinny przewidywać, w przypadku danych osobowych, zapewnianie przejrzystości pierwotnego celu zbierania danych. Te zbiory danych powinny również charakteryzować się odpowiednimi właściwościami statystycznymi, w tym w odniesieniu do osób lub grup osób, wobec których system AI wysokiego ryzyka ma być wykorzystywany, ze szczególnym uwzględnieniem ograniczania ewentualnej stronniczości w zbiorach danych, która może mieć wpływ na zdrowie i bezpieczeństwo osób, negatywnie oddziaływać na prawa podstawowe lub prowadzić do dyskryminacji zakazanej na mocy prawa Unii, zwłaszcza w przypadku gdy dane wyjściowe wpływają na dane wejściowe wykorzystywane na potrzeby przyszłych operacji (sprzężenie zwrotne, ang. feedback loops). Stronniczość może być na przykład nieodłączną cechą źródłowych zbiorów danych, szczególnie jeżeli używa się danych historycznych lub wygenerowanych na etapie wdrażania systemów w warunkach rzeczywistych. Na wyniki generowane przez systemy AI może wpływać taka nieodłączna stronniczość, która z zasady stopniowo zwiększa się, a tym samym utrwala i pogłębia istniejącą dyskryminację, zwłaszcza w odniesieniu do osób należących do grup szczególnie wrażliwych, w tym grup rasowych lub etnicznych. Wymóg, aby zbiory danych były w jak największym stopniu kompletne i wolne od błędów, nie powinien wpływać na stosowanie technik ochrony prywatności w kontekście wdrażania i testowania systemów AI. W szczególności zbiory danych powinny uwzględniać – w zakresie wymaganym z uwagi na ich przeznaczenie – cechy, właściwości lub elementy, które są specyficzne dla określonego otoczenia geograficznego, kontekstualnego, behawioralnego lub funkcjonalnego, w którym dany system AI ma być wykorzystywany. Zgodność z wymogami związanymi z zarządzaniem danymi można zapewnić, korzystając z usług stron trzecich, które oferują certyfikowane usługi w zakresie zgodności, w tym weryfikację zarządzania danymi i integralności zbioru danych oraz praktyki w zakresie trenowania, walidacji i testowania danych, o ile zapewniona jest zgodność z wymogami dotyczącymi danych określonymi w niniejszym rozporządzeniu.
(68)
Suuririskisten tekoälyjärjestelmien kehittämiseksi ja arvioimiseksi tiettyjen toimijoiden, esimerkiksi tarjoajien, ilmoitettujen laitosten ja muiden asiaankuuluvien tahojen, kuten digitaali-innovaatiokeskittymien, testauslaitosten ja tutkijoiden, olisi voitava saada käyttöönsä ja käyttää korkealaatuisia datajoukkoja tähän asetukseen liittyvillä kyseisten toimijoiden toiminta-aloilla. Komission perustama yhteinen eurooppalainen data-avaruus ja datan jakamisen helpottaminen yritysten välillä ja viranomaisten kanssa yleisen edun nimissä ovat ratkaisevan tärkeitä, jotta voidaan tarjota luotettava, vastuullinen ja syrjimätön pääsy korkealaatuiseen dataan tekoälyjärjestelmien koulutusta, validointia ja testausta varten. Esimerkiksi terveydenhuollon alalla eurooppalainen terveysdata-avaruus helpottaa terveysdatan syrjimätöntä saatavuutta ja tekoälyalgoritmien koulutusta näillä datajoukoilla yksityisyyden suojaavalla, turvallisella, oikea-aikaisella, avoimella ja luotettavalla tavalla ja asianmukaisen institutionaalisen hallinnon alaisena. Asiaankuuluvat toimivaltaiset viranomaiset, myös alakohtaiset viranomaiset, jotka tarjoavat dataa tai tukevat datan saatavuutta, voivat myös tukea korkealaatuisen datan tarjoamista tekoälyjärjestelmien koulutusta, validointia ja testausta varten.
(68)
Przy wdrażaniu i ocenie systemów AI wysokiego ryzyka niektóre podmioty, takie jak dostawcy, jednostki notyfikowane i inne odpowiednie podmioty, takie jak europejskie centra innowacji cyfrowych, ośrodki testowo-doświadczalne i naukowcy, powinny mieć możliwość uzyskania dostępu do wysokiej jakości zbiorów danych i korzystania z nich w zakresie obszarów działalności tych podmiotów związanych z niniejszym rozporządzeniem. Wspólne europejskie przestrzenie danych ustanowione przez Komisję oraz ułatwienie wymiany danych między przedsiębiorstwami i udostępniania danych administracji publicznej w interesie publicznym będą miały zasadnicze znaczenie dla zapewnienia zaufanego, odpowiedzialnego i niedyskryminacyjnego dostępu do danych wysokiej jakości na potrzeby trenowania, walidacji i testowania systemów AI. Na przykład w dziedzinie zdrowia europejska przestrzeń danych dotyczących zdrowia ułatwi niedyskryminacyjny dostęp do danych dotyczących zdrowia oraz trenowanie algorytmów AI na tych zbiorach danych w sposób bezpieczny, terminowy, przejrzysty, wiarygodny i zapewniający ochronę prywatności oraz z odpowiednim zarządzaniem instytucjonalnym. Odpowiednie właściwe organy, w tym organy sektorowe, zapewniające dostęp do danych lub wspierające taki dostęp, mogą również wspierać dostarczanie wysokiej jakości danych na potrzeby trenowania, walidacji i testowania systemów AI.
(69)
Oikeus yksityisyyteen ja henkilötietojen suojaan on taattava tekoälyjärjestelmän koko elinkaaren ajan. Tässä yhteydessä henkilötietojen käsittelyn osalta sovelletaan tietojen minimoinnin ja sisäänrakennetun ja oletusarvoisen tietosuojan periaatteita, sellaisina kuin niistä säädetään unionin tietosuojalainsäädännössä. Kyseisten periaatteiden noudattamisen varmistamiseksi tarjoajat toteuttavat toimenpiteitä, joihin voi anonymisoinnin ja salauksen lisäksi kuulua myös sellaisen teknologian käyttö, joka mahdollistaa sekä algoritmien tuomisen dataan että tekoälyjärjestelmien kouluttamisen ilman osapuolten välistä siirtoa tai itse raakadatan tai jäsennellyn datan kopiointia, sanotun kuitenkaan rajoittamatta tässä asetuksessa säädettyjen datan hallintaa koskevien vaatimusten soveltamista.
(69)
Prawo do prywatności i ochrony danych osobowych musi być zagwarantowane przez cały cykl życia systemu AI. W tym względzie, gdy przetwarzane są dane osobowe, zastosowanie mają zasady minimalizacji danych oraz uwzględnienia ochrony danych już w fazie projektowania i domyślnej ochrony danych, które określono w prawie Unii o ochronie danych. Środki podejmowane przez dostawców w celu zapewnienia zgodności z tymi zasadami mogą obejmować nie tylko anonimizację i szyfrowanie, ale również wykorzystanie technologii, która umożliwia wprowadzanie algorytmów do danych i umożliwia trenowanie systemów AI bez przekazywania między stronami lub kopiowania samych surowych lub ustrukturyzowanych danych, bez uszczerbku dla wymogów dotyczących zarządzania danymi przewidzianych w niniejszym rozporządzeniu.
(70)
Jotta voitaisiin suojella muita tekoälyjärjestelmissä esiintyvästä vinoutumisesta mahdollisesti johtuvalta syrjinnältä, tarjoajien olisi suuririskisten tekoälyjärjestelmien vinoutumien havaitsemisen ja korjaamisen varmistamiseksi voitava, poikkeuksellisesti ja siinä määrin kuin se on ehdottoman välttämätöntä sekä soveltaen luonnollisten henkilöiden perusoikeuksia ja -vapauksia koskevia asianmukaisia suojatoimia sekä kaikkia tässä asetuksessa säädettyjä sovellettavia ehtoja asetuksissa (EU) 2016/679 ja (EU) 2018/1725 sekä direktiivissä (EU) 2016/680 säädettyjen edellytysten lisäksi, käsitellä myös erityisiä henkilötietoryhmiä asetuksen (EU) 2016/679 9 artiklan 2 kohdan g alakohdassa ja asetuksen (EU) 2018/1725 10 artiklan 2 kohdan g alakohdassa tarkoitetun tärkeän yleisen edun nimissä.
(70)
W celu ochrony praw innych osób przed dyskryminacją, która może wynikać ze stronniczości systemów AI, dostawcy powinni wyjątkowo, w zakresie, w jakim jest to bezwzględnie konieczne do celów zapewnienia wykrywania i korygowania stronniczości w odniesieniu do systemów AI wysokiego ryzyka – z zastrzeżeniem odpowiednich zabezpieczeń w zakresie podstawowych praw i wolności osób fizycznych oraz po spełnieniu wszystkich mających zastosowanie warunków ustanowionych w niniejszym rozporządzeniu, w uzupełnieniu warunków ustanowionych w rozporządzeniach (UE) 2016/679 i (UE) 2018/1725 oraz w dyrektywie (UE) 2016/680 – mieć możliwość przetwarzania również szczególnych kategorii danych osobowych w związku z istotnym interesem publicznym w rozumieniu art. 9 ust. 2 lit. g) rozporządzenia (UE) 2016/679 i art. 10 ust. 2 lit. g) rozporządzenia (UE) 2018/1725.
(71)
Tämän asetuksen vaatimusten noudattamisen todentamisen kannalta on olennaisen tärkeää saada ymmärrettävää tietoa siitä, miten suuririskiset tekoälyjärjestelmät on kehitetty ja miten ne toimivat koko niiden käyttöiän ajan, jotta voidaan mahdollistaa näiden järjestelmien jäljitettävyys sekä niiden toiminnan ja markkinoille saattamisen jälkeinen seuranta. Tämä edellyttää, että tiedot säilytetään ja että saatavilla on tekninen dokumentaatio, joka sisältää tiedot, joita tarvitaan sen arvioimiseksi, onko tekoälyjärjestelmä asiaankuuluvien vaatimusten mukainen, ja markkinoille saattamisen jälkeisen seurannan helpottamiseksi. Tällaisiin tietoihin olisi sisällyttävä järjestelmän yleiset ominaisuudet, valmiudet ja rajoitukset, algoritmit, data, koulutus, testaus- ja validointiprosessit sekä sovellettua riskinhallintajärjestelmää koskevat asiakirjat, ja ne olisi laadittava selkeässä ja ymmärrettävässä muodossa. Tekninen dokumentaatio olisi pidettävä asianmukaisesti ajan tasalla tekoälyjärjestelmän koko käyttöiän ajan. Lisäksi suuririskisissä tekoälyjärjestelmissä olisi mahdollistettava teknisesti tapahtumien automaattinen tallentaminen lokitietojen muodossa järjestelmän käyttöiän keston ajan.
(71)
Dysponowanie zrozumiałymi informacjami na temat tego, w jaki sposób rozwinięto systemy AI wysokiego ryzyka i jak działają one w całym cyklu życia, ma zasadnicze znaczenie dla umożliwienia identyfikowalności tych systemów, weryfikacji zgodności z wymogami określonymi w niniejszym rozporządzeniu, a także dla monitorowania ich działania i monitorowania po wprowadzeniu do obrotu. W tym celu konieczne jest prowadzenie rejestrów zdarzeń oraz zapewnienie dostępności dokumentacji technicznej zawierającej informacje niezbędne do oceny zgodności systemu AI z odpowiednimi wymogami i do ułatwienia monitorowania po wprowadzeniu do obrotu. Informacje takie powinny być podane w jasnej i kompleksowej formie i obejmować ogólne cechy, zdolności i ograniczenia systemu, algorytmy, dane, procesy związane z trenowaniem, testowaniem i walidacją, a także dokumentację dotyczącą odpowiedniego systemu zarządzania ryzykiem. Dokumentacja techniczna powinna podlegać odpowiedniej aktualizacji w całym cyklu życia systemu AI. Ponadto w systemach AI wysokiego ryzyka powinno być technicznie możliwe automatyczne rejestrowanie zdarzeń – za pomocą rejestrów zdarzeń – w całym cyklu życia systemu.
(72)
Jotta voidaan puuttua tiettyjen tekoälyjärjestelmien läpinäkymättömyyteen ja monimutkaisuuteen liittyviin huolenaiheisiin ja auttaa käyttöönottajia täyttämään tämän asetuksen mukaiset velvoitteensa, suuririskisiltä tekoälyjärjestelmiltä olisi edellytettävä avoimuutta, ennen kuin ne saatetaan markkinoille tai otetaan käyttöön. Suuririskiset tekoälyjärjestelmät olisi suunniteltava siten, että käyttöönottajat voivat ymmärtää, miten tekoälyjärjestelmä toimii, arvioida sen toimivuutta ja ymmärtää sen vahvuuksia ja rajoituksia. Suuririskisten tekoälyjärjestelmien mukana olisi oltava asianmukaiset tiedot käyttöohjeiden muodossa. Tällaisiin tietoihin olisi sisällyttävä tekoälyjärjestelmän ominaisuudet, valmiudet ja suorituskyvyn rajoitukset. Nämä kattaisivat tiedot mahdollisista suuririskisen tekoälyjärjestelmän käyttöön liittyvistä tunnetuista ja ennakoitavissa olevista olosuhteista, mukaan lukien käyttöönottajan toiminta, joka voi vaikuttaa järjestelmän käyttäytymiseen ja suorituskykyyn, jolloin tekoälyjärjestelmä voi aiheuttaa terveyteen, turvallisuuteen ja perusoikeuksiin kohdistuvia riskejä; muutoksista, jotka tarjoaja on ennalta määrittänyt ja joiden vaatimustenmukaisuuden se on arvioinut; sekä asiaankuuluvista ihmisen suorittamista valvontatoimenpiteistä, mukaan lukien toimenpiteet, joilla helpotetaan tekoälyjärjestelmän tuotosten tulkintaa käyttöönottajille. Avoimuuden, myös mukana olevien käyttöohjeiden, olisi avustettava käyttöönottajia järjestelmän käytössä ja tuettava heitä tietoon perustuvassa päätöksenteossa. Käyttöönottajilla olisi muun muassa oltava paremmat mahdollisuudet valita, ottaen huomioon niihin sovellettavat velvoitteet, oikea järjestelmä, jota he aikovat käyttää, saada tietoa käyttötarkoituksesta tai käytön esteistä sekä käyttää tekoälyjärjestelmää oikein ja tarpeen mukaan. Käyttöohjeisiin olisi tarvittaessa sisällytettävä havainnollistavia esimerkkejä esimerkiksi tekoälyjärjestelmän rajoituksista sekä käyttötarkoituksesta ja käytön esteistä, jotta voidaan parantaa niihin sisältyvien tietojen luettavuutta ja saatavuutta. Tarjoajien olisi varmistettava, että kaikki asiakirjat, myös käyttöohjeet, sisältävät merkityksellisiä, kattavia, helposti saatavilla olevia ja ymmärrettäviä tietoja, joissa otetaan huomioon kohteena olevien käyttöönottajien tarpeet ja ennakoitavissa oleva tietämys. Käyttöohjeet olisi asetettava saataville kohteena olevien käyttöönottajien helposti ymmärtämällä, asianomaisen jäsenvaltion määräämällä kielellä.
(72)
Aby zająć się kwestiami związanymi z efektem czarnej skrzynki i złożonością niektórych systemów AI i pomóc podmiotom stosującym w spełnianiu ich obowiązków ustanowionych w niniejszym rozporządzeniu, od systemów AI wysokiego ryzyka należy wymagać określonego stopnia przejrzystości przed wprowadzeniem ich do obrotu lub oddaniem ich do użytku. Systemy AI wysokiego ryzyka należy projektować w taki sposób, aby umożliwić podmiotom stosującym zrozumienie funkcjonowania systemu AI, ocenę jego funkcjonalności oraz zrozumienie jego mocnych stron i ograniczeń. Systemom AI wysokiego ryzyka powinny towarzyszyć odpowiednie informacje w formie instrukcji obsługi. Takie informacje powinny obejmować cechy, zdolności i ograniczenia skuteczności działania systemu AI. Obejmowałyby one informacje na temat ewentualnych znanych i dających się przewidzieć okoliczności związanych z wykorzystaniem systemu AI wysokiego ryzyka, w tym działań podmiotu stosującego, które mogą wpływać na zachowanie i skuteczność działania systemu, i w których to okolicznościach system AI może powodować ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych; a także informacje na temat zmian, które zostały z góry zaplanowane i ocenione pod kątem zgodności przez dostawcę, oraz na temat odpowiednich środków nadzoru ze strony człowieka, w tym środków ułatwiających podmiotom stosującym AI interpretację wyników systemu AI. Przejrzystość, w tym towarzyszące instrukcje obsługi, powinny pomóc podmiotom stosującym w korzystaniu z systemu i wspierać podejmowanie przez te podmioty świadomych decyzji. Podmioty stosujące powinny, między innymi, być lepiej przygotowane, aby dokonać właściwego wyboru systemu, z którego zamierzają korzystać w świetle mających do nich zastosowanie obowiązków, mieć wiedzę na temat zamierzonych i wykluczonych sposobów wykorzystania oraz prawidłowo i odpowiednio korzystać z systemu AI. Aby zwiększyć czytelność i dostępność informacji zawartych w instrukcji obsługi, w stosownych przypadkach należy uwzględnić konkretne przykłady, takie jak przykłady ograniczeń czy zamierzonych i wykluczonych sposobów wykorzystania systemu AI. Dostawcy powinni zapewnić, aby wszelka dokumentacja, w tym instrukcje obsługi, zawierała istotne, wyczerpujące, dostępne i zrozumiałe informacje, z uwzględnieniem potrzeb docelowych podmiotów stosujących i prawdopodobnie posiadanej przez te podmioty wiedzy. Instrukcje obsługi powinny być udostępniane w języku łatwo zrozumiałym dla docelowych podmiotów stosujących, określonym przez zainteresowane państwo członkowskie.
(73)
Suuririskiset tekoälyjärjestelmät olisi suunniteltava ja kehitettävä siten, että luonnolliset henkilöt voivat valvoa niiden toimintaa, varmistaa niiden käytön tarkoitetulla tavalla ja että niiden vaikutuksia käsitellään koko järjestelmän elinkaaren ajan. Tätä varten järjestelmän tarjoajan olisi määritettävä asianmukaiset ihmisen suorittamat valvontatoimenpiteet ennen järjestelmän markkinoille saattamista tai käyttöönottoa. Tällaisilla toimenpiteillä olisi tarvittaessa erityisesti varmistettava, että järjestelmässä on sisäänrakennettuja toiminnallisia rajoituksia, joita järjestelmä ei voi itse ohittaa ja jotka vastaavat ihmiskäyttäjän komentoihin, ja että luonnollisilla henkilöillä, joiden tehtäväksi ihmisen suorittama valvonta on annettu, on tarvittava pätevyys, koulutus ja valtuudet tämän tehtävän hoitamiseksi. On myös olennaisen tärkeää tarpeen mukaan varmistaa, että suuririskiset tekoälyjärjestelmät sisältävät mekanismeja, joilla annetaan ohjausta ja tietoa luonnolliselle henkilölle, jonka tehtäväksi ihmisen suorittama valvonta on annettu jotta hän voi tehdä tietoon perustuvia päätöksiä siitä, milloin ja millä keinoin asiaan on puututtava, jos ollenkaan, jotta voidaan välttää kielteiset seuraukset tai riskit taikka pysäyttää järjestelmä, jos se ei toimi tarkoitetulla tavalla. Ottaen huomioon tiettyjen biometristen tunnistusjärjestelmien virheellisestä tuloksesta henkilöille aiheutuvat merkittävät seuraukset, on asianmukaista säätää tehostettua ihmisen suorittamaa valvontaa koskevasta vaatimuksesta näiden järjestelmien osalta siten, että käyttöönottaja ei voi suorittaa toimea tai tehdä päätöstä järjestelmästä johtuvan tunnistamisen perusteella, ellei vähintään kaksi luonnollista henkilöä ole erikseen varmistanut ja vahvistanut sitä. Nämä henkilöt voivat olla yhdestä tai useammasta toimijasta ja heihin voi sisältyä järjestelmää hoitava tai käyttävä henkilö. Tämä vaatimus ei saisi aiheuttaa tarpeetonta rasitetta tai viiveitä, ja voi olla riittävää, että eri henkilöiden suorittamat erilliset varmistukset tallennetaan automaattisesti järjestelmän tuottamiin lokitietoihin. Kun otetaan huomioon lainvalvontaan, muuttoliikkeeseen, rajavalvontaan ja turvapaikka-asioihin liittyvät erityispiirteet, tätä vaatimusta ei pitäisi soveltaa, jos unionin oikeudessa tai kansallisessa lainsäädännössä katsotaan, että kyseisen vaatimuksen soveltaminen on suhteetonta.
(73)
Systemy AI wysokiego ryzyka należy projektować i rozwijać w taki sposób, aby osoby fizyczne mogły nadzorować ich funkcjonowanie, zapewniać, by ich wykorzystanie było zgodne z przeznaczeniem oraz zapewniać, aby skutki ich wykorzystania były uwzględniane w całym cyklu życia systemu. W tym celu przed wprowadzeniem systemu do obrotu lub oddaniem go do użytku dostawca systemu powinien określić odpowiednie środki związane z nadzorem ze strony człowieka. W szczególności, w stosownych przypadkach, takie środki powinny gwarantować, że system podlega wbudowanym ograniczeniom operacyjnym, których sam nie jest w stanie obejść, i reaguje na działania człowieka – operatora systemu, oraz że osoby fizyczne, którym powierzono sprawowanie nadzoru ze strony człowieka, posiadają niezbędne kompetencje, przeszkolenie i uprawnienia do pełnienia tej funkcji. W stosownych przypadkach istotne jest także zapewnienie, aby systemy AI wysokiego ryzyka obejmowały mechanizmy udzielania wskazówek i informacji osobom fizycznym, którym powierzono nadzór ze strony człowieka, aby mogły one podejmować świadome decyzje, czy, kiedy i w jaki sposób należy interweniować w celu uniknięcia negatywnych konsekwencji lub ryzyka lub zatrzymać system, jeżeli nie działa on zgodnie z przeznaczeniem. Zważywszy na istotne konsekwencje dla osób w przypadku nieprawidłowego dopasowania przez niektóre systemy identyfikacji biometrycznej, należy wprowadzić wymóg sprawowania w odniesieniu do tych systemów wzmocnionego nadzoru ze strony człowieka, tak aby podmiot stosujący nie mógł podejmować żadnych działań ani decyzji na podstawie identyfikacji wynikającej z systemu, dopóki nie została ona odrębnie zweryfikowana i potwierdzona przez co najmniej dwie osoby fizyczne. Osoby te mogą pochodzić z różnych podmiotów i mogą to być osoby obsługujące system lub z niego korzystające. Wymóg ten nie powinien powodować niepotrzebnych obciążeń ani opóźnień i powinno wystarczyć, że odrębne weryfikacje dokonywane przez różne osoby będą automatycznie rejestrowane w wygenerowanych przez system rejestrach zdarzeń. Biorąc pod uwagę specyfikę obszarów ścigania przestępstw, migracji, kontroli granicznej i azylu, wymóg ten nie powinien mieć zastosowania, jeżeli na mocy prawa Unii lub prawa krajowego stosowanie tego wymogu uznaje się za nieproporcjonalne.
(74)
Suuririskisten tekoälyjärjestelmien olisi toimittava johdonmukaisesti koko elinkaarensa ajan ja saavutettava asianmukainen tarkkuuden, vakauden ja kyberturvallisuuden taso niiden käyttötarkoitus huomioon ottaen ja yleisesti tunnustetun alan viimeisimmän kehityksen mukaisesti. Komissiota sekä asiaankuuluvia järjestöjä ja sidosryhmiä kehotetaan ottamaan asianmukaisesti huomioon tekoälyjärjestelmien aiheuttamien riskien ja negatiivisten vaikutusten vähentäminen. Suorituskykymittareiden odotettu taso olisi ilmoitettava liitteenä olevissa käyttöohjeissa. Tarjoajia kehotetaan välittämään nämä tiedot käyttöönottajille selkeällä ja helposti ymmärrettävällä tavalla, joka ei aiheuta väärinymmärryksiä tai sisällä harhaanjohtavia lausuntoja. Lakisääteistä mittaustoimintaa koskevalla unionin oikeudella, mukaan lukien Euroopan parlamentin ja neuvoston direktiivit 2014/31/EU (35) ja 2014/32/EU (36), pyritään varmistamaan mittausten tarkkuus ja edistämään avoimuutta ja oikeudenmukaisuutta liiketoimissa. Tässä yhteydessä komission olisi tarpeen mukaan edistettävä vertailuarvojen ja mittausmenetelmien kehittämistä tekoälyjärjestelmiä varten yhteistyössä asiaankuuluvien sidosryhmien ja järjestöjen, kuten metrologia- ja vertailuanalyysiviranomaisten, kanssa. Näin toimiessaan komission olisi pantava merkille tekoälyyn liittyvät metrologiaa ja asiaankuuluvia mittausindikaattoreita käsittelevät kansainväliset kumppanit ja tehtävä yhteistyötä niiden kanssa.
(74)
Systemy AI wysokiego ryzyka powinny działać w sposób spójny w całym cyklu życia i charakteryzować się odpowiednim poziomem dokładności, solidności i cyberbezpieczeństwa – w świetle ich przeznaczenia i zgodnie z powszechnie uznawanym stanem wiedzy technicznej. Komisję oraz odpowiednie organizacje i zainteresowane strony zachęca się, by należycie uwzględniały ograniczanie ryzyka i negatywnych skutków związanych z systemem AI. Oczekiwany poziom wskaźników skuteczności działania należy zadeklarować w załączonej instrukcji obsługi. Dostawców wzywa się, by przekazywali te informacje podmiotom stosującym w jasny i łatwo zrozumiały sposób, wolny od dwuznaczności i stwierdzeń wprowadzających w błąd. Prawo Unii dotyczące metrologii prawnej, w tym dyrektywy Parlamentu Europejskiego i Rady 2014/31/UE (35) i 2014/32/UE (36), ma na celu zapewnienie dokładności pomiarów oraz wspieranie przejrzystości i uczciwości transakcji handlowych. W tym kontekście, we współpracy z odpowiednimi zainteresowanymi stronami i organizacjami, takimi jak organy ds. metrologii i organy ds. analizy porównawczej, Komisja powinna w stosownych przypadkach zachęcać do opracowywania poziomów odniesienia i metod pomiaru dotyczących systemów AI. Komisja powinna przy tym współpracować z partnerami międzynarodowymi pracującymi nad metrologią i odpowiednimi wskaźnikami pomiarowymi związanymi z AI oraz uwzględniać ich działania.
(75)
Tekninen vakaus on yksi suuririskisten tekoälyjärjestelmien keskeinen vaatimus. Niiden olisi oltava kestäviä sellaisen haitallisen tai muuten ei-toivotun käyttäytymisen varalta, joka saattaa aiheutua järjestelmien sisäisistä rajoituksista tai järjestelmien toimintaympäristöstä (esimerkiksi virheet, viat, epäjohdonmukaisuudet tai odottamattomat tilanteet). Sen vuoksi olisi toteutettava teknisiä ja organisatorisia toimenpiteitä suuririskisten tekoälyjärjestelmien vakauden varmistamiseksi esimerkiksi suunnittelemalla ja kehittämällä asianmukaisia teknisiä ratkaisuja haitallisen tai muuten ei-toivotun käyttäytymisen estämiseksi tai minimoimiseksi. Näihin teknisiin ratkaisuihin voi sisältyä esimerkiksi mekanismeja, joiden avulla järjestelmä voi turvallisesti keskeyttää toimintansa (vikavarmistussuunnitelmat) tiettyjen poikkeavuuksien esiintyessä tai kun toiminta tapahtuu tiettyjen ennalta määritettyjen rajojen ulkopuolella. Se, ettei näiltä riskeiltä suojauduta, voi johtaa turvallisuusvaikutuksiin tai vaikuttaa kielteisesti perusoikeuksiin esimerkiksi virheellisten päätösten tai tekoälyjärjestelmän tuottamien väärien tai puolueellisten tulosten vuoksi.
(75)
Kluczowym wymogiem dotyczącym systemów AI wysokiego ryzyka jest solidność techniczna. Powinny one być odporne na szkodliwe lub w inny sposób niepożądane zachowania, które mogą wynikać z ograniczeń w systemach lub ze środowiska, w którym te systemy działają (np. błędy, usterki, niespójności, nieoczekiwane sytuacje). W związku z tym należy wprowadzić środki techniczne i organizacyjne, by zapewnić solidność systemów AI wysokiego ryzyka, na przykład poprzez projektowanie i rozwijanie odpowiednich rozwiązań technicznych w celu zapobiegania szkodliwym lub innym niepożądanym zachowaniom lub ich ograniczania. Takie rozwiązania techniczne mogą obejmować na przykład mechanizmy umożliwiające bezpieczne przerwanie działania systemu (przejście systemu w stan bezpieczny – tzw. „fail-safe”), jeśli zaistnieją pewne nieprawidłowości lub gdy działanie wykracza poza określone z góry granice. Brak ochrony przed tym ryzykiem może mieć konsekwencje dla bezpieczeństwa lub negatywnie wpłynąć na prawa podstawowe, na przykład z powodu błędnych decyzji lub nieprawidłowych lub stronniczych wyników generowanych przez system AI.
(76)
Kyberturvallisuudella on ratkaiseva merkitys varmistettaessa, että tekoälyjärjestelmät kestävät järjestelmän haavoittuvuuksia hyödyntävien vihamielisten kolmansien osapuolten yritykset muuttaa niiden käyttöä, käyttäytymistä tai suorituskykyä tai vaarantaa niiden turvallisuusominaisuudet. Tekoälyjärjestelmiin kohdistuvissa kyberhyökkäyksissä voidaan käyttää hyväksi tekoälyyn liittyviä resursseja, kuten koulutusdatajoukkoja (esim. datamyrkytys) tai koulutettuja malleja (esim. adversariaaliset hyökkäykset tai joukkoon kuulumiseen perustuva päättely), tai hyödyntää tekoälyjärjestelmän digitaalisten resurssien tai taustalla olevan tieto- ja viestintätekniikkainfrastruktuurin haavoittuvuuksia. Jotta voidaan varmistaa riskeihin nähden asianmukainen kyberturvallisuuden taso, suuririskisten tekoälyjärjestelmien tarjoajien olisi toteutettava asianmukaisia toimenpiteitä, kuten turvatarkastuksia, ottaen tarvittaessa huomioon myös taustalla oleva tieto- ja viestintätekniikkainfrastruktuuri.
(76)
Cyberbezpieczeństwo odgrywa kluczową rolę w zapewnianiu odporności systemów AI na próby modyfikacji ich wykorzystania, zachowania, skuteczności działania lub obejścia ich zabezpieczeń przez działające w złej wierze osoby trzecie wykorzystujące słabe punkty systemu. Cyberataki na systemy AI mogą polegać na wykorzystaniu konkretnych zasobów AI, takich jak zbiory danych treningowych (np. zatruwanie danych) lub trenowane modele (np. ataki kontradyktoryjne lub ataki wnioskowania o członkostwie), lub wykorzystaniu słabych punktów w zasobach cyfrowych systemu AI lub w bazowej infrastrukturze ICT. Aby zapewnić poziom cyberbezpieczeństwa odpowiedni do ryzyka, dostawcy systemów AI wysokiego ryzyka powinni zatem wdrożyć odpowiednie środki, takie jak mechanizmy kontroli bezpieczeństwa, uwzględniając również w stosownych przypadkach infrastrukturę ICT, na której opiera się dany system.
(77)
Suuririskiset tekoälyjärjestelmät, jotka kuuluvat digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan Euroopan parlamentin ja neuvoston asetuksen soveltamisalaan, voivat kyseisen asetuksen mukaisesti osoittaa tässä asetuksessa säädettyjen kyberturvavaatimusten noudattamisen noudattamalla kyseisessä asetuksessa säädettyjä olennaisia kyberturvavaatimuksia, sanotun kuitenkaan rajoittamatta tässä asetuksessa säädettyjen vakautta ja tarkkuutta koskevien vaatimusten soveltamista. Kun suuririskiset tekoälyjärjestelmät täyttävät digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavassa asetuksessa säädetyt olennaiset vaatimukset, niiden olisi katsottava olevan tässä asetuksessa säädettyjen kyberturvavaatimusten mukaisia siltä osin kuin kyseisten vaatimusten noudattaminen on osoitettu EU-vaatimustenmukaisuusvakuutuksella tai sen osilla, jotka on myönnetty kyseisen asetuksen nojalla. Sen vuoksi digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan asetuksen nojalla tehtävässä kyberturvallisuusriskien arvioinnissa, joka koskee tässä asetuksessa tarkoitettua digitaalisia elementtejä sisältävää suuririskistä tekoälyjärjestelmää, olisi otettava huomioon tekoälyjärjestelmän kyberresilienssiin kohdistuvat riskit, jotka liittyvät luvattomien kolmansien osapuolten pyrkimyksiin muuttaa sen käyttöä, käyttäytymistä tai suorituskykyä, mukaan lukien tekoälyyn liittyvät erityiset haavoittuvuudet, kuten datamyrkytys tai adversariaaliset hyökkäykset, sekä tapauksen mukaan tässä asetuksessa edellytettyihin perusoikeuksiin kohdistuvat riskit.
(77)
Bez uszczerbku dla wymogów związanych z solidnością i dokładnością określonych w niniejszym rozporządzeniu systemy AI wysokiego ryzyka, które wchodzą w zakres stosowania rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, zgodnie z tym rozporządzeniem mogą wykazać zgodność z wymogami w zakresie cyberbezpieczeństwa określonymi w niniejszym rozporządzeniu w drodze spełnienia zasadniczych wymogów w zakresie cyberbezpieczeństwa ustanowionych w tym rozporządzeniu. W przypadku gdy systemy AI wysokiego ryzyka spełniają zasadnicze wymogi rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, należy uznać, że wykazują zgodność z wymogami w zakresie cyberbezpieczeństwa ustanowionymi w niniejszym rozporządzeniu w zakresie, w jakim spełnienie tych wymogów wykazano w deklaracji zgodności UE lub w jej częściach wydanych zgodnie z tym rozporządzeniem. W tym celu ocena ryzyka dotyczącego cyberbezpieczeństwa związanego z produktem z elementami cyfrowymi, które zaklasyfikowano jako system AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, przeprowadzana na podstawie rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi, powinna uwzględniać ryzyko dla cyberodporności systemu AI w odniesieniu do podejmowanych przez nieupoważnione osoby trzecie prób zmiany jego wykorzystania, zachowania lub skuteczności działania, w tym uwzględniać charakterystyczne dla AI słabe punkty, takie jak ryzyko zatruwania danych lub ataki kontradyktoryjne, a także, w stosownych przypadkach, uwzględniać ryzyko dla praw podstawowych zgodnie z wymogami niniejszego rozporządzenia.
(78)
Tässä asetuksessa säädettyä vaatimustenmukaisuuden arviointimenettelyä olisi sovellettava digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan asetuksen soveltamisalaan kuuluvan ja tämän asetuksen nojalla digitaalisia elementtejä sisältävän suuririskiseksi tekoälyjärjestelmäksi luokitellun tuotteen olennaisiin kyberturvallisuusvaatimuksiin. Tämä pääsääntö ei kuitenkaan saisi johtaa digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan asetuksen soveltamisalaan kuuluvien digitaalisia elementtejä sisältävien kriittisten tuotteiden tarvittavan varmuustason alenemiseen. Tästä säännöstä poiketen suuririskisiin tekoälyjärjestelmiin, jotka kuuluvat tämän asetuksen soveltamisalaan ja joita myös pidetään digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan asetuksen nojalla tärkeinä ja kriittisinä digitaalisia elementtejä sisältävinä tuotteina ja joihin sovelletaan tämän asetuksen liitteessä vahvistettua sisäiseen valvontaan perustuvaa vaatimustenmukaisuuden arviointimenettelyä, sovelletaan digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavassa asetuksessa säädettyjä vaatimustenmukaisuuden arviointia koskevia säännöksiä kyseisen asetuksen olennaisten kyberturvallisuusvaatimusten osalta. Tällaisessa tapauksessa kaikkiin muihin tämän asetuksen soveltamisalaan kuuluviin näkökohtiin olisi sovellettava tämän asetuksen liitteessä vahvistettuja asiaankuuluvia säännöksiä, jotka koskevat sisäiseen valvontaan perustuvaa vaatimustenmukaisuuden arviointia. Komission olisi tehtävä yhteistyötä ENISAn kanssa tekoälyjärjestelmien kyberturvallisuuteen liittyvissä kysymyksissä ENISAn kyberturvallisuuspolitiikkaa koskevan tietämyksen ja asiantuntemuksen ja sille Euroopan parlamentin ja neuvoston asetuksen (EU) 2019/881 (37) nojalla osoitettujen tehtävien pohjalta.
(78)
Procedura oceny zgodności przewidziana w niniejszym rozporządzeniu powinna mieć zastosowanie do zasadniczych wymogów w zakresie cyberbezpieczeństwa produktu z elementami cyfrowymi objętego rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi i zaklasyfikowanego jako system AI wysokiego ryzyka na podstawie niniejszego rozporządzenia. Zasada ta nie powinna jednak powodować zmniejszenia niezbędnego poziomu ufności w odniesieniu do produktów krytycznych z elementami cyfrowymi objętych rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi. W związku z tym, na zasadzie odstępstwa od tej zasady, systemy AI wysokiego ryzyka, które wchodzą w zakres niniejszego rozporządzenia i są również kwalifikowane jako ważne i krytyczne produkty z elementami cyfrowymi zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi i do których ma zastosowanie procedura oceny zgodności oparta na kontroli wewnętrznej określona w załączniku do niniejszego rozporządzenia, podlegają przepisom dotyczącym oceny zgodności zawartym w rozporządzeniu Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów cyberbezpieczeństwa w odniesieniu do produktów z elementami cyfrowymi w zakresie, w jakim dotyczy to zasadniczych wymogów w zakresie cyberbezpieczeństwa określonych w tym rozporządzeniu. W tym przypadku do wszystkich pozostałych aspektów objętych niniejszym rozporządzeniem należy stosować odpowiednie przepisy dotyczące oceny zgodności opierającej się na kontroli wewnętrznej określone w załączniku do niniejszego rozporządzenia. By wykorzystać wiedzę teoretyczną i fachową ENISA w zakresie polityki cyberbezpieczeństwa i w oparciu o zadania powierzone ENISA na podstawie rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/881 (37), Komisja powinna współpracować z ENISA w kwestiach związanych z cyberbezpieczeństwem systemów AI.
(79)
On asianmukaista, että tietty tarjoajaksi määritelty luonnollinen tai oikeushenkilö ottaa vastuun suuririskisen tekoälyjärjestelmän markkinoille saattamisesta tai käyttöönotosta riippumatta siitä, onko kyseinen luonnollinen henkilö tai oikeushenkilö järjestelmän suunnittelija tai kehittäjä.
(79)
Należy zapewnić, aby odpowiedzialność za wprowadzenie do obrotu lub oddanie do użytku systemu AI wysokiego ryzyka ponosiła konkretna osoba fizyczna lub prawna określona jako dostawca, niezależnie od tego, czy ta osoba fizyczna lub prawna jest osobą, która zaprojektowała lub rozwinęła system.
(80)
Vammaisten henkilöiden oikeuksia koskevan Yhdistyneiden kansakuntien yleissopimuksen allekirjoittajina unioni ja jäsenvaltiot ovat oikeudellisesti velvoitettuja suojelemaan vammaisia henkilöitä syrjinnältä ja edistämään heidän yhdenvertaisuuttaan, varmistamaan, että vammaiset henkilöt voivat käyttää tieto- ja viestintäteknologiaa ja -järjestelmiä yhdenvertaisesti muiden kanssa, ja varmistamaan vammaisten henkilöiden yksityisyyden kunnioittamisen. Koska tekoälyjärjestelmät ovat yhä tärkeämpiä ja niitä käytetään yhä enemmän, yleismaailmallisten suunnitteluperiaatteiden soveltamisella kaikkiin uusiin teknologioihin ja palveluihin olisi varmistettava kaikille, joihin tekoälyteknologia mahdollisesti vaikuttaa tai jotka käyttävät sitä, myös vammaisille henkilöille, täysimääräinen ja tasapuolinen mahdollisuus käyttää niitä tavalla, jossa otetaan kaikilta osin huomioon heidän ihmisarvonsa ja monimuotoisuutensa. Sen vuoksi on olennaisen tärkeää, että tarjoajat varmistavat esteettömyysvaatimusten, kuten Euroopan parlamentin ja neuvoston direktiivin (EU) 2016/2102 (38) ja direktiivin (EU) 2019/882, täysimääräisen noudattamisen. Tarjoajien olisi varmistettava, että näitä vaatimuksia noudatetaan sisäänrakennetusti. Sen vuoksi tarvittavat toimenpiteet olisi sisällytettävä mahdollisuuksien mukaan suuririskisen tekoälyjärjestelmän suunnitteluun.
(80)
Jako sygnatariusze Konwencji ONZ o prawach osób niepełnosprawnych Unia i państwa członkowskie są prawnie zobowiązane do ochrony osób z niepełnosprawnościami przed dyskryminacją i do propagowania ich równości, do zapewnienia im dostępu na równych zasadach z innymi osobami do technologii i systemów informacyjno-komunikacyjnych oraz do zapewnienia poszanowania ich prywatności. Z uwagi na rosnące znaczenie i wykorzystanie systemów sztucznej inteligencji stosowanie zasad projektowania uniwersalnego do wszystkich nowych technologii i usług powinno zapewniać pełny i równy dostęp dla wszystkich osób, których potencjalnie dotyczą technologie AI lub które je stosują, w tym osób z niepełnosprawnościami, w sposób uwzględniający w pełni ich przyrodzoną godność i różnorodność. Istotne jest zatem, aby dostawcy zapewniali pełną zgodność z wymogami dostępności, w tym z dyrektywą Parlamentu Europejskiego i Rady (UE) 2016/2102 (38) i dyrektywą (UE) 2019/882. Dostawcy powinni zapewnić zgodność z tymi wymogami już na etapie projektowania. W związku z tym w projektowaniu systemu AI wysokiego ryzyka należy w jak największym stopniu uwzględnić niezbędne środki.
(81)
Tarjoajan olisi perustettava luotettava laadunhallintajärjestelmä, varmistettava vaaditun vaatimustenmukaisuuden arviointimenettelyn suorittaminen, laadittava asiaa koskeva dokumentaatio ja perustettava vankka markkinoille saattamisen jälkeinen seurantajärjestelmä. Niillä suuririskisten tekoälyjärjestelmien tarjoajilla, joihin sovelletaan asiaankuuluvan alakohtaisen unionin oikeuden mukaisia laadunhallintajärjestelmiä koskevia velvoitteita, olisi oltava mahdollisuus sisällyttää tässä asetuksessa säädetyn laadunhallintajärjestelmän osatekijät osaksi kyseisen muun alakohtaisen unionin oikeuden mukaista nykyistä laadunhallintajärjestelmää. Tämän asetuksen ja voimassa olevan alakohtaisen unionin oikeuden välinen täydentävyys olisi otettava huomioon myös tulevissa standardointitoimissa tai komission hyväksymissä ohjeissa. Viranomaiset, jotka ottavat suuririskisiä tekoälyjärjestelmiä omaan käyttöönsä, voivat tarvittaessa hyväksyä ja panna täytäntöön laadunhallintajärjestelmää koskevat säännöt osana kansallisella tai alueellisella tasolla hyväksyttyä laadunhallintajärjestelmää ottaen huomioon alan erityispiirteet ja asianomaisen viranomaisen toimivallan ja organisaation.
(81)
Dostawca powinien ustanowić solidny system zarządzania jakością, zapewnić przeprowadzenie wymaganej procedury oceny zgodności, sporządzić odpowiednią dokumentację i ustanowić solidny system monitorowania po wprowadzeniu do obrotu. Dostawcy systemów AI wysokiego ryzyka, którzy podlegają obowiązkom dotyczącym systemów zarządzania jakością na mocy odpowiednich sektorowych przepisów prawa Unii, powinni mieć możliwość włączenia elementów systemu zarządzania jakością przewidzianego w niniejszym rozporządzeniu do istniejącego systemu zarządzania jakością przewidzianego w innych sektorowych przepisach prawa Unii. Komplementarność między niniejszym rozporządzeniem a obowiązującymi sektorowymi przepisami prawa Unii powinna być również brana pod uwagę w przyszłych działaniach normalizacyjnych lub wytycznych przyjmowanych przez Komisję. Organy publiczne, które oddają do użytku systemy AI wysokiego ryzyka do celów własnych, mogą – w ramach przyjętego, odpowiednio, na poziomie krajowym lub regionalnym systemu zarządzania jakością – przyjąć i wdrożyć zasady dotyczące systemu zarządzania jakością, z uwzględnieniem specyfiki sektora oraz kompetencji i organizacji danego organu publicznego.
(82)
Tämän asetuksen täytäntöönpanon mahdollistamiseksi ja tasapuolisten toimintaedellytysten luomiseksi toimijoille ja ottaen huomioon digitaalisten tuotteiden saataville asettamisen eri muodot on tärkeää varmistaa, että unioniin sijoittautunut henkilö voi kaikissa olosuhteissa antaa viranomaisille kaikki tarvittavat tiedot tekoälyjärjestelmän vaatimustenmukaisuudesta. Siksi kolmansiin maihin sijoittautuneiden tarjoajien olisi ennen tekoälyjärjestelmiensä asettamista saataville unionin markkinoilla nimettävä kirjallisella toimeksiannolla unioniin sijoittautunut valtuutettu edustaja. Tällä valtuutetulla edustajalla on olennaisen tärkeä rooli sen varmistamisessa, että näiden unioniin sijoittumattomien tarjoajien unionissa markkinoille saattamat tai käyttöön ottamat suuririskiset tekoälyjärjestelmät ovat vaatimusten mukaisia, ja toimimisessa näiden tarjoajien unioniin sijoittautuneena yhteyshenkilönä.
(82)
W celu umożliwienia egzekwowania przepisów niniejszego rozporządzenia i stworzenia równych warunków działania dla operatorów, a także uwzględniając różne formy udostępniania produktów cyfrowych, należy zapewnić, aby w każdych okolicznościach osoba, która ma miejsce zamieszkania lub siedzibę w Unii, była w stanie przekazać organom wszystkie niezbędne informacje dotyczące zgodności danego systemu AI. W związku z tym dostawcy mający miejsce zamieszkania lub siedzibę w państwach trzecich przed udostępnieniem swoich systemów AI w Unii powinni ustanowić – na podstawie pisemnego pełnomocnictwa – upoważnionego przedstawiciela mającego miejsce zamieszkania lub siedzibę w Unii. Ten upoważniony przedstawiciel odgrywa kluczową rolę w zapewnianiu zgodności systemów AI wysokiego ryzyka wprowadzanych do obrotu lub oddawanych do użytku w Unii przez dostawców, którzy nie mają miejsca zamieszkania lub siedziby w Unii, oraz w pełnieniu funkcji ich osoby kontaktowej mającej miejsce zamieszkania lub siedzibę w Unii.
(83)
Ottaen huomioon tekoälyjärjestelmien arvoketjun luonne ja monimutkaisuus sekä uuden lainsäädäntökehyksen noudattaminen on olennaisen tärkeää varmistaa oikeusvarmuus ja helpottaa tämän asetuksen noudattamista. Sen vuoksi on tarpeen selventää kyseisen arvoketjun kaikissa vaiheissa asiaankuuluvien toimijoiden, kuten maahantuojien ja jakelijoiden, roolia ja erityisvelvoitteita, jotka voivat edistää tekoälyjärjestelmien kehittämistä. Tietyissä tilanteissa nämä toimijat voisivat toimia useammassa kuin yhdessä roolissa samanaikaisesti, joten niiden olisi täytettävä kumulatiivisesti kaikki kyseisiin rooleihin liittyvät asiaankuuluvat velvoitteet. Esimerkiksi toimija voisi toimia jakelijana ja maahantuojana samanaikaisesti.
(83)
W świetle charakteru i złożoności łańcucha wartości systemów AI oraz zgodnie z nowymi ramami prawnymi konieczne jest zapewnienie pewności prawa i ułatwienie zgodności z niniejszym rozporządzeniem. W związku z tym konieczne jest wyjaśnienie roli i konkretnych obowiązków odpowiednich operatorów w całym łańcuchu wartości, takich jak importerzy i dystrybutorzy, którzy mogą przyczyniać się do rozwoju systemów AI. W niektórych sytuacjach operatorzy ci mogą odgrywać więcej niż jedną rolę jednocześnie i w związku z tym powinni łącznie spełniać wszystkie odpowiednie obowiązki związane z tymi rolami. Na przykład operator może występować jednocześnie jako dystrybutor i importer.
(84)
Oikeusvarmuuden takaamiseksi on tarpeen selventää, että tietyissä erityisolosuhteissa minkä tahansa jakelijan, maahantuojan, käyttöönottajan tai muun kolmannen osapuolen olisi katsottava olevan suuririskisen tekoälyjärjestelmän tarjoaja, jonka olisi näin ollen vastattava kaikista asiaankuuluvista velvoitteista. Näin katsotaan olevan, jos kyseinen osapuoli laittaa nimensä tai tavaramerkkinsä jo markkinoille saatettuun tai käyttöön otettuun suuririskiseen tekoälyjärjestelmään, sanotun kuitenkaan rajoittamatta sopimusjärjestelyjä, joissa määrätään velvoitteiden jakamisesta muulla tavoin. Näin olisi myös silloin, jos kyseinen osapuoli tekee merkittävän muutoksen jo markkinoille saatettuun tai käyttöön otettuun suuririskiseen tekoälyjärjestelmään siten, että se pysyy suuririskisenä tekoälyjärjestelmänä tämän asetuksen mukaisesti, tai jos se muuttaa sellaisen tekoälyjärjestelmän, myös yleiskäyttöisen tekoälyjärjestelmän, käyttötarkoitusta, jota ei ole luokiteltu suuririskiseksi ja joka on jo saatettu markkinoille tai otettu käyttöön siten, että tekoälyjärjestelmästä tulee suuririskinen tekoälyjärjestelmä tämän asetuksen mukaisesti. Kyseisiä säännöksiä olisi sovellettava rajoittamatta uuteen lainsäädäntökehykseen perustuvassa tietyssä unionin yhdenmukaistamislainsäädännössä vahvistettuja yksityiskohtaisempia säännöksiä, joiden kanssa tätä asetusta olisi sovellettava. Esimerkiksi asetuksen (EU) 2017/745 16 artiklan 2 kohtaa, jonka mukaan tiettyjä muutoksia ei olisi katsottava laitteen muutoksiksi, jotka voisivat vaikuttaa sen vaatimustenmukaisuuteen, olisi edelleen sovellettava suuririskisiin tekoälyjärjestelmiin, jotka ovat kyseisessä asetuksessa tarkoitettuja lääkinnällisiä laitteita.
(84)
Aby zapewnić pewność prawa, należy wyjaśnić, że w pewnych określonych warunkach każdego dystrybutora, importera, podmiot stosujący lub inną stronę trzecią należy uznać za dostawcę systemu AI wysokiego ryzyka i w związku z tym powinni oni przyjąć na siebie wszystkie związane z tym obowiązki. Miałoby to miejsce w przypadku, gdy strona ta umieszcza swoją nazwę lub znak towarowy w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, bez uszczerbku dla ustaleń umownych przewidujących odmienny podział obowiązków. Miałoby to miejsce również w przypadku, gdy strona ta dokonuje istotnej zmiany w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że pozostaje on systemem AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, lub jeżeli zmieni przeznaczenie systemu AI, w tym systemu AI ogólnego przeznaczenia, który nie został zaklasyfikowany jako system wysokiego ryzyka i został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że ten system AI staje się systemem wysokiego ryzyka zgodnie z niniejszym rozporządzeniem. Przepisy te należy stosować bez uszczerbku dla bardziej szczegółowych przepisów ustanowionych w unijnym prawodawstwie harmonizacyjnym opartym o nowe ramy prawne, wraz z którymi należy stosować niniejsze rozporządzenie. Na przykład do systemów AI wysokiego ryzyka będących wyrobami medycznymi w rozumieniu rozporządzenia (UE) 2017/745, należy nadal stosować art. 16 ust. 2 tego rozporządzenia stanowiący, że niektórych zmian nie należy uznawać za modyfikację wyrobu mogącą wpłynąć na jego zgodność z obowiązującymi wymogami.
(85)
Yleiskäyttöisiä tekoälyjärjestelmiä voidaan käyttää suuririskisinä tekoälyjärjestelminä itsessään tai ne voivat olla muiden suuririskisten tekoälyjärjestelmien komponentteja. Näin ollen niiden erityisen luonteen vuoksi ja jotta voidaan varmistaa vastuiden oikeudenmukainen jakautuminen tekoälyn arvoketjussa, tällaisten järjestelmien tarjoajien, riippumatta siitä, voivatko muut tarjoajat käyttää näitä järjestelmiä suuririskisinä tekoälyjärjestelminä sellaisinaan tai suuririskisten tekoälyjärjestelmien komponentteina, ja jollei tässä asetuksessa toisin säädetä, olisi tehtävä tiivistä yhteistyötä asiaankuuluvien suuririskisten tekoälyjärjestelmien tarjoajien kanssa, jotta voidaan varmistaa, että niiden osalta noudatetaan tämän asetuksen mukaisia asiaankuuluvia velvoitteita, ja tämän asetuksen nojalla perustettujen toimivaltaisten viranomaisten kanssa.
(85)
Systemy AI ogólnego przeznaczenia mogą być wykorzystywane jako samodzielne systemy AI wysokiego ryzyka lub stanowić element innych systemów AI wysokiego ryzyka. W związku z tym z uwagi na ich szczególny charakter i aby zapewnić sprawiedliwy podział odpowiedzialności w całym łańcuchu wartości AI, dostawcy takich systemów, niezależnie od tego, czy ich mogą być one wykorzystywane jako systemy AI wysokiego ryzyka przez innych dostawców czy jako elementy systemów AI wysokiego ryzyka, powinni ściśle współpracować – o ile niniejsze rozporządzenie nie stanowi inaczej – z dostawcami odpowiednich systemów AI wysokiego ryzyka, aby umożliwić im spełnianie odpowiednich obowiązków ustanowionych w niniejszym rozporządzeniu, oraz z właściwymi organami ustanowionymi na podstawie niniejszego rozporządzenia.
(86)
Jos tässä asetuksessa säädetyin edellytyksin tarjoajaa, joka alun perin saattoi tekoälyjärjestelmän markkinoille tai otti sen käyttöön, ei olisi enää pidettävä tätä asetusta sovellettaessa tarjoajana ja jos kyseinen tarjoaja ei ole nimenomaisesti sulkenut pois tekoälyjärjestelmän muuttamista suuririskiseksi tekoälyjärjestelmäksi, aiemman tarjoajan olisi kuitenkin tehtävä tiivistä yhteistyötä ja asetettava saataville tarvittavat tiedot sekä tarjottava kohtuudella odotettavissa oleva tekninen pääsy ja muuta apua, joita tarvitaan tässä asetuksessa säädettyjen velvoitteiden täyttämiseksi, erityisesti suuririskisten tekoälyjärjestelmien vaatimustenmukaisuuden arvioinnin noudattamisen osalta.
(86)
W przypadku gdy zgodnie z warunkami ustanowionymi w niniejszym rozporządzeniu dostawcy, który pierwotnie wprowadził system AI do obrotu lub oddał go do użytku, nie należy już uznawać za dostawcę do celów niniejszego rozporządzenia, a dostawca ten nie wykluczył wyraźnie, że system AI może zostać zmieniony w system AI wysokiego ryzyka, ten pierwszy dostawca powinien nadal ściśle współpracować i udostępniać niezbędne informacje oraz zapewniać dostęp techniczny i inną pomoc, których można zasadnie oczekiwać i które są wymagane do spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu, w szczególności w zakresie wymogów dotyczących oceny zgodności systemów AI wysokiego ryzyka.
(87)
Jos suuririskistä tekoälyjärjestelmää, joka on sellaisen tuotteen turvakomponentti, joka kuuluu uuteen lainsäädäntökehykseen perustuvaan unionin yhdenmukaistamislainsäädännön soveltamisalaan, ei saateta markkinoille tai oteta käyttöön tuotteesta erillään, kyseisessä lainsäädännössä määritellyn tuotteen valmistajan olisi lisäksi noudatettava tässä asetuksessa vahvistettuja tarjoajan velvollisuuksia ja erityisesti varmistettava, että lopputuotteeseen sulautettu tekoälyjärjestelmä on tämän asetuksen vaatimusten mukainen.
(87)
Ponadto w przypadku gdy system AI wysokiego ryzyka będący związanym z bezpieczeństwem elementem produktu, który wchodzi w zakres stosowania unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, nie jest wprowadzany do obrotu ani oddawany do użytku niezależnie od tego produktu, producent produktu – w rozumieniu tego prawodawstwa – powinien spełniać obowiązki dostawcy ustanowione w niniejszym rozporządzeniu, a w szczególności zapewnić zgodność systemu AI wbudowanego w produkt końcowy z wymogami niniejszego rozporządzenia.
(88)
Tekoälyn arvoketjussa usein useat osapuolet toimittavat tekoälyjärjestelmiä, välineitä ja palveluja mutta myös komponentteja tai prosesseja, jotka tarjoaja sisällyttää tekoälyjärjestelmään ja joilla on useita tavoitteita, mukaan lukien mallien kouluttaminen ja uudelleenkouluttaminen, mallien testaus ja arviointi, integrointi ohjelmistoihin tai muut mallien kehittämisen näkökohdat. Kyseisillä osapuolilla on tärkeä rooli arvoketjussa suhteessa sellaisen suuririskisen tekoälyjärjestelmän tarjoajaan, johon niiden tekoälyjärjestelmät, välineet, palvelut, komponentit tai prosessit on integroitu, ja niiden olisi kirjallisella sopimuksella annettava tälle tarjoajalle yleisesti tunnustettuun viimeisimpään kehitykseen perustuvat tarvittavat tiedot, valmiudet, tekninen pääsy ja muu apu, jotta tarjoaja voi noudattaa täysimääräisesti tässä asetuksessa säädettyjä velvoitteita vaarantamatta omia teollis- ja tekijänoikeuksiaan tai liikesalaisuuksiaan.
(88)
W całym łańcuchu wartości AI wiele podmiotów często dostarcza systemy AI, narzędzia i usługi, ale również elementy lub procesy, które są włączane przez dostawcę do systemu AI w różnych celach, w tym trenowania modelu, retrenowania modelu, testowania i oceny modelu, integracji z oprogramowaniem lub innych aspektów rozwoju modelu. Podmioty te mają do odegrania ważną rolę w łańcuchu wartości w stosunku do dostawcy systemu AI wysokiego ryzyka, z którym to systemem zintegrowane są ich systemy AI, narzędzia, usługi, elementy lub procesy; podmioty te powinny zapewnić temu dostawcy na podstawie pisemnej umowy niezbędne informacje, zdolności, dostęp techniczny i inną pomoc w oparciu o powszechnie uznany stan wiedzy technicznej, aby umożliwić dostawcy pełne spełnienie obowiązków ustanowionych w niniejszym rozporządzeniu, bez uszczerbku dla ich własnych praw własności intelektualnej lub tajemnic przedsiębiorstwa.
(89)
Kolmansia osapuolia, jotka asettavat saataville julkisia välineitä, palveluja, prosesseja tai muita tekoälykomponentteja kuin yleiskäyttöinen tekoälymalli, ei saisi velvoittaa, erityisesti niitä käyttäneeseen tai integroineeseen tarjoajaan nähden, noudattamaan vastuita tekoälyn arvoketjussa koskevia vaatimuksia, kun kyseiset välineet, palvelut, prosessit tai tekoälykomponentit asetetaan saataville vapaalla ja avoimen lähdekoodin lisenssillä. Vapaiden ja avoimen lähdekoodin välineiden, palveluiden, prosessien ja muiden tekoälykomponenttien kuin yleiskäyttöisten tekoälymallien kehittäjiä olisi kuitenkin kannustettava noudattamaan dokumentoinnin laajalti hyväksyttyjä käytänteitä, kuten mallikortteja ja tiedotteita, jotta voidaan nopeuttaa tiedon jakamista tekoälyn arvoketjussa ja edistää luotettavia tekoälyjärjestelmiä unionissa.
(89)
Strony trzecie udostępniające publicznie narzędzia, usługi, procesy lub elementy AI, inne niż modele AI ogólnego przeznaczenia, nie powinny być zobowiązane do zapewnienia zgodności z wymogami dotyczącymi odpowiedzialności w całym łańcuchu wartości AI, w szczególności wobec dostawcy, który je wykorzystał lub zintegrował, jeżeli te narzędzia, usługi, procesy lub elementy AI są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania. Należy zachęcać twórców narzędzi, usług, procesów lub elementów AI, innych niż modele AI ogólnego przeznaczenia, które są udostępniane na bezpłatnej licencji otwartego oprogramowania, do wdrażania powszechnie przyjętych praktyk w zakresie dokumentacji, takich jak karta modelu i karta charakterystyki, jako sposobu na przyspieszenie wymiany informacji w całym łańcuchu wartości AI, co umożliwi promowanie godnych zaufania systemów AI w Unii.
(90)
Komissio voisi laatia ja suositella vapaaehtoisia mallisopimusehtoja suuririskisten tekoälyjärjestelmien tarjoajien ja sellaisten kolmansien osapuolten välisiä sopimuksia varten, jotka toimittavat välineitä, palveluja, komponentteja tai prosesseja, joita käytetään suuririskisissä tekoälyjärjestelmissä tai integroidaan niihin, yhteistyön helpottamiseksi kaikissa arvoketjun vaiheissa. Laatiessaan ei-sitovia mallisopimusehtoja komission olisi myös otettava huomioon tietyillä aloilla tai tietyissä liiketoimintamalleissa mahdollisesti sovellettavat sopimusperusteiset vaatimukset.
(90)
Komisja mogłaby opracować dobrowolne wzorcowe postanowienia umowne między dostawcami systemów AI wysokiego ryzyka a stronami trzecimi dostarczającymi narzędzia, usługi, elementy lub procesy, które są wykorzystywane w systemach AI wysokiego ryzyka lub z nimi zintegrowane, i zalecać stosowanie tych modelowych postanowień, aby ułatwić współpracę w całym łańcuchu wartości. Przy opracowywaniu dobrowolnych wzorcowych postanowień umownych, Komisja powinna też brać pod uwagę wymogi umowne, które mogą mieć zastosowanie w szczególnych sektorach lub przypadkach biznesowych.
(91)
Kun otetaan huomioon tekoälyjärjestelmien luonne ja niiden käyttöön mahdollisesti liittyvät turvallisuuteen ja perusoikeuksiin kohdistuvat riskit, mukaan lukien tarve varmistaa tekoälyjärjestelmän suorituskyvyn asianmukainen seuranta todellisissa olosuhteissa, on asianmukaista asettaa käyttöönottajille erityisiä vastuita. Käyttöönottajien olisi erityisesti toteutettava teknisiä ja organisatorisia toimenpiteitä, joilla varmistetaan, että ne käyttävät suuririskisiä tekoälyjärjestelmiä käyttöohjeiden mukaisesti, ja tarvittaessa olisi säädettävä tietyistä muista tekoälyjärjestelmien toiminnan seurantaa ja tietojen säilyttämistä koskevista velvoitteista. Lisäksi käyttöönottajien olisi varmistettava, että henkilöillä, joiden tehtäväksi on annettu tässä asetuksessa vahvistettujen käyttöohjeiden ja ihmisen suorittaman valvonnan täytäntöönpano, on tarvittava pätevyys, erityisesti riittävä tekoälylukutaito, koulutus ja valtuudet näiden tehtävien hoitamiseksi asianmukaisesti. Kyseiset velvoitteet eivät saisi vaikuttaa muihin käyttöönottajan velvoitteisiin, jotka liittyvät suuririskisiin tekoälyjärjestelmiin unionin oikeuden tai kansallisen lainsäädännön mukaisesti.
(91)
Ze względu na charakter systemów AI oraz ryzyko dla bezpieczeństwa i praw podstawowych, jakie może wiązać się z ich wykorzystywaniem, uwzględniając przy tym potrzebę zapewnienia właściwego monitorowania skuteczności działania systemu AI w warunkach rzeczywistych, należy określić szczególne obowiązki podmiotów stosujących. Podmioty stosujące powinny w szczególności wprowadzić odpowiednie środki techniczne i organizacyjne w celu zapewnienia, aby systemy AI wysokiego ryzyka były wykorzystywane przez nich zgodnie z instrukcjami obsługi, a w stosownych przypadkach należy przewidzieć określone inne obowiązki w odniesieniu do monitorowania funkcjonowania systemów AI oraz rejestrowania zdarzeń. Ponadto podmioty stosujące powinny zapewnić, aby osoby wyznaczone do stosowania instrukcji obsługi i sprawowania nadzoru ze strony człowieka, zgodnie z niniejszym rozporządzeniem, posiadały niezbędne kompetencje, w szczególności odpowiedni poziom kompetencji w zakresie AI oraz odpowiedni poziom przeszkolenia i uprawnień, aby właściwie wykonywać te zadania. Obowiązki te powinny pozostawać bez uszczerbku dla innych wynikających z prawa Unii lub prawa krajowego obowiązków podmiotów stosujących w odniesieniu do systemów AI wysokiego ryzyka.
(92)
Tämä asetus ei vaikuta unionin oikeuden tai kansallisen lainsäädännön, mukaan lukien Euroopan parlamentin ja neuvoston direktiivi 2002/14/EY (39), ja käytännön mukaisiin työnantajien velvollisuuksiin tiedottaa työntekijöille tai heidän edustajilleen ja kuulla heitä tekoälyjärjestelmien käyttöönottoa tai käyttöä koskevista päätöksistä. On silti edelleen tarpeellista varmistaa, että työntekijöille ja heidän edustajilleen tiedotetaan suuririskisten tekoälyjärjestelmien suunnitellusta käyttöönotosta työpaikalla, jos kyseisten tiedotus- ja kuulemisvelvoitteiden edellytykset muissa oikeudellisissa välineissä eivät täyty. Lisäksi tällainen tiedonsaantioikeus on tarpeellinen tämän asetuksen taustalla olevalle perusoikeuksien suojelua koskevalle tavoitteelle ja sen sivutavoite. Sen vuoksi tässä asetuksessa olisi säädettävä kyseistä asiaa koskevasta tietovaatimuksesta, joka ei vaikuta työntekijöiden olemassa oleviin oikeuksiin.
(92)
Niniejsze rozporządzenie pozostaje bez uszczerbku dla obowiązków pracodawców w zakresie informowania pracowników lub ich przedstawicieli i konsultowania się z nimi na podstawie prawa Unii o prawa krajowego oraz unijnej lub krajowej praktyki, w tym dyrektywy 2002/14/WE Parlamentu Europejskiego i Rady (39), na temat decyzji o oddaniu do użytku lub korzystaniu z systemów AI. Nadal konieczne jest zapewnienie pracownikom i ich przedstawicielom informacji na temat planowanego wdrożenia systemów AI wysokiego ryzyka w miejscu pracy, w przypadku gdy warunki dotyczące tych obowiązków w zakresie informowania lub informowania i przeprowadzania konsultacji określone w innych instrumentach prawnych nie są spełnione. Ponadto takie prawo do informacji ma charakter pomocniczy i konieczny w stosunku do leżącego u podstaw niniejszego rozporządzenia celu, jakim jest ochrona praw podstawowych. W związku z tym w niniejszym rozporządzeniu należy ustanowić wymóg informowania w tym zakresie, nie naruszając żadnych istniejących praw pracowników.
(93)
Vaikka tekoälyjärjestelmiin liittyvät riskit voivat olla seurausta tavasta, jolla tällaiset järjestelmät suunnitellaan, riskit voivat myös johtua siitä, miten tällaisia tekoälyjärjestelmiä käytetään. Suuririskisen tekoälyjärjestelmän käyttöönottajilla on siksi ratkaiseva rooli sen varmistamisessa, että perusoikeuksia suojellaan ja että ne täydentävät tarjoajan velvoitteita, kun tekoälyjärjestelmää kehitetään. Käyttöönottajilla on parhaat mahdollisuudet ymmärtää, miten suuririskistä tekoälyjärjestelmää käytetään konkreettisesti, ja näin ollen he voivat tunnistaa mahdollisia merkittäviä riskejä, joita ei ollut ennakoitu kehitysvaiheessa, koska he tuntevat tarkemmin käyttöyhteyden, henkilöt tai henkilöryhmät, mukaan lukien haavoittuvat asemassa olevat ryhmät, joihin vaikutukset todennäköisesti kohdistuvat. Tämän asetuksen liitteessä lueteltujen suuririskisten tekoälyjärjestelmien käyttöönottajilla on myös ratkaiseva rooli tietojen antamisessa luonnollisille henkilöille ja heidän olisi tapauksen mukaan ilmoitettava luonnollisille henkilöille heihin liittyvästä suuririskisen tekoälyjärjestelmän käytöstä, kun he tekevät tai auttavat tekemään luonnollisia henkilöitä koskevia päätöksiä. Näihin tietoihin olisi sisällyttävä tekoälyjärjestelmän käyttötarkoitus ja sen tekemien päätösten tyyppi. Käyttöönottajan olisi myös ilmoitettava luonnollisille henkilöille heidän oikeudestaan saada selitys tämän artiklan mukaisesti. Lainvalvontatarkoituksiin käytettävien suuririskisten tekoälyjärjestelmien osalta kyseinen velvoite olisi pantava täytäntöön direktiivin (EU) 2016/680 13 artiklan mukaisesti.
(93)
Ryzyko związane z systemami AI może wynikać ze sposobu zaprojektowania takich systemów, jak również ze sposobu ich wykorzystania. Podmioty stosujące systemy AI wysokiego ryzyka odgrywają zatem kluczową rolę w zapewnianiu ochrony praw podstawowych w uzupełnieniu obowiązków dostawcy podczas rozwoju systemu AI. Podmioty stosujące najlepiej rozumieją, jak konkretnie wykorzystywany będzie system AI wysokiego ryzyka, i mogą w związku z tym zidentyfikować potencjalne znaczące ryzyko, które nie zostało przewidziane na etapie rozwoju, dzięki bardziej precyzyjnej wiedzy na temat kontekstu wykorzystania, osób lub grup osób, na które system może wywierać wpływ, w tym grup szczególnie wrażliwych. Podmioty stosujące systemy AI wysokiego ryzyka wymienione w załączniku do niniejszego rozporządzenia również odgrywają kluczową rolę w informowaniu osób fizycznych i powinny – gdy podejmują decyzje lub pomagają w podejmowaniu decyzji dotyczących osób fizycznych, w stosownych przypadkach, informować osoby fizyczne, że jest w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Taka informacja powinna obejmować przeznaczenie systemu i typ podejmowanych przez niego decyzji. Podmiot stosujący informuje również osoby fizyczne o przysługujących im prawie do uzyskania wyjaśnienia, które przewiduje niniejsze rozporządzenie. W odniesieniu do systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw obowiązek ten należy wykonywać zgodnie z art. 13 dyrektywy (UE) 2016/680.
(94)
Kaikessa lainvalvontatarpeita varten tehtävän tekoälyjärjestelmien biometrista tunnistamista koskevan käytön yhteydessä biometristen tietojen käsittelyssä on noudatettava direktiivin (EU) 2016/680 10 artiklaa, joka sallii tällaisen käsittelyn vain, jos se on ehdottoman välttämätöntä, edellyttäen, että rekisteröidyn oikeuksiin ja vapauksiin sovelletaan asianmukaisia suojatoimia ja käsittely sallitaan unionin oikeudessa tai jäsenvaltion lainsäädännössä. Tällaisen käytön yhteydessä, silloin kun siihen on lupa, on myös noudatettava direktiivin (EU) 2016/680 4 artiklan 1 kohdassa säädettyjä periaatteita, kuten lainmukaisuutta, oikeudenmukaisuutta ja avoimuutta, käyttötarkoituksen rajoittamista, tarkkuutta ja säilytystä koskevia rajoituksia.
(94)
Wszelkie przetwarzanie danych biometrycznych związane z wykorzystywaniem systemów AI do identyfikacji biometrycznej do celów ścigania przestępstw musi być zgodne z art. 10 dyrektywy (UE) 2016/680, który zezwala na takie przetwarzanie wyłącznie wtedy, jeżeli jest to bezwzględnie konieczne, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osoby, której dane dotyczą, oraz jeżeli jest to dopuszczone prawem Unii lub prawem państwa członkowskiego. Takie wykorzystanie, jeżeli jest dozwolone, musi być również zgodne z zasadami określonymi w art. 4 ust. 1 dyrektywy (UE) 2016/680, w tym zasadami zgodności z prawem, rzetelności i przejrzystości, celowości, dokładności i ograniczenia przechowywania.
(95)
Kun otetaan huomioon jälkikäteisten biometristen etätunnistusjärjestelmien yksityisyyttä loukkaava luonne, jälkikäteisten etätunnistusjärjestelmien käyttöön olisi sovellettava suojatoimia, sanotun kuitenkaan rajoittamatta sovellettavan unionin oikeuden, erityisesti asetuksen (EU) 2016/679 ja direktiivin (EU) 2016/680, soveltamista. Biometrisiä etätunnistusjärjestelmiä olisi aina käytettävä tavalla, joka on oikeasuhteinen, oikeutettu ja ehdottoman välttämätön ja siten kohdennettu tunnistettaviin henkilöihin, sijaintiin ja ajalliseen laajuuteen, ja perustuttava laillisesti hankitun videokuvan suljettuun datajoukkoon. Jälkikäteisiä biometrisiä etätunnistusjärjestelmiä ei saisi missään tapauksessa käyttää lainvalvonnan puitteissa siten, että se voi johtaa mielivaltaiseen valvontaan. Jälkikäteisen biometrisen etätunnistuksen edellytysten ei pitäisi missään tapauksessa olla peruste kiellon edellytysten ja reaaliaikaista biometristä etätunnistusta koskevien tiukkojen poikkeusten kiertämiselle.
(95)
Bez uszczerbku dla mającego zastosowanie prawa Unii, w szczególności rozporządzenia (UE) 2016/679 i dyrektywy (UE) 2016/680, biorąc pod uwagę inwazyjny charakter systemów zdalnej identyfikacji biometrycznej post factum, korzystanie z takich systemów powinno podlegać zabezpieczeniom. Systemy identyfikacji biometrycznej post factum powinny być zawsze wykorzystywane w sposób proporcjonalny, zgodny z prawem i jeżeli jest to bezwzględnie konieczne, a tym samym ukierunkowane na osoby fizyczne, które mają zostać zidentyfikowane, na określoną lokalizację i zakres czasowy, oraz opierać się na zamkniętym zbiorze danych pochodzących z legalnie uzyskanych materiałów wideo. W żadnym wypadku systemy zdalnej identyfikacji biometrycznej post factum nie powinny być wykorzystywane w ramach ścigania przestępstw w celu prowadzenia niezróżnicowanego nadzoru. Warunki zdalnej identyfikacji biometrycznej post factum nie powinny w żadnym wypadku stanowić podstawy do obchodzenia warunków zakazu i ścisłych wyjątków dotyczących zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
(96)
Jotta voidaan varmistaa tehokkaasti perusoikeuksien suojelu, suuririskisten tekoälyjärjestelmien käyttöönottajien, jotka ovat julkisoikeudellisia laitoksia tai julkisia palveluja tarjoavia yksityisiä tahoja ja tiettyjä tämän asetuksen liitteessä lueteltuja suuririskisiä tekoälyjärjestelmiä käyttöön ottavia toimijoita, kuten pankkiyhteisöt tai vakuutusyhtiöt, olisi tehtävä perusoikeuksia koskeva vaikutustenarviointi ennen järjestelmän käyttöönottoa. Myös yksityiset tahot voivat tarjota henkilöille tärkeitä palveluja, jotka ovat luonteeltaan julkisia. Tällaisia julkisia palveluja tarjoavat yksityiset tahot liittyvät yleisen edun mukaisiin tehtäviin, kuten koulutukseen, terveydenhuoltoon, sosiaalipalveluihin, asumiseen ja oikeudenkäyttöön. Perusoikeuksia koskevan vaikutustenarvioinnin tavoitteena on, että käyttöönottaja tunnistaa niiden yksilöiden tai henkilöryhmien oikeuksiin kohdistuvat erityiset riskit, joihin vaikutukset todennäköisesti kohdistuvat, ja määrittää toimenpiteet, jotka on toteutettava tällaisten riskien toteutuessa. Vaikutustenarviointi olisi tehtävä ennen suuririskisen tekoälyjärjestelmän käyttöönottoa, ja sitä olisi päivitettävä, kun käyttöönottaja katsoo, että jokin asiaankuuluvista tekijöistä on muuttunut. Vaikutustenarvioinnissa olisi yksilöitävä käyttöönottajan asiaankuuluvat prosessit, joissa suuririskistä tekoälyjärjestelmää käytetään sen käyttötarkoituksen mukaisesti, ja siihen olisi sisällyttävä kuvaus ajanjaksosta, jolloin järjestelmää on tarkoitus käyttää, ja käytön tiheydestä, sekä tietyistä luonnollisten henkilöiden ja ryhmien joukoista, joihin todennäköisesti kohdistuu vaikutuksia tietyssä käyttöyhteydessä.Arvioinnissa olisi myös tunnistettava sellaiset erityiset riskit, joita aiheutuu haitasta, joka todennäköisesti vaikuttaa kyseisten henkilöiden tai ryhmien perusoikeuksiin. Tätä arviointia tehdessään käyttöönottajan olisi otettava huomioon vaikutusten asianmukaisen arvioinnin kannalta merkitykselliset tiedot, kuten esimerkiksi suuririskisen tekoälyjärjestelmän tarjoajan käyttöohjeissa antamat tiedot. Kun otetaan huomioon tunnistetut riskit, käyttöönottajien olisi määritettävä toimenpiteitä, joita on toteutettava kyseisten riskien toteutuessa ja joihin voi kuulua esimerkiksi kyseisen käyttöyhteyden hallintojärjestelyt, kuten ihmisen suorittamaa valvontaa koskevat järjestelyt käyttöohjeiden mukaisesti tai valitusten käsittely ja muutoksenhakumenettelyt, koska ne voisivat konkreettisissa käyttötapauksissa olla keskeisessä asemassa perusoikeuksiin kohdistuvien riskien vähentämisessä. Kun tällainen vaikutustenarviointi tehty, käyttöönottajan olisi ilmoitettava asiasta asianomaiselle markkinavalvontaviranomaiselle. Jotta voidaan kerätä tarvittavat asiaankuuluvat tiedot vaikutustenarvioinnin toteuttamiseksi, suuririskisten tekoälyjärjestelmien käyttöönottajat voisivat ottaa asiaankuuluvat sidosryhmät, mukaan lukien sellaisten henkilöryhmien edustajat, joihin tekoälyjärjestelmä todennäköisesti vaikuttaa, riippumattomat asiantuntijat ja kansalaisjärjestöt, mukaan tällaisen vaikutustenarvioinnin toteuttamiseen sekä riskien toteutuessa toteutettavien toimenpiteiden suunnitteluun, etenkin jos tekoälyjärjestelmiä käytetään julkisella sektorilla. Euroopan tekoälytoimiston, jäljempänä ”tekoälytoimisto”, olisi laadittava malli kyselylomakkeelle vaatimusten noudattamisen helpottamiseksi ja käyttöönottajille aiheutuvan hallinnollisen rasitteen keventämiseksi.
(96)
Aby skutecznie zapewnić ochronę praw podstawowych, podmioty stosujące systemy AI wysokiego ryzyka będące podmiotami prawa publicznego lub podmiotami prywatnymi świadczącymi usługi publiczne i podmioty stosujące niektóre systemy AI wysokiego ryzyka wymienione w załączniku do niniejszego rozporządzenia, tacy jak podmioty bankowe lub ubezpieczeniowe, powinni przed wprowadzeniem tych systemów do użytku przeprowadzić ocenę skutków dla praw podstawowych. Usługi o charakterze publicznym ważne dla osób fizycznych mogą być również świadczone przez podmioty prywatne. Podmioty prywatne świadczące takie usługi publiczne działają w powiązaniu z zadaniami świadczonymi w interesie publicznym, takimi jak edukacja, opieka zdrowotna, usługi społeczne, mieszkalnictwo, sprawowanie wymiaru sprawiedliwości. Celem oceny skutków dla praw podstawowych jest zidentyfikowanie przez podmiot stosujący konkretnych rodzajów ryzyka dla praw osób fizycznych lub grup osób fizycznych, na które AI może mieć wpływ, oraz określenie środków, które należy podjąć w przypadku urzeczywistnienia się tego ryzyka. Ocena skutków powinna być przeprowadzana przed wdrożeniem systemu AI wysokiego ryzyka i powinna być aktualizowana, gdy podmiot stosujący uzna, że którykolwiek z istotnych czynników uległ zmianie. W ocenie skutków należy określić odpowiednie procesy podmiotu stosującego, w których system AI wysokiego ryzyka będzie wykorzystywany zgodnie z jego przeznaczeniem; powinna ona przedstawiać informacje o okresie, w którym system ma być wykorzystywany, i o częstotliwości jego wykorzystania, a także opis konkretnych kategorii osób fizycznych i grup, na które AI może mieć wpływ w tym konkretnym kontekście wykorzystania. Ocena powinna również obejmować określenie szczególnego ryzyka szkody, które może mieć wpływ na prawa podstawowe tych osób lub grup. Przeprowadzając tę ocenę, podmiot stosujący powinien uwzględnić informacje istotne dla właściwej oceny skutków, w tym między innymi informacje podane przez dostawcę systemu AI wysokiego ryzyka w instrukcji obsługi. W świetle zidentyfikowanego ryzyka podmioty stosujące powinny określić środki, które należy podjąć w przypadku urzeczywistnienia się tego ryzyka, w tym na przykład rozwiązania dotyczące zarządzania w tym konkretnym kontekście wykorzystania, np. dotyczące nadzoru ze strony człowieka zgodnie z instrukcją obsługi lub procedury rozpatrywania skarg i dochodzenia roszczeń, ponieważ mogą one odegrać zasadniczą rolę w ograniczaniu ryzyka dla praw podstawowych w konkretnych przypadkach wykorzystania. Po przeprowadzeniu tej oceny skutków podmiot stosujący powinien powiadomić odpowiedni organ nadzoru rynku. W stosownych przypadkach w celu zebrania odpowiednich informacji niezbędnych do przeprowadzenia oceny skutków podmioty stosujące system AI wysokiego ryzyka, w szczególności gdy systemy AI są wykorzystywane w sektorze publicznym, mogą angażować odpowiednie zainteresowane strony, w tym przedstawicieli grup osób, na które system AI może mieć wpływ, niezależnych ekspertów i organizacje społeczeństwa obywatelskiego w przeprowadzanie takich ocen skutków i opracowywanie środków, które należy wprowadzić w przypadku urzeczywistnienia się ryzyka. Europejski Urząd ds. Sztucznej Inteligencji (zwany dalej „Urzędem ds. AI”) powinien opracować wzór kwestionariusza, by ułatwić zapewnienie zgodności przez podmioty stosujące i zmniejszyć obciążenia administracyjne dla tych podmiotów.
(97)
Yleiskäyttöisten tekoälymallien käsite olisi määriteltävä selkeästi ja erotettava tekoälyjärjestelmien käsitteestä oikeusvarmuuden takaamiseksi. Määritelmän olisi perustuttava yleiskäyttöisen tekoälymallin keskeisiin toiminnallisiin ominaisuuksiin, erityisesti yleisyyteen ja valmiuteen suorittaa pätevästi monenlaisia erillisiä tehtäviä. Näitä malleja koulutetaan yleensä suurilla määrillä dataa ja useilla eri menetelmillä, kuten ohjatulla, ohjaamattomalla tai vahvistavalla oppimisella. Yleiskäyttöisiä tekoälymalleja voidaan saattaa markkinoille eri tavoin, esimerkiksi kirjastojen ja sovellusrajapintojen (API) kautta sekä suoralatauksena tai fyysisenä kopiona. Näitä malleja voidaan edelleen muuttaa tai hienosäätää uusiksi malleiksi. Vaikka tekoälymallit ovat tekoälyjärjestelmien olennaisia osia, ne eivät yksinään muodosta tekoälyjärjestelmiä. Tekoälyjärjestelmät edellyttävät lisäkomponenttien, kuten käyttöliittymän, lisäämistä tekoälymalleihin. Tekoälymallit tyypillisesti integroidaan tekoälyjärjestelmiin ja ovat osa niitä. Tässä asetuksessa vahvistetaan yleiskäyttöisiä tekoälymalleja ja systeemisiä riskejä aiheuttavia yleiskäyttöisiä tekoälymalleja koskevat erityiset säännöt, joita olisi sovellettava myös silloin, kun nämä mallit on integroitu tekoälyjärjestelmään tai ne ovat osa sitä. Olisi katsottava, että yleiskäyttöisten tekoälymallien tarjoajien velvoitteita olisi sovellettava siitä alkaen, kun yleiskäyttöiset tekoälymallit on saatettu markkinoille.Kun yleiskäyttöisen tekoälymallin tarjoaja sisällyttää oman mallin omaan tekoälyjärjestelmäänsä, joka on asetettu saataville markkinoilla tai otettu käyttöön, kyseistä mallia olisi pidettävä markkinoille saatettuna, ja sen vuoksi tämän asetuksen malleja koskevia velvoitteita olisi edelleen sovellettava tekoälyjärjestelmiä koskevien velvoitteiden lisäksi. Malleja koskevia velvoitteita ei kuitenkaan pitäisi missään tapauksessa soveltaa, kun omaa mallia käytetään puhtaasti sisäisissä prosesseissa, jotka eivät ole välttämättömiä tuotteen tai palvelun tarjoamiseksi kolmansille osapuolille eivätkä ne vaikuta luonnollisten henkilöiden oikeuksiin. Ottaen huomioon yleiskäyttöisten tekoälymallien, joihin liittyy systeeminen riski, mahdolliset merkittävät kielteiset vaikutukset, niihin olisi aina sovellettava tämän asetuksen mukaisia asiaankuuluvia velvoitteita. Määritelmän ei pitäisi kattaa tekoälymalleja, joita on käytetty yksinomaan tutkimukseen, kehitykseen ja prototyyppeihin liittyvään toimintaan ennen niiden markkinoille saattamista. Tämä ei vaikuta velvoitteeseen noudattaa tätä asetusta, kun malli saatetaan markkinoille tällaisten toimien jälkeen.
(97)
Należy jasno zdefiniować pojęcie modeli AI ogólnego przeznaczenia i oddzielić je od pojęcia systemów AI, aby zapewnić pewność prawa. Definicja powinna opierać się na kluczowych cechach funkcjonalnych modelu AI ogólnego przeznaczenia, w szczególności na ogólnym charakterze i zdolności do kompetentnego wykonywania szerokiego zakresu różnych zadań. Modele te są zazwyczaj trenowane w oparciu o dużą ilość danych za pomocą różnych metod, takich jak uczenie się samodzielnie nadzorowane, nienadzorowane lub uczenie przez wzmacnianie. Modele AI ogólnego przeznaczenia mogą być wprowadzane do obrotu na różne sposoby, w tym za pośrednictwem bibliotek, interfejsów programowania aplikacji (API), przez bezpośrednie pobieranie lub w wersji fizycznej. Modele te mogą być dalej zmieniane lub dostosowywane jako baza do tworzenia nowych modeli. Chociaż modele AI są zasadniczymi elementami systemów AI, nie stanowią same w sobie systemów AI. Aby model AI mógł stać się systemem AI należy dodać do niego dodatkowe elementy, takie jak na przykład interfejs użytkownika. Modele AI są zwykle zintegrowane z systemami AI i stanowią ich część. Niniejsze rozporządzenie ustanawia przepisy szczególne dotyczące modeli AI ogólnego przeznaczenia oraz modeli AI ogólnego przeznaczenia, które stwarzają ryzyko systemowe, a przepisy te powinny być stosowane również wtedy, gdy modele te są zintegrowane z systemem AI lub stanowią jego część. Należy rozumieć, że obowiązki dostawców modeli AI ogólnego przeznaczenia powinny mieć zastosowanie od momentu wprowadzenia do obrotu modeli AI ogólnego przeznaczenia. W przypadku gdy dostawca modelu AI ogólnego przeznaczenia zintegruje własny model z własnym systemem AI, który jest udostępniany na rynku lub oddany do użytku, model ten należy uznać za wprowadzony do obrotu i w związku z tym ustanowione w niniejszym rozporządzeniu obowiązki dotyczące modeli powinny nadal mieć zastosowanie obok obowiązków dotyczących systemów AI. Obowiązki ustanowione w odniesieniu do modeli nie powinny w żadnym przypadku mieć zastosowania, jeżeli model własny jest stosowany w czysto wewnętrznych procesach, które nie są niezbędne do dostarczania produktu lub usługi osobom trzecim, a prawa osób fizycznych nie są naruszone. Biorąc pod uwagę ich potencjalne znacząco negatywne skutki, modele AI ogólnego przeznaczenia z ryzykiem systemowym powinny zawsze podlegać odpowiednim obowiązkom ustanowionym w niniejszym rozporządzeniu. Definicja nie powinna obejmować modeli AI wykorzystywanych przed wprowadzeniem ich do obrotu wyłącznie do celów działalności badawczo-rozwojowej i tworzenia prototypów. Pozostaje to bez uszczerbku dla obowiązku zapewnienia zgodności z niniejszym rozporządzeniem w przypadku wprowadzenia do obrotu danego modelu w następstwie takiej działalności.
(98)
Vaikka mallin yleisyys voitaisiin muiden kriteerien ohella määrittää myös useiden parametrien perusteella, olisi katsottava, että mallit, joissa parametreja on vähintään miljardi, jotka on koulutettu suurella määrällä dataa ja joissa käytetään laajamittaista itsevalvontaa, ovat hyvin yleisluonteisia ja suorittavat pätevästi monenlaisia erillisiä tehtäviä.
(98)
Mając na uwadze, że ogólny charakter modelu można określić między innymi na podstawie liczby parametrów, należy uznać, że modele o co najmniej miliardzie parametrów i trenowane w oparciu o dużą ilość danych z wykorzystaniem nadzoru własnego na dużą skalę są bardzo ogólne i kompetentnie wykonują szeroki zakres różnych zadań.
(99)
Suuret generatiiviset tekoälymallit ovat tyypillinen esimerkki yleiskäyttöisestä tekoälymallista, koska ne mahdollistavat joustavan sisällön tuottamisen, esimerkiksi tekstin, äänen, kuvien tai videoiden muodossa, jossa voidaan helposti ottaa huomioon monenlaiset erilliset tehtävät.
(99)
Duże generatywne modele AI są typowym przykładem modelu AI ogólnego przeznaczenia, biorąc pod uwagę, że umożliwiają elastyczne generowanie treści, np. w postaci tekstu, dźwięku, obrazów lub materiałów wideo, i mogą z łatwością wykonywać szeroki zakres różnych zadań.
(100)
Kun yleiskäyttöinen tekoälymalli on integroitu tekoälyjärjestelmään tai se on osa sitä, järjestelmää olisi pidettävä yleiskäyttöisenä tekoälyjärjestelmänä, koska tällaisen integroinnin vuoksi tällaisella järjestelmällä on valmiudet palvella erilaisia tarkoituksia. Yleiskäyttöistä tekoälyjärjestelmää voidaan käyttää suoraan tai se voidaan integroida muihin tekoälyjärjestelmiin;
(100)
Jeżeli model AI ogólnego przeznaczenia jest zintegrowany z systemem AI lub stanowi jego część, system ten należy uznać za system AI ogólnego przeznaczenia, jeżeli w wyniku zintegrowania modelu system ten może służyć różnym celom. System AI ogólnego przeznaczenia może być wykorzystywany bezpośrednio lub być zintegrowany z innymi systemami AI.
(101)
Yleiskäyttöisten tekoälymallien tarjoajilla on erityinen rooli ja vastuu tekoälyn arvoketjussa, koska niiden tarjoamat mallit voivat muodostaa perustan useille ketjun loppupään järjestelmille, joita tarjoavat usein ketjun loppupään tarjoajat, jotka edellyttävät mallien ja niiden valmiuksien hyvää ymmärtämistä, jotta tällaiset mallit voidaan integroida niiden tuotteisiin ja jotta ne voivat täyttää tämän tai muiden asetusten mukaiset velvoitteensa. Sen vuoksi olisi vahvistettava oikeasuhteiset avoimuuden lisäämistä koskevat toimenpiteet, mukaan lukien asiakirjojen laatiminen ja ajan tasalla pitäminen sekä tietojen antaminen yleiskäyttöisestä tekoälymallista ketjun loppupään tarjoajien käyttöön. Yleiskäyttöisen tekoälymallin tarjoajan olisi laadittava tekniset asiakirjat ja pidettävä ne ajan tasalla, jotta ne voidaan pyynnöstä asettaa tekoälytoimiston ja kansallisten toimivaltaisten viranomaisten saataville. Tällaisiin asiakirjoihin sisällytettävät vähimmäistiedot olisi vahvistettava tämän asetuksen erityisissä liitteissä. Komissiolle olisi siirrettävä valta muuttaa kyseisiä liitteitä delegoiduilla säädöksillä teknologian kehityksen perusteella.
(101)
Dostawcy modeli AI ogólnego przeznaczenia odgrywają szczególną rolę i ponoszą szczególną odpowiedzialność w całym łańcuchu wartości AI, ponieważ modele, które dostarczają, mogą stanowić podstawę szeregu systemów niższego szczebla, często dostarczanych przez dostawców niższego szczebla, które to systemy wymagają dobrego zrozumienia modeli i ich zdolności, zarówno by umożliwić integrację takich modeli z ich produktami, jak i by spełniać obowiązki ustanowione w niniejszym rozporządzeniu lub innych przepisach. W związku z tym należy ustanowić proporcjonalne środki w zakresie przejrzystości, w tym sporządzanie i aktualizowanie dokumentacji oraz dostarczanie informacji na temat modelu AI ogólnego przeznaczenia do wykorzystania przez dostawców niższego szczebla. Dostawca modelu AI ogólnego przeznaczenia powinien przygotować i aktualizować dokumentację techniczną w celu udostępnienia jej na wniosek Urzędowi ds. AI i właściwym organom krajowym. Minimalny zbiór elementów do uwzględnienia w takiej dokumentacji należy określić w szczególnych załącznikach do niniejszego rozporządzenia. Komisja powinna być uprawniona do zmiany tych załączników w drodze aktów delegowanych w świetle postępu technicznego.
(102)
Ohjelmistot ja data, mukaan lukien mallit, jotka on julkaistu vapaalla ja avoimen lähdekoodin lisenssillä, joka mahdollistaa niiden avoimen jakamisen ja jolla käyttäjät voivat vapaasti saada, käyttää, muokata ja jakaa niitä tai niiden muutettuja versioita, voivat edistää tutkimusta ja innovointia markkinoilla ja voivat tarjota merkittäviä kasvumahdollisuuksia unionin taloudelle. Vapailla ja avoimen lähdekoodin lisensseillä julkaistujen yleiskäyttöisten tekoälymallien olisi katsottava varmistavan korkean avoimuuden tason, jos niiden parametrit, mukaan lukien painokertoimet, malliarkkitehtuuria koskevat tiedot ja mallien käyttöä koskevat tiedot, asetetaan julkisesti saataville. Lisenssi olisi pidettävä vapaana ja avoimena lähdekoodina myös silloin, kun se antaa käyttäjille mahdollisuuden käyttää, kopioida, jakaa, tutkia, muuttaa ja parantaa ohjelmistoja ja dataa, mukaan lukien malleja sillä edellytyksellä, että mallin alkuperäinen tarjoaja mainitaan ja että samoja tai vertailukelpoisia jakeluehtoja noudatetaan.
(102)
Oprogramowanie i dane, w tym modele, udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania, która umożliwia ich ogólne upowszechnianie i zezwala użytkownikom na swobodny dostęp do nich, ich wykorzystywanie, zmianę i ich redystrybucję lub ich zmienionych wersji, mogą przyczynić się do badań naukowych i innowacji na rynku oraz zapewnić gospodarce Unii znaczne możliwości wzrostu. Należy uznać, że modele AI ogólnego przeznaczenia udostępniane na podstawie bezpłatnych licencji otwartego oprogramowania zapewniają wysoki poziom przejrzystości i otwartości, jeżeli ich parametry, w tym wagi, informacje na temat architektury modelu oraz informacje na temat wykorzystania modelu, są publicznie dostępne. Licencję należy uznać za bezpłatną licencję otwartego oprogramowania również wtedy, gdy umożliwia użytkownikom obsługę, kopiowanie, dystrybucję, badanie, zmianę i ulepszanie oprogramowania i danych, w tym modeli, pod warunkiem że umieszcza się wzmiankę o pierwotnym dostawcy modelu i że przestrzega się identycznych lub porównywalnych warunków dystrybucji.
(103)
Vapaat ja avoimen lähdekoodin tekoälykomponentit kattavat ohjelmistot ja datan, mukaan lukien tekoälyjärjestelmän mallit ja yleiskäyttöiset tekoälymallit, välineet, palvelut tai prosessit. Vapaita ja avoimen lähdekoodin tekoälykomponentteja voidaan tarjota eri kanavien kautta, mukaan lukien niiden kehittäminen avoimissa julkaisuarkistoissa. Tätä asetusta sovellettaessa tekoälykomponenttien, joita tarjotaan maksua vastaan tai muilla tavoin vastikkeellisina, muun muassa tarjoamalla tekoälykomponenttiin liittyvää teknistä tukea tai muita palveluja, myös ohjelmistoalustan kautta, tai käyttämällä henkilötietoja muista kuin yksinomaan ohjelmiston turvallisuuden, yhteensopivuuden tai yhteentoimivuuden parantamiseen liittyvistä syistä, lukuun ottamatta mikroyritysten välisiä kaupallisia toimia, ei pitäisi hyötyä vapaille ja avoimen lähdekoodin tekoälykomponenteille säädetyistä poikkeuksista. Sen, että tekoälykomponentit asetetaan saataville avoimien julkaisuarkistojen kautta, ei sinänsä pitäisi merkitä vastikkeellisuutta.
(103)
Elementy AI na bezpłatnej licencji otwartego oprogramowania obejmują oprogramowanie i dane, w tym modele i modele AI ogólnego przeznaczenia, narzędzia, usługi lub procesy systemu AI. Elementy AI na bezpłatnej licencji otwartego oprogramowania mogą być dostarczane za pośrednictwem różnych kanałów, w tym rozwijane w otwartych repozytoriach. Do celów niniejszego rozporządzenia elementy AI, które są dostarczane odpłatnie lub w inny sposób monetyzowane, w tym poprzez zapewnianie wsparcia technicznego lub innych usług związanych z elementem AI, w tym poprzez platformy oprogramowania, lub wykorzystywanie danych osobowych z powodów innych niż wyłącznie poprawa bezpieczeństwa, kompatybilności lub interoperacyjności oprogramowania, z wyjątkiem transakcji między mikroprzedsiębiorstwami, nie powinny korzystać ze zwolnień przewidzianych w odniesieniu do bezpłatnych i otwartych elementów AI. Fakt udostępniania elementów AI w otwartych repozytoriach nie powinien sam w sobie stanowić monetyzacji.
(104)
Tarjoajiin, jotka tarjoavat vapaalla ja avoimen lähdekoodin lisenssillä yleiskäyttöisiä tekoälymalleja, joiden parametrit, mukaan lukien painokertoimet sekä malliarkkitehtuuria ja mallin käyttöä koskevat tiedot, asetetaan julkisesti saataville, olisi sovellettava poikkeuksia, jotka koskevat yleiskäyttöisille tekoälymalleille asetettuja avoimuusvaatimuksia, paitsi jos niiden voidaan katsoa aiheuttavan systeemisen riskin, jolloin sitä, että malli on avoin ja siihen liittyy avoimen lähdekoodin lisenssi, ei pitäisi katsoa riittäväksi syyksi olla noudattamatta tämän asetuksen mukaisia velvoitteita. Koska yleiskäyttöisten tekoälymallien käyttöönotto vapaan ja avoimen lähdekoodin lisenssin nojalla ei välttämättä paljasta olennaisia tietoja mallin kouluttamiseen tai hienosäätöön käytetystä datajoukosta ja siitä, miten tekijänoikeuslainsäädännön noudattaminen on varmistettu, yleiskäyttöisiä tekoälymalleja koskeva poikkeus avoimuusvaatimusten noudattamisesta ei saisi missään tapauksessa koskea velvoitetta laatia tiivistelmä mallikoulutuksessa käytetystä sisällöstä ja velvoitetta ottaa käyttöön toimintaperiaatteet unionin tekijänoikeuslainsäädännön noudattamiseksi ja erityisesti oikeuksien pidättämisen tunnistamiseksi ja noudattamiseksi Euroopan parlamentin ja neuvoston direktiivin (EU) 2019/790 (40) 4 artiklan 3 kohdan mukaisesti.
(104)
Dostawcy modeli AI ogólnego przeznaczenia, które są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania i których parametry, w tym wagi, informacje o architekturze modelu oraz informacje na temat korzystania z modelu, są udostępniane publicznie, powinni podlegać zwolnieniom w odniesieniu do wymogów związanych z przejrzystością nałożonych na modele AI ogólnego przeznaczenia, chyba że można uznać, że modele te stwarzają ryzyko systemowe, w którym to przypadku fakt, że model jest przejrzysty i że towarzyszy mu licencja otwartego oprogramowania, nie powinien być uznawany za wystarczający powód zwolnienia ze spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu. W każdym razie, biorąc pod uwagę, że udostępnianie modeli AI ogólnego przeznaczenia na podstawie bezpłatnej licencji otwartego oprogramowania niekoniecznie prowadzi do ujawnienia istotnych informacji na temat zbioru danych wykorzystywanego do trenowania lub dostrajania modelu oraz na temat sposobu zapewnienia tym samym zgodności z prawem autorskim, przewidziane w odniesieniu do modeli AI ogólnego przeznaczenia zwolnienie z obowiązku spełnienia wymogów związanych z przejrzystością nie powinno dotyczyć obowiązku sporządzenia streszczenia dotyczącego treści wykorzystywanych do trenowania modeli oraz obowiązku wprowadzenia polityki w celu zapewnienie zgodności z unijnym prawem autorskim, w szczególności w celu zidentyfikowania i zastosowania się do zastrzeżenia praw zgodnie z art. 4 ust. 3 dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/790 (40).
(105)
Yleiskäyttöiset tekoälymallit, erityisesti suuret generatiiviset tekoälymallit, jotka pystyvät tuottamaan tekstiä, kuvia ja muuta sisältöä, tarjoavat ainutlaatuisia innovointimahdollisuuksia mutta myös haasteita taiteilijoille, kirjailijoille ja muille luovan sisällön tekijöille sekä sille, miten heidän luovaa sisältöään luodaan, levitetään, käytetään ja kulutetaan. Tällaisten mallien kehittäminen ja kouluttaminen edellyttää valtavia määriä tekstiä, kuvia, videoita ja muuta dataa. Tekstin- ja tiedonlouhintatekniikoita voidaan tässä yhteydessä käyttää laajasti tällaisen tekijänoikeudella ja lähioikeuksilla suojatun sisällön hakemiseen ja analysointiin. Tekijänoikeudella suojatun sisällön käyttö edellyttää asianomaisen oikeudenhaltijan lupaa, paitsi jos sovelletaan asiaankuuluvia tekijänoikeutta koskevia poikkeuksia ja -rajoituksia. Direktiivillä (EU) 2019/790 otettiin käyttöön poikkeuksia ja rajoituksia, jotka sallivat tietyin edellytyksin kappaleenvalmistamisen ja otteiden ottamisen teoksista tai muusta aineistosta tekstin- ja tiedonlouhintaa varten. Näiden sääntöjen mukaan oikeudenhaltijat voivat päättää varata itselleen oikeudet teoksiinsa tai muuhun aineistoonsa tekstin- ja tiedonlouhinnan estämiseksi, ellei tätä tehdä tieteellistä tutkimusta varten. Jos nämä oikeudet on nimenomaisesti ja asianmukaisesti varattu, yleiskäyttöisten tekoälymallien tarjoajien on saatava oikeudenhaltijoilta lupa, jos ne haluavat toteuttaa tällaisia teoksia koskevan tekstin- ja tiedonlouhinnan.
(105)
Modele AI ogólnego przeznaczenia, w szczególności duże generatywne modele AI, zdolne do generowania tekstów, obrazów i innych treści, stwarzają wyjątkowe możliwości w zakresie innowacji, ale także wyzwania dla artystów, autorów i innych twórców oraz w odniesieniu do sposobu tworzenia, rozpowszechniania, wykorzystywania i konsumowania ich treści kreatywnych. Rozwój i trenowanie takich modeli wymaga dostępu do ogromnych ilości tekstów, obrazów, materiałów wideo i innych danych. Techniki eksploracji tekstów i danych mogą być w tym kontekście szeroko wykorzystywane do wyszukiwania i analizy takich treści, które mogą być chronione prawem autorskim i prawami pokrewnymi. Każde wykorzystanie treści chronionych prawem autorskim wymaga zezwolenia danego podmiotu praw, chyba że zastosowanie mają odpowiednie wyjątki i ograniczenia dotyczące praw autorskich. Na mocy dyrektywy (UE) 2019/790 wprowadzono wyjątki i ograniczenia umożliwiające, pod pewnymi warunkami, zwielokrotnianie i pobieranie utworów lub innych przedmiotów objętych ochroną do celów eksploracji tekstów i danych. Zgodnie z tymi przepisami podmioty uprawnione mogą zastrzec swoje prawa do swoich utworów lub innych przedmiotów objętych ochroną, aby zapobiec eksploracji tekstów i danych, chyba że odbywa się to do celów badań naukowych. W przypadku gdy prawo do wyłączenia z eksploracji zostało w odpowiedni sposób wyraźnie zastrzeżone, dostawcy modeli AI ogólnego przeznaczenia muszą uzyskać zezwolenie od podmiotów uprawnionych, jeżeli chcą dokonywać eksploracji tekstów i danych odnośnie do takich utworów.
(106)
Tarjoajien, jotka saattavat yleiskäyttöisiä tekoälymalleja unionin markkinoille, olisi varmistettava tässä asetuksessa säädettyjen asiaankuuluvien velvoitteiden noudattaminen. Tätä varten yleiskäyttöisten tekoälymallien tarjoajien olisi otettava käyttöön toimintaperiaatteet, joilla noudatetaan tekijänoikeutta ja lähioikeuksia koskevaa unionin oikeutta ja erityisesti tunnistetaan ja noudatetaan oikeudenhaltijoiden direktiivin (EU) 2019/790 4 artiklan 3 kohdan mukaisesti ilmaisemaa oikeuksien pidättämistä. Kaikkien tarjoajien, jotka saattavat unionin markkinoille yleiskäyttöisen tekoälymallin, olisi noudatettava tätä velvoitetta riippumatta siitä, millä lainkäyttöalueella kyseisten yleiskäyttöisten tekoälymallien koulutuksen perustana olevat tekijänoikeuden kannalta merkitykselliset toimet toteutetaan. Tämä on tarpeen, jotta yleiskäyttöisten tekoälymallien tarjoajille voidaan varmistaa tasapuoliset toimintaedellytykset, joissa yksikään tarjoaja ei saisi unionin markkinoilla kilpailuetua soveltamalla alhaisempia tekijänoikeusstandardeja kuin unionissa.
(106)
Dostawcy wprowadzający modele AI ogólnego przeznaczenia do obrotu w Unii powinni zapewnić, aby ustanowione w niniejszym rozporządzeniu odpowiednie obowiązki zostały spełnione. W tym celu dostawcy modeli AI ogólnego przeznaczenia powinni wprowadzić politykę w celu zapewnienia zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych, w szczególności w celu identyfikacji i zastosowania się do zastrzeżenia praw wyrażonego przez podmioty uprawnione zgodnie z art. 4 ust. 3 dyrektywy (UE) 2019/790. Każdy dostawca wprowadzający do obrotu w Unii model AI ogólnego przeznaczenia powinien spełniać ten obowiązek, niezależnie od jurysdykcji, w której mają miejsce czynności regulowane prawem autorskim stanowiące podstawę trenowania tych modeli AI ogólnego przeznaczenia. Jest to konieczne do zapewnienia równych warunków działania dostawcom modeli AI ogólnego przeznaczenia, tak aby żaden dostawca nie mógł uzyskać przewagi konkurencyjnej na rynku Unii poprzez stosowanie niższych standardów praw autorskich niż normy przewidziane w Unii.
(107)
Jotta voidaan lisätä sellaisen datan avoimuutta, jota käytetään yleiskäyttöisten tekoälymallien esikoulutuksessa ja koulutuksessa, mukaan lukien tekijänoikeuslainsäädännöllä suojattu teksti ja data, on asianmukaista, että tällaisten mallien tarjoajat laativat ja asettavat julkisesti saataville riittävän yksityiskohtaisen tiivistelmän yleiskäyttöisen tekoälymallin koulutuksessa käytetystä sisällöstä. Samalla kun otetaan asianmukaisesti huomioon tarve suojella liikesalaisuuksia ja luottamuksellisia liiketoimintaa koskevia tietoja, tämän tiivistelmän olisi oltava sisällöltään yleisesti kattava sen sijaan, että se olisi teknisesti yksityiskohtainen, jotta osapuolia, joilla on oikeutettuja etuja, mukaan lukien tekijänoikeuden haltijat, voidaan auttaa käyttämään ja panemaan täytäntöön unionin oikeuden mukaisia oikeuksiaan, ja esimerkiksi luetella tärkeimmät mallin koulutukseen käytetyt tietolähteet tai datajoukot, kuten suuret yksityiset tai julkiset tietokannat tai -arkistot, ja antaa selostus muista käytetyistä tietolähteistä. Olisi asianmukaista, että tekoälytoimisto antaa tiivistelmälle mallin, jonka olisi oltava yksinkertainen ja tehokas ja jonka avulla tarjoaja voi toimittaa vaaditun tiivistelmän selostuksen muodossa.
(107)
W celu zwiększenia przejrzystości dotyczącej danych wykorzystywanych do pretrenowania i trenowania modeli AI ogólnego przeznaczenia, w tym w zakresie tekstów i danych chronionych prawem autorskim, właściwe jest, aby dostawcy takich modeli sporządzali i udostępniali publicznie wystarczająco szczegółowe streszczenie na temat treści wykorzystywanych do trenowania modelu AI ogólnego przeznaczenia. Przy należytym uwzględnieniu potrzeby ochrony tajemnic przedsiębiorstwa i poufnych informacji handlowych streszczenie to nie powinno skupiać się na szczegółach technicznych, lecz mieć zasadniczo kompleksowy charakter, aby ułatwić stronom mającym uzasadniony interes, w tym posiadaczom praw autorskich, wykonywanie i egzekwowanie ich praw wynikających z prawa Unii; streszczenie to powinno więc na przykład wymieniać główne zbiory danych, które wykorzystano do trenowania modelu, takie jak duże prywatne lub publiczne bazy lub archiwa danych, oraz powinno zawierać opisowe wyjaśnienie innych wykorzystanych źródeł danych. Urząd ds. AI powinien zapewnić wzór streszczenia, który powinien być prosty i skuteczny oraz umożliwiać dostawcy przedstawienie wymaganego streszczenia w formie opisowej.
(108)
Yleiskäyttöisten tekoälymallien tarjoajille asetettujen velvoitteiden, jotka koskevat toimintaperiaatteiden käyttöönottoa unionin tekijänoikeuslainsäädännön noudattamiseksi ja koulutuksessa käytettyä sisältöä koskevan tiivistelmän julkisesti saataville asettamista, tekoälytoimiston olisi seurattava, onko tarjoaja täyttänyt kyseiset velvoitteet tarkistamatta tai arvioimatta koulutusdataa teoskohtaisesti tekijänoikeuksien noudattamisen osalta. Tämä asetus ei vaikuta unionin oikeudessa säädettyjen tekijänoikeussääntöjen täytäntöönpanoon.
(108)
Urząd ds. AI powinien monitorować, czy dostawca spełnił obowiązki nałożone na dostawców modeli AI ogólnego przeznaczenia dotyczące wprowadzenia polityki w celu zapewnienia zgodności z unijnym prawem autorskim i podania do wiadomości publicznej streszczenia na temat treści wykorzystywanych do trenowania, jednak nie powinien weryfikować danych treningowych pod kątem zgodności z prawami autorskimi ani przystępować do oceny tych danych w podziale na poszczególne utwory. Niniejsze rozporządzenie nie wpływa na egzekwowanie przepisów dotyczących praw autorskich przewidzianych w prawie Unii.
(109)
Yleiskäyttöisten tekoälymallien tarjoajiin sovellettavien velvoitteiden noudattamisen olisi oltava oikeasuhtaista mallin tarjoajan tyyppiin nähden, pois lukien ei-ammatillisiin tai tieteellisiin tutkimustarkoituksiin malleja kehittävät tai käyttävät henkilöt, joiden ei tarvitse noudattaa velvoitteita, mutta joita olisi kuitenkin kannustettava noudattamaan niitä vapaaehtoisesti. Kyseisten velvoitteiden noudattamisessa olisi otettava asianmukaisesti huomioon tarjoajan koko ja mahdollistettava pk-yrityksille, myös startup-yrityksille, velvoitteiden noudattamiseksi yksinkertaistetut menettelyt, jotka eivät saisi aiheuttaa kohtuuttomia kustannuksia eivätkä estää tällaisten mallien käyttöä, sanotun kuitenkaan rajoittamatta unionin tekijänoikeuslainsäädännön soveltamista. Jos mallia muutetaan tai hienosäädetään, yleiskäyttöisten tekoälymallien tarjoajien velvoitteet olisi rajattava kyseiseen muutokseen tai hienosäätöön esimerkiksi täydentämällä jo olemassa olevia teknisiä asiakirjoja muutoksia koskevilla tiedoilla, mukaan lukien koulutukseen käytetyt uudet tietolähteet, keinona noudattaa tässä asetuksessa säädettyjä arvoketjuun liittyviä velvoitteita.
(109)
Spełnianie obowiązków mających zastosowanie do dostawców modeli AI ogólnego przeznaczenia powinno być współmierne i proporcjonalne do rodzaju dostawcy modeli, z wyłączeniem konieczności ich spełnienia przez osoby, które rozwijają lub wykorzystują modele do celów pozazawodowych lub badań naukowych – osoby te należy jednak zachęcać do dobrowolnego spełniania tych wymogów. Bez uszczerbku dla unijnego prawa autorskiego spełnianie tych obowiązków powinno odbywać się przy należytym uwzględnieniu wielkości dostawcy i umożliwiać uproszczone sposoby spełnienia tych obowiązków przez MŚP, w tym przedsiębiorstwa typu start-up, które nie powinny wiązać się z nadmiernymi kosztami i zniechęcać do korzystania z takich modeli. W przypadku zmiany lub dostrajania modelu obowiązki dostawców modeli AI ogólnego przeznaczenia powinny być ograniczone do tej zmiany lub dostrajania modelu, na przykład poprzez uzupełnienie już istniejącej dokumentacji technicznej o informacje na temat zmiany, w tym nowych źródeł danych treningowych, w celu spełnienia obowiązków związanych z łańcuchem wartości przewidzianych w niniejszym rozporządzeniu.
(110)
Yleiskäyttöiset tekoälymallit voivat aiheuttaa systeemisiä riskejä, joihin kuuluvat muun muassa suuronnettomuuksiin liittyvät tosiasialliset tai kohtuudella ennakoitavissa olevat kielteiset vaikutukset, kriittisten alojen häiriöt ja vakavat seuraukset kansanterveydelle ja turvallisuudelle; mahdolliset tosiasialliset tai kohtuudella ennakoitavissa olevat kielteiset vaikutukset demokraattisiin prosesseihin sekä yleiseen ja taloudelliseen turvallisuuteen; laittoman, väärän tai syrjivän sisällön levittäminen. Systeemisten riskien olisi katsottava lisääntyvän yhdessä mallien valmiuksien ja kattavuuden kanssa, niitä voi esiintyä mallin koko elinkaaren ajan ja niihin vaikuttavat väärinkäytön olosuhteet, mallin luotettavuus, mallin oikeudenmukaisuus ja turvallisuus, mallin itsenäisyyden aste, sen saatavilla olevat välineet, uudet tai yhdistetyt yksityiskohtaiset säännöt, käyttöönotto- ja jakelustrategiat sekä mahdollisuus poistaa suojatoimet ja muut tekijät. Erityisesti kansainvälisissä lähestymistavoissa on tähän mennessä todettu tarve kiinnittää huomiota riskeihin, joita aiheuttavat mahdolliset tahalliset väärinkäytöt tai tahattomat valvontaa koskevat ongelmat, jotka liittyvät yhteensovittamiseen inhimillisen tarkoituksen kanssa; kemialliset, biologiset, säteily- ja ydinriskit, kuten tavat, joilla markkinoille pääsyn esteitä voidaan vähentää, myös aseiden kehittämisen, suunnitteluhankintojen tai käytön osalta; kyberhyökkäysvalmiuksien, kuten haavoittuvuuksien havaitsemisen, hyödyntämisen tai operatiivisen käytön, mahdollistaminen; vuorovaikutuksen ja välineiden käytön vaikutukset, mukaan lukien esimerkiksi kyky valvoa fyysisiä järjestelmiä ja häiritä kriittistä infrastruktuuria; mallien itsensä kopioimiseen tai ”itsejäljentämiseen” tai muiden mallien kouluttamiseen liittyvät riskit; tavat, joilla mallit voivat aiheuttaa haitallisia vinoutumia ja syrjintää, joihin liittyy riskejä yksilöille, yhteisöille tai yhteiskunnille; disinformaation helpottaminen tai yksityisyyden vahingoittaminen demokraattisiin arvoihin ja ihmisoikeuksiin kohdistuvilla uhkilla; sekä riski siitä, että tietty tapahtuma voi johtaa ketjureaktioon, jolla on huomattavia kielteisiä vaikutuksia, jotka voivat vaikuttaa kokonaiseen kaupunkiin, kokonaiseen kohdealueeseen tai kokonaiseen yhteisöön.
(110)
Modele AI ogólnego przeznaczenia mogą stwarzać ryzyko systemowe, które obejmuje między innymi wszelkie rzeczywiste lub racjonalnie przewidywalne negatywne skutki poważnych awarii, zakłóceń w sektorach krytycznych oraz poważne konsekwencje dla zdrowia i bezpieczeństwa publicznego; wszelkie rzeczywiste lub racjonalnie przewidywalne negatywne skutki dla procesów demokratycznych, bezpieczeństwa publicznego i gospodarczego; rozpowszechnianie nielegalnych, fałszywych lub dyskryminujących treści. Należy rozumieć, że ryzyko systemowe wzrasta wraz ze zdolnościami i zasięgiem modelu, może wystąpić w całym cyklu życia modelu i jest uzależnione od warunków niewłaściwego wykorzystania, niezawodności, bezstronności i bezpieczeństwa modelu, poziomu jego autonomii, dostępu do narzędzi, stosowania nowatorskich lub połączonych metod, strategii udostępniania i dystrybucji, możliwości w zakresie usuwania zabezpieczeń i innych czynników. W szczególności podejścia międzynarodowe wskazywały jak dotąd na potrzebę zwrócenia uwagi na ryzyko wynikające z potencjalnego umyślnego niewłaściwego wykorzystania lub niezamierzonych problemów z kontrolą związanych z dostosowaniem się do zamiaru człowieka; ryzyko chemiczne, biologiczne, radiologiczne i jądrowe, takie jak sposoby obniżania barier wejścia na rynek, w tym w zakresie opracowywania, projektowania, nabywania lub stosowania broni; ofensywne zdolności w zakresie cyberbezpieczeństwa, takie jak sposoby wykrywania, wykorzystywania lub operacyjnego stosowania podatności; skutki interakcji i wykorzystania narzędzi, w tym na przykład zdolność do kontrolowania systemów fizycznych i zakłócania infrastruktury krytycznej; ryzyko związane ze sporządzaniem kopii własnych przez modele lub samoreplikacji lub wynikające z trenowania innych modeli przez dany model; sposoby, w jakie modele mogą powodować szkodliwą stronniczość i dyskryminację zagrażające osobom fizycznym, społecznościom lub społeczeństwom; ułatwianie dezinformacji lub naruszanie prywatności, co przedstawia zagrożenie dla wartości demokratycznych i praw człowieka; ryzyko, że dane wydarzenie może spowodować reakcję łańcuchową o znacznych negatywnych skutkach, które mogą mieć wpływ nawet na całe miasta, na całą działalność w danym obszarze lub na całe społeczności.
(111)
On aiheellista vahvistaa menetelmä, jolla yleiskäyttöiset tekoälymallit voidaan luokitella yleiskäyttöiseksi tekoälymalliksi, johon liittyy systeemisiä riskejä. Koska systeemiset riskit johtuvat erityisen suurista valmiuksista, yleiskäyttöisen tekoälymallin olisi katsottava aiheuttavan systeemisiä riskejä, jos sillä on vaikutuksiltaan merkittävä suorituskyky, jota arvioidaan asianmukaisten teknisten välineiden ja menetelmien perusteella, tai sen kattavuus vaikuttaa merkittävästi sisämarkkinoihin. Yleiskäyttöisissä tekoälymalleissa vaikutuksiltaan merkittävällä suorituskyvyllä tarkoitetaan suorituskykyä, joka vastaa tai ylittää kehittyneimpiin yleiskäyttöisiin tekoälymalleihin kirjatut valmiudet. Mallin kaikki valmiudet voitaisiin tuntea paremmin sen jälkeen, kun se on saatettu markkinoille tai kun käyttöönottajat ovat vuorovaikutuksessa mallin kanssa. Tämän asetuksen voimaantuloajankohtana viimeisimmän kehityksen mukainen yleiskäyttöisen tekoälymallin kouluttamiseen käytetyn laskentatehon kumulatiivinen määrä liukulukuoperaationa mitattuna on yksi asiaankuuluvista mallin suorituskyvyn approksimaatioista. Koulutukseen käytetyn laskentatehon kumulatiivinen määrä sisältää kaikissa toimissa ja menetelmissä, joiden tarkoituksena on parantaa mallin suorituskykyä ennen käyttöönottoa, kuten esikoulutus, synteettinen datan tuottaminen ja hienosäätö, käytettyä laskentatehoa. Sen vuoksi liukulukuoperaatiolle olisi asetettava alustava kynnysarvo, ja jos yleiskäyttöinen tekoälymalli ylittää sen, voidaan olettaa, että malli on yleiskäyttöinen tekoälymalli, johon liittyy systeemisiä riskejä. Tätä kynnysarvoa olisi mukautettava ajan mittaan teknologisten ja teollisten muutosten, kuten algoritmisten parannusten tai laitteiston tehokkuuden parantamisen, huomioon ottamiseksi, ja sitä olisi täydennettävä mallin suorituskykyä koskevilla vertailuarvoilla ja indikaattoreilla. Tätä varten tekoälytoimiston olisi tehtävä yhteistyötä tiedeyhteisön, teollisuuden, kansalaisyhteiskunnan ja muiden asiantuntijoiden kanssa. Kynnysarvojen sekä vaikutuksiltaan merkittävän suorituskyvyn arvioinnissa käytettävien välineiden ja vertailuarvojen olisi indikoitava vahvasti yleiskäyttöisten tekoälymallien yleisyyttä, niiden suorituskykyä ja niihin liittyvää systeemistä riskiä, ja niissä voitaisiin ottaa huomioon tapa, jolla malli saatetaan markkinoille tai niiden käyttäjien lukumäärä, joihin se voi vaikuttaa. Järjestelmän täydentämiseksi komission olisi voitava tehdä yksittäisiä päätöksiä, joilla tietty yleiskäyttöinen tekoälymalli määritetään yleiskäyttöiseksi tekoälymalliksi, johon liittyy systeeminen riski, jos todetaan, että mallin suorituskyky tai vaikutus on sama kuin asetetun kynnysarvon ylittävillä malleilla. Tämä päätös olisi tehtävä tämän asetuksen liitteessä vahvistettujen perusteiden, joiden mukaisesti nimetään yleiskäyttöinen tekoälymalli, johon liittyy systeeminen riski, yleisen arvioinnin perusteella. Näitä perusteita ovat koulutusdatajoukon laatu ja koko, yritys- ja loppukäyttäjien lukumäärä, mallin syöttötietojen ja tuotosten modaalisuus, sen itsenäisyyden ja skaalattavuuden aste ja sen käytettävissä olevat välineet. Komission olisi otettava huomioon sellaisen tarjoajan perusteltu pyyntö, jonka malli on nimetty yleiskäyttöiseksi tekoälymalliksi, johon liittyy systeeminen riski, ja se voi päättää arvioida uudelleen, voidaanko yleiskäyttöiseen tekoälymalliin katsoa edelleen liittyvän systeemisiä riskejä.
(111)
Należy ustanowić metodykę klasyfikacji modeli AI ogólnego przeznaczenia jako modeli AI ogólnego przeznaczenia z ryzykiem systemowym. Ponieważ ryzyko systemowe wynika ze szczególnie wysokich zdolności, należy uznać, że model AI ogólnego przeznaczenia stwarza ryzyko systemowe, jeżeli wykazuje on zdolności dużego oddziaływania, oceniane na podstawie odpowiednich narzędzi technicznych i metodologii, lub jeżeli ze względu na swój zasięg ma znaczący wpływ na rynek wewnętrzny. Zdolności dużego oddziaływania w przypadku modeli AI ogólnego przeznaczenia oznaczają zdolności, które dorównują zdolnościom zapisanym w najbardziej zaawansowanych modelach AI ogólnego przeznaczenia lub je przewyższają. Pełny zakres zdolności danego modelu można lepiej zrozumieć po jego wprowadzeniu do obrotu lub w momencie, w którym podmioty stosujące wchodzą w interakcję z modelem. Zgodnie z aktualnym stanem wiedzy technicznej w momencie wejścia w życie niniejszego rozporządzenia jednym ze sposób przybliżonego określenia zdolności modelu jest łączna liczba obliczeń wykorzystanych do trenowania modelu AI ogólnego zastosowania mierzona w operacjach zmiennoprzecinkowych. Łączna liczba obliczeń wykorzystanych do trenowania obejmuje obliczenia stosowane w odniesieniu do wszystkich działań i metod, które mają na celu zwiększenie zdolności modelu przed wdrożeniem, takich jak pretrenowanie, generowanie danych syntetycznych i dostrajanie. W związku z tym należy określić próg minimalny operacjach zmiennoprzecinkowych, który, jeżeli zostanie spełniony przez model AI ogólnego przeznaczenia, stwarza domniemanie, że model ten jest modelem AI ogólnego przeznaczenia z ryzykiem systemowym. Próg ten powinien być z czasem dostosowywany w celu odzwierciedlenia zmian technologicznych i przemysłowych, takich jak ulepszenia algorytmiczne lub większa wydajność sprzętu, i powinien zostać uzupełniony o poziomy odniesienia i wskaźniki dotyczące zdolności modelu. W tym celu Urząd ds. AI powinien współpracować ze środowiskiem naukowym, przemysłem, społeczeństwem obywatelskim i innymi ekspertami. Progi, a także narzędzia i poziomy odniesienia na potrzeby oceny zdolności dużego oddziaływania powinny zapewniać mocne podstawy przewidywania ogólnego charakteru, zdolności i związanego z nimi ryzyka systemowego modeli AI ogólnego przeznaczenia; mogą one uwzględniać sposób, w jaki model zostanie wprowadzony do obrotu lub liczbę użytkowników, na które model ten może mieć wpływ. Aby uzupełnić ten system, Komisja powinna mieć możliwość podejmowania indywidualnych decyzji w sprawie uznania modelu AI ogólnego przeznaczenia za model AI ogólnego przeznaczenia z ryzykiem systemowym, jeżeli okaże się, że zdolności lub wpływ takiego modelu są równoważne z tymi, na które wskazuje ustalony próg. Decyzję tę należy podjąć na podstawie ogólnej oceny kryteriów do celów uznawania modelu AI ogólnego przeznaczenia za model z ryzykiem systemowym, określonych w załączniku do niniejszego rozporządzenia, takich jak jakość lub wielkość zbioru danych treningowych, liczba użytkowników biznesowych i końcowych, format danych wejściowych i wyjściowych modelu, poziom autonomii i skalowalności lub narzędzia, do których ma dostęp. Na uzasadniony wniosek dostawcy, którego model został uznany za model AI ogólnego przeznaczenia z ryzykiem systemowym, Komisja powinna odnieść się do tego wniosku i może podjąć decyzję o ponownej ocenie, czy model AI ogólnego przeznaczenia nadal można uznać za stwarzający ryzyko systemowe.
(112)
Lisäksi on aiheellista selventää menettelyä, jonka mukaisesti luokitellaan yleiskäyttöiset tekoälymallit, joihin liittyy systeeminen riski. Yleiskäyttöisen tekoälymallin, joka ylittää vaikutuksiltaan merkittävää suorituskykyä koskevan sovellettavan kynnysarvon, olisi katsottava olevan yleiskäyttöinen tekoälymalli, johon liittyy systeeminen riski. Tarjoajan olisi ilmoitettava tekoälytoimistolle, että yleiskäyttöinen tekoälymalli täyttää tähän olettamaan johtavat edellytykset, viimeistään kahden viikon kuluttua siitä, kun edellytykset täyttyvät tai kun todetaan, että ne tulevat täyttymään. Tämä koskee erityisesti liukulaskutoimitusten kynnysarvoa, sillä yleiskäyttöisten tekoälymallien koulutus on suunniteltava tarkkaan siten, että laskentaresurssit jaetaan etukäteen. Tästä syystä yleiskäyttöisten tekoälymallien tarjoajat tietävät jo ennen koulutuksen päättymistä, ylittääkö niiden tekoälymalli kynnysarvon. Ilmoituksessaan tarjoajan olisi voitava osoittaa, että yleiskäyttöiseen tekoälymalliin ei sen erityispiirteiden vuoksi poikkeuksellisesti liity systeemisiä riskejä ja että sitä ei näin ollen olisi luokiteltava systeemisen riskin yleiskäyttöiseksi tekoälymalliksi. Tämä tieto on arvokasta tekoälytoimistolle, jotta se voi ennakoida sellaisten yleiskäyttöisten tekoälymallien markkinoille saattamista, joihin liittyy systeemisiä riskejä, ja tällä tavoin tarjoajat voivat aloittaa yhteistyön tekoälytoimiston kanssa jo varhaisessa vaiheessa. Tieto on erityisen arvokasta niiden yleiskäyttöisten tekoälymallien osalta, jotka on tarkoitus julkaista avoimen lähdekoodin malleina, koska tämän asetuksen mukaisten velvoitteiden noudattamisen varmistamiseksi tarvittavat toimet voi olla vaikeampi toteuttaa avoimen lähdekoodin mallin julkaisemisen jälkeen.
(112)
Konieczne jest również doprecyzowanie procedury klasyfikacji modelu AI ogólnego zastosowania z ryzykiem systemowym. W przypadku modelu AI ogólnego przeznaczenia, który osiąga mający zastosowanie próg dotyczący zdolności dużego oddziaływania, należy domniemywać, że jest on modelem AI ogólnego przeznaczenia z ryzykiem systemowym. Dostawca powinien powiadomić Urząd ds. AI najpóźniej dwa tygodnie od momentu spełnienia kryteriów lub po uzyskaniu wiedzy, że model AI ogólnego przeznaczenia będzie spełniał kryteria prowadzące do takiego domniemania. Jest to szczególnie istotne w odniesieniu do progu dotyczącego operacji zmiennoprzecinkowych, ponieważ trenowanie modeli AI ogólnego przeznaczenia wymaga znacznego planowania, co obejmuje przydział z góry zasobów obliczeniowych, w związku z czym dostawcy modeli AI ogólnego przeznaczenia są w stanie stwierdzić, czy ich model osiągnąłby ten próg przed zakończeniem trenowania. W kontekście tego powiadomienia dostawca powinien móc wykazać, że ze względu na swoje szczególne cechy model AI ogólnego przeznaczenia wyjątkowo nie stwarza ryzyka systemowego, a zatem nie powinien być zaklasyfikowany jako model AI ogólnego przeznaczenia z ryzykiem systemowym. Powiadomienia te to cenne informacje, które umożliwiają Urzędowi ds. AI przewidywanie, że modele AI sztucznej inteligencji ogólnego przeznaczenia z ryzykiem systemowym zostaną wprowadzone do obrotu, dostawcy mogą zatem rozpocząć współpracę z Urzędem ds. AI na wczesnym etapie. Informacje te są szczególnie ważne w odniesieniu do modeli AI ogólnego przeznaczenia, które mają zostać udostępnione jako otwarte oprogramowanie, zważywszy na to, że wdrożenie środków niezbędnych do zapewnienia spełnienia obowiązków ustanowionych w niniejszym rozporządzeniu może być trudniejsze po udostępnieniu modelu na zasadach otwartego oprogramowania.
(113)
Jos komissio saa tietoonsa, että yleiskäyttöinen tekoälymalli täyttää edellytykset, jotta se voidaan luokitella systeemisen riskin yleiskäyttöiseksi tekoälymalliksi, ja edellytysten täyttyminen ei joko ole ollut aiemmin tiedossa tai asianomainen tarjoaja ei ole ilmoittanut siitä komissiolle, komissiolle olisi annettava valtuudet nimetä malli vastaavasti. Tekoälytoimiston suorittamaa seurantaa olisi täydennettävä perusteltujen varoitusten järjestelmällä, jolla varmistetaan, että tiedelautakunta ilmoittaa tekoälytoimistolle niistä yleiskäyttöisistä tekoälymalleista, jotka olisi mahdollisesti luokiteltava yleiskäyttöisiksi tekoälymalleiksi, joihin liittyy systeeminen riski.
(113)
Jeżeli Komisja dowie się o tym, że model AI ogólnego przeznaczenia spełnia kryteria, by zostać zaklasyfikowany jako model AI o ogólnym przeznaczeniu z ryzykiem systemowym, czego wcześniej nie było wiadomo lub w przypadku gdy odpowiedni dostawca nie wywiązał się z obowiązku powiadomienia o tym Komisji, Komisja powinna być uprawniona do uznania tego modelu za model o ogólnym przeznaczeniu z ryzykiem systemowym. Obok działań monitorujących prowadzonych przez Urząd ds. AI powinien istnieć system, w ramach którego panel naukowy za pośrednictwem ostrzeżeń kwalifikowanych informuje Urząd ds. AI o modelach AI ogólnego przeznaczenia, które należy ewentualnie zaklasyfikować jako modele AI ogólnego przeznaczenia z ryzykiem systemowym.
(114)
Niiden yleiskäyttöisten tekoälymallien tarjoajiin, joihin liittyy systeemisiä riskejä, olisi sovellettava yleiskäyttöisten tekoälymallien tarjoajiin sovellettavien velvoitteiden lisäksi velvoitteita, joiden tarkoituksena on määrittää ja lieventää kyseisiä riskejä ja varmistaa kyberturvallisuussuojan riittävä taso riippumatta siitä, tarjotaanko tekoälymalli erillisenä mallina vai sulautettuna tekoälyjärjestelmään tai tuotteeseen. Kyseisten tavoitteiden saavuttamiseksi tässä asetuksessa olisi edellytettävä, että tarjoajat suorittavat tarvittavat mallin arvioinnit erityisesti ennen niiden ensimmäistä markkinoille saattamista, mukaan lukien mallien adversariaalisen testauksen suorittaminen ja dokumentointi tarvittaessa myös sisäisessä tai riippumattomassa ulkoisessa testauksessa. Niiden yleiskäyttöisten tekoälymallien tarjoajien, joihin liittyy systeemisiä riskejä, olisi lisäksi arvioitava ja lievennettävä systeemisiä riskejä jatkuvasti, esimerkiksi ottamalla käyttöön riskinhallintaa koskevat toimintatavat, kuten vastuuvelvollisuus- ja hallintoprosesseja, suorittamalla markkinoille saattamisen jälkeistä seurantaa, toteuttamalla asianmukaisia toimenpiteitä mallin koko elinkaaren ajan ja tekemällä yhteistyötä tekoälyn arvoketjun asiaankuuluvien toimijoiden kanssa.
(114)
Dostawcy modeli AI ogólnego przeznaczenia stwarzających ryzyko systemowe powinni podlegać nie tylko obowiązkom nałożonym na dostawców modeli AI ogólnego przeznaczenia, ale także obowiązkom mającym na celu identyfikację i ograniczenie ryzyka systemowego oraz zapewnienie odpowiedniego poziomu ochrony cyberbezpieczeństwa, niezależnie od tego, czy modele te są dostarczane jako samodzielne modele czy wbudowane w system AI lub w produkt. Aby osiągnąć te cele, w niniejszym rozporządzeniu należy zobowiązać dostawców do przeprowadzania niezbędnych ocen modeli, w szczególności przed ich pierwszym wprowadzeniem do obrotu, w tym przeprowadzania wobec modeli i dokumentowania testów kontradyktoryjnych, również, w stosownych przypadkach, w drodze wewnętrznych lub niezależnych testów zewnętrznych. Ponadto dostawcy modeli AI ogólnego przeznaczenia z ryzykiem systemowym powinni stale oceniać i ograniczać ryzyko systemowe, w tym na przykład poprzez wprowadzanie strategii zarządzania ryzykiem, takich jak procesy rozliczalności i zarządzania, wdrażanie monitorowania po wprowadzeniu do obrotu, podejmowanie odpowiednich środków w całym cyklu życia modelu oraz współpracę z odpowiednimi podmiotami w całym łańcuchu wartości AI.
(115)
Niiden yleiskäyttöisten tekoälymallien tarjoajien, joihin liittyy systeemisiä riskejä, olisi arvioitava ja lievennettävä mahdollisia systeemisiä riskejä. Jos yleiskäyttöisen tekoälymallin, johon voi liittyä systeemisiä riskejä, kehittäminen tai käyttö aiheuttaa vakavan vaaratilanteen huolimatta pyrkimyksistä tunnistaa ja ehkäistä malliin liittyviä riskejä, yleiskäyttöisen tekoälymallin tarjoajan olisi ilman aiheetonta viivytystä seurattava vaaratilannetta ja raportoitava merkityksellisistä tiedoista ja mahdollisista korjaavista toimenpiteistä komissiolle ja kansallisille toimivaltaisille viranomaisille. Tarjoajien olisi lisäksi varmistettava mallin ja tarvittaessa sen fyysisen infrastruktuurin kyberturvallisuussuojan riittävä taso mallin koko elinkaaren ajan. Kyberturvallisuussuojassa, jolla torjutaan vihamieliseen käyttöön tai hyökkäyksiin liittyviä systeemisiä riskejä, olisi otettava asianmukaisesti huomioon tahaton mallivuoto, luvattomat julkaisut, turvallisuustoimenpiteiden kiertäminen sekä suojautuminen kyberhyökkäyksiltä, luvattomalta pääsyltä tai mallivarkauksilta. Suojaamista voitaisiin helpottaa turvaamalla mallipainokertoimet, algoritmit, palvelimet ja tietokokonaisuudet esimerkiksi tietoturvaa koskevilla operatiivisilla turvallisuustoimenpiteillä, erityisillä kyberturvallisuusperiaatteilla, asianmukaisilla teknisillä ja vakiintuneilla ratkaisuilla sekä kyberkäytön ja fyysisen pääsyn valvonnalla asiaankuuluvista olosuhteista ja riskeistä riippuen.
(115)
Dostawcy modeli AI ogólnego przeznaczenia z ryzykiem systemowym powinni oceniać i ograniczać ewentualne ryzyko systemowe. Jeżeli pomimo wysiłków na rzecz zidentyfikowania ryzyka związanego z modelem AI ogólnego przeznaczenia, który może stwarzać ryzyko systemowe, i pomimo wysiłków na rzecz przeciwdziałania temu ryzyku, w wyniku rozwoju lub wykorzystania modelu wystąpi poważny incydent, dostawca modelu AI ogólnego przeznaczenia powinien bez zbędnej zwłoki zacząć śledzić jego przebieg i zgłosić wszelkie istotne informacje i możliwe środki naprawcze Komisji i właściwym organom krajowym. Ponadto dostawcy powinni zapewnić odpowiedni poziom ochrony cyberbezpieczeństwa w odniesieniu do modelu i jego infrastruktury fizycznej, w stosownych przypadkach, w całym cyklu życia modelu. Ochrona cyberbezpieczeństwa w kontekście ryzyka systemowego związanego ze złośliwym wykorzystaniem lub atakami powinna należycie uwzględniać przypadkowe przecieki modelu, nieuprawnione przypadki udostępnienia, obchodzenie środków bezpieczeństwa oraz ochronę przed cyberatakami, nieuprawnionym dostępem lub kradzieżą modelu. Ochronę tę można ułatwić poprzez zabezpieczenie wag modeli, algorytmów, serwerów i zbiorów danych, na przykład za pomocą operacyjnych środków bezpieczeństwa na rzecz bezpieczeństwa informacji, konkretnych strategii cyberbezpieczeństwa, odpowiednich rozwiązań technicznych i ustanowionych rozwiązań oraz kontroli dostępu fizycznego i w cyberprzestrzeni, odpowiednio do danych okoliczności i związanego z nimi ryzyka.
(116)
Tekoälytoimiston olisi edistettävä ja helpotettava käytännesääntöjen laatimista, tarkistamista ja mukauttamista ottaen huomioon kansainväliset toimintatavat. Kaikki yleiskäyttöisten tekoälymallien tarjoajat voitaisiin kutsua mukaan tähän toimintaan. Jotta voidaan varmistaa, että käytännesäännöt vastaavat alan viimeisintä kehitystä ja että niissä otetaan asianmukaisesti huomioon eri näkökulmat, tekoälytoimiston olisi käytännesääntöjä laatiessaan tehtävä yhteistyötä asiaankuuluvien kansallisten toimivaltaisten viranomaisten kanssa ja se voisi tarvittaessa kuulla kansalaisjärjestöjä ja muita asiaankuuluvia sidosryhmiä ja asiantuntijoita, myös tiedelautakuntaa. Käytännesääntöjen olisi katettava sekä yleiskäyttöisten tekoälymallien että yleiskäyttöisten tekoälymallien, joihin liittyy systeemisiä riskejä, tarjoajien velvollisuudet. Systeemisten riskien osalta käytännesäännöillä olisi tuettava riskiluokituksen laatimista unionin tason systeemisten riskien, myös niiden lähteiden, tyypistä ja luonteesta. Käytännesäännöissä olisi keskityttävä myös erityisiin riskinarviointi- ja lieventämistoimenpiteisiin.
(116)
Urząd ds. AI powinien wspierać i ułatwiać opracowywanie, przegląd i dostosowywanie kodeksów praktyk, z uwzględnieniem podejść międzynarodowych. Do udziału można zaprosić wszystkich dostawców modeli AI ogólnego przeznaczenia. W celu zapewnienia, aby kodeksy praktyk odzwierciedlały aktualny stan wiedzy technicznej i należycie uwzględniały różne punkty widzenia, przy opracowania takich kodeksów Urząd ds. AI powinien współpracować z odpowiednimi właściwymi organami krajowymi i mógłby, w stosownych przypadkach, konsultować się z organizacjami społeczeństwa obywatelskiego i innymi odpowiednimi zainteresowanymi stronami i ekspertami, w tym z panelem naukowym. Kodeksy praktyk powinny obejmować obowiązki dostawców modeli AI ogólnego przeznaczenia i modeli AI ogólnego przeznaczenia stwarzających ryzyko systemowe. Ponadto w odniesieniu do ryzyka systemowego kodeksy praktyk powinny pomóc w ustanowieniu na poziomie Unii klasyfikacji tego ryzyka pod względem jego różnych rodzajów i charakteru, w tym jego źródeł. Kodeksy praktyk powinny również koncentrować się na konkretnych środkach oceny i ograniczania ryzyka.
(117)
Käytännesäännöt on tarkoitettu keskeiseksi välineeksi, jolla varmistetaan, että yleiskäyttöisten tekoälymallien tarjoajat noudattavat asianmukaisesti tässä asetuksessa säädettyjä velvoitteita. Tarjoajien olisi pystyttävä osoittamaan velvoitteiden noudattaminen käytännesääntöjen avulla. Komissio voi täytäntöönpanosäädöksillä päättää hyväksyä käytännesäännöt ja todeta ne yleisesti päteviksi unionissa tai vaihtoehtoisesti vahvistaa yhteiset säännöt asiaankuuluvien velvoitteiden täyttämiselle, jos käytännesääntöjä ei saada valmiiksi siihen mennessä, kun tämän asetuksen soveltaminen alkaa, tai jos tekoälytoimisto ei pidä niitä riittävinä. Kun tekoälytoimisto on julkaissut yhdenmukaistetun standardin ja arvioinut sen soveltuvan kattamaan asiaankuuluvat velvoitteet, tarjoajien olisi oletettava täyttävän vaatimukset sen perusteella, että ne noudattavat eurooppalaista yhdenmukaistettua standardia. Yleiskäyttöisten tekoälymallien tarjoajien olisi lisäksi voitava osoittaa vaatimustenmukaisuus asianmukaisilla vaihtoehtoisilla keinoilla, jos käytännesääntöjä tai yhdenmukaistettuja standardeja ei ole saatavilla tai tarjoajat päättävät olla käyttämättä niitä.
(117)
Kodeksy praktyk powinny stanowić jedno z głównych narzędzi służących właściwemu spełnianiu obowiązków przewidzianych w niniejszym rozporządzeniu w odniesieniu do dostawców modeli AI ogólnego przeznaczenia. Dostawcy powinni móc polegać na kodeksach praktyk w celu wykazania spełnienia tych obowiązków. W drodze aktów wykonawczych Komisja może podjąć decyzję o zatwierdzeniu kodeksu praktyk i nadaniu mu ogólnej ważności w Unii lub ewentualnie o ustanowieniu wspólnych zasad dotyczących wdrażania odpowiednich obowiązków, jeżeli do czasu rozpoczęcia stosowania niniejszego rozporządzenia prace nad kodeksem praktyk nie mogą zostać sfinalizowane lub jeśli Urząd ds. AI uzna, że kodeks ten nie jest wystarczający. Po opublikowaniu normy zharmonizowanej i po tym jak Urząd ds. AI oceni ją jako właściwą, by objąć odpowiednie obowiązki, zgodność z europejską normą zharmonizowaną powinna w odniesieniu do dostawców oznaczać domniemanie zgodności. Dostawcy modeli AI ogólnego przeznaczenia powinni ponadto być w stanie wykazać zgodność za pomocą odpowiednich alternatywnych środków, jeżeli kodeksy praktyk lub normy zharmonizowane nie są dostępne lub jeśli zdecydują się na nich nie polegać.
(118)
Tällä asetuksella säännellään tekoälyjärjestelmiä ja tekoälymalleja asettamalla tiettyjä vaatimuksia ja velvoitteita niille markkinatoimijoille, jotka saattavat näitä järjestelmiä ja malleja markkinoille tai ottavat niitä käyttöön tai käyttävät niitä unionissa, ja näin täydennetään sellaisten välityspalvelujen tarjoajien velvoitteita, jotka sulauttavat tekoälyjärjestelmiä ja -malleja palveluihinsa, joita säännellään (EU) 2022/2065. Siltä osin kuin tällaiset järjestelmät tai mallit on sulautettu nimettyihin erittäin suuriin verkkoalustoihin tai erittäin suuriin verkossa toimiviin hakukoneisiin, niihin sovelletaan asetuksessa (EU) 2022/2065 säädettyä riskinhallintakehystä. Näin ollen olisi oletettava, että tämän asetuksen vastaavat velvoitteet täyttyvät, jollei tällaisissa malleissa ilmene ja havaita sellaisia merkittäviä systeemisiä riskejä, jotka eivät kuulu asetuksen (EU) 2022/2065 soveltamisalaan. Tässä yhteydessä erittäin suurten verkkoalustojen ja erittäin suurten verkossa toimivien hakukoneiden tarjoajat ovat velvollisia arvioimaan palvelujensa suunnittelusta, toiminnasta ja käytöstä aiheutuvia mahdollisia systeemisiä riskejä, mukaan lukien sitä, miten palvelussa käytettävien algoritmisten järjestelmien suunnittelu voi lisätä tällaisia riskejä, sekä mahdollisesta väärinkäytöstä aiheutuvia systeemisiä riskejä. Kyseiset tarjoajat ovat myös velvollisia toteuttamaan asianmukaisia lieventäviä toimenpiteitä perusoikeuksia noudattaen.
(118)
Niniejsze rozporządzenie reguluje systemy AI i modele AI, nakładając określone wymogi i obowiązki na odpowiednie podmioty rynkowe, które wprowadzają je do obrotu, oddają do użytku lub wykorzystują w Unii, i uzupełnia w ten sposób obowiązki dostawców usług pośrednich, którzy włączają takie systemy lub modele do swoich usług uregulowanych rozporządzeniem (UE) 2022/2065. W zakresie, w jakim takie systemy lub modele są wbudowane we wskazane bardzo duże platformy internetowe lub bardzo duże wyszukiwarki internetowe, podlegają one ramom zarządzania ryzykiem przewidzianym w rozporządzeniu (UE) 2022/2065. W związku z tym należy domniemywać, że odpowiednie obowiązki ustanowione w niniejszym rozporządzeniu zostały spełnione, chyba że w takich modelach pojawi się i zostanie zidentyfikowane znaczące ryzyko systemowe nieobjęte rozporządzeniem (UE) 2022/2065. W tych ramach dostawcy bardzo dużych platform internetowych i bardzo dużych wyszukiwarek internetowych są zobowiązani do oceny potencjalnego ryzyka systemowego wynikającego z projektu, funkcjonowania i wykorzystania ich usług, w tym tego, w jaki sposób projekt systemów algorytmicznych wykorzystywanych w danej usłudze może przyczynić się do powstania takiego ryzyka, a także ryzyka systemowego wynikającego z potencjalnego nadużycia. Dostawcy ci są również zobowiązani podjąć odpowiednie środki ograniczające to ryzyko z poszanowaniem praw podstawowych.
(119)
Kun otetaan huomioon unionin oikeuden eri välineiden soveltamisalaan kuuluvien digitaalisten palvelujen nopeatahtinen innovointi ja teknologinen kehitys erityisesti niiden vastaanottajien käytön ja mieltymysten näkökulmasta, tämän asetuksen soveltamisalaan kuuluvia tekoälyjärjestelmiä voidaan tarjota asetuksessa (EU) 2022/2065 tarkoitettuina välityspalveluina tai niiden osina teknologianeutraalisti tulkittuna. Tekoälyjärjestelmiä voidaan käyttää esimerkiksi verkossa toimivien hakukoneiden tarjoamiseen erityisesti siltä osin kuin tekoälyjärjestelmä, kuten verkossa toimiva asiointibotti, suorittaa hakuja periaatteessa kaikilta verkkosivustoilta, sisällyttää haun tulokset olemassa oleviin tietoihinsa ja käyttää päivitettyjä tietoja luodakseen yksittäisen tuotoksen, jossa yhdistyvät eri tietolähteet.
(119)
Biorąc pod uwagę szybkie tempo innowacji i rozwój technologiczny usług cyfrowych objętych różnymi instrumentami prawa Unii, w szczególności mając na uwadze wykorzystanie tych usług oraz zrozumienie, kto jest ich odbiorcą, systemy AI podlegające niniejszemu rozporządzeniu mogą być dostarczane jako usługi pośrednie lub ich części w rozumieniu rozporządzenia (UE) 2022/2065, które należy postrzegać w sposób neutralny pod względem technologicznym. Na przykład systemy AI mogą być wykorzystywane w roli wyszukiwarek internetowych, w szczególności w zakresie, w jakim system AI, taki jak chatbot internetowy, zasadniczo przeprowadza wyszukiwanie wszystkich stron internetowych, a następnie włącza wyniki do swojej istniejącej wiedzy i wykorzystuje zaktualizowaną wiedzę do wygenerowania jednego wyniku, który łączy różne źródła informacji.
(120)
Tässä asetuksessa tiettyjen tekoälyjärjestelmien tarjoajille ja käyttöönottajille asetetut velvoitteet, joiden tarkoituksena on mahdollistaa sen havaitseminen, että näiden järjestelmien tuotokset ovat keinotekoisesti tuotettuja tai käsiteltyjä, ja julkistaa tämä tieto, ovat erityisen merkityksellisiä asetuksen (EU) 2022/2065 tehokkaan täytäntöönpanon helpottamisen kannalta. Tämä koskee erityisesti erittäin suurten verkkoalustojen tai erittäin suurten verkossa toimivien hakukoneiden tarjoajien velvoitteita tunnistaa ja lieventää systeemisiä riskejä, joita voi aiheutua keinotekoisesti tuotetun tai käsitellyn sisällön levittämisestä, erityisesti myös disinformaatiosta johtuva demokraattisiin prosesseihin, kansalaiskeskusteluun ja vaaliprosesseihin kohdistuvien tosiasiallisten tai ennakoitavien kielteisten vaikutusten riski.
(120)
Ponadto obowiązki nałożone w niniejszym rozporządzeniu na dostawców i podmioty stosujące niektóre systemy AI, by umożliwić wykrywanie i ujawnianie, że wyniki tych systemów są sztucznie wygenerowane lub zmanipulowane, są szczególnie istotne dla ułatwienia skutecznego wdrożenia rozporządzenia (UE) 2022/2065. Dotyczy to w szczególności obowiązków dostawców bardzo dużych platform internetowych lub bardzo dużych wyszukiwarek internetowych w zakresie identyfikowania i ograniczania ryzyka systemowego, które może wynikać z rozpowszechniania treści sztucznie wygenerowanych lub zmanipulowanych, w szczególności ryzyka faktycznych lub przewidywalnych negatywnych skutków dla procesów demokratycznych, dyskursu obywatelskiego i procesów wyborczych, w tym poprzez stosowanie dezinformacji.
(121)
Standardoinnilla olisi oltava keskeinen rooli, jotta tarjoajien käyttöön saadaan teknisiä ratkaisuja, joilla voidaan varmistaa tämän asetuksen noudattaminen tekniikan viimeisimmän kehityksen mukaisesti, ja jotta voidaan edistää innovointia, kilpailukykyä ja kasvua sisämarkkinoilla. Tarjoajien olisi voitava osoittaa noudattavansa tämän asetuksen vaatimuksia noudattamalla Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 1025/2012 (41) 2 artiklan 1 kohdan c alakohdassa määriteltyjä yhdenmukaistettuja standardeja, joiden katsotaan yleensä olevan tekniikan viimeisimmän kehityksen mukaisia. Tästä syystä olisi edistettävä etujen tasapainoista edustusta ottamalla standardien laatimiseen mukaan kaikki asiaankuuluvat sidosryhmät, erityisesti pk-yritykset, kuluttajajärjestöt sekä ympäristöalan ja yhteiskunnan sidosryhmät asetuksen (EU) N:o 1025/2012 5 ja 6 artiklan mukaisesti. Vaatimusten noudattamisen helpottamiseksi komission olisi esitettävä standardointipyynnöt ilman aiheetonta viivytystä. Standardointipyyntöä valmistellessaan komission olisi kuultava neuvoa-antavaa foorumia ja tekoälyneuvostoa asiaankuuluvan asiantuntemuksen varmistamiseksi. Jos yhdenmukaistettuihin standardeihin ei kuitenkaan ole tehty asiaankuuluvia viittauksia, komission olisi voitava vahvistaa täytäntöönpanosäädöksillä neuvoa-antavaa foorumia kuultuaan tietyille tämän asetuksen mukaisille vaatimuksille yhteiset eritelmät. Yhteisten eritelmien olisi oltava poikkeuksellinen vararatkaisu, jolla helpotetaan tarjoajan velvoitetta noudattaa tämän asetuksen vaatimuksia, jos mikään eurooppalainen standardointiorganisaatio ei ole hyväksynyt standardointipyyntöä, jos asiaankuuluvat yhdenmukaistetut standardit eivät vastaa riittävällä tavalla perusoikeuksiin liittyviin huolenaiheisiin, jos yhdenmukaistetut standardit eivät ole pyynnön mukaisia tai jos asianmukaisen yhdenmukaistetun standardin hyväksymisessä on viiveitä. Jos tällainen viive yhdenmukaistetun standardin hyväksymisessä johtuu kyseisen standardin teknisestä monimutkaisuudesta, komission olisi otettava tämä huomioon ennen kuin se harkitsee yhteisten eritelmien vahvistamista. Yhteisiä eritelmiä laatiessaan komissiota kannustetaan tekemään yhteistyötä kansainvälisten kumppanien ja kansainvälisten standardointielinten kanssa.
(121)
Kluczową rolę w dostarczaniu dostawcom rozwiązań technicznych – zgodnie z aktualnym stanem wiedzy technicznej – w celu zapewnienia zgodności z niniejszym rozporządzeniem powinna odgrywać normalizacja, tak aby promować innowacje oraz konkurencyjność i wzrost gospodarczy na jednolitym rynku. Zgodność z normami zharmonizowanymi określonymi w art. 2 pkt 1 lit. c) rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 1025/2012 (41), które z założenia mają odzwierciedlać stan wiedzy technicznej, powinna stanowić dla dostawców sposób wykazania zgodności z wymogami niniejszego rozporządzenia. Przy opracowywaniu norm należy zatem zachęcać do zrównoważonej reprezentacji interesów wszystkich zainteresowanych stron, w szczególności MŚP, organizacji konsumenckich oraz zainteresowanych stron działających na rzecz ochrony środowiska i społeczeństwa zgodnie z art. 5 i 6 rozporządzenia (UE) nr 1025/2012. Aby ułatwić osiąganie zgodności, wnioski o normalizację powinny być wydawane przez Komisję bez zbędnej zwłoki. Przygotowując wniosek o normalizację, Komisja powinna skonsultować się z forum doradczym i Radą ds. AI, aby zebrać odpowiednią wiedzę fachową. Jednakże w przypadku braku odpowiednich odniesień do norm zharmonizowanych Komisja powinna mieć możliwość ustanowienia, w drodze aktów wykonawczych i po konsultacji z forum doradczym, wspólnych specyfikacji dotyczących niektórych wymogów określonych w niniejszym rozporządzeniu. Ta wspólna specyfikacja powinna stanowić wyjątkowe rozwiązanie awaryjne ułatwiające dostawcy spełnienie wymogów niniejszego rozporządzenia, w przypadku gdy wniosek o normalizację nie został zaakceptowany przez żadną z europejskich organizacji normalizacyjnych lub gdy odpowiednie normy zharmonizowane w niewystarczającym stopniu uwzględniają obawy dotyczące praw podstawowych lub gdy normy zharmonizowane nie są zgodne z wnioskiem, lub gdy występują opóźnienia w przyjęciu odpowiedniej normy zharmonizowanej. Jeżeli opóźnienie w przyjęciu normy zharmonizowanej wynika ze złożoności technicznej danej normy, Komisja powinna to uwzględnić, zanim zacznie rozważać ustanowienie wspólnych specyfikacji. Przy opracowywaniu wspólnych specyfikacji zachęca się Komisję do współpracy z partnerami międzynarodowymi i międzynarodowymi organami normalizacyjnymi.
(122)
On aiheellista olettaa, että sellaisen suuririskisen tekoälyjärjestelmän, joka on koulutettu ja testattu datalla, joka ilmentää erityistä maantieteellistä, käyttäytymiseen liittyvää, viitekehyksenä olevaa tai toiminnallista ympäristöä, jossa tekoälyjärjestelmää on tarkoitus käyttää, tarjoajat noudattavat tässä asetuksessa vahvistetussa datanhallintaa koskevassa vaatimuksessa säädettyä asiaankuuluvaa toimenpidettä, sanotun kuitenkaan rajoittamatta yhdenmukaistettujen standardien ja yhteisten eritelmien käyttöä. Asetuksen (EU) 2019/881 54 artiklan 3 kohdan mukaisesti niiden suuririskisten tekoälyjärjestelmien, jotka on sertifioitu tai joista on annettu vaatimustenmukaisuusilmoitus kyseisen asetuksen mukaisessa kyberturvallisuusjärjestelmässä ja joiden viitetiedot on julkaistu Euroopan unionin virallisessa lehdessä, olisi oletettava täyttävän tämän asetuksen kyberturvallisuusvaatimus siltä osin kuin kyberturvallisuussertifikaatti tai vaatimustenmukaisuusilmoitus tai niiden osat kattavat kyseisen kyberturvallisuusvaatimuksen, sanotun kuitenkaan rajoittamatta tässä asetuksessa vahvistettujen vakautta ja tarkkuutta koskevien vaatimusten soveltamista. Tällä ei rajoiteta kyseisen kyberturvallisuusjärjestelmän vapaaehtoista luonnetta.
(122)
Bez uszczerbku dla stosowania norm zharmonizowanych i wspólnych specyfikacji zasadnym jest przyjęcie domniemania, że dostawcy systemu AI wysokiego ryzyka, który został wytrenowany i przetestowany w oparciu o dane odzwierciedlające określone otoczenie geograficzne, behawioralne, kontekstualne lub funkcjonalne, w którym dany system AI ma być wykorzystywany, stosują odpowiedni środek przewidziany w ramach wymogu dotyczącego zarządzania danymi określonego w niniejszym rozporządzeniu. Bez uszczerbku dla wymogów dotyczących solidności i dokładności określonych w niniejszym rozporządzeniu, zgodnie z art. 54 ust. 3 rozporządzenia (UE) 2019/881 należy przyjąć domniemanie, że systemy AI wysokiego ryzyka, które zostały certyfikowane lub w odniesieniu do których wydano deklarację zgodności w ramach programu certyfikacji cyberbezpieczeństwa na podstawie tego rozporządzenia i do których to poświadczeń opublikowano odniesienia w Dzienniku Urzędowym Unii Europejskiej, są zgodne z wymogiem cyberbezpieczeństwa określonym w niniejszym rozporządzeniu w zakresie, w jakim certyfikat cyberbezpieczeństwa lub deklaracja zgodności lub ich części obejmują wymóg cyberbezpieczeństwa określony w niniejszym rozporządzeniu. Pozostaje to bez uszczerbku dla dobrowolnego charakteru tego programu certyfikacji cyberbezpieczeństwa.
(123)
Jotta voidaan varmistaa suuririskisten tekoälyjärjestelmien korkea luotettavuus, kyseisille järjestelmille olisi tehtävä vaatimustenmukaisuuden arviointi ennen kuin ne saatetaan markkinoille tai otetaan käyttöön.
(123)
Aby zapewnić wysoki poziom wiarygodności systemów AI wysokiego ryzyka, takie systemy powinny podlegać ocenie zgodności przed wprowadzeniem ich do obrotu lub oddaniem do użytku.
(124)
Jotta voidaan minimoida toimijoille aiheutuva rasite ja välttää mahdolliset päällekkäisyydet, tämän asetuksen vaatimusten mukaisuutta on asianmukaista arvioida sellaisten suuririskisten tekoälyjärjestelmien osalta, jotka kuuluvat uuteen lainsäädäntökehykseen perustuvan, voimassa olevan unionin yhdenmukaistamislainsäädännön soveltamisalaan, osana kyseisessä lainsäädännössä jo säädettyä vaatimustenmukaisuuden arviointia. Tämän asetuksen vaatimusten sovellettavuus ei näin ollen saisi vaikuttaa asiaa koskevassa unionin yhdenmukaistamislainsäädännössä säädetyn vaatimustenmukaisuuden arvioinnin erityiseen logiikkaan, menetelmiin tai yleiseen rakenteeseen.
(124)
Aby zminimalizować obciążenie dla operatorów i uniknąć ewentualnego powielania działań, zgodność z wymogami niniejszego rozporządzenia w przypadku systemów AI wysokiego ryzyka powiązanych z produktami, które są objęte zakresem stosowania obowiązującego unijnego prawodawstwa harmonizacyjnego opartego na nowych ramach prawnych, należy oceniać w ramach oceny zgodności przewidzianej już w tym prawodawstwie. Stosowanie wymogów niniejszego rozporządzenia nie powinno zatem wpływać na szczególną logikę, metodykę lub ogólną strukturę oceny zgodności określone w unijnym prawodawstwie harmonizacyjnym.
(125)
Kun otetaan huomioon suuririskisten tekoälyjärjestelmien monimutkaisuus ja niihin liittyvät riskit, on tärkeää kehittää riittävä suuririskisten tekoälyjärjestelmien vaatimustenmukaisuuden arviointimenetelmä, johon ilmoitetut laitokset osallistuvat, eli ns. kolmannen osapuolen suorittama vaatimustenmukaisuuden arviointi. Kun otetaan huomioon markkinoille saattamista edeltävässä vaiheessa toimivien ammattimaisten sertifioijien tämänhetkinen kokemus tuoteturvallisuuden alalla, ja koska asiaan liittyvät riskit ovat luonteeltaan erilaisia, ainakin tämän asetuksen soveltamisen alkuvaiheessa on kuitenkin asianmukaista rajoittaa kolmannen osapuolen suorittaman vaatimustenmukaisuuden arvioinnin soveltamisalaa muiden kuin tuotteisiin liittyvien suuririskisten tekoälyjärjestelmien osalta. Sen vuoksi tarjoajan olisi pääsääntöisesti suoritettava tällaisten järjestelmien vaatimustenmukaisuuden arviointi omalla vastuullaan, lukuun ottamatta ainoastaan tekoälyjärjestelmiä, joita on tarkoitus käyttää biometriikkaan.
(125)
Biorąc pod uwagę złożoność systemów AI wysokiego ryzyka i związane z nimi ryzyko, ważne jest opracowanie odpowiedniej procedury oceny zgodności w przypadku systemów AI wysokiego ryzyka z udziałem jednostek notyfikowanych, tzw. oceny zgodności przeprowadzanej przez stronę trzecią. Zważywszy jednak na dotychczasowe doświadczenie, jakie zawodowe podmioty zajmujące się certyfikacją przed wprowadzeniem do obrotu mają w dziedzinie bezpieczeństwa produktów, oraz odmienny charakter odnośnego ryzyka, zakres stosowania oceny zgodności przeprowadzanej przez stronę trzecią należy ograniczyć, przynajmniej na początkowym etapie stosowania niniejszego rozporządzenia, w przypadku systemów AI wysokiego ryzyka innych niż te, które są powiązane z produktami. W związku z tym ocena zgodności takich systemów powinna być co do zasady przeprowadzana przez dostawcę na jego własną odpowiedzialność, z wyjątkiem systemów AI przeznaczonych do wykorzystania do celów biometrycznych.
(126)
Jotta kolmannen osapuolen suorittamat vaatimustenmukaisuuden arvioinnit voidaan tarvittaessa toteuttaa, kansallisten toimivaltaisten viranomaisten olisi ilmoitettava tämän asetuksen nojalla ilmoitetut laitokset edellyttäen, että ne täyttävät tietyt vaatimukset, jotka koskevat erityisesti riippumattomuutta, pätevyyttä ja eturistiriitojen puuttumista sekä asiaankuuluvia kyberturvallisuusvaatimuksia. Kansallisten toimivaltaisten viranomaisten olisi lähetettävä ilmoitus näistä laitoksista komissiolle ja muille jäsenvaltioille käyttäen sähköistä ilmoitusvälinettä, jonka komissio kehittää ja jota se hallinnoi päätöksen N:o 768/2008/EY liitteessä I olevan R23 artiklan nojalla.
(126)
Do celów oceny zgodności przeprowadzanej przez stronę trzecią, jeśli jest ona wymagana, właściwe organy krajowe powinny notyfikować na podstawie niniejszego rozporządzenia jednostki notyfikowane, pod warunkiem że jednostki te spełniają szereg wymogów, w szczególności dotyczących niezależności, kompetencji, braku konfliktu interesów i odpowiednich wymogów cyberbezpieczeństwa. Notyfikacja tych jednostek powinna zostać przesłana Komisji i pozostałym państwom członkowskim przez właściwe organy krajowe za pomocą systemu notyfikacji elektronicznej opracowanego i zarządzanego przez Komisję zgodnie z art. R23 załącznika I do decyzji nr 768/2008/WE.
(127)
Kaupan teknisistä esteistä tehtyyn Maailman kauppajärjestön sopimukseen perustuvien unionin sitoumusten mukaisesti on asianmukaista helpottaa toimivaltaisten vaatimustenmukaisuuden arviointilaitosten tuottamien vaatimustenmukaisuuden arvioinnin tulosten vastavuoroista tunnustamista riippumatta siitä, mille alueelle nämä laitokset ovat sijoittautuneet, edellyttäen että kolmannen maan lainsäädännön mukaisesti perustetut vaatimustenmukaisuuden arviointilaitokset täyttävät tämän asetuksen sovellettavat vaatimukset ja että unioni on tehnyt asiaa koskevan sopimuksen. Tässä yhteydessä komission olisi aktiivisesti tarkasteltava tätä tarkoitusta varten mahdollisia kansainvälisiä välineitä ja erityisesti pyrittävä tekemään vastavuoroista tunnustamista koskevia sopimuksia kolmansien maiden kanssa.
(127)
Zgodnie ze zobowiązaniami Unii wynikającymi z Porozumienia Światowej Organizacji Handlu w sprawie barier technicznych w handlu właściwe jest ułatwienie wzajemnego uznawania wyników oceny zgodności sporządzonych przez właściwe jednostki oceniające zgodność, niezależnie od terytorium, na którym mają siedzibę, pod warunkiem że te jednostki oceniające zgodność ustanowione na mocy prawa państwa trzeciego spełniają mające zastosowanie wymogi niniejszego rozporządzenia, a Unia zawarła w tym zakresie umowę. W tym kontekście Komisja powinna aktywnie szukać rozwiązań w postaci ewentualnych służących temu celowi instrumentów międzynarodowych, a w szczególności dążyć do zawarcia umów o wzajemnym uznawaniu z państwami trzecimi.
(128)
Unionin yhdenmukaistamislainsäädännössä säänneltyjä tuotteita koskevan yleisesti vahvistetun merkittävän muutoksen käsitteen mukaisesti on aiheellista, että aina kun tapahtuu muutos, joka voi vaikuttaa siihen, onko suuririskinen tekoälyjärjestelmä tämän asetuksen mukainen (esimerkiksi käyttöjärjestelmän tai ohjelmistoarkkitehtuurin muutos), tai kun järjestelmän käyttötarkoitus muuttuu, kyseinen tekoälyjärjestelmä olisi katsottava uudeksi tekoälyjärjestelmäksi, jolle olisi tehtävä uusi vaatimustenmukaisuuden arviointi. Sellaisten tekoälyjärjestelmien algoritmiin ja suorituskykyyn tehtävien muutosten, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen eli mukauttavat automaattisesti tapaa, jolla toiminnot toteutetaan, ei kuitenkaan pitäisi katsoa muodostavan merkittävää muutosta edellyttäen, että tarjoaja on määritellyt kyseiset muutokset ennalta ja että ne on arvioitu vaatimustenmukaisuuden arvioinnin yhteydessä.
(128)
Zgodnie z powszechnie ugruntowanym pojęciem istotnej zmiany w odniesieniu do produktów regulowanych unijnym prawodawstwem harmonizacyjnym, należy – za każdym razem, gdy dokonuje się zmiany, która może wpłynąć na zgodność danego systemu AI wysokiego ryzyka z niniejszym rozporządzeniem (np. zmiana systemu operacyjnego lub architektury oprogramowania), lub gdy zmienia się przeznaczenie danego systemu – uznać ten system AI za nowy system AI, który powinien zostać poddany nowej ocenie zgodności. Za istotną zmianę nie należy jednak uznawać zmian w algorytmie oraz w skuteczności działania systemu AI, który po wprowadzeniu do obrotu lub oddaniu do użytku nadal się „uczy”, tzn. automatycznie dostosowuje sposób wykonywania funkcji, pod warunkiem że zmiany te zostały z góry zaplanowane przez dostawcę i ocenione w momencie przeprowadzania oceny zgodności.
(129)
Suuririskisissä tekoälyjärjestelmissä olisi oltava CE-merkintä, joka osoittaa niiden olevan tämän asetuksen mukaisia, jotta ne voivat liikkua vapaasti sisämarkkinoilla. Tuotteeseen sulautettuihin suuririskisiin tekoälyjärjestelmiin olisi kiinnitettävä fyysinen CE-merkintä, jota voidaan täydentää digitaalisella CE-merkinnällä. Digitaalisessa muodossa tarjottavissa suuririskisissä tekoälyjärjestelmissä olisi käytettävä digitaalista CE-merkintää. Jäsenvaltiot eivät saisi estää perusteettomasti sellaisten suuririskisten tekoälyjärjestelmien markkinoille saattamista tai käyttöön ottamista, jotka ovat tässä asetuksessa vahvistettujen vaatimusten mukaisia ja joissa on CE-merkintä.
(129)
Systemy AI wysokiego ryzyka powinny posiadać oznakowanie CE wskazujące na ich zgodności z niniejszym rozporządzeniem, aby umożliwić ich swobodny przepływ na rynku wewnętrznym. W przypadku systemów AI wysokiego ryzyka wbudowanych w produkt należy umieścić fizyczne oznakowanie CE, które może zostać uzupełnione cyfrowym oznakowaniem CE. W przypadku systemów AI wysokiego ryzyka dostarczanych wyłącznie w formie cyfrowej należy stosować cyfrowe oznakowanie CE. Państwa członkowskie nie powinny stwarzać nieuzasadnionych przeszkód dla wprowadzania do obrotu lub oddawania do użytku systemów AI wysokiego ryzyka zgodnych z wymogami ustanowionymi w niniejszym rozporządzeniu i posiadających oznakowanie CE.
(130)
Tietyissä olosuhteissa innovatiivisten teknologioiden nopea saatavuus voi olla ratkaisevan tärkeää ihmisten terveyden ja turvallisuuden, ympäristönsuojelun, ilmastonmuutoksen torjunnan sekä koko yhteiskunnan kannalta. Siksi on asianmukaista, että yleiseen turvallisuuteen tai luonnollisten henkilöiden elämän ja terveyden suojeluun, ympäristönsuojeluun sekä keskeisten teollisten resurssien ja infrastruktuurien suojaamiseen liittyvistä poikkeuksellisista syistä markkinavalvontaviranomaiset voisivat sallia sellaisten tekoälyjärjestelmien markkinoille saattamisen tai käyttöönoton, joille ei ole tehty vaatimustenmukaisuuden arviointia. Tässä asetuksessa säädetyissä asianmukaisesti perustelluissa tilanteissa lainvalvontaviranomaiset tai pelastuspalveluviranomaiset voivat ottaa käyttöön tietyn suuririskisen tekoälyjärjestelmän ilman markkinavalvontaviranomaisen lupaa edellyttäen, että tällainen lupa pyydetään ilman aiheetonta viivytystä tekoälyjärjestelmän käytön aikana tai sen jälkeen.
(130)
W pewnych warunkach szybka dostępność innowacyjnych technologii może być kluczowa dla zdrowia i bezpieczeństwa osób, ochrony środowiska i zmiany klimatu oraz dla całego społeczeństwa. Jest zatem właściwe, aby w przypadku wystąpienia nadzwyczajnych względów dotyczących bezpieczeństwa publicznego lub ochrony zdrowia i życia osób fizycznych, ochrony środowiska oraz ochrony kluczowych aktywów przemysłowych i infrastrukturalnych, organy nadzoru rynku mogły zezwolić na wprowadzenie do obrotu lub oddanie do użytku systemów AI, które nie przeszły oceny zgodności. W należycie uzasadnionych sytuacjach przewidzianych w niniejszym rozporządzeniu organy ścigania lub organy ochrony ludności mogą oddać do użytku określony system AI wysokiego ryzyka bez zezwolenia organu nadzoru rynku, pod warunkiem że o takie zezwolenie wystąpiono bez zbędnej zwłoki w trakcie jego wykorzystania lub po wykorzystaniu.
(131)
Jotta helpotettaisiin komission ja jäsenvaltioiden työtä tekoälyn alalla ja lisättäisiin avoimuutta yleisöön nähden, muiden kuin asiaa koskevan unionin voimassa olevan yhdenmukaistamislainsäädännön soveltamisalaan kuuluviin tuotteisiin liittyvien suuririskisten tekoälyjärjestelmien tarjoajia sekä tarjoajia, jotka katsovat, että tämän asetuksen liitteessä esitetyissä suuririskisen käytön tapauksissa lueteltu suuririskinen tekoälyjärjestelmä ei ole suuririskinen poikkeuksen perusteella, olisi vaadittava rekisteröimään itsensä ja tiedot tekoälyjärjestelmästään EU:n tietokantaan, jonka komissio perustaa ja jota se hallinnoi. Ennen tämän asetuksen liitteessä esitetyissä suuririskisen käytön tapauksissa luetellun tekoälyjärjestelmän käyttöä suuririskisten tekoälyjärjestelmien käyttöönottajien, jotka ovat viranomaisia, virastoja tai elimiä, olisi rekisteröidyttävä vastaavaan tietokantaan ja valittava järjestelmä, jota ne aikovat käyttää. Muilla käyttöönottajilla olisi oltava oikeus rekisteröityä vapaaehtoisesti. EU:n tietokannan tämän osion olisi oltava julkisesti ja maksutta saatavilla, ja tietojen olisi oltava helposti selattavia, ymmärrettäviä ja koneellisesti luettavia. EU:n tietokannan olisi myös oltava käyttäjäystävällinen, ja siinä olisi esimerkiksi oltava muun muassa avainsanoihin perustuva hakutoiminto, jonka avulla yleisö voi löytää asiaankuuluvia tietoja, jotka on toimitettava suuririskisten tekoälyjärjestelmien rekisteröinnin yhteydessä, ja niiden suuririskisten tekoälyjärjestelmien käytön tapauksia koskevia tietoja, jotka sisältyvät tämän asetuksen suuririskisiä tekoälyjärjestelmiä koskevaan liitteeseen. Myös kaikki suuririskisiin tekoälyjärjestelmiin tehtävät merkittävät muutokset olisi rekisteröitävä EU:n tietokantaan. Lainvalvonnan, muuttoliikkeen hallinnan, turvapaikka-asioiden ja rajavalvonnan alan suuririskisiä tekoälyjärjestelmiä koskevat rekisteröintivelvoitteet olisi täytettävä EU:n tietokannan suojatussa ei-julkisessa osiossa. Pääsy suojattuun ei-julkiseen osioon olisi rajattava tiukasti niin, että se annetaan vain komissiolle sekä markkinavalvontaviranomaisille tietokannan kansallisen osion osalta. Kriittisen infrastruktuurin alan suuririskiset tekoälyjärjestelmät olisi rekisteröitävä ainoastaan kansallisella tasolla. Komission olisi oltava EU:n tietokannan rekisterinpitäjä asetuksen (EU) 2018/1725 mukaisesti. Jotta EU:n tietokanta olisi täysin toimintavalmis, kun se otetaan käyttöön, sen perustamismenettelyyn olisi sisällyttävä komission laatimat toiminnalliset eritelmät ja riippumaton auditointiraportti. Komission olisi otettava huomioon kyberturvallisuusriskit suorittaessaan tehtäviään EU:n tietokannan rekisterinpitäjänä. Jotta voitaisiin maksimoida EU:n tietokannan saatavuus ja käyttö yleisön keskuudessa, EU:n tietokannan ja sen kautta saataville asetettujen tietojen olisi oltava direktiivin (EU) 2019/882 vaatimusten mukaisia.
(131)
Aby ułatwić pracę Komisji i państw członkowskich w dziedzinie AI, jak również zwiększyć przejrzystość wobec ogółu społeczeństwa, dostawców systemów AI wysokiego ryzyka innych niż te, które są powiązane z produktami objętymi zakresem stosowania odpowiedniego obowiązującego unijnego prawodawstwa harmonizacyjnego, a także dostawców, którzy uznają, że w związku z odstępstwem system AI wymieniony w wykazie przypadków wykorzystania stanowiących wysokie ryzyko zamieszczonym w załączniku do niniejszego rozporządzenia nie jest systemem wysokiego ryzyka, należy zobowiązać, by dokonali swojej rejestracji oraz rejestracji informacji na temat swoich systemów AI w bazie danych UE, która zostanie utworzona i będzie zarządzana przez Komisję. Przed wykorzystaniem systemu AI wymienionego w wykazie przypadków wykorzystania stanowiących wysokie ryzyko zamieszczonym w załączniku do niniejszego rozporządzenia będące publicznymi organami, agencjami lub jednostkami organizacyjnymi podmioty stosujące systemy AI wysokiego ryzyka powinny dokonać swojej rejestracji w tej bazie danych i wybrać system, który zamierzają wykorzystywać. Inne podmioty stosujące powinny być uprawnione do uczynienia tego dobrowolnie. Ta sekcja bazy danych UE powinna być publicznie dostępna, nieodpłatna, informacje powinny być łatwe do odnalezienia, zrozumiałe i nadające się do odczytu maszynowego. Ta baza danych UE powinna być również przyjazna dla użytkownika, na przykład poprzez zapewnienie funkcji wyszukiwania, w tym za pomocą słów kluczowych, co umożliwi ogółowi społeczeństwa znalezienie istotnych informacji przedkładanych przy rejestracji systemów AI wysokiego ryzyka, oraz informacji na temat przypadków wykorzystywania systemów AI wysokiego ryzyka, określonych w załączniku do niniejszego rozporządzenia, któremu odpowiadają poszczególne systemy AI wysokiego ryzyka. W unijnej bazie danych UE powinno się też rejestrować wszelkie istotne zmiany systemów sztucznej inteligencji wysokiego ryzyka. W przypadku systemów AI wysokiego ryzyka w obszarze ścigania przestępstw, zarządzania migracją, azylem i kontrolą graniczną obowiązkowej rejestracji należy dokonać w bezpiecznej niepublicznej sekcji bazy danych. Dostęp do tej bezpiecznej niepublicznej sekcji powinna posiadać tylko i wyłącznie Komisja i organy nadzoru rynku w odniesieniu do ich krajowej sekcji bazy danych UE. Systemy AI wysokiego ryzyka w obszarze infrastruktury krytycznej powinny być rejestrowane wyłącznie na poziomie krajowym. Komisja powinna być administratorem bazy danych UE zgodnie z rozporządzeniem (UE) 2018/1725. Aby zapewnić pełną funkcjonalność bazy danych UE po jej wdrożeniu, procedura ustanawiania bazy danych powinna obejmować rozwijanie przez Komisję specyfikacji funkcjonalnych oraz sprawozdanie z niezależnego audytu. Wykonując swoje zadania jako administrator danych bazy danych UE, Komisja powinna wziąć pod uwagę ryzyko dotyczące cyberbezpieczeństwa. Aby zmaksymalizować dostępność i wykorzystywanie bazy danych UE przez społeczeństwo, baza danych UE, w tym udostępniane za jej pośrednictwem informacje, powinna być zgodna z wymogami określonymi w dyrektywie (UE) 2019/882.
(132)
Tietyt tekoälyjärjestelmät, jotka on tarkoitettu toimimaan vuorovaikutuksessa luonnollisten henkilöiden kanssa tai tuottamaan sisältöä, voivat aiheuttaa erityisiä toisena henkilönä esiintymiseen tai harhaanjohtamiseen liittyviä riskejä riippumatta siitä, luokitellaanko ne suuririskisiksi vai ei. Siksi näiden järjestelmien käyttöön olisi tietyissä olosuhteissa sovellettava erityisiä avoimuusvelvoitteita, sanotun kuitenkaan rajoittamatta suuririskisiä tekoälyjärjestelmiä koskevien vaatimusten ja velvoitteiden soveltamista ja lukuun ottamatta kohdennettuja poikkeuksia lainvalvonnan erityistarpeiden huomioon ottamiseksi. Luonnollisille henkilöille olisi erityisesti ilmoitettava, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, ellei tämä ole ilmeistä sellaisen luonnollisen henkilön näkökulmasta, joka on suhteellisen valistunut, tarkkaavainen ja huolellinen ottaen huomioon käytön olosuhteet ja asiayhteys. Kyseistä velvoitetta täytäntöön pantaessa olisi otettava huomioon ikänsä tai vammaisuutensa vuoksi haavoittuvassa asemassa oleviin ryhmiin kuuluvien luonnollisten henkilöiden ominaisuuspiirteet siltä osin kuin tekoälyjärjestelmä on tarkoitettu vuorovaikutukseen myös kyseisten ryhmien kanssa. Lisäksi luonnollisille henkilöille olisi ilmoitettava, jos he altistuvat tekoälyjärjestelmille, jotka pystyvät tunnistamaan tai päättelemään näiden henkilöiden tunteet tai aikomukset taikka luokittelemaan heidät tiettyihin ryhmiin, kun ne käsittelevät heidän biometrisiä tietojaan. Tällaiset ryhmät voivat määräytyä esimerkiksi sukupuolen, iän, hiustenvärin, silmien värin, tatuointien, persoonallisuuspiirteiden, etnisen alkuperän, henkilökohtaisten mieltymysten ja kiinnostuksen kohteiden perusteella. Kyseiset tiedot ja ilmoitukset olisi annettava vammaisille henkilöille soveltuvassa muodossa.
(132)
Niektóre systemy AI przeznaczone do wchodzenia w interakcję z osobami fizycznymi lub generowania treści mogą stwarzać szczególne ryzyko podawania się za inną osobę lub wprowadzania w błąd, niezależnie od tego, czy kwalifikują się jako systemy wysokiego ryzyka, czy też nie. W pewnych okolicznościach wykorzystanie tych systemów powinno zatem podlegać szczególnym obowiązkom w zakresie przejrzystości bez uszczerbku dla wymogów i obowiązków określonych dla systemów AI wysokiego ryzyka, przy zastosowaniu ukierunkowanych wyjątków, aby uwzględnić szczególne potrzeby w zakresie ścigania przestępstw. W szczególności osoby fizyczne powinny być powiadamiane o tym, że wchodzą w interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu korzystania. Przy spełnianiu takiego obowiązku należy uwzględniać cechy osób fizycznych należących do grup szczególnie wrażliwych ze względu na wiek lub niepełnosprawność – w zakresie, w jakim system AI ma również wchodzić w interakcję z tymi grupami. Ponadto osoby fizyczne powinny być powiadamiane, jeżeli są poddawane działaniu systemów AI, które poprzez przetwarzanie ich danych biometrycznych mogą zidentyfikować lub wywnioskować emocje lub zamiary tych osób lub przypisać je do określonych kategorii. Te określone kategorie mogą dotyczyć takich aspektów jak płeć, wiek, kolor włosów, kolor oczu, tatuaże, cechy osobowości, pochodzenie etniczne, osobiste preferencje i zainteresowania. Tego rodzaju informacje i powiadomienia należy przekazywać w formatach dostępnych dla osób z niepełnosprawnościami.
(133)
Useat eri tekoälyjärjestelmät voivat tuottaa suuria määriä synteettistä sisältöä, jota on yhä vaikeampi erottaa ihmisen tuottamasta aidosta sisällöstä. Näiden järjestelmien laaja saatavuus ja suorituskyvyn jatkuva kehittyminen vaikuttavat merkittävästi tietoekosysteemin eheyteen ja luotettavuuteen ja synnyttävät uusia riskejä, jotka liittyvät laajamittaiseen väärän tiedon levittämiseen ja tiedonmanipulointiin, petoksiin, toisena henkilönä esiintymiseen ja kuluttajien harhaanjohtamiseen. Kun otetaan huomioon nämä vaikutukset, teknologian nopea kehitys ja tarve kehittää uusia menetelmiä ja tekniikoita tiedon alkuperän jäljittämiseksi, on aiheellista edellyttää, että näiden järjestelmien tarjoajat sulauttavat niihin ratkaisuja, joilla tuotokset voidaan merkitä koneellisesti luettavassa muodossa ja joilla ne voidaan tunnistaa ihmisen sijasta tekoälyn tuottamiksi tai käsittelemiksi. Tällaisten tekniikoiden ja menetelmien olisi oltava riittävän luotettavia, yhteentoimivia, tehokkaita ja luotettavia siinä määrin kuin se on teknisesti mahdollista ottaen huomioon käytettävissä olevat tekniikat ja niiden yhdistelmät, kuten tarpeen mukaan vesileimat, metatietojen tunnistaminen, salausmenetelmät sisällön alkuperän ja aitouden osoittamiseksi, lokikirjausmenetelmät, sormenjäljet tai muut tekniikat. Tätä velvoitetta täyttäessään tarjoajien olisi lisäksi otettava huomioon eri sisältötyyppien ominaispiirteet ja rajoitukset sekä alan teknologian ja markkinoiden merkityksellinen kehitys, jota ilmentää yleisesti tunnustettu alan viimeisin kehitystaso. Nämä tekniikat ja menetelmät voidaan panna täytäntöön tekoälyjärjestelmä- tai tekoälymallitasolla, mukaan lukien sisältöä tuottavat yleiskäyttöiset tekoälymallit, mikä auttaa tekoälyjärjestelmän ketjun loppupään tarjoajia täyttämään tämän velvoitteen. Oikeasuhteisuuden säilyttämiseksi on aiheellista säätää, ettei tämän merkintävelvoitteen pitäisi kattaa tekoälyjärjestelmiä, jotka ensisijaisesti avustavat vakiomuokkaamista tai eivät olennaisesti muuta käyttöönottajan toimittamaa syöttödataa tai sen semantiikkaa.
(133)
Różne systemy AI mogą generować duże ilości treści syntetycznych, które stają się coraz trudniejsze do odróżnienia od treści generowanych przez człowieka i treści autentycznych. Szeroka dostępność i coraz większe zdolności tych systemów mają znaczący wpływ na integralność ekosystemu informacyjnego i zaufanie do niego, stwarzając nowe rodzaje ryzyka polegające na podawaniu informacji wprowadzających w błąd i na manipulacji na dużą skalę, oszustwach, podszywaniu się pod inne osoby i wprowadzaniu w błąd konsumentów. W świetle tych skutków, a także szybkiego tempa technologicznego oraz zapotrzebowania na nowe metody i techniki śledzenia pochodzenia informacji należy zobowiązać dostawców tych systemów do wbudowania rozwiązań technicznych, które umożliwiają oznakowanie w formacie nadającym się do odczytu maszynowego i wykrywanie, że wyniki zostały wygenerowane lub zmanipulowane przez system AI, a nie przez człowieka. Takie techniki i metody powinny być wystarczająco niezawodne, interoperacyjne, skuteczne i solidne, o ile jest to technicznie wykonalne, z uwzględnieniem dostępnych technik lub kombinacji takich technik, takich jak znaki wodne, identyfikacja metadanych, metody kryptograficzne służące do potwierdzania pochodzenia i autentyczności treści, metody rejestracji zdarzeń, odciski palców lub inne techniki, stosownie do przypadku. Przy spełnianiu tego obowiązku dostawcy powinni uwzględniać specyfikę i ograniczenia różnych rodzajów treści oraz istotne postępy technologiczne i rynkowe w tym obszarze, które odzwierciedla powszechnie uznany stan wiedzy technicznej. Takie techniki i metody można wdrażać na poziomie danego systemu AI lub na poziomie modelu AI, w tym modeli AI ogólnego przeznaczenia generujących treści, a tym samym ułatwiać spełnianie tego obowiązku przez dostawcę niższego szczebla danego systemu AI. Aby zachować proporcjonalność, należy przewidzieć, że ten obowiązek oznakowania nie powinien obejmować systemów AI pełniących przede wszystkim funkcję wspomagającą w zakresie standardowej edycji lub systemów AI, które nie zmieniają w istotny sposób przekazywanych przez podmiot stosujący danych wejściowych ani ich semantyki.
(134)
Tekoälyjärjestelmän tarjoajien käyttämien teknisten ratkaisujen lisäksi sellaisen tekoälyjärjestelmän käyttöönottajien, joka tuottaa tai käsittelee kuva-, ääni- tai videosisältöä, joka selvästi muistuttaa olemassa olevia henkilöitä, esineitä, paikkoja, toimijoita tai tapahtumia ja joka voi ihmisestä vaikuttaa virheellisesti aidolta tai totuudenmukaiselta (syväväärennökset), olisi ilmoitettava selkeästi ja erikseen, että kyseinen sisältö on tuotettu tai käsitelty keinotekoisesti, merkitsemällä tekoälyn tuotos vastaavasti ja ilmoittamalla sen keinotekoinen alkuperä. Tämän avoimuusvelvoitteen noudattamisen ei pitäisi myöskään tulkita merkitsevän sitä, että tekoälyjärjestelmän tai sen tuotoksen käyttö heikentää perusoikeuskirjassa taattuja oikeutta sananvapauteen ja oikeutta taiteen ja tutkimuksen vapauteen, erityisesti jos sisältö on osa selvästi luovaa, satiirista, taiteellista, fiktiivistä tai vastaavaa teosta tai ohjelmaa, edellyttäen että kolmansien osapuolten oikeudet ja vapaudet turvataan asianmukaisesti. Näissä tapauksissa tässä asetuksessa vahvistettu syväväärennöksiä koskeva avoimuusvelvoite rajoittuu tällaisesta tuotetusta tai käsitellystä sisällöstä ilmoittamiseen asianmukaisesti tavalla, joka ei haittaa teoksen esittämistä tai sen käyttöä, mukaan lukien sen tavanomainen hyödyntäminen ja käyttö, säilyttäen samalla teoksen hyödyllisyys ja laatu. Lisäksi on aiheellista harkita vastaavan ilmoitusvelvollisuuden käyttöönottoa tekoälyn tuottaman tai käsittelemän tekstin osalta siltä osin kuin sen julkaisemisen tarkoituksena on tiedottaa yleisölle yleistä etua koskevista asioista, paitsi jos tekoälyn tuottama sisältö on läpikäynyt ihmisen suorittaman arviointiprosessin tai toimituksellisen valvonnan ja luonnollisella henkilöllä tai oikeushenkilöllä on toimituksellinen vastuu sisällön julkaisemisesta.
(134)
Oprócz rozwiązań technicznych wykorzystywanych przez dostawców systemu AI, podmioty stosujące, które wykorzystują system AI do generowania obrazów, treści dźwiękowych lub wideo lub manipulowania nimi, tak by łudząco przypominały istniejące osoby, przedmioty. Miejsca, podmioty lub wydarzenia i które to treści mogą niesłusznie zostać uznane przez odbiorcę za autentyczne lub prawdziwe („deepfake”), powinny również jasno i wyraźnie ujawnić – poprzez odpowiednie oznakowanie wyniku AI i ujawnienie, że źródłem jest AI – że treści te zostały sztucznie wygenerowane lub zmanipulowane. Spełnienie obowiązku w zakresie przejrzystości nie powinno być interpretowane jako wskazujące na to, że wykorzystanie systemu AI lub jego wyników ogranicza prawo do wolności wypowiedzi i prawo do wolności sztuki i nauki zagwarantowane w Karcie, w szczególności w przypadku, gdy treści te stanowią część dzieła lub programu mającego wyraźnie charakter twórczy, satyryczny, artystyczny fikcyjny lub analogiczny, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich. W takich przypadkach określony w niniejszym rozporządzeniu obowiązek w zakresie przejrzystości dotyczący treści typu deepfake ogranicza się do ujawniania informacji o istnieniu takich wygenerowanych lub zmanipulowanych treści w odpowiedni sposób, który nie utrudnia wyświetlania utworu lub korzystania z niego, w tym jego normalnego wykorzystania i użytkowania, przy jednoczesnym zachowaniu użyteczności i jakości utworu. Ponadto należy również przewidzieć podobny obowiązek ujawniania w odniesieniu do tekstu wygenerowanego przez AI lub zmanipulowanego przez AI w zakresie, w jakim jest on publikowany w celu informowania opinii publicznej o sprawach leżących w interesie publicznym, chyba że treści wygenerowane przez AI zostały poddane procesowi weryfikacji przez człowieka lub kontroli redakcyjnej, a osoba fizyczna lub prawna ponosi odpowiedzialność redakcyjną za publikację treści.
(135)
Komissio voi myös kannustaa ja helpottaa käytännesääntöjen laatimista unionin tasolla, jotta voidaan edistää keinotekoisesti tuotetun tai käsitellyn sisällön havaitsemista ja merkitsemistä koskevien velvoitteiden tehokasta täytäntöönpanoa, myös tukea käytännön järjestelyjä, joilla tapauksen mukaan tuodaan havaitsemismekanismit saataville ja helpotetaan yhteistyötä muiden arvoketjun toimijoiden kanssa, levitetään sisältöä tai tarkistetaan sen aitous ja alkuperä, jotta yleisö voi tehokkaasti erottaa tekoälyn tuottaman sisällön muusta sisällöstä, sanotun kuitenkaan vaikuttamatta avoimuusvelvoitteiden pakolliseen luonteeseen ja täyteen sovellettavuuteen.
(135)
Bez uszczerbku dla obowiązkowego charakteru i pełnego stosowania obowiązków w zakresie przejrzystości Komisja może również zachęcać do opracowywania kodeksów praktyk na poziomie Unii i ułatwiać ich opracowywanie, aby ułatwić skuteczne wykonywanie obowiązków dotyczących wykrywania i oznakowania treści, które zostały sztucznie wygenerowane lub zmanipulowane, w tym aby wspierać praktyczne rozwiązania dotyczące udostępniania, stosownie do przypadku, mechanizmów wykrywania i ułatwiania współpracy z innymi podmiotami w całym łańcuchu wartości, które rozpowszechniają treści lub sprawdzają ich autentyczność i pochodzenie, aby umożliwić ogółowi społeczeństwa skuteczne rozróżnianie treści wygenerowanych przez AI.
(136)
Tässä asetuksessa asetetaan tiettyjen tekoälyjärjestelmien tarjoajille ja käyttöönottajille velvoitteita, joiden tarkoituksena on havaita, että näiden järjestelmien tuotokset ovat keinotekoisesti tuotettuja tai käsiteltyjä, ja julkistaa tämä tieto. Nämä velvoitteet ovat erityisen merkityksellisiä asetuksen (EU) 2022/2065 tehokkaan täytäntöönpanon helpottamisen kannalta. Tämä koskee erityisesti erittäin suurten verkkoalustojen tai erittäin suurten verkossa toimivien hakukoneiden tarjoajien velvoitteita tunnistaa ja lieventää systeemisiä riskejä, joita voi aiheutua keinotekoisesti tuotetun tai käsitellyn sisällön levittämisestä, erityisesti myös disinformaatiosta johtuva demokraattisiin prosesseihin, kansalaiskeskusteluun ja vaaliprosesseihin kohdistuvien tosiasiallisten tai ennakoitavien kielteisten vaikutusten riski. Tämän asetuksen mukainen vaatimus merkitä tekoälyjärjestelmien tuottama sisältö ei rajoita asetuksen (EU) 2022/2065 16 artiklan 6 kohdassa säädettyä säilytyspalvelujen tarjoajien velvoitetta käsitellä kyseisen asetuksen 16 artiklan 1 kohdan mukaisesti saamansa ilmoituksia laittomasta sisällöstä, eikä sen pitäisi vaikuttaa tietyn sisällön laittomuudesta tehtävään arviointiin tai päätökseen. Kyseinen arviointi olisi tehtävä yksinomaan sisällön laillisuutta koskevien sääntöjen perusteella.
(136)
Obowiązki nałożone w niniejszym rozporządzeniu na dostawców i podmioty stosujące niektóre systemy AI w celu umożliwienia wykrywania i ujawniania, że wyniki tych systemów są sztucznie wygenerowane lub zmanipulowane, są szczególnie istotne dla ułatwienia skutecznego wdrożenia rozporządzenia (UE) 2022/2065. Dotyczy to w szczególności obowiązków dostawców bardzo dużych platform internetowych lub bardzo dużych wyszukiwarek internetowych w zakresie identyfikowania i ograniczania ryzyka systemowego, które może wynikać z rozpowszechniania treści sztucznie wygenerowanych lub zmanipulowanych, w szczególności ryzyka faktycznych lub przewidywalnych negatywnych skutków dla procesów demokratycznych, dyskursu obywatelskiego i procesów wyborczych, w tym poprzez stosowanie dezinformacji. Wymóg oznakowania treści wygenerowanych przez systemy AI na podstawie niniejszego rozporządzenia pozostaje bez uszczerbku dla określonego w art. 16 ust. 6 rozporządzenia (UE) 2022/2065 obowiązku rozpatrywania przez dostawców usług hostingu zgłoszeń dotyczących nielegalnych treści otrzymanych na podstawie art. 16 ust. 1 tego rozporządzenia i nie powinien mieć wpływu na ocenę i decyzję w sprawie niezgodności z prawem konkretnych treści. Ocena ta powinna być dokonywana wyłącznie w odniesieniu do przepisów regulujących zgodność treści z prawem.
(137)
Tämän asetuksen kattamien tekoälyjärjestelmien avoimuusvelvoitteiden noudattamisen ei saisi tulkita merkitsevän sitä, että tekoälyjärjestelmän tai sen tuotoksen käyttö on lainmukaista tämän asetuksen tai muun unionin ja jäsenvaltioiden lainsäädännön nojalla, eikä se saisi rajoittaa muiden unionin tai jäsenvaltioiden lainsäädännössä säädettyjen tekoälyjärjestelmien käyttöönottajia koskevien avoimuusvelvoitteiden soveltamista.
(137)
Spełnienie obowiązków w zakresie przejrzystości w odniesieniu do systemów AI objętych niniejszym rozporządzeniem nie powinno być interpretowane jako wskazanie, że wykorzystanie systemu AI lub jego wyników jest zgodne z prawem na podstawie niniejszego rozporządzenia lub innych przepisów prawa Unii i prawa państw członkowskich, i powinno pozostawać bez uszczerbku dla innych obowiązków w zakresie przejrzystości ustanowionych w prawie Unii lub prawie krajowym wobec podmiotów stosujących systemy AI.
(138)
Tekoäly on nopeasti kehittyvä teknologiakokonaisuus, joka edellyttää viranomaisvalvontaa sekä turvallista ja valvottua tilaa kokeiluille samalla kun varmistetaan vastuullinen innovointi ja asianmukaisten takeiden ja riskinvähentämistoimenpiteiden integrointi. Jotta voidaan varmistaa innovointia edistävä, tulevaisuuden vaatimukset huomioon ottava ja häiriönsietokykyinen oikeudellinen kehys, jäsenvaltioiden olisi varmistettava, että niiden toimivaltaiset kansalliset viranomaiset perustavat ainakin yhden tekoälyn sääntelyn kansallisen tason testiympäristön, jolla helpotetaan innovatiivisten tekoälyjärjestelmien kehittämistä ja testausta tiukassa viranomaisvalvonnassa, ennen kuin nämä järjestelmät saatetaan markkinoille tai otetaan muulla tavoin käyttöön. Jäsenvaltiot voisivat täyttää tämän velvoitteen myös osallistumalla jo olemassa oleviin sääntelyn testiympäristöihin tai perustamalla testiympäristön yhdessä yhden tai useamman jäsenvaltion toimivaltaisten viranomaisten kanssa, jos osallistuminen tarjoaa osallistuville jäsenvaltioille vastaavan kansallisen kattavuuden. Tekoälyn sääntelyn testiympäristöjä voitaisiin perustaa fyysisessä, digitaalisessa tai hybridimuodossa, ja niissä voitaisiin testata sekä fyysisiä että digitaalisia tuotteita. Perustajaviranomaisten olisi myös varmistettava, että tekoälyn sääntelyn testiympäristöillä on toimintansa edellyttämät riittävät resurssit, mukaan lukien taloudelliset ja henkilöresurssit.
(138)
AI jest szybko rozwijającą się grupą technologii, wymagającą nadzoru regulacyjnego oraz bezpiecznej i kontrolowanej przestrzeni do przeprowadzania doświadczeń, przy jednoczesnym zapewnieniu odpowiedzialnej innowacji oraz uwzględnieniu odpowiednich zabezpieczeń i środków ograniczających ryzyko. Aby zapewnić ramy prawne wspierające innowacje, nieulegające dezaktualizacji i uwzględniające przełomowe technologie, państwa członkowskie powinny zapewnić, by ich właściwe organy krajowe ustanowiły co najmniej jedną piaskownicę regulacyjną w zakresie AI na poziomie krajowym, aby ułatwić rozwijanie i testowanie innowacyjnych systemów AI pod ścisłym nadzorem regulacyjnym przed ich wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób. Państwa członkowskie mogłyby również spełnić ten obowiązek, uczestnicząc w już istniejących piaskownicach regulacyjnych lub ustanawiając piaskownicę wspólnie z co najmniej jednym właściwym organem innego państwa członkowskiego, o ile udział ten zapewnia uczestniczącym państwom członkowskim równoważny poziom zasięgu krajowego. Piaskownice regulacyjne w zakresie AI mogą być tworzone w formie fizycznej, cyfrowej lub hybrydowej i mogą obejmować zarówno produkty fizyczne, jak i cyfrowe. Organy ustanawiające piaskownice regulacyjne w zakresie AI powinny również zapewnić, aby dysponowały one odpowiednimi do ich funkcjonowania zasobami, w tym zasobami finansowymi i ludzkimi.
(139)
Tekoälyn sääntelyn testiympäristöjen tavoitteena olisi oltava edistää tekoälyyn liittyvää innovointia luomalla hallittu kokeilu- ja testausympäristö kehitysvaiheessa ja markkinoille saattamista edeltävässä vaiheessa, jotta voidaan varmistaa, että innovatiiviset tekoälyjärjestelmät ovat tämän asetuksen ja muun asiaankuuluvan unionin ja jäsenvaltioiden lainsäädännön mukaisia. Lisäksi tekoälyn sääntelyn testiympäristöillä olisi pyrittävä parantamaan innovoijien oikeusvarmuutta ja toimivaltaisten viranomaisten valvontaa sekä ymmärrystä tekoälyn käytön mahdollisuuksista, kehittyvistä riskeistä ja vaikutuksista, helpotettava viranomaisten ja yritysten sääntelyyn liittyvää oppimista, myös oikeudellisen kehyksen tulevia mukautuksia silmällä pitäen, tuettava yhteistyötä ja parhaiden käytäntöjen jakamista tekoälyn sääntelyn testiympäristöön osallistuvien viranomaisten kanssa sekä nopeutettava markkinoille pääsyä muun muassa poistamalla esteitä pk-yrityksiltä, myös startup-yrityksiltä. Tekoälyn sääntelyn testiympäristöjä olisi oltava laajalti käytettävissä kaikkialla unionissa, ja erityistä huomiota olisi kiinnitettävä siihen, että ne ovat pk-yritysten, myös startup-yritysten, saatavilla. Tekoälyn sääntelyn testiympäristöön osallistumisessa olisi painotettava kysymyksiä, jotka aiheuttavat tarjoajille ja mahdollisille tarjoajille oikeudellista epävarmuutta, joka liittyy innovointiin, tekoälyn kokeiluun unionissa ja näyttöön perustuvan sääntelyyn liittyvän oppimisen edistämiseen. Tekoälyjärjestelmien valvonnan tekoälyn sääntelyn testiympäristössä olisi näin ollen katettava järjestelmien kehittäminen, koulutus, testaus ja validointi ennen kuin ne saatetaan markkinoille tai otetaan käyttöön sekä sellaisen merkittävän muutoksen käsite ja esiintyminen, joka saattaa edellyttää uutta vaatimustenmukaisuuden arviointia. Tällaisten tekoälyjärjestelmien kehittämisen ja testauksen aikana havaittuja merkittäviä riskejä olisi vähennettävä asianmukaisesti, ja jos se ei ole mahdollista, kehittämis- ja testausprosessi olisi keskeytettävä. Tekoälyn sääntelyn testiympäristöjä perustavien kansallisten toimivaltaisten viranomaisten olisi tarvittaessa tehtävä yhteistyötä muiden asiaankuuluvien viranomaisten kanssa, mukaan lukien perusoikeuksien suojelua valvovat viranomaiset, ja ne voisivat sallia myös muiden toimijoiden, joita voisivat olla kansalliset ja eurooppalaiset standardointijärjestöt, ilmoitetut laitokset, testaus- ja kokeilulaitokset, tutkimus- ja kokeilulaboratoriot, eurooppalaiset digitaali-innovointikeskittymät ja asiaankuuluvat sidosryhmien ja kansalaisyhteiskunnan organisaatiot, osallistumisen tekoälyekosysteemiin. Yhdenmukaisen täytäntöönpanon varmistamiseksi koko unionissa ja mittakaavaetujen saavuttamiseksi on aiheellista vahvistaa yhteiset säännöt tekoälyn sääntelyn testiympäristöjen toteuttamiselle ja puitteet testiympäristöjen valvontaan osallistuvien asiaankuuluvien viranomaisten väliselle yhteistyölle. Tämän asetuksen nojalla perustetuilla tekoälyn sääntelyn testiympäristöillä ei saisi rajoittaa muun sellaisen lainsäädännön soveltamista, jonka nojalla voidaan perustaa testiympäristöjä, joiden tavoitteena on varmistaa muun lainsäädännön kuin tämän asetuksen noudattaminen. Kyseisistä muista sääntelyn testiympäristöistä vastaavien asiaankuuluvien toimivaltaisten viranomaisten olisi tarvittaessa otettava huomioon hyödyt, joita saadaan myös näiden testiympäristöjen käyttämisestä sen varmistamiseen, että tekoälyjärjestelmät ovat tämän asetuksen mukaisia. Kansallisten toimivaltaisten viranomaisten ja tekoälyn sääntelyn testiympäristöön osallistujien niin sopiessa tosielämän olosuhteissa tapahtuvaa testausta voidaan toteuttaa ja valvoa myös tekoälyn sääntelyn testiympäristön kehyksessä.
(139)
Piaskownice regulacyjne w zakresie AI powinny mieć na celu: wspieranie innowacji w zakresie AI poprzez ustanowienie kontrolowanego środowiska doświadczalnego i testowego w fazie rozwojowej i przed wprowadzeniem do obrotu, z myślą o zapewnieniu zgodności innowacyjnych systemów AI z niniejszym rozporządzeniem oraz z innymi odpowiednimi przepisami prawa Unii i prawa krajowego. Ponadto piaskownice regulacyjne w zakresie AI powinny mieć na celu zwiększenie pewności prawa dla innowatorów, a także usprawnienie nadzoru ze strony właściwych organów oraz podnoszenie poziomu ich wiedzy na temat możliwości, pojawiających się rodzajów ryzyka oraz skutków związanych ze stosowaniem AI, ułatwienie organom i przedsiębiorstwom uczenia się działań regulacyjnych, w tym z myślą o przyszłym dostosowaniu ram prawnych, wspieranie współpracy i wymiany najlepszych praktyk z organami zaangażowanymi w piaskownicę regulacyjną w zakresie AI oraz przyspieszenie dostępu do rynków, w tym poprzez usuwanie barier dla MŚP, w tym przedsiębiorstw typu start-up. Piaskownice regulacyjne w zakresie AI powinny być powszechnie dostępne w całej Unii, a szczególną uwagę należy zwrócić na ich dostępność dla MŚP, w tym dla przedsiębiorstw typu start-up. Uczestnictwo w piaskownicy regulacyjnej w zakresie AI powinno koncentrować się na kwestiach, które powodują niepewność prawa dla dostawców i potencjalnych dostawców w zakresie innowacji i eksperymentowania z AI w Unii oraz powinno przyczyniać się do opartego na dowodach uczenia się działań regulacyjnych. Nadzór nad systemami AI w piaskownicy regulacyjnej w zakresie AI powinien zatem obejmować ich rozwój, trenowanie, testowanie i walidację przed wprowadzeniem tych systemów do obrotu lub oddaniem do użytku, a także pojęcie i występowanie istotnych zmian, które mogą wymagać nowej procedury oceny zgodności. Wykrycie jakiegokolwiek znaczącego ryzyka na etapie rozwoju i testowania takich systemów AI powinno powodować konieczność właściwego ograniczenia tego ryzyka, a w przypadku niepowodzenia w tym zakresie – skutkować zawieszeniem procesu rozwoju i testowania systemu. W stosownych przypadkach właściwe organy krajowe ustanawiające piaskownice regulacyjne w zakresie AI powinny współpracować z innymi odpowiednimi organami, w tym organami nadzorującymi ochronę praw podstawowych, i powinny umożliwiać zaangażowanie innych podmiotów funkcjonujących w ekosystemie AI, takich jak krajowe lub europejskie organizacje normalizacyjne, jednostki notyfikowane, ośrodki testowo-doświadczalne, laboratoria badawczo-doświadczalne, europejskie centra innowacji cyfrowych oraz organizacje zrzeszające odpowiednie zainteresowane strony i społeczeństwo obywatelskie. Aby zapewnić jednolite wdrożenie w całej Unii oraz osiągnąć korzyści skali, należy ustanowić wspólne przepisy regulujące uruchamianie piaskownic regulacyjnych w zakresie AI oraz ramy współpracy między odpowiednimi organami uczestniczącymi w nadzorze nad piaskownicami regulacyjnymi. Piaskownice regulacyjne w zakresie AI ustanowione na mocy niniejszego rozporządzenia powinny pozostawać bez uszczerbku dla innych przepisów, które umożliwiają ustanawianie innych piaskownic mających na celu zapewnienie zgodności z przepisami prawa innymi niż niniejsze rozporządzenie. W stosownych przypadkach odpowiednie właściwe organy odpowiedzialne za inne piaskownice regulacyjne powinny przeanalizować korzyści płynące ze stosowania tych piaskownic również do celów zapewnienia zgodności systemów AI z niniejszym rozporządzeniem. Po osiągnięciu porozumienia pomiędzy właściwymi organami krajowymi oraz uczestnikami piaskownicy regulacyjnej w zakresie AI w ramach takiej piaskownicy regulacyjnej można również prowadzić i nadzorować testy w warunkach rzeczywistych.
(140)
Tämän asetuksen olisi muodostettava oikeusperusta tekoälyn sääntelyn testiympäristöön osallistuvia tarjoajia ja mahdollisia tarjoajia varten, jotta ne voivat käyttää muihin tarkoituksiin kerättyjä henkilötietoja tiettyjen yleisen edun mukaisten tekoälyjärjestelmien kehittämiseen tekoälyn sääntelyn testiympäristössä ainoastaan tietyin edellytyksin, asetuksen (EU) 2016/679 6 artiklan 4 kohdan ja 9 artiklan 2 kohdan g alakohdan ja asetuksen (EU) 2018/1725 5, 6 ja 10 artiklan mukaisesti ja rajoittamatta direktiivin (EU) 2016/680 4 artiklan 2 kohdan ja 10 artiklan soveltamista. Kaikkia muita asetusten (EU) 2016/679 ja (EU) 2018/1725 ja direktiivin (EU) 2016/680 mukaisia rekisterinpitäjien velvoitteita ja rekisteröityjen oikeuksia sovelletaan edelleen. Erityisesti on huomattava, ettei tämän asetuksen ole tarkoitus muodostaa asetuksen (EU) 2016/679 22 artiklan 2 kohdan b alakohdassa ja asetuksen (EU) 2018/1725 24 artiklan 2 kohdan b alakohdassa tarkoitettua oikeusperustaa. Tekoälyn sääntelyn testiympäristöön osallistuvien tarjoajien ja mahdollisten tarjoajien olisi varmistettava asianmukaiset takeet ja tehtävä yhteistyötä toimivaltaisten viranomaisten kanssa muun muassa noudattamalla niiden ohjeita ja toimimalla nopeasti ja vilpittömästi lieventääkseen asianmukaisesti mahdollisia havaittuja turvallisuuteen, terveyteen ja perusoikeuksiin kohdistuvia merkittäviä riskejä, joita voi syntyä kyseisessä testiympäristössä tapahtuvan kehittämisen, testauksen ja kokeilun aikana.
(140)
Niniejsze rozporządzenie powinno zapewniać dostawcom i potencjalnym dostawcom uczestniczącym w piaskownicy regulacyjnej w zakresie AI podstawę prawną do wykorzystywania danych osobowych zebranych w innych celach do rozwoju – w ramach piaskownicy regulacyjnej w zakresie AI – określonych systemów AI w interesie publicznym, tylko pod określonymi warunkami, zgodnie z art. 6 ust. 4 i art. 9 ust. 2 lit. g) rozporządzenia (UE) 2016/679 i art. 5, 6 i 10 rozporządzenia (UE) 2018/1725 i nie naruszając przepisów art. 4 ust. 2 i art. 10 dyrektywy (UE) 2016/680. Nadal mają zastosowanie wszystkie pozostałe obowiązki administratorów danych i prawa osób, których dane dotyczą, wynikające z rozporządzeń (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywy (UE) 2016/680. W szczególności niniejsze rozporządzenie nie powinno stanowić podstawy prawnej w rozumieniu art. 22 ust. 2 lit. b) rozporządzenia (UE) 2016/679 i art. 24 ust. 2 lit. b) rozporządzenia (UE) 2018/1725. Dostawcy i potencjalni dostawcy w piaskownicy regulacyjnej w zakresie AI powinni zapewnić odpowiednie zabezpieczenia i współpracować z właściwymi organami, w tym przestrzegać wytycznych tych organów, a także podejmować w dobrej wierze bezzwłoczne działania w celu właściwego ograniczenia wszelkiego zidentyfikowanego znaczącego ryzyka dla bezpieczeństwa, zdrowia i praw podstawowych, jakie może powstać w trakcie rozwoju produktów oraz prowadzenia działań testowych i doświadczalnych w ramach takiej piaskownicy regulacyjnej.
(141)
Jotta voidaan nopeuttaa tämän asetuksen liitteessä lueteltujen suuririskisten tekoälyjärjestelmien kehittämis- ja markkinoille saattamisprosessia, on tärkeää, että tällaisten järjestelmien tarjoajat tai mahdolliset tarjoajat voivat hyötyä myös erityisestä järjestelystä, jossa ne voivat testata näitä järjestelmiä todellisissa olosuhteissa osallistumatta tekoälyn sääntelyn testiympäristöön. Tällaisissa tapauksissa, ottaen huomioon tällaisen testauksen mahdolliset vaikutukset henkilöihin, olisi kuitenkin varmistettava, että tällä asetuksella otetaan käyttöön tarjoajia tai mahdollisia tarjoajia koskevat asianmukaiset ja riittävät takeet ja edellytykset. Näihin takeisiin olisi sisällyttävä muun muassa tietoon perustuvan suostumuksen pyytäminen luonnollisilta henkilöiltä tosielämän olosuhteissa tapahtuvaan testaukseen osallistumiseksi, lukuun ottamatta lainvalvontaa, jossa tietoon perustuvan suostumuksen pyytäminen estäisi tekoälyjärjestelmän testaamisen. Osallistujien antama suostumus tällaiseen testaukseen osallistumisesta tämän asetuksen nojalla on eri kuin rekisteröityjen antama suostumus henkilötietojensa käsittelyyn asiaankuuluvan tietosuojalain nojalla eikä se vaikuta viimeksi mainittuun suostumukseen. Lisäksi on tärkeää minimoida riskit ja mahdollistaa toimivaltaisten viranomaisten suorittama valvonta. Tästä syystä on vaadittava, että mahdolliset tarjoajat toimittavat toimivaltaiselle markkinavalvontaviranomaiselle suunnitelman todellisissa olosuhteissa toteutettavasta testauksesta, rekisteröivät testauksen EU:n tietokannan asiaankuuluviin osioihin joitakin rajoitettuja poikkeuksia lukuun ottamatta, rajaavat ajanjakson, jonka kuluessa testaus voidaan suorittaa, ja edellyttävät lisätakeita sellaisten henkilöiden osalta, jotka kuuluvat tiettyyn haavoittuvassa asemassa olevaan ryhmään, ja kirjallisen sopimuksen, jossa määritellään mahdollisten tarjoajien ja käyttöönottajien tehtävät ja vastuut ja todellisissa olosuhteissa toteutettavaan testaukseen osallistuvan pätevän henkilöstön suorittama valvonta. Lisäksi on aiheellista säätää lisätakeista sen varmistamiseksi, että tekoälyjärjestelmän ennusteet, suositukset ja päätökset voidaan tosiasiallisesti peruuttaa ja jättää huomiotta ja että henkilötiedot suojataan ja että ne poistetaan, kun osallistujat ovat peruuttaneet suostumuksensa testaukseen osallistumisesta, sanotun kuitenkaan rajoittamatta heille unionin tietosuojalainsäädännön mukaisesti rekisteröityinä kuuluvia oikeuksia. Tiedonsiirron osalta on aiheellista säätää, että todellisissa olosuhteissa tapahtuvaa testausta varten kerättyjä ja käsiteltyjä tietoja olisi siirrettävä kolmansiin maihin vain, jos siirrossa noudatetaan unionin oikeuden mukaisesti sovellettavia asianmukaisia takeita, erityisesti unionin tietosuojalainsäädännön mukaisten henkilötietojen siirtoa koskevien perustojen mukaisesti, kun taas muiden kuin henkilötietojen osalta on otettava käyttöön asianmukaiset takeet unionin oikeuden, kuten Euroopan parlamentin ja neuvoston asetusten (EU) 2022/868 (42) ja (EU) 2023/2854 (43), mukaisesti.
(141)
Aby przyspieszyć proces rozwoju i wprowadzania do obrotu systemów AI wysokiego ryzyka wymienionych w załączniku do niniejszego rozporządzenia, ważne jest, aby dostawcy lub potencjalni dostawcy takich systemów mogli korzystać ze specjalnego mechanizmu testowania tych systemów w warunkach rzeczywistych, bez udziału w piaskownicy regulacyjnej w zakresie AI. Jednak w takich przypadkach oraz uwzględniając potencjalne konsekwencje takiego testowania dla osób fizycznych, należy zapewnić, by niniejsze rozporządzenie wprowadzało odpowiednie i wystarczające zabezpieczenia i warunki dotyczące dostawców lub potencjalnych dostawców. Takie zabezpieczenia powinny obejmować między innymi wymóg udzielenia świadomej zgody przez osoby fizyczne, które mają brać udział w testach w warunkach rzeczywistych, z wyjątkiem organów ścigania, gdy konieczność wystąpienia o świadomą zgodę uniemożliwiłaby testowanie systemu AI. Zgoda podmiotów testów na udział w takich testach na podstawie niniejszego rozporządzenia ma odrębny charakter i pozostaje bez uszczerbku dla zgody osób, których dane dotyczą, na przetwarzanie ich danych osobowych na podstawie odpowiedniego prawa o ochronie danych. Ważne jest również, aby zminimalizować ryzyko i umożliwić nadzór ze strony właściwych organów, a zatem zobowiązać potencjalnych dostawców do: przedstawienia właściwemu organowi nadzoru rynku planu testów w warunkach rzeczywistych, rejestrowania testów w specjalnych sekcjach bazy danych UE (z pewnymi ograniczonymi wyjątkami), ustalenia ograniczeń co do okresu, w jakim można przeprowadzać testy, oraz wymagania dodatkowych zabezpieczeń w odniesieniu do osób należących do grup szczególnie wrażliwych, a także pisemnej umowy określającej role i obowiązki potencjalnych dostawców i podmiotów stosujących oraz skutecznego nadzoru ze strony kompetentnego personelu zaangażowanego w testy w warunkach rzeczywistych. Ponadto należy przewidzieć dodatkowe zabezpieczenia w celu zapewnienia, aby predykcje, zalecenia lub decyzje systemu AI mogły zostać skutecznie odwrócone i nie były brane pod uwagę oraz aby dane osobowe były chronione i usuwane, gdy uczestnicy wycofają swoją zgodę na udział w testach, bez uszczerbku dla ich praw jako osób, których dane dotyczą, wynikających z prawa Unii o ochronie danych. W odniesieniu do przekazywania danych należy także przewidzieć, by dane zebrane i przetwarzane do celów testów w warunkach rzeczywistych przekazywano do państw trzecich wyłącznie pod warunkiem wdrożenia odpowiednich zabezpieczeń mających zastosowanie na podstawie prawa Unii, w szczególności zgodnie z podstawami przekazywania danych osobowych na mocy prawa Unii dotyczącego ochrony danych osobowych, a w odniesieniu do danych nieosobowych wprowadzono odpowiednie zabezpieczenia zgodnie z prawem Unii, takim jak rozporządzenia Parlamentu Europejskiego i Rady (UE) 2022/868 (42) i (UE) 2023/2854 (43).
(142)
Jotta voidaan varmistaa, että tekoälyn käyttö johtaa yhteiskunnan ja ympäristön kannalta suotuisiin tuloksiin, jäsenvaltioita kannustetaan tukemaan ja edistämään sellaisten tekoälyratkaisujen tutkimusta ja kehittämistä, joilla tuetaan yhteiskunnan ja ympäristön kannalta suotuisia tuloksia, kuten tekoälypohjaisia ratkaisuja, joilla parannetaan esteettömyyttä vammaisten henkilöiden kannalta, vähennetään sosiaalis-taloudellista eriarvoisuutta tai saavutetaan ympäristötavoitteita, osoittamalla siihen riittävästi resursseja, myös julkista ja unionin rahoitusta, ja ottamalla tässä yhteydessä huomioon erityisesti tällaisiin tavoitteisiin pyrkivät hankkeet, jos se on asianmukaista ja edellyttäen, että ne täyttävät kelpoisuusvaatimukset ja valintaperusteet. Tällaisten hankkeiden olisi perustuttava tekoälyn kehittäjien ja eriarvoisuuteen, syrjimättömyyteen, saavutettavuuteen, kuluttaja-asioihin, ympäristöön ja digitaalisiin oikeuksiin perehtyneiden asiantuntijoiden sekä tiedeyhteisön välisen poikkitieteellisen yhteistyön periaatteeseen.
(142)
W celu zapewnienia, aby AI przynosiła korzyści dla społeczeństwa i środowiska, zachęca się państwa członkowskie do wspierania i promowania badań i rozwoju w dziedzinie rozwiązań w zakresie AI wspierających takie korzyści społeczne i środowiskowe, np. opartych na AI rozwiązań, które zwiększają dostępność dla osób z niepełnosprawnościami, przeciwdziałają nierównościom społeczno-gospodarczym lub służą osiągnięciu celów środowiskowych, przez przydzielanie wystarczających zasobów, w tym finansowania publicznego i unijnego, oraz, w stosownych przypadkach i pod warunkiem spełnienia kryteriów kwalifikowalności i wyboru, przez priorytetowe traktowanie projektów, które służą realizacji takich celów. Projekty takie powinny opierać się na zasadzie współpracy międzydyscyplinarnej między twórcami AI, ekspertami ds. nierówności i niedyskryminacji, dostępności, praw konsumentów, praw środowiskowych i cyfrowych oraz przedstawicielami środowiska akademickiego.
(143)
Innovoinnin edistämiseksi ja suojaamiseksi on tärkeää ottaa erityisesti huomioon pk-yritysten, myös startup-yritysten, intressit tekoälyjärjestelmien tarjoajina ja käyttöönottajina. Tätä varten jäsenvaltioiden olisi kehitettävä kyseisille toimijoille suunnattuja aloitteita, jotka koskevat muun muassa tietämyksen lisäämistä ja tiedotusta. Jäsenvaltioiden olisi annettava niille pk-yrityksille, myös startup-yrityksille, joilla on sääntömääräinen kotipaikka tai sivutoimipiste unionissa, ensisijainen pääsy tekoälyn sääntelyn testiympäristöihin, edellyttäen että ne täyttävät kelpoisuusvaatimukset ja valintaperusteet, mutta jäsenvaltiot eivät saa estää muilta tarjoajilta ja mahdollisilta tarjoajilta pääsyä testiympäristöihin, jos nämä täyttävät samat vaatimukset ja perusteet. Jäsenvaltioiden olisi käytettävä olemassa olevia kanavia ja perustettava tarvittaessa uusia kanavia viestintään pk-yritysten, mukaan lukien startup-yritykset, käyttöönottajat, muut innovoijat ja tarvittaessa paikallisviranomaiset, kanssa, jotta voidaan tukea pk-yrityksiä koko niiden kehityksen ajan antamalla ohjeistusta ja vastaamalla kysymyksiin tämän asetuksen täytäntöönpanosta. Näiden kanavien olisi toimittava tarvittaessa yhteistyössä keskenään synergioiden luomiseksi ja sen varmistamiseksi, että niiden pk-yrityksille, myös startup-yrityksille, ja käyttöönottajille antamat ohjeet ovat yhdenmukaisia. Lisäksi jäsenvaltioiden olisi helpotettava pk-yritysten ja muiden asiaankuuluvien sidosryhmien osallistumista standardien laatimisprosesseihin. Tarjoajina toimivien pk-yritysten, myös startup-yritysten, erityisintressit ja -tarpeet olisi otettava huomioon, kun ilmoitetut laitokset vahvistavat vaatimustenmukaisuuden arvioinnista perittäviä maksuja. Komission olisi arvioitava säännöllisesti sertifioinnista ja vaatimusten noudattamisesta pk-yrityksille, myös startup-yrityksille, aiheutuvia kustannuksia avointen kuulemisten avulla, ja sen olisi pyrittävä alentamaan näitä kustannuksia yhdessä jäsenvaltioiden kanssa. Esimerkiksi pakollisen dokumentaation ja viranomaisviestinnän kääntämisestä voi aiheutua merkittäviä kustannuksia tarjoajille ja muille, etenkin pienemmille toimijoille. Jäsenvaltioiden olisi mahdollisesti varmistettava, että yksi kielistä, jotka ne ovat määrittäneet ja hyväksyneet käytettäväksi asiaankuuluvien tarjoajien dokumentaatiossa ja viestinnässä toimijoiden kanssa, on kieli, jota mahdollisimman monet rajatylittävät käyttöönottajat ymmärtävät. Jotta voidaan vastata pk-yritysten, myös startup-yritysten, erityistarpeisiin, komission olisi tekoälyneuvoston pyynnöstä esitettävä standardoidut mallit tämän asetuksen soveltamisalaan kuuluvia aloja varten. Lisäksi komission olisi täydennettävä jäsenvaltioiden toimia tarjoamalla yhtenäinen tietoalusta, jossa esitetään tätä asetusta koskevia helppokäyttöisiä tietoja kaikille tarjoajille ja käyttöönottajille, järjestämällä asianmukaisia tiedotuskampanjoita tietämyksen lisäämiseksi tästä asetuksesta johtuvista velvoitteista ja arvioimalla ja edistämällä tekoälyjärjestelmiä koskevien julkisten hankintamenettelyjen parhaiden käytäntöjen lähentämistä. Näiden tukitoimien olisi oltava sellaisten keskisuurten yritysten saatavilla, jotka katsottiin viime aikoihin asti komission suosituksen 2003/361/EY (44) liitteessä tarkoitetuiksi pieniksi yrityksiksi, koska tällaisilla uusilla keskisuurilla yrityksillä ei välttämättä aina ole tarvittavia oikeudellisia resursseja ja koulutusta asetuksen asianmukaisen ymmärtämisen ja noudattamisen varmistamiseksi.
(143)
W celu promowania i ochrony innowacji ważne jest szczególne uwzględnienie interesów MŚP, w tym przedsiębiorstw typu start-up, które są dostawcami systemów AI lub podmiotami stosującymi systemy AI. W tym celu państwa członkowskie powinny opracować inicjatywy skierowane do tych operatorów, w tym inicjatywy służące podnoszeniu świadomości i przekazywaniu informacji. Państwa członkowskie powinny zapewniać MŚP, w tym przedsiębiorstwom typu start-up, mającym siedzibę statutową lub oddział w Unii, priorytetowy dostęp do piaskownic regulacyjnych w zakresie AI, pod warunkiem że przedsiębiorstwa te spełniają warunki kwalifikowalności i kryteria wyboru – w sposób, który nie uniemożliwia innym dostawcom i potencjalnym dostawcom dostępu do piaskownic, pod warunkiem spełnienia przez nich tych samych warunków i kryteriów. Państwa członkowskie powinny korzystać z istniejących kanałów komunikacji, a w stosownych przypadkach utworzyć nowy specjalny kanał komunikacji z MŚP, w tym przedsiębiorstwami typu start-up, podmiotami stosującymi, innymi innowacyjnymi podmiotami, a w stosownych przypadkach, z lokalnymi organami publicznymi, aby wspierać MŚP w rozwoju poprzez udzielanie im wskazówek i odpowiadanie na ich pytania dotyczące wykonywania niniejszego rozporządzenia. W stosownych przypadkach kanały powinny ze sobą współpracować, by uzyskać synergię i zapewnić spójność wskazówek dla MŚP, w tym przedsiębiorstw typu start-up, i podmiotów stosujących. Dodatkowo państwa członkowskie powinny ułatwiać udział MŚP i innych odpowiednich zainteresowanych stron w procesie opracowywania norm. Ponadto przy ustalaniu przez jednostki notyfikowane wysokości opłat z tytułu oceny zgodności należy uwzględnić szczególne interesy i potrzeby dostawców, którzy są MŚP, w tym przedsiębiorstwami typu start-up. Komisja powinna regularnie oceniać koszty certyfikacji i zapewnienia zgodności ponoszone przez MŚP, w tym przedsiębiorstwa typu start-up, w drodze przejrzystych konsultacji oraz współpracować z państwami członkowskimi na rzecz obniżenia tych kosztów. Przykładowo koszty tłumaczeń związane z prowadzeniem obowiązkowej dokumentacji i komunikacji z organami mogą stanowić istotny koszt dla dostawców i innych operatorów, w szczególności tych działających na mniejszą skalę. Państwa członkowskie powinny w miarę możliwości zapewnić, aby jednym z języków wskazanych i akceptowanych przez nie do celów dokumentacji prowadzonej przez odpowiednich dostawców oraz komunikacji z operatorami był język powszechnie rozumiany przez możliwie największą liczbę podmiotów stosujących w wymiarze transgranicznym. Aby zaspokoić szczególne potrzeby MŚP, w tym przedsiębiorstw typu start-up, Komisja powinna na wniosek Rady ds. AI zapewnić ujednolicone wzory w obszarach objętych niniejszym rozporządzeniem. Ponadto Komisja powinna w uzupełnieniu wysiłków państw członkowskich dostarczyć jednolitą platformę informacyjną zawierającą łatwe w użyciu informacje dotyczące niniejszego rozporządzenia dla wszystkich dostawców i podmiotów stosujących, organizować odpowiednie kampanie informacyjne w celu podnoszenia świadomości na temat obowiązków wynikających z niniejszego rozporządzenia oraz oceniać i promować zbieżność najlepszych praktyk w procedurach udzielania zamówień publicznych w odniesieniu do systemów AI. Średnie przedsiębiorstwa, które do niedawna kwalifikowały się jako małe przedsiębiorstwa w rozumieniu załącznika do zalecenia Komisji 2003/361/WE (44), powinny mieć dostęp do tych środków wsparcia, ponieważ w niektórych przypadkach te nowe średnie przedsiębiorstwa mogą nie posiadać zasobów prawnych i szkoleniowych niezbędnych do zapewnienia właściwego zrozumienia i zapewnienia zgodności z niniejszym rozporządzeniem.
(144)
Jotta voidaan edistää ja suojella innovointia, tekoälyyn keskittyvän tilauspohjaisen alustan ja kaikkien asiaankuuluvien unionin rahoitusohjelmien ja -hankkeiden, kuten Digitaalinen Eurooppa -ohjelman ja Horisontti Eurooppa -ohjelman, jotka komissio ja jäsenvaltiot panevat täytäntöön unionin tai kansallisella tasolla, olisi tarvittaessa edistettävä tämän asetuksen tavoitteiden saavuttamista.
(144)
W celu promowania i ochrony innowacji do realizacji celów niniejszego rozporządzenia powinny przyczyniać się, w stosownych przypadkach, platforma „Sztuczna inteligencja na żądanie”, wszystkie odpowiednie finansowane przez Unię programy i projekty, takie jak program „Cyfrowa Europa”, „Horyzont Europa”, wdrażane przez Komisję i państwa członkowskie na poziomie Unii lub poziomie krajowym.
(145)
Jotta voidaan minimoida markkinoilla olevan tiedon ja asiantuntemuksen puutteesta aiheutuvat riskit täytäntöönpanolle ja tukea tarjoajia, erityisesti pk-yrityksiä, myös startup-yrityksiä, ja ilmoitettuja laitoksia tämän asetuksen mukaisten velvoitteiden noudattamisessa, tekoälyyn keskittyvän tilauspohjaisen alustan, eurooppalaisten digitaali-innovointikeskittymien sekä komission ja jäsenvaltioiden unionin tai kansallisella tasolla perustamien testaus- ja kokeilulaitosten olisi edistettävä tämän asetuksen täytäntöönpanoa. Tekoälyyn keskittyvä tilauspohjainen alusta, eurooppalaiset digitaali-innovointikeskittymät sekä testaus- ja kokeilulaitokset voivat tehtäviensä ja toimivaltuuksiensa puitteissa antaa erityisesti teknistä ja tieteellistä tukea tarjoajille ja ilmoitetuille laitoksille.
(145)
Aby zminimalizować zagrożenia dla wdrożenia wynikające z braku wiedzy o rynku i jego znajomości, a także aby ułatwić dostawcom, w szczególności MŚP, w tym przedsiębiorstwom typu start-up, i jednostkom notyfikowanym spełnianie obowiązków ustanowionych w niniejszym rozporządzeniu, platforma „Sztuczna inteligencja na żądanie”, europejskie centra innowacji cyfrowych oraz ośrodki testowo-doświadczalne ustanowione przez Komisję i państwa członkowskie na poziomie Unii lub poziomie krajowym powinny przyczyniać się do wykonywania niniejszego rozporządzenia. W ramach swoich zadań i obszarów kompetencji platforma „Sztuczna inteligencja na żądanie”, europejskie centra innowacji cyfrowych oraz ośrodki testowo-doświadczalne są w stanie zapewnić w szczególności wsparcie techniczne i naukowe dostawcom i jednostkom notyfikowanym.
(146)
Jotta voidaan lisäksi ottaa huomioon joidenkin toimijoiden erittäin pieni koko ja varmistaa innovointikustannusten oikeasuhteisuus, on asianmukaista sallia mikroyritysten täyttää yksi eniten kustannuksia aiheuttavista velvoitteista – eli laadunhallintajärjestelmän perustaminen – yksinkertaistetusti, jotta voidaan vähentää niille aiheutuvaa hallinnollista rasitetta ja kustannuksia vaikuttamatta suojelun tasoon ja tarpeeseen noudattaa suuririskisiä tekoälyjärjestelmiä koskevia vaatimuksia. Komission olisi laadittava suuntaviivat, joissa täsmennetään ne laadunhallintajärjestelmän osiot, jotka mikroyritykset voivat täyttää yksinkertaistetusti.
(146)
Ponadto, biorąc pod uwagę bardzo mały rozmiar niektórych operatorów i aby zapewnić proporcjonalność w odniesieniu do kosztów innowacji, należy zezwolić mikroprzedsiębiorstwom na spełnienie jednego z najbardziej kosztownych obowiązków, a mianowicie ustanowienia systemu zarządzania jakością, w sposób uproszczony, co zmniejszy obciążenie administracyjne i koszty ponoszone przez te przedsiębiorstwa bez wpływu na poziom ochrony oraz konieczność zapewnienia zgodności z wymogami dotyczącymi systemów AI wysokiego ryzyka. Komisja powinna opracować wytyczne w celu określenia, które z elementów systemu zarządzania jakością mają być realizowane w ten uproszczony sposób przez mikroprzedsiębiorstwa.
(147)
On aiheellista, että komissio helpottaa mahdollisuuksien mukaan sellaisten elinten, ryhmien ja laboratorioiden mahdollisuuksia käyttää testaus- ja kokeilulaitoksia, jotka on perustettu tai akkreditoitu asiaa koskevan unionin yhdenmukaistamislainsäädännön nojalla ja jotka suorittavat kyseisen unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluvien tuotteiden tai laitteiden vaatimustenmukaisuuden arviointiin liittyviä tehtäviä. Tämä koskee erityisesti asetusten (EU) 2017/745 ja (EU) 2017/746 mukaisia lääkinnällisiä laitteita käsitteleviä asiantuntijapaneeleja, asiantuntijalaboratorioita ja vertailulaboratorioita.
(147)
Komisja powinna w miarę możliwości ułatwiać dostęp do ośrodków testowo-doświadczalnych podmiotom, grupom lub laboratoriom ustanowionym lub akredytowanym na podstawie odpowiedniego unijnego prawodawstwa harmonizacyjnego, wykonującym zadania w kontekście oceny zgodności produktów lub wyrobów objętych tym unijnym prawodawstwem harmonizacyjnym. Dotyczy to w szczególności paneli ekspertów, laboratoriów eksperckich oraz laboratoriów referencyjnych w dziedzinie wyrobów medycznych w rozumieniu rozporządzeń (UE) 2017/745 i (UE) 2017/746.
(148)
Tällä asetuksella olisi vahvistettava hallintokehys, jonka avulla voidaan koordinoida ja tukea tämän asetuksen soveltamista kansallisella tasolla sekä vahvistaa valmiuksia unionin tasolla ja ottaa sidosryhmät mukaan tekoälyn alan toimintaan. Tämän asetuksen tehokas täytäntöönpano ja noudattamisen valvonta edellyttävät hallintokehystä, jonka avulla voidaan koordinoida ja kehittää unionin tason keskitettyä asiantuntemusta. Tekoälytoimisto perustettiin komission päätöksellä (45), ja sen tehtävänä on kehittää unionin asiantuntemusta ja valmiuksia tekoälyn alalla ja edistää tekoälyä koskevan unionin oikeuden täytäntöönpanoa. Jäsenvaltioiden olisi helpotettava tekoälytoimiston työtä, jotta voidaan tukea unionin asiantuntemuksen ja unionin tason valmiuksien kehittämistä ja vahvistaa digitaalisten sisämarkkinoiden toimintaa. Lisäksi olisi perustettava jäsenvaltioiden edustajista koostuva tekoälyneuvosto, tiedeyhteisön yhteen tuova tiedelautakunta ja neuvoa-antava foorumi, jonka kautta sidosryhmät voivat antaa panoksensa tämän asetuksen täytäntöönpanoon unionin ja kansallisella tasolla. Unionin asiantuntemuksen ja valmiuksien kehittämisen olisi sisällettävä myös olemassa olevien resurssien ja asiantuntemuksen käyttö erityisesti synergiassa unionin tasolla tapahtuvan muun lainsäädännön täytäntöönpanon yhteydessä perustettujen rakenteiden ja asiaan liittyvien unionin tason aloitteiden kanssa. Näitä ovat Euroopan suurteholaskennan yhteisyritys ja Digitaalinen Eurooppa -ohjelman mukaiset tekoälyn testaus- ja kokeilulaitokset.
(148)
W niniejszym rozporządzeniu należy ustanowić ramy zarządzania, które umożliwiają koordynację i wspieranie stosowania niniejszego rozporządzenia na poziomie krajowym, a także budowanie zdolności na poziomie Unii i zaangażowanie zainteresowanych stron w dziedzinę AI. Skuteczne wdrożenie i egzekwowanie niniejszego rozporządzenia wymaga ram zarządzania, które umożliwią koordynację i gromadzenie centralnej wiedzy fachowej na poziomie Unii. Misją Urzędu ds. AI, który został ustanowiony decyzją Komisji (45), jest rozwijanie unijnej wiedzy fachowej i unijnych zdolności w dziedzinie AI oraz przyczynianie się do wdrażania prawa Unii dotyczącego AI. Państwa członkowskie powinny ułatwiać Urzędowi ds. AI wykonywanie zadań z myślą o wspieraniu rozwoju unijnej wiedzy fachowej i unijnych zdolności oraz wzmacnianiu funkcjonowania jednolitego rynku cyfrowego. Ponadto należy ustanowić Radę ds. AI składającą się z przedstawicieli państw członkowskich, panel naukowy w celu zaangażowania środowiska naukowego oraz forum doradcze w celu wnoszenia przez zainteresowane strony wkładu w wykonywanie niniejszego rozporządzenia na poziomie Unii i poziomie krajowym. Rozwój unijnej wiedzy fachowej i unijnych zdolności powinien również obejmować wykorzystanie istniejących zasobów i wiedzy fachowej, w szczególności poprzez synergię ze strukturami zbudowanymi w kontekście egzekwowania innych przepisów na poziomie Unii oraz synergię z powiązanymi inicjatywami na poziomie Unii, takimi jak Wspólne Przedsięwzięcie EuroHPC i ośrodki testowo-doświadczalne w dziedzinie AI w ramach programu „Cyfrowa Europa”.
(149)
Tämän asetuksen sujuvan, tehokkaan ja yhdenmukaisen täytäntöönpanon helpottamiseksi olisi perustettava tekoälyneuvosto. Tekoälyneuvoston olisi edustettava tekoälyekosysteemin eri intressejä ja koostuttava jäsenvaltioiden edustajista. Sen olisi vastattava useista neuvoa-antavista tehtävistä, kuten lausuntojen, suositusten ja neuvojen antamisesta ja ohjeiden edistämisestä tämän asetuksen täytäntöönpanoon liittyvissä asioissa, joita ovat täytäntöönpanon valvonta sekä tässä asetuksessa vahvistettuja vaatimuksia koskevat tekniset eritelmät ja voimassa olevat standardit, ja neuvojen antamisesta komissiolle ja jäsenvaltioille ja niiden kansallisille toimivaltaisille viranomaisille tekoälyyn liittyvissä erityiskysymyksissä. Joustavuuden varmistamiseksi jäsenvaltiot voisivat nimittää tekoälyneuvostoon edustajakseen esimerkiksi julkisyhteisöihin kuuluvia henkilöitä, joilla olisi oltava asiaankuuluva pätevyys ja toimivalta, jotta he voivat helpottaa koordinointia kansallisella tasolla ja osallistua tekoälyneuvoston tehtävien suorittamiseen. Tekoälyneuvoston olisi perustettava kaksi pysyvää alaryhmää, jotka tarjoavat alustan yhteistyölle ja viestinnälle markkinavalvontaviranomaisten kesken kysymyksissä, jotka liittyvät markkinavalvontaan, ja ilmoittamisesta vastaavien viranomaisten kesken kysymyksissä, jotka liittyvät ilmoitettuihin laitoksiin. Markkinavalvonnan pysyvän alaryhmän on tarkoitus toimia asetuksen (EU) 2019/1020 30 artiklassa tarkoitettuna hallinnollisen yhteistyön ryhmänä tämän asetuksen osalta. Kyseisen asetuksen 33 artiklan mukaisesti komission olisi tuettava markkinavalvonnan pysyvän alaryhmän toimia toteuttamalla markkina-arviointeja tai -tutkimuksia erityisesti tämän asetuksen sellaisten näkökohtien määrittämiseksi, jotka edellyttävät erityistä ja kiireellistä koordinointia markkinavalvontaviranomaisten kesken. Tekoälyneuvosto voi tarvittaessa perustaa muita pysyviä tai väliaikaisia alaryhmiä tiettyjen kysymysten tarkastelua varten. Tekoälyneuvoston olisi myös tehtävä tarvittaessa yhteistyötä unionin oikeuden puitteissa aktiivisten unionin elinten, asiantuntijaryhmien ja verkostojen kanssa, mukaan lukien erityisesti ne, joiden toiminta liittyy dataa, digitaalisia tuotteita ja palveluja koskevaan unionin oikeuteen.
(149)
Aby ułatwić sprawne, skuteczne i zharmonizowane wykonywanie niniejszego rozporządzenia, należy ustanowić Radę ds. AI. Rada ds. AI powinna odzwierciedlać różne interesy ekosystemu AI i składać się z przedstawicieli państw członkowskich. Rada ds. AI powinna odpowiadać za szereg zadań doradczych, w tym wydawanie opinii lub zaleceń oraz udzielanie porad lub udział w tworzeniu wskazówek w dziedzinach związanych z wykonywaniem niniejszego rozporządzenia, także w kwestiach egzekwowania, specyfikacji technicznych lub istniejących norm dotyczących wymogów ustanowionych w niniejszym rozporządzeniu, jak również za udzielanie porad Komisji oraz państwom członkowskim i ich właściwym organom krajowym w konkretnych kwestiach związanych z AI. Aby zapewnić państwom członkowskim pewną swobodę w zakresie wyznaczania przedstawicieli do Rady ds. AI, takimi przedstawicielami mogą być wszelkie osoby należące do podmiotów publicznych, które powinny mieć odpowiednie kompetencje i uprawnienia, aby ułatwiać koordynację na poziomie krajowym i przyczyniać się do realizacji zadań Rady ds. AI. Rada ds. AI powinna ustanowić dwie stałe podgrupy służące jako platforma współpracy i wymiany między organami nadzoru rynku i organami notyfikującymi w zakresie kwestii dotyczących odpowiednio nadzoru rynku i jednostek notyfikowanych. Stała podgrupa ds. nadzoru rynku powinna do celów niniejszego rozporządzenia pełnić rolę grupy ds. współpracy administracyjnej (ADCO) w rozumieniu art. 30 rozporządzenia (UE) 2019/1020. Zgodnie z art. 33 przywołanego rozporządzenia Komisja powinna wspierać działania stałej podgrupy ds. nadzoru rynku poprzez przeprowadzanie ocen lub badań rynku, w szczególności w celu zidentyfikowania aspektów niniejszego rozporządzenia wymagających szczególnej i pilnej koordynacji między organami nadzoru rynku. W stosownych przypadkach Rada ds. AI może również tworzyć inne stałe lub tymczasowe podgrupy na potrzeby zbadania konkretnych kwestii. Rada ds. AI powinna również w stosownych przypadkach współpracować z odpowiednimi unijnymi organami, grupami ekspertów i sieciami działającymi w kontekście odpowiedniego prawa Unii, w tym w szczególności z tymi, które działają na podstawie odpowiednich przepisów prawa Unii dotyczących danych oraz produktów i usług cyfrowych.
(150)
Jotta voidaan varmistaa sidosryhmien osallistuminen tämän asetuksen täytäntöönpanoon ja soveltamiseen, olisi perustettava neuvoa-antava foorumi, joka neuvoo tekoälyneuvostoa ja komissiota ja antaa niiden käyttöön teknistä asiantuntemusta. Jotta voidaan varmistaa kaupallisia ja ei-kaupallisia intressejä edustavien sidosryhmien monipuolinen ja tasapainoinen edustus ja jotta pk-yritykset ja muut yritykset olisivat monipuolisesti ja tasapuolisesti edustettuina kaupallisten intressien luokassa, neuvoa-antavassa foorumissa olisi oltava jäseniä muun muassa teollisuudesta, startup- ja pk-yrityksistä, tiedeyhteisöstä, kansalaisyhteiskunnasta, johon kuuluvat myös työmarkkinaosapuolet, sekä perusoikeusvirastosta, ENISAsta, Euroopan standardointikomiteasta (CEN), Euroopan sähkötekniikan standardointikomiteasta (Cenelec) ja Euroopan telealan standardointilaitoksesta (ETSI).
(150)
Aby zapewnić zaangażowanie zainteresowanych stron we wdrażanie i stosowanie niniejszego rozporządzenia, należy ustanowić forum doradcze, które ma doradzać Radzie ds. AI i Komisji oraz zapewniać im fachową wiedzę techniczną. Aby zapewnić zróżnicowaną i zrównoważoną reprezentację zainteresowanych stron z uwzględnieniem interesów handlowych i niehandlowych oraz – w ramach kategorii interesów handlowych – w odniesieniu do MŚP i innych przedsiębiorstw, forum doradcze powinno obejmować m.in. przemysł, przedsiębiorstwa typu start-up, MŚP, środowisko akademickie, społeczeństwo obywatelskie, w tym partnerów społecznych, a także Agencję Praw Podstawowych, ENISA, Europejski Komitet Normalizacyjny (CEN), Europejski Komitet Normalizacyjny Elektrotechniki (CENELEC) i Europejski Instytut Norm Telekomunikacyjnych (ETSI).
(151)
Olisi perustettava riippumattomista asiantuntijoista koostuva tiedelautakunta, joka tukee tämän asetuksen täytäntöönpanoa ja noudattamisen valvontaa erityisesti tekoälytoimiston suorittaman yleiskäyttöisten tekoälymallien seurannan osalta. Tiedelautakunnan asiantuntijat olisi valittava tekoälyalan ajantasaisen tieteellisen tai teknisen asiantuntemuksen perusteella, ja heidän olisi suoritettava tehtävänsä puolueettomasti ja objektiivisesti sekä varmistettava tehtäviään ja toimiaan suorittaessaan saamiensa tietojen ja datan luottamuksellisuus. Jotta voidaan lujittaa tämän asetuksen tehokkaan täytäntöönpanon edellyttämiä kansallisia valmiuksia, jäsenvaltioiden olisi voitava pyytää noudattamisen valvontaa varten tukea tiedelautakunnan asiantuntijapoolilta.
(151)
Aby wspierać wdrażanie i egzekwowanie niniejszego rozporządzenia, w szczególności działania monitorujące prowadzone przez Urząd ds. AI w odniesieniu do modeli AI ogólnego przeznaczenia, należy ustanowić panel naukowy złożony z niezależnych ekspertów. Niezależni eksperci tworzący panel naukowy powinni być wybierani na podstawie aktualnej wiedzy naukowej lub technicznej w dziedzinie AI i powinni wykonywać swoje zadania w sposób bezstronny i obiektywny oraz zapewniać poufność informacji i danych uzyskanych w trakcie wykonywania swoich zadań i działań. Aby umożliwić wzmocnienie krajowych zdolności niezbędnych do skutecznego egzekwowania niniejszego rozporządzenia, państwa członkowskie powinny mieć możliwość zwrócenia się o wsparcie do zespołu ekspertów wchodzących w skład panelu naukowego w odniesieniu do ich działań w zakresie egzekwowania przepisów.
(152)
Jotta voidaan tukea asianmukaista noudattamisen valvontaa tekoälyjärjestelmien alalla ja lujittaa jäsenvaltioiden valmiuksia, olisi perustettava unionin tekoälyn testauksen tukirakenteita, jotka annetaan jäsenvaltioiden käyttöön.
(152)
Aby wspierać odpowiednie egzekwowanie w odniesieniu do systemów AI i wzmocnić zdolności państw członkowskich, należy ustanowić unijne struktury wsparcia testowania AI i udostępnić je państwom członkowskim.
(153)
Jäsenvaltioilla on keskeinen rooli tämän asetuksen soveltamisessa ja noudattamisen valvonnassa. Tältä osin kunkin jäsenvaltion olisi nimettävä vähintään yksi ilmoittamisesta vastaava viranomainen ja vähintään yksi markkinavalvontaviranomainen kansallisiksi toimivaltaisiksi viranomaisiksi valvomaan tämän asetuksen soveltamista ja täytäntöönpanoa. Jäsenvaltiot voivat päättää nimittää minkä tahansa julkisyhteisön suorittamaan tässä asetuksessa tarkoitettuja kansallisten toimivaltaisten viranomaisten tehtäviä erityisten kansallisten organisatoristen ominaisuuksiensa ja tarpeidensa mukaisesti. Jotta voidaan lisätä organisoinnin tehokkuutta jäsenvaltioissa ja perustaa keskitetty yhteyspiste yleisölle ja muille vastaaville tahoille jäsenvaltioissa ja unionissa, kunkin jäsenvaltion olisi nimettävä markkinavalvontaviranomainen, joka toimii keskitettynä yhteyspisteenä.
(153)
Państwa członkowskie odgrywają kluczową rolę w stosowaniu i egzekwowaniu niniejszego rozporządzenia. W tym zakresie każde państwo członkowskie powinno wyznaczyć co najmniej jedną jednostkę notyfikującą i co najmniej jeden organ nadzoru ryku jako właściwe organy krajowe do celów sprawowania nadzoru nad stosowaniem i wykonywaniem niniejszego rozporządzenia. Państwa członkowskie mogą podjąć decyzję o wyznaczeniu dowolnego rodzaju podmiotu publicznego do wykonywania zadań właściwych organów krajowych w rozumieniu niniejszego rozporządzenia, zgodnie z ich określonymi krajowymi cechami organizacyjnymi i potrzebami. Aby zwiększyć efektywność organizacyjną po stronie państw członkowskich oraz ustanowić pojedynczy punkt kontaktowy dla ogółu społeczeństwa oraz innych partnerów na poziomie państw członkowskich i na poziomie Unii, każde państwo członkowskie powinno wyznaczyć organ nadzoru rynku, który pełniłby funkcję pojedynczego punktu kontaktowego.
(154)
Kyseisten kansallisten toimivaltaisten viranomaisten olisi käytettävä valtuuksiaan itsenäisesti, puolueettomasti ja ilman ennakkoasenteita, jotta voidaan turvata objektiivisuusperiaatteen noudattaminen niiden toiminnassa ja tehtävien hoitamisessa ja varmistaa tämän asetuksen soveltaminen ja täytäntöönpano. Viranomaisten henkilöstön olisi pidätyttävä kaikesta toiminnasta, joka on ristiriidassa sen tehtävien kanssa, ja siihen olisi sovellettava tämän asetuksen mukaisia luottamuksellisuussääntöjä.
(154)
Właściwe organy krajowe powinny wykonywać swoje uprawnienia w sposób niezależny, bezstronny i wolny od uprzedzeń, aby zagwarantować przestrzeganie zasady obiektywności swoich działań i zadań oraz zapewnić stosowanie i wykonywanie niniejszego rozporządzenia. Członkowie tych organów powinni powstrzymać się od wszelkich działań niezgodnych z ich obowiązkami i powinni podlegać zasadom poufności na mocy niniejszego rozporządzenia.
(155)
Sen varmistamiseksi, että suuririskisten tekoälyjärjestelmien tarjoajat voivat ottaa huomioon suuririskisten tekoälyjärjestelmien käytöstä saadut kokemukset järjestelmiensä ja suunnittelu- ja kehitysprosessiensa parantamiseksi ja toteuttaa ajoissa kaikki mahdolliset korjaavat toimet, kaikilla tarjoajilla olisi oltava käytössä markkinoille saattamisen jälkeinen seurantajärjestelmä. Markkinoille saattamisen jälkeiseen seurantaan olisi tarvittaessa sisällyttävä analyysi vuorovaikutuksesta muiden tekoälyjärjestelmien, myös muiden laitteiden ja ohjelmistojen, kanssa. Markkinoille saattamisen jälkeisen seurannan ei pitäisi kattaa niiden käyttöönottajien arkaluonteisia operatiivisia tietoja, jotka ovat lainvalvontaviranomaisia. Tämä järjestelmä on keskeisessä asemassa myös sen varmistamisessa, että riskeihin, joita voi aiheutua tekoälyjärjestelmistä, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen, voidaan puuttua tehokkaammin ja oikea-aikaisemmin. Tässä yhteydessä olisi myös edellytettävä, että tarjoajilla on käytössä järjestelmä, jolla ne voivat ilmoittaa asiaankuuluville viranomaisille kaikista vakavista vaaratilanteista, jotka ovat seurausta niiden tekoälyjärjestelmien käytöstä, kuten vaaratilanne tai toimintahäiriö, joka johtaa kuolemaan tai vakavaan terveysvahinkoon, vakava tai peruuttamaton häiriö kriittisen infrastruktuurin hallinnassa ja toiminnassa, perusoikeuksien suojaamiseen tarkoitettujen unionin oikeuden mukaisten velvoitteiden rikkominen tai vakava vahinko omaisuudelle tai ympäristölle.
(155)
W celu zapewnienia, aby dostawcy systemów AI wysokiego ryzyka mogli wykorzystywać doświadczenia związane ze stosowaniem systemów AI wysokiego ryzyka do ulepszenia swoich systemów oraz procesu projektowania i rozwoju lub byli w stanie odpowiednio szybko podejmować wszelkie możliwe działania naprawcze, każdy dostawca powinien wdrożyć system monitorowania po wprowadzeniu do obrotu. W stosownych przypadkach monitorowanie po wprowadzeniu do obrotu powinno obejmować analizę interakcji z innymi systemami AI, w tym z innymi urządzeniami i oprogramowaniem. Monitorowanie po wprowadzeniu do obrotu nie obejmuje wrażliwych danych operacyjnych podmiotów stosujących, które są organami ścigania. System ten ma również zasadnicze znaczenie dla zapewnienia skuteczniejszego i terminowego przeciwdziałania możliwym pojawiającym się ryzykom związanym z systemami AI, które nadal „uczą się” po wprowadzeniu do obrotu lub oddaniu do użytku. W tym kontekście dostawcy powinni być również zobowiązani do wdrożenia systemu zgłaszania odpowiednim organom wszelkich poważnych incydentów zaistniałych w związku z wykorzystaniem ich systemów AI, tj. incydentu lub nieprawidłowego działania prowadzącego do śmierci lub poważnej szkody dla zdrowia, poważnych i nieodwracalnych zakłóceń w zarządzaniu infrastrukturą krytyczną i jej działaniu, naruszeń obowiązków ustanowionych w prawie Unii, których celem jest ochrona praw podstawowych, lub poważnych szkód majątkowych lub środowiskowych.
(156)
Jotta voidaan varmistaa tässä asetuksessa, joka on osa unionin yhdenmukaistamislainsäädäntöä, vahvistettujen vaatimusten ja velvollisuuksien asianmukainen ja tehokas täytäntöönpano, asetuksella (EU) 2019/1020 perustettua markkinavalvontaa ja tuotteiden vaatimustenmukaisuutta koskevaa järjestelmää olisi sovellettava kokonaisuudessaan. Tämän asetuksen mukaisesti nimetyillä markkinavalvontaviranomaisilla olisi oltava kaikki tässä asetuksessa ja asetuksessa (EU) 2019/1020 säädetyt täytäntöönpanovaltuudet, ja niiden olisi käytettävä valtuuksiaan ja suoritettava tehtävänsä itsenäisesti, puolueettomasti ja ilman ennakkokäsityksiä. Vaikka suurimpaan osaan tekoälyjärjestelmiä ei sovelleta tämän asetuksen mukaisia erityisvaatimuksia tai -velvoitteita, markkinavalvontaviranomaiset voivat toteuttaa tekoälyjärjestelmiä koskevia toimenpiteitä, jos järjestelmistä aiheutuu tämän asetuksen mukainen riski. Kun otetaan huomioon tämän asetuksen soveltamisalaan kuuluvien unionin toimielinten, virastojen ja elinten erityisluonne, on aiheellista nimetä niiden toimivaltaiseksi markkinavalvontaviranomaiseksi Euroopan tietosuojavaltuutettu. Tämä ei saisi vaikuttaa jäsenvaltioiden suorittamaan kansallisten toimivaltaisten viranomaisten nimeämiseen. Markkinavalvontatoimet eivät saisi vaikuttaa valvottujen yhteisöjen kykyyn suorittaa tehtävänsä riippumattomasti, kun tällaista riippumattomuutta edellytetään unionin oikeudessa.
(156)
Aby zapewnić odpowiednie i skuteczne egzekwowanie wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, które należy do unijnego prawodawstwa harmonizacyjnego, pełne zastosowanie powinien mieć system nadzoru rynku i zgodności produktów ustanowiony rozporządzeniem (UE) 2019/1020. Organy nadzoru rynku wyznaczone zgodnie z niniejszym rozporządzeniem powinny mieć wszystkie uprawnienia w zakresie egzekwowania wymogów i obowiązków ustanowione w niniejszym rozporządzeniu oraz z rozporządzenia (UE) 2019/1020 i powinny wykonywać swoje uprawnienia i obowiązki w sposób niezależny, bezstronny i wolny od uprzedzeń. Chociaż większość systemów AI nie podlega szczególnym wymogom i obowiązkom na podstawie niniejszego rozporządzenia, organy nadzoru rynku mogą podejmować środki w odniesieniu do wszystkich systemów AI, jeżeli zgodnie z niniejszym rozporządzeniem stwarzają one ryzyko. Z uwagi na szczególny charakter instytucji, organów i jednostek organizacyjnych Unii objętych zakresem stosowania niniejszego rozporządzenia, należy wyznaczyć Europejskiego Inspektora Ochrony Danych jako właściwy dla nich organ nadzoru rynku. Powinno to pozostawać bez uszczerbku dla wyznaczenia właściwych organów krajowych przez państwa członkowskie. Działania w zakresie nadzoru rynku nie powinny wpływać na zdolność nadzorowanych podmiotów do niezależnego wypełniania ich zadań, w przypadku gdy taka niezależność jest wymagana prawem Unii.
(157)
Tämä asetus ei rajoita perusoikeuksien suojelusta annetun unionin oikeuden soveltamista valvovien asiaankuuluvien kansallisten viranomaisten tai elinten, mukaan lukien tasa-arvoelimet ja tietosuojaviranomaiset, toimivaltaa, tehtäviä, valtuuksia ja riippumattomuutta. Näiden kansallisten viranomaisten ja elinten olisi myös voitava saada käyttöönsä kaikki tämän asetuksen nojalla laadittu dokumentaatio, jos se on tarpeen niiden toimeksiannon kannalta. Olisi otettava käyttöön erityinen suojamenettely, jolla varmistetaan riittävä ja oikea-aikainen täytäntöönpano sellaisten tekoälyjärjestelmien osalta, joihin liittyy terveyteen, turvallisuuteen tai perusoikeuksiin kohdistuva riski. Tällaisia riskin aiheuttavia tekoälyjärjestelmiä koskevaa menettelyä olisi sovellettava suuririskisiin tekoälyjärjestelmiin, joihin liittyy riski, kiellettyihin järjestelmiin, jotka on saatettu markkinoille tai otettu käyttöön tai joita käytetään tässä asetuksessa säädettyjen käytäntöjä koskevien kieltojen vastaisesti, ja tekoälyjärjestelmiin, jotka on asetettu saataville tässä asetuksessa säädettyjen avoimuusvaatimusten vastaisesti ja joihin liittyy riski.
(157)
Niniejsze rozporządzenie pozostaje bez uszczerbku dla kompetencji, zadań, uprawnień i niezależności odpowiednich krajowych organów lub podmiotów publicznych, które nadzorują stosowanie prawa Unii w zakresie ochrony praw podstawowych, w tym organów ds. równości i organów ochrony danych. W przypadku gdy jest to niezbędne do wykonywania ich mandatu, te krajowe organy lub podmioty publiczne powinny również mieć dostęp do wszelkiej dokumentacji sporządzonej na podstawie niniejszego rozporządzenia. Należy ustanowić szczególną procedurę ochronną, aby zapewnić odpowiednie i terminowe egzekwowanie przepisów niniejszego rozporządzenia w odniesieniu do systemów AI stwarzających ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych. Procedurę dotyczącą takich systemów AI stwarzających ryzyko należy stosować w odniesieniu do systemów AI wysokiego ryzyka stwarzających ryzyko, zakazanych systemów, które zostały wprowadzone do obrotu, oddane do użytku lub są wykorzystywane z naruszeniem zasad dotyczących zakazanych praktyk ustanowionych w niniejszym rozporządzeniu, oraz systemów AI, które zostały udostępnione z naruszeniem ustanowionych w niniejszym rozporządzeniu wymogów przejrzystości i które stwarzają ryzyko.
(158)
Rahoituspalveluja koskevaan unionin oikeuteen sisältyy sisäistä hallintoa ja riskinhallintaa koskevia säännöksiä ja vaatimuksia, joita sovelletaan säänneltyihin rahoituslaitoksiin niiden tarjotessa kyseisiä palveluja, myös silloin, kun ne käyttävät tekoälyjärjestelmiä. Jotta voidaan varmistaa tämän asetuksen mukaisten velvoitteiden ja rahoituspalveluja koskevan unionin säädösten asiaa koskevien sääntöjen ja vaatimusten johdonmukainen soveltaminen ja täytäntöönpano, rahoituspalvelulainsäädännön valvonnasta ja täytäntöönpanosta vastaavat toimivaltaiset viranomaiset, sellaisina kuin ne on määritelty Euroopan parlamentin ja neuvoston asetuksessa (EU) N:o 575/2013 (46) ja Euroopan parlamentin ja neuvoston direktiiveissä 2008/48/EY (47), 2009/138/EY (48), 2013/36/EU (49), 2014/17/EU (50) ja (EU) 2016/97 (51), olisi nimettävä toimivaltuuksiensa puitteissa toimivaltaisiksi viranomaisiksi valvomaan tämän asetuksen täytäntöönpanoa, myös markkinavalvontatoimia, säänneltyjen ja valvottujen rahoituslaitosten tarjoamien tai käyttämien tekoälyjärjestelmien osalta, elleivät jäsenvaltiot päätä nimetä muuta viranomaista täyttämään nämä markkinavalvontatehtävät. Näillä toimivaltaisilla viranomaisilla olisi oltava kaikki tämän asetuksen ja asetuksen (EU) 2019/1020 mukaiset valtuudet valvoa tämän asetuksen vaatimusten ja velvoitteiden noudattamista, mukaan lukien valtuudet toteuttaa jälkikäteen markkinavalvontatoimia, jotka voidaan integroida tarvittaessa niiden olemassa oleviin asiaankuuluvan unionin rahoituspalvelulainsäädännön mukaisiin valvontamekanismeihin ja -menettelyihin. On aiheellista säätää, että kun ne toimivat tämän asetuksen mukaisina markkinavalvontaviranomaisina, kansallisten viranomaisten, jotka vastaavat sellaisten direktiivillä 2013/36/EU säänneltyjen luottolaitosten valvonnasta, jotka osallistuvat neuvoston asetuksella (EU) N:o 1024/2013 (52) perustettuun yhteiseen valvontamekanismiin, olisi ilmoitettava viipymättä Euroopan keskuspankille kaikki markkinavalvontatoimiensa yhteydessä määrittämät tiedot, joilla voi olla merkitystä Euroopan keskuspankin vakavaraisuuden valvontatehtäville sellaisina kuin ne määritetään kyseisessä asetuksessa. Jotta voidaan edelleen lisätä johdonmukaisuutta tämän asetuksen ja direktiivillä 2013/36/EU säänneltyihin luottolaitoksiin sovellettavien sääntöjen välillä, direktiivin 2013/36/EU mukaisiin nykyisiin velvoitteisiin ja menettelyihin on aiheellista sisällyttää myös jotkin tarjoajien menettelylliset velvoitteet, jotka liittyvät riskinhallintaan, markkinoille saattamisen jälkeiseen seurantaan ja dokumentaatioon. Päällekkäisyyksien välttämiseksi olisi säädettävä myös rajoitettuja poikkeuksia tarjoajien laadunhallintajärjestelmään ja suuririskisten tekoälyjärjestelmien käyttöönottajille asetettuun seurantavelvoitteeseen siltä osin kuin niitä sovelletaan direktiivillä 2013/36/EU säänneltyihin luottolaitoksiin. Samaa järjestelyä olisi sovellettava direktiivin 2009/138/EY mukaisiin vakuutus- ja jälleenvakuutusyrityksiin ja vakuutushallintayhtiöihin ja direktiivin (EU) 2016/97 mukaisiin vakuutusedustajiin ja muun tyyppisiin rahoituslaitoksiin, joihin sovelletaan asiaankuuluvan unionin rahoituspalvelulainsäädännön mukaisesti vahvistettuja sisäisiä hallintojärjestelyjä tai -prosesseja koskevia vaatimuksia, jotta voidaan varmistaa johdonmukaisuus ja yhdenvertainen kohtelu rahoitusalalla.
(158)
Przepisy prawa Unii dotyczące usług finansowych obejmują zasady i wymogi dotyczące zarządzania wewnętrznego i zarządzania ryzykiem, które mają zastosowanie do regulowanych instytucji finansowych podczas świadczenia tych usług, w tym wówczas, gdy korzystają one z systemów AI. Aby zapewnić spójne stosowanie i egzekwowanie obowiązków ustanowionych w niniejszym rozporządzeniu oraz odpowiednich zasad i wymogów ustanowionych w unijnych aktach prawnych dotyczących usług finansowych, właściwe organy do celów nadzoru nad tymi aktami prawnymi i ich egzekwowania, w szczególności właściwe organy zdefiniowane w rozporządzeniu Parlamentu Europejskiego i Rady (UE) nr 575/2013 (46) oraz dyrektywach Parlamentu Europejskiego i Rady 2008/48/WE (47), 2009/138/WE (48), 2013/36/UE (49), 2014/17/UE (50) i (UE) 2016/97 (51), należy wyznaczyć w ramach ich odpowiednich kompetencji jako właściwe organy do celów nadzoru nad wykonywaniem niniejszego rozporządzenia, w tym do celów działań w zakresie nadzoru rynku, w odniesieniu do systemów AI dostarczanych lub wykorzystywanych przez objęte regulacją i nadzorem instytucje finansowe, chyba że państwa członkowskie zdecydują się wyznaczyć inny organ do wypełniania tych zadań związanych z nadzorem rynku. Te właściwe organy powinny mieć wszystkie uprawnienia wynikające z niniejszego rozporządzenia i rozporządzenia (UE) 2019/1020 w celu egzekwowania wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, w tym uprawnienia do prowadzenia działań ex post w zakresie nadzoru rynku, które można w stosownych przypadkach włączyć do ich istniejących mechanizmów i procedur nadzorczych na podstawie odpowiednich przepisów prawa Unii dotyczących usług finansowych. Należy przewidzieć, że – działając w charakterze organów nadzoru rynku na podstawie niniejszego rozporządzenia –krajowe organy odpowiedzialne za nadzór nad instytucjami kredytowymi uregulowanymi w dyrektywie 2013/36/UE, które uczestniczą w jednolitym mechanizmie nadzorczym ustanowionym rozporządzeniem Rady (UE) nr 1024/2013 (52), powinny niezwłocznie przekazywać Europejskiemu Bankowi Centralnemu wszelkie informacje zidentyfikowane w trakcie prowadzonych przez siebie działań w zakresie nadzoru rynku, które potencjalnie mogą mieć znaczenie dla Europejskiego Banku Centralnego z punktu widzenia określonych w tym rozporządzeniu zadań EBC dotyczących nadzoru ostrożnościowego. Aby dodatkowo zwiększyć spójność między niniejszym rozporządzeniem a przepisami mającymi zastosowanie do instytucji kredytowych uregulowanych w dyrektywie 2013/36/UE, niektóre obowiązki proceduralne dostawców związane z zarządzaniem ryzykiem, monitorowaniem po wprowadzeniu do obrotu oraz prowadzeniem dokumentacji należy również włączyć do istniejących obowiązków i procedur przewidzianych w dyrektywie 2013/36/UE. Aby uniknąć nakładania się przepisów, należy również przewidzieć ograniczone odstępstwa dotyczące systemu zarządzania jakością prowadzonego przez dostawców oraz obowiązku monitorowania nałożonego na podmioty stosujące systemy AI wysokiego ryzyka w zakresie, w jakim mają one zastosowanie do instytucji kredytowych uregulowanych w dyrektywie 2013/36/UE. Ten sam system powinien mieć zastosowanie do zakładów ubezpieczeń i zakładów reasekuracji oraz ubezpieczeniowych spółek holdingowych na podstawie dyrektywy 2009/138/WE oraz pośredników ubezpieczeniowych na mocy dyrektywy (UE) 2016/97, a także do innych rodzajów instytucji finansowych objętych wymogami dotyczącymi systemu zarządzania wewnętrznego, uzgodnień lub procedur ustanowionych zgodnie z odpowiednimi przepisami prawa Unii dotyczącymi usług finansowych, w celu zapewnienia spójności i równego traktowania w sektorze finansowym.
(159)
Kullakin sellaisten biometriikan alan suuririskisten tekoälyjärjestelmien markkinavalvontaviranomaisella, jotka on lueteltu tämän asetuksen liitteessä, siltä osin kuin kyseisiä järjestelmiä käytetään lainvalvonnan, muuttoliikkeen hallinnan, turvapaikka-asioiden ja rajavalvonnan tarkoituksiin tai oikeudenkäytössä ja demokraattisissa prosesseissa, olisi oltava tehokkaat tutkinta- ja korjaavat valtuudet, mukaan lukien ainakin valtuudet saada pääsy kaikkiin käsiteltäviin henkilötietoihin ja kaikkiin sen tehtävien suorittamisen kannalta tarvittaviin tietoihin. Markkinavalvontaviranomaisten olisi voitava käyttää valtuuksiaan täysin riippumattomasti. Mahdollisten rajoitusten, joita tässä asetuksessa asetetaan markkinaviranomaisten pääsylle arkaluonteisiin operatiivisiin tietoihin, ei pitäisi vaikuttaa niille direktiivillä (EU) 2016/680 annettuihin valtuuksiin. Tässä asetuksessa säädettyjen poikkeusten, jotka koskevat tietojen luovuttamista kansallisille tietosuojaviranomaisille, ei pitäisi vaikuttaa näiden viranomaisten nykyisiin tai tuleviin valtuuksiin tämän asetuksen soveltamisalan ulkopuolella.
(159)
Każdy organ nadzoru rynku ds. systemów AI wysokiego ryzyka w obszarze danych biometrycznych, wymienionych w załączniku do niniejszego rozporządzenia, o ile systemy te są wykorzystywane do celów ścigania przestępstw, zarządzania migracją, azylem i kontrolą graniczną lub do celów sprawowania wymiaru sprawiedliwości i procesów demokratycznych, powinien dysponować skutecznymi uprawnieniami do prowadzenia postępowań i uprawnieniami naprawczymi, w tym co najmniej uprawnieniami do uzyskania dostępu do wszystkich przetwarzanych danych osobowych oraz do wszelkich informacji niezbędnych do wykonywania jego zadań. Organy nadzoru rynku powinny mieć możliwość wykonywania swoich uprawnień, działając w sposób całkowicie niezależny. Wszelkie ograniczenia dostępu tych organów do wrażliwych danych operacyjnych na mocy niniejszego rozporządzenia powinny pozostawać bez uszczerbku dla uprawnień przyznanych im na mocy dyrektywy (UE) 2016/680. Żadne wyłączenie dotyczące ujawniania danych krajowym organom ochrony danych na mocy niniejszego rozporządzenia nie powinno mieć wpływu na obecne lub przyszłe uprawnienia tych organów wykraczające poza zakres niniejszego rozporządzenia.
(160)
Markkinavalvontaviranomaisten ja komission olisi voitava ehdottaa yhteisiä toimia, myös yhteisiä tutkimuksia, jotka markkinavalvontaviranomaiset toteuttavat itse tai yhdessä komission kanssa ja joiden tavoitteena on edistää vaatimusten noudattamista, havaita vaatimusten noudattamatta jättäminen, lisätä tietämystä ja antaa neuvoja tähän asetukseen liittyvistä asioista ja niistä suuririskisten tekoälyjärjestelmien luokista, joihin on todettu liittyvän vakava riski kahdessa tai useammassa jäsenvaltiossa. Vaatimusten noudattamista edistävät toimet olisi toteutettava asetuksen (EU) 2019/1020 9 artiklan mukaisesti. Tekoälytoimiston olisi annettava koordinointitukea yhteisiä tutkimuksia varten.
(160)
Organy nadzoru rynku i Komisja powinny mieć możliwość proponowania wspólnych działań, w tym wspólnych postępowań, które mają być prowadzone przez organy nadzoru rynku lub organy nadzoru rynku wspólnie z Komisją, których celem jest promowanie zgodności, wykrywanie niezgodności, podnoszenie świadomości i zapewnianie wytycznych dotyczących niniejszego rozporządzenia w odniesieniu do konkretnych kategorii systemów AI wysokiego ryzyka, w przypadku których stwierdzono, że stwarzają poważne ryzyko w co najmniej dwóch państwach członkowskich. Wspólne działania na rzecz promowania zgodności należy prowadzić zgodnie z art. 9 rozporządzenia (UE) 2019/1020. Urząd ds. AI powinien zapewniać wsparcie w zakresie koordynacji wspólnych postępowań.
(161)
On aiheellista selventää unionin ja kansallisen tason vastuut ja toimivalta niiden tekoälyjärjestelmien osalta, jotka perustuvat yleiskäyttöisiin tekoälymalleihin. Kun tekoälyjärjestelmä perustuu yleiskäyttöiseen tekoälymalliin ja kun mallia ja järjestelmää tarjoaa sama tarjoaja, valvonta olisi päällekkäisten toimivaltuuksien välttämiseksi toteutettava unionin tasolla tekoälytoimistossa, jolla olisi tätä tarkoitusta varten oltava asetuksessa (EU) 2019/1020 tarkoitetun markkinavalvontaviranomaisen valtuudet. Kaikissa muissa tapauksissa tekoälyjärjestelmien valvonnasta vastaavat kansalliset markkinavalvontaviranomaiset. Niiden yleiskäyttöisten tekoälymallien osalta, joita käyttöönottajat voivat käyttää suoraan vähintään yhteen suuririskiseksi luokiteltuun tarkoitukseen, markkinavalvontaviranomaisten olisi kuitenkin tehtävä yhteistyötä tekoälytoimiston kanssa vaatimustenmukaisuuden arviointien suorittamisessa ja ilmoitettava arviointien tuloksista tekoälyneuvostolle ja muille markkinavalvontaviranomaisille. Lisäksi markkinavalvontaviranomaisten olisi voitava pyytää apua tekoälytoimistolta, jos ne eivät pysty saattamaan päätökseen suuririskistä tekoälyjärjestelmää koskevaa tutkintaa, koska niillä ei ole pääsyä tiettyihin tietoihin, jotka liittyvät yleiskäyttöiseen tekoälymalliin, jonka pohjalta suuririskinen tekoälyjärjestelmä on rakennettu. Tällaisissa tapauksissa olisi sovellettava soveltuvin osin asetuksen (EU) 2019/1020 VI luvussa säädettyä rajatylittävän keskinäisen avunannon menettelyä.
(161)
Konieczne jest wyjaśnienie odpowiedzialności i kompetencji na poziomie Unii i poziomie krajowym w odniesieniu do systemów AI, które opierają się na modelach AI ogólnego przeznaczenia. Aby uniknąć nakładania się kompetencji, w przypadku gdy system AI opiera się na modelu AI ogólnego przeznaczenia, a model i system są dostarczone przez tego samego dostawcę, nadzór powinien odbywać się na poziomie Unii za pośrednictwem Urzędu ds. AI, który w tym celu powinien posiadać uprawnienia organu nadzoru rynku w rozumieniu rozporządzenia (UE) 2019/1020. We wszystkich innych przypadkach krajowe organy nadzoru rynku pozostają odpowiedzialne za nadzór nad systemami AI. Natomiast w przypadku systemów AI ogólnego przeznaczenia, które mogą być wykorzystywane bezpośrednio przez podmioty stosujące do co najmniej jednego celu zaklasyfikowanego jako cel wysokiego ryzyka, organy nadzoru rynku powinny współpracować z Urzędem ds. AI przy prowadzeniu ocen zgodności i by odpowiednio informować Radę ds. AI i inne organy nadzoru rynku. Ponadto organy nadzoru rynku powinny mieć możliwość zwrócenia się o pomoc do Urzędu ds. AI, jeżeli organ nadzoru rynku nie jest w stanie zakończyć postępowania w sprawie systemu AI wysokiego ryzyka ze względu na niemożność dostępu do niektórych informacji związanych z modelem AI ogólnego przeznaczenia, na którym opiera się ten system AI wysokiego ryzyka. W takich przypadkach powinna mieć zastosowanie odpowiednio procedura dotycząca wzajemnej pomocy transgranicznej określona w rozdziale VI rozporządzenia (UE) 2019/1020.
(162)
Jotta unionin tason keskitetystä asiantuntemuksesta ja unionin tason synergioista saataisiin paras hyöty, yleiskäyttöisten tekoälymallien tarjoajien valvonnan ja niiden velvoitteiden noudattamisen valvonnan olisi kuuluttava komission toimivaltaan. Tekoälytoimiston olisi voitava toteuttaa kaikki tarvittavat toimet tämän asetuksen tehokkaan täytäntöönpanon seuraamiseksi yleiskäyttöisten tekoälymallien osalta. Sen olisi voitava tutkia yleiskäyttöisten tekoälymallien tarjoajia koskevien sääntöjen mahdollisia rikkomisia sekä omasta aloitteestaan seurantatoimiensa tulosten perusteella tai markkinavalvontaviranomaisten pyynnöstä tässä asetuksessa säädettyjen edellytysten mukaisesti. Jotta voidaan tukea tekoälytoimiston suorittamaa tehokasta seurantaa, tekoälytoimiston olisi tarjottava ketjun loppupään toimijoille mahdollisuus tehdä valituksia yleiskäyttöisten tekoälymallien ja -järjestelmien tarjoajia koskevien sääntöjen mahdollisista rikkomisista.
(162)
Aby jak najlepiej wykorzystać scentralizowaną unijną wiedzę fachową i synergie na poziomie Unii, uprawnienia w zakresie nadzoru i egzekwowania obowiązków spoczywających na dostawcach modeli AI ogólnego przeznaczenia powinny należeć do kompetencji Komisji. Urząd ds. AI powinien mieć możliwość prowadzenia wszelkich niezbędnych działań w celu monitorowania skutecznego wykonywania niniejszego rozporządzenia w odniesieniu do modeli AI ogólnego przeznaczenia. Powinien mieć możliwość prowadzenia postępowań w sprawie ewentualnych naruszeń przepisów dotyczących dostawców modeli AI ogólnego przeznaczenia zarówno z własnej inicjatywy, na podstawie wyników swoich działań monitorujących, jak i na wniosek organów nadzoru rynku zgodnie z warunkami określonymi w niniejszym rozporządzeniu. W celu wsparcia skutecznego monitorowania Urząd ds. AI powinien ustanowić możliwość składania przez dostawców niższego szczebla skarg na dostawców modeli i systemów AI ogólnego przeznaczenia dotyczących ewentualnych naruszeń przepisów.
(163)
Jotta täydennettäisiin yleiskäyttöisten tekoälymallien hallintojärjestelmiä, tiedelautakunnan olisi tuettava tekoälytoimiston seurantatoimia ja se voi tietyissä tapauksissa toimittaa tekoälytoimistolle perusteltuja varoituksia, joilla käynnistetään jatkotoimia, kuten tutkimuksia. Näin olisi oltava silloin, kun tiedelautakunnalla on aihetta epäillä, että yleiskäyttöinen tekoälymalli aiheuttaa konkreettisen ja tunnistettavan riskin unionin tasolla. Näin olisi oltava myös silloin, kun tiedelautakunnalla on aihetta epäillä, että yleiskäyttöinen tekoälymalli täyttää perusteet, joiden mukaisesti se olisi luokiteltava yleiskäyttöiseksi tekoälymalliksi, johon liittyy systeeminen riski. Jotta tiedelautakunta saisi näiden tehtäviensä suorittamiseen tarvittavat tiedot, olisi perustettava mekanismi, jonka avulla tiedelautakunta voi pyytää komissiota vaatimaan tarjoajalta asiakirjoja tai tietoja.
(163)
W celu uzupełnienia systemów zarządzania modelami AI ogólnego przeznaczenia panel naukowy powinien wspierać działania monitorujące Urzędu ds. AI i może, w niektórych przypadkach, przekazywać Urzędowi ds. AI ostrzeżenia kwalifikowane, które uruchamiają działania następcze, takie jak postępowania. Powinno to mieć miejsce w przypadku, gdy panel naukowy ma powody, by podejrzewać, że model AI ogólnego przeznaczenia stwarza konkretne i możliwe do zidentyfikowania ryzyko na poziomie Unii. Ponadto powinno to mieć miejsce w przypadku, gdy panel naukowy ma powody, by podejrzewać, że model AI ogólnego przeznaczenia spełnia kryteria, które prowadziłyby do zaklasyfikowania go jako modelu AI ogólnego przeznaczenia z ryzykiem systemowym. Aby panel naukowy mógł dysponować informacjami niezbędnymi do wykonywania tych zadań, powinien istnieć mechanizm, w ramach którego panel naukowy może zwrócić się do Komisji, aby wystąpiła do dostawcy z wnioskiem o przedstawienie dokumentacji lub informacji.
(164)
Tekoälytoimiston olisi voitava toteuttaa tarvittavat toimet seuratakseen tässä asetuksessa säädettyjen yleiskäyttöisten tekoälymallien tarjoajia koskevien velvoitteiden tehokasta täytäntöönpanoa ja noudattamista. Tekoälytoimiston olisi voitava tutkia mahdollisia rikkomisia tässä asetuksessa säädettyjen valtuuksiensa mukaisesti, mukaan lukien pyytämällä asiakirjoja ja tietoja, suorittamalla arviointeja ja pyytämällä yleiskäyttöisten tekoälymallien tarjoajia toteuttamaan toimenpiteitä. Jotta voidaan hyödyntää riippumatonta asiantuntemusta arviointien suorittamisessa, tekoälytoimiston olisi voitava pyytää riippumattomia asiantuntijoita suorittamaan arvioinnit sen puolesta. Velvoitteiden noudattamista olisi voitava valvoa muun muassa asianmukaisten toimenpiteiden toteuttamiseen kehottavilla pyynnöillä, mukaan lukien riskinvähentämistoimenpiteet tunnistettujen systeemisten riskien tapauksessa, ja rajoittamalla mallin asettamista saataville markkinoilla, poistamalla se markkinoilta tai soveltamalla mallin palautusmenettelyä. Tässä asetuksessa säädettyjen menettelyllisten oikeuksien lisäksi voidaan tarvittaessa soveltaa takeita, joiden mukaan yleiskäyttöisten tekoälymallien tarjoajilla olisi oltava asetuksen (EU) 2019/1020 18 artiklassa säädetyt menettelylliset oikeudet, joita olisi sovellettava soveltuvin osin, sanotun kuitenkaan rajoittamatta tässä asetuksessa säädettyjen yksityiskohtaisempien menettelyllisten oikeuksien soveltamista.
(164)
Urząd ds. AI powinien mieć możliwość podejmowania niezbędnych działań w celu monitorowania skutecznego wdrażania i spełniania obowiązków przez dostawców modeli AI ogólnego przeznaczenia określonych w niniejszym rozporządzeniu. Urząd ds. AI powinien mieć możliwość prowadzenia postępowań w sprawie ewentualnych naruszeń zgodnie z uprawnieniami przewidzianymi w niniejszym rozporządzeniu, w tym poprzez zwracanie się o dokumentację i informacje, przeprowadzanie ocen, a także zwracanie się do dostawców modeli AI ogólnego przeznaczenia o zastosowanie określonych środków. Aby wykorzystać niezależną wiedzę fachową w ramach prowadzenia ocen, Urząd ds. AI powinien mieć możliwość angażowania niezależnych ekspertów do przeprowadzania ocen w jego imieniu. Spełnienie obowiązków powinno być możliwe do wyegzekwowania m.in. poprzez wezwanie do podjęcia odpowiednich środków, w tym środków ograniczających ryzyko w przypadku zidentyfikowanego ryzyka systemowego, a także poprzez ograniczenie udostępniania modelu na rynku, wycofanie modelu z rynku lub z użytku. Jako zabezpieczenie, jeśli zaistnieją potrzeby wykraczające poza prawa proceduralne przewidziane w niniejszym rozporządzeniu, dostawcy modeli AI ogólnego przeznaczenia powinni dysponować prawami proceduralnymi przewidzianymi w art. 18 rozporządzenia (UE) 2019/1020, które powinny mieć zastosowanie odpowiednio, bez uszczerbku dla bardziej szczególnych praw proceduralnych przewidzianych w niniejszym rozporządzeniu.
(165)
Muiden tekoälyjärjestelmien kuin suuririskisten tekoälyjärjestelmien kehittäminen tämän asetuksen vaatimusten mukaisesti voi johtaa eettisen ja luotettavan tekoälyn laajempaan käyttöönottoon unionissa. Muiden kuin suuririskisten tekoälyjärjestelmien tarjoajia olisi kannustettava laatimaan käytännesääntöjä, mukaan lukien asiaankuuluvat hallintomekanismit, joilla pyritään edistämään joidenkin tai kaikkien suuririskisiin tekoälyjärjestelmiin sovellettavien pakollisten vaatimusten vapaaehtoista soveltamista ja jotka on mukautettu järjestelmien käyttötarkoituksen ja niihin liittyvän pienemmän riskin perusteella ja joissa otetaan huomioon saatavilla olevat tekniset ratkaisut ja alan parhaat käytännöt, kuten malli- ja datakortit. Kaikenlaisten, sekä suuririskisten että muiden tekoälyjärjestelmien ja tekoälymallien tarjoajia ja tapauksen mukaan käyttöönottajia olisi myös kannustettava soveltamaan vapaaehtoisesti lisävaatimuksia, jotka liittyvät esimerkiksi luotettavaa tekoälyä koskevien unionin eettisten ohjeiden osatekijöihin, ympäristökestävyyteen, tekoälylukutaitoa edistäviin toimenpiteisiin, tekoälyjärjestelmien osallistavaan ja monimuotoiseen suunnitteluun ja kehittämiseen, mukaan lukien haavoittuvassa asemassa olevien henkilöiden huomiointi ja vammaisten henkilöiden esteettömyys, sidosryhmien osallistumiseen, mukaan lukien tarvittaessa asiaankuuluvien sidosryhmien, kuten liike-elämän ja kansalaisyhteiskunnan järjestöjen, tiedeyhteisön ja tutkimusorganisaatioiden, ammattiliittojen ja kuluttajansuojajärjestöjen osallistuminen, tekoälyjärjestelmien suunnitteluun ja kehittämiseen sekä kehitysryhmien moninaisuuteen, mukaan lukien sukupuolten tasapuolinen edustus. Jotta voidaan varmistaa vapaaehtoisten käytännesääntöjen tehokkuus, niiden olisi perustuttava selkeisiin tavoitteisiin ja keskeisiin tulosindikaattoreihin, joilla mitataan näiden tavoitteiden saavuttamista. Niitä olisi myös kehitettävä osallistavalla tavalla ottamalla mukaan tarvittaessa asiaankuuluvia sidosryhmiä, kuten liike-elämän ja kansalaisyhteiskunnan järjestöt, tiedeyhteisö ja tutkimusorganisaatiot, ammattiliitot ja kuluttajansuojajärjestöt. Komissio voi kehittää aloitteita, myös alakohtaisia aloitteita, vähentääkseen tekoälyn kehittämistä varten tapahtuvaa rajat ylittävää datanvaihtoa haittaavia teknisiä esteitä, muun muassa datan käyttöinfrastruktuurin sekä eri datatyyppien semanttisen ja teknisen yhteentoimivuuden aloilla.
(165)
Rozwój systemów AI innych niż systemy AI wysokiego ryzyka zgodnie z wymogami niniejszego rozporządzenia może doprowadzić do szerszego upowszechnienia etycznej i godnej zaufania AI w Unii. Dostawców systemów AI niebędących systemami wysokiego ryzyka należy zachęcać do opracowywania kodeksów postępowania, w tym powiązanych mechanizmów zarządzania, wspierających dobrowolne stosowanie niektórych lub wszystkich obowiązkowych wymogów mających zastosowanie do systemów AI wysokiego ryzyka, dostosowanych do przeznaczenia tych systemów i związanego z nimi niższego ryzyka oraz z uwzględnieniem dostępnych rozwiązań technicznych i najlepszych praktyk branżowych, takich jak karty modeli i karty charakterystyki. Dostawców wszystkich systemów AI, zarówno wysokiego ryzyka, jak i nie stanowiących wysokiego ryzyka, oraz modeli AI, a w stosownych przypadkach, podmioty stosujące te systemy i modele należy również zachęcać do dobrowolnego stosowania dodatkowych wymogów dotyczących na przykład elementów unijnych Wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji, zrównoważenia środowiskowego, środków wspierających kompetencje w zakresie AI, projektowania i rozwoju systemów AI z uwzględnieniem różnorodności i inkluzywności, w tym szczególnej uwagi poświęconej osobom szczególnie wrażliwym i dostępności dla osób z niepełnosprawnościami, udziału zainteresowanych stron w tym, w stosownych przypadkach, organizacji przedsiębiorców i społeczeństwa obywatelskiego, środowisk akademickich, organizacji badawczych, związków zawodowych i organizacji ochrony konsumentów w projektowaniu i rozwoju systemów AI oraz dotyczących różnorodności zespołów programistycznych, w tym pod względem równowagi płci. W celu zapewnienia skuteczności dobrowolnych kodeksów postępowania, powinny się one opierać się na jasnych celach i kluczowych wskaźnikach skuteczności działania służących do pomiaru stopnia osiągnięcia tych celów. Należy je również rozwijać w sposób inkluzywny, w stosownych przypadkach, z udziałem odpowiednich zainteresowanych stron, takich jak organizacje przedsiębiorców i społeczeństwa obywatelskiego, środowiska akademickie, organizacje badawcze, związki zawodowe i organizacje ochrony konsumentów. Komisja może opracowywać inicjatywy, również o charakterze sektorowym, aby ułatwiać zmniejszanie barier technicznych utrudniających transgraniczną wymianę danych na potrzeby rozwoju AI, w tym w zakresie infrastruktury dostępu do danych oraz interoperacyjności semantycznej i technicznej różnych rodzajów danych.
(166)
On tärkeää, että tuotteisiin liittyvät tekoälyjärjestelmät, jotka eivät ole tämän asetuksen mukaisesti suuririskisiä ja joiden ei näin ollen tarvitse täyttää suuririskisille tekoälyjärjestelmille vahvistettuja vaatimuksia, ovat kuitenkin turvallisia, kun ne saatetaan markkinoille tai otetaan käyttöön. Tämän tavoitteen saavuttamiseksi Euroopan parlamentin ja neuvoston asetusta (EU) 2023/988 (53) sovellettaisiin turvaverkkona.
(166)
Istotne jest, aby systemy AI powiązane z produktami, które nie są systemami wysokiego ryzyka w rozumieniu niniejszego rozporządzenia, a zatem nie muszą być zgodne z wymogami ustanowionymi w przypadku systemów AI wysokiego ryzyka, były mimo to bezpieczne w chwili wprowadzenia ich do obrotu lub oddawania ich do użytku. Aby przyczynić się do osiągnięcia tego celu, rozporządzenie Parlamentu Europejskiego i Rady (UE) 2023/988 (53) miałoby zastosowanie jako rozwiązanie zapasowe.
(167)
Jotta voidaan varmistaa toimivaltaisten viranomaisten luotettava ja rakentava yhteistyö unionin ja kansallisella tasolla, kaikkien tämän asetuksen soveltamiseen osallistuvien osapuolten olisi kunnioitettava tehtäviään suorittaessaan saamiensa tietojen ja datan luottamuksellisuutta unionin tai kansallisen lainsäädännön mukaisesti. Niiden olisi hoidettava tehtävänsä ja toimensa siten, että suojellaan erityisesti teollis- ja tekijänoikeuksia, luottamuksellisia liiketoimintatietoja ja liikesalaisuuksia, tämän asetuksen tehokasta täytäntöönpanoa, yleisiä ja kansallisia turvallisuusetuja, rikosoikeudellisten ja hallinnollisten menettelyjen koskemattomuutta sekä turvallisuusluokiteltujen tietojen eheyttä.
(167)
W celu zapewnienia opartej na zaufaniu i konstruktywnej współpracy właściwych organów na poziomie Unii i poziomie krajowym wszystkie strony uczestniczące w stosowaniu niniejszego rozporządzenia powinny przestrzegać zasady poufności informacji i danych uzyskanych podczas wykonywania swoich zadań, zgodnie z prawem Unii lub prawem krajowym. Powinny one wykonywać swoje zadania i prowadzić działania w taki sposób, aby chronić w szczególności prawa własności intelektualnej, poufne informacje handlowe i tajemnice przedsiębiorstwa, skuteczne wykonywanie niniejszego rozporządzenia, interesy bezpieczeństwa publicznego i narodowego, integralność postępowań karnych i administracyjnych oraz integralność informacji niejawnych.
(168)
Tämän asetuksen noudattamisen varmistamiseksi olisi voitava määrätä seuraamuksia ja muita täytäntöönpanotoimenpiteitä. Jäsenvaltioiden olisi toteutettava kaikki tarvittavat toimenpiteet sen varmistamiseksi, että tämän asetuksen säännökset pannaan täytäntöön, myös säätämällä niiden rikkomiseen sovellettavista tehokkaista, oikeasuhteisista ja varoittavista seuraamuksista, ja ne bis in idem -periaatteen noudattamiseksi. Jotta voidaan tehostaa ja yhdenmukaistaa tämän asetuksen rikkomisesta määrättäviä hallinnollisia seuraamuksia, tietyistä rikkomisista määrättäville hallinnollisille sakoille olisi vahvistettava enimmäismäärät. Sakkojen määrää arvioidessaan jäsenvaltioiden olisi kussakin yksittäistapauksessa otettava huomioon kaikki kyseisen tilanteen kannalta merkittävät olosuhteet sekä erityisesti rikkomisen ja sen seurausten luonne, vakavuus ja kesto sekä tarjoajan organisaation koko erityisesti, jos tarjoaja on pk-yritys, startup-yritykset mukaan lukien. Euroopan tietosuojavaltuutetulla olisi oltava valtuudet määrätä sakkoja tämän asetuksen soveltamisalaan kuuluville unionin toimielimille, virastoille ja elimille.
(168)
Zgodność z niniejszym rozporządzeniem powinna być możliwa do wyegzekwowania poprzez nakładanie kar i innych środków egzekwowania prawa. Państwa członkowskie powinny podjąć wszelkie niezbędne środki, aby zapewnić wdrożenie przepisów niniejszego rozporządzenia, w tym poprzez ustanowienie skutecznych, proporcjonalnych i odstraszających kar za ich naruszenie, oraz poszanowanie zasady ne bis in idem. Aby wzmocnić i zharmonizować kary administracyjne za naruszenie niniejszego rozporządzenia należy ustanowić górne limity dla ustalania administracyjnych kar pieniężnych za niektóre konkretne naruszenia. Przy ocenie wysokości kar pieniężnych, państwa członkowskie powinny w każdym indywidualnym przypadku brać pod uwagę wszystkie istotne okoliczności danej sytuacji, z należytym uwzględnieniem w szczególności charakteru, wagi i czasu trwania naruszenia oraz jego skutków, a także wielkości dostawcy, w szczególności faktu, czy dostawca jest MŚP, w tym przedsiębiorstwem typu start-up. Europejski Inspektor Ochrony Danych powinien mieć uprawnienia do nakładania kar pieniężnych na instytucje, organy i jednostki organizacyjne Unii objęte zakresem stosowania niniejszego rozporządzenia.
(169)
Yleiskäyttöisten tekoälymallien tarjoajille tämän asetuksen nojalla asetettujen velvoitteiden noudattamisen varmistamiseksi olisi voitava määrätä muun muassa sakkoja. Tätä varten olisi myös vahvistettava asianmukaiset tasot sakoille, joita määrätään kyseisten velvoitteiden rikkomisesta, mukaan lukien komission tämän asetuksen mukaisesti pyytämien toimenpiteiden noudattamatta jättäminen, jollei suhteellisuusperiaatteen mukaisista asianmukaisista vanhentumisajoista muuta johdu. Kaikki tämän asetuksen mukaiset komission päätökset voidaan Euroopan unionin toiminnasta tehdyn Euroopan unionin toiminnasta tehdyn sopimuksen mukaisesti saattaa Euroopan unionin tuomioistuimen tutkittaviksi, mukaan lukien unionin tuomioistuimen täysi harkintavalta seuraamusten osalta Euroopan unionin toiminnasta tehdyn sopimuksen 261 artiklan nojalla.
(169)
Spełnienie obowiązków spoczywających na dostawcach modeli AI ogólnego przeznaczenia nałożonych na mocy niniejszego rozporządzenia powinna być możliwa do wyegzekwowania między innymi za pomocą kar pieniężnych. W tym celu należy również ustanowić odpowiednią wysokość kar pieniężnych za naruszenie tych obowiązków, w tym za niezastosowanie środków wymaganych przez Komisję zgodnie z niniejszym rozporządzeniem, z zastrzeżeniem odpowiednich terminów przedawnienia zgodnie z zasadą proporcjonalności. Wszystkie decyzje przyjmowane przez Komisję na podstawie niniejszego rozporządzenia podlegają kontroli Trybunału Sprawiedliwości Unii Europejskiej zgodnie z TFUE, w tym nieograniczonemu prawu orzekania zgodnie z art. 261 TFUE.
(170)
Unionin oikeudessa ja kansallisessa lainsäädännössä säädetään jo tehokkaista oikeussuojakeinoista luonnollisille henkilöille ja oikeushenkilöille, joiden oikeuksiin ja vapauksiin tekoälyjärjestelmien käyttö vaikuttaa haitallisesti. Kaikilla luonnollisilla henkilöillä tai oikeushenkilöillä, joilla on perusteita katsoa, että tätä asetusta on rikottu, olisi oltava oikeus tehdä valitus asianomaiselle markkinavalvontaviranomaiselle.
(170)
W przepisach prawa Unii i prawa krajowego przewidziano już skuteczne środki odwoławcze dla osób fizycznych i prawnych, na których prawa i wolności negatywnie wpływa wykorzystanie systemów AI. Bez uszczerbku dla tych środków odwoławczych każda osoba fizyczna lub prawna, która ma podstawy, by uważać, że doszło do naruszenia niniejszego rozporządzenia, powinna być uprawniona do wniesienia skargi do odpowiedniego organu nadzoru rynku.
(171)
Henkilöillä, joihin vaikutukset kohdistuvat, olisi oltava oikeus saada selvitys, kun käyttöönottajan päätöksen pääasiallinen perusta on tämän asetuksen soveltamisalaan kuuluvien tiettyjen suuririskisten tekoälyjärjestelmien tuotos ja kun kyseisellä päätöksellä on oikeusvaikutuksia tai se vaikuttaa asianomaisiin henkilöihin vastaavasti merkittävästi tavalla, jonka asianomaiset henkilöt katsovat olevan haitallinen terveyteensä, turvallisuuteensa tai perusoikeuksiinsa nähden. Kyseisen selvityksen olisi oltava selkeä ja merkityksellinen, ja sen olisi tarjottava henkilöille, joihin vaikutukset kohdistuvat, perusta, jonka avulla nämä voivat käyttää oikeuksiaan. Oikeutta selvityksen saamiseen ei pitäisi soveltaa sellaisten tekoälyjärjestelmien käyttöön, joita koskevat poikkeukset tai rajoitukset johtuvat unionin oikeudesta tai kansallisesta lainsäädännöstä, ja tätä olisi sovellettava vain siltä osin kuin kyseessä olevasta oikeudesta ei ole jo säädetty unionin oikeudessa.
(171)
Osoby, na które AI ma wpływ, powinny mieć prawo do uzyskania wyjaśnienia, jeżeli decyzja podmiotu stosującego opiera się głównie na wynikach określonych systemów AI wysokiego ryzyka objętych zakresem stosowania niniejszego rozporządzenia i jeżeli decyzja ta wywołuje skutki prawne lub podobnie znacząco oddziałuje na te osoby w sposób, który ich zdaniem ma niepożądany wpływ na ich zdrowie, bezpieczeństwo lub prawa podstawowe. Wyjaśnienie to powinno być jasne i merytoryczne oraz powinno dawać osobom, na które AI ma wpływ, podstawę do korzystania z ich praw. Prawo do uzyskania wyjaśnienia nie powinno mieć zastosowania do wykorzystania systemów AI, co do których na mocy przepisów praw Unii lub prawa krajowego obowiązują wyjątki lub ograniczenia, i powinno mieć zastosowanie wyłącznie w zakresie, w jakim prawo to nie jest jeszcze przewidziane w przepisach prawa Unii.
(172)
Henkilöitä, jotka toimivat väärinkäytösten paljastajina tämän asetuksen rikkomistapauksissa, olisi suojeltava unionin oikeuden nojalla. Tämän asetuksen rikkomisesta ilmoittamiseen ja rikkomisesta ilmoittavien henkilöiden suojeluun olisi näin ollen sovellettava Euroopan parlamentin ja neuvoston direktiiviä (EU) 2019/1937 (54).
(172)
Osoby działające w charakterze sygnalistów w związku z naruszeniami niniejszego rozporządzenia powinny być chronione na mocy prawa Unii. Do zgłaszania naruszeń przepisów niniejszego rozporządzenia oraz ochrony osób zgłaszających przypadki takich naruszeń powinno zatem stosować się dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/1937 (54).
(173)
Sen varmistamiseksi, että sääntelykehystä voidaan tarvittaessa mukauttaa, komissiolle olisi siirrettävä valta hyväksyä Euroopan unionin toiminnasta tehdyn sopimuksen 290 artiklan mukaisesti säädösvallan siirron nojalla annettavia delegoituja säädöksiä, joilla muutetaan niitä edellytyksiä, joiden nojalla tekoälyjärjestelmää ei ole pidettävä suuririskisenä, suuririskisten tekoälyjärjestelmien luetteloa, teknistä dokumentaatiota koskevia säännöksiä, EU-vaatimustenmukaisuusvakuutuksen sisältöä, vaatimustenmukaisuuden arviointimenettelyjä koskevia säännöksiä, säännöksiä, joilla määritetään suuririskiset tekoälyjärjestelmät, joihin olisi sovellettava laadunhallintajärjestelmän ja teknisen dokumentaation arviointiin perustuvaa vaatimustenmukaisuuden arviointimenettelyä, kynnystä, vertailuarvoja ja indikaattoreita, muun muassa täydentäen kyseisiä vertailuarvoja ja indikaattoreita, joista on säädetty sellaisten yleiskäyttöisten tekoälymallien, joihin liittyy systeeminen riski, luokittelua koskevissa säännöissä, kriteereitä yleiskäyttöisille tekoälymalleille, joihin liittyy systeeminen riski, yleiskäyttöisten tekoälymallien tarjoajia koskevaa teknistä dokumentaatiota ja yleiskäyttöisten tekoälymallien tarjoajia koskevia avoimuustietoja. On erityisen tärkeää, että komissio asiaa valmistellessaan toteuttaa asianmukaiset kuulemiset, myös asiantuntijatasolla, ja että nämä kuulemiset toteutetaan paremmasta lainsäädännöstä 13 päivänä huhtikuuta 2016 tehdyssä toimielinten välisessä sopimuksessa (55) vahvistettujen periaatteiden mukaisesti. Jotta voitaisiin erityisesti varmistaa tasavertainen osallistuminen delegoitujen säädösten valmisteluun, Euroopan parlamentille ja neuvostolle toimitetaan kaikki asiakirjat samaan aikaan kuin jäsenvaltioiden asiantuntijoille, ja Euroopan parlamentin ja neuvoston asiantuntijoilla on järjestelmällisesti oikeus osallistua komission asiantuntijaryhmien kokouksiin, joissa valmistellaan delegoituja säädöksiä.
(173)
Aby zapewnić możliwość dostosowania w razie potrzeby ram regulacyjnych, należy przekazać Komisji uprawnienia do przyjmowania aktów zgodnie z art. 290 TFUE w celu zmiany warunków, na podstawie których systemu AI nie uznaje się za system AI wysokiego ryzyka, zmiany wykazu systemów AI wysokiego ryzyka, przepisów dotyczących dokumentacji technicznej, treści deklaracji zgodności UE, przepisów dotyczących procedur oceny zgodności, przepisów określających systemy AI wysokiego ryzyka, do których powinna mieć zastosowanie procedura oceny zgodności oparta na ocenie systemu zarządzania jakością oraz ocenie dokumentacji technicznej, progu, poziomów odniesienia i wskaźników, które zostały określone w przepisach dotyczących klasyfikacji modeli AI ogólnego przeznaczenia z ryzykiem systemowym, w tym poprzez uzupełnienie tych poziomów odniesienia i wskaźników, kryteriów uznawania modeli za modele AI ogólnego przeznaczenia z ryzykiem systemowym, dokumentacji technicznej dostawców modeli AI ogólnego przeznaczenia oraz informacji dotyczących przejrzystości od dostawców modeli AI ogólnego przeznaczenia. Szczególnie ważne jest, aby w czasie prac przygotowawczych Komisja prowadziła stosowne konsultacje, w tym na poziomie ekspertów, oraz aby konsultacje te prowadzone były zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa (55). W szczególności, aby zapewnić Parlamentowi Europejskiemu i Radzie udział na równych zasadach w przygotowaniu aktów delegowanych, instytucje te otrzymują wszelkie dokumenty w tym samym czasie co eksperci państw członkowskich, a eksperci tych instytucji mogą systematycznie brać udział w posiedzeniach grup eksperckich Komisji zajmujących się przygotowaniem aktów delegowanych.
(174)
Koska teknologia kehittyy nopeasti ja tämän asetuksen tehokas soveltaminen edellyttää teknistä asiantuntemusta, komission olisi arvioitava ja tarkasteltava tätä asetusta uudelleen viimeistään 2 päivänä elokuuta 2029 [viiden vuoden kuluttua asetuksen voimaantulosta] ja sen jälkeen joka neljäs vuosi ja annettava asiasta kertomus Euroopan parlamentille ja neuvostolle. Komission olisi lisäksi arvioitava kerran vuodessa tarvetta muuttaa suuririskisten tekoälyjärjestelmien luetteloa ja kiellettyjen käytäntöjen luetteloa, ottaen huomioon tämän asetuksen soveltamisalaan kohdistuvat vaikutukset. Lisäksi komission olisi 2 päivään elokuuta 2028 mennessä ja sen jälkeen neljän vuoden välein tehtävä arvio, joka koskee tarvetta muuttaa tämän asetuksen liitteessä olevaa suuririskisten alojen otsikoiden luetteloa, avoimuusvelvoitteiden soveltamisalaan kuuluvia tekoälyjärjestelmiä, valvonta- ja hallintojärjestelmän tehokkuutta ja edistymistä yleiskäyttöisten tekoälymallien energiatehokasta kehittämistä koskevien standardointituotteiden kehittämisessä, mukaan lukien lisätoimenpiteiden tai toimien tarve, ja raportoitava tästä Euroopan parlamentille ja neuvostolle. Komission olisi arvioitava 2 päivään elokuuta 2028 mennessä ja sen jälkeen kolmen vuoden välein vapaaehtoisten käytännesääntöjen vaikutusta ja sitä, kuinka tehokkaasti ne edistävät suuririskisiä tekoälyjärjestelmiä koskevien vaatimusten soveltamista muiden kuin suuririskisten tekoälyjärjestelmien tapauksessa ja mahdollisesti muiden tällaisia tekoälyjärjestelmiä koskevien lisävaatimusten soveltamista.
(174)
Z uwagi na szybki rozwój technologiczny i wiedzę techniczną wymaganą do skutecznego stosowania niniejszego rozporządzenia, Komisja powinna dokonać oceny i przeglądu niniejszego rozporządzenia do dnia 2 sierpnia 2029 r., a następnie co cztery lata oraz składać sprawozdania Parlamentowi Europejskiemu i Radzie. Ponadto ze względu na skutki dla zakresu stosowania niniejszego rozporządzenia Komisja powinna raz w roku ocenić, czy konieczne jest wprowadzenie zmian w wykazie systemów AI wysokiego ryzyka i w wykazie zakazanych praktyk. Dodatkowo do dnia 2 sierpnia 2028 r., a następnie co cztery lata, Komisja powinna ocenić, czy należy wprowadzić zmiany w wykazie nagłówków dotyczących obszarów wysokiego ryzyka zawartym w załączniku do niniejszego rozporządzenia, zmiany w zakresie systemów AI objętych obowiązkami w zakresie przejrzystości, zmiany służące skuteczności systemu nadzoru i zarządzania oraz ocenić postępy w opracowywaniu dokumentów normalizacyjnych dotyczących efektywnego energetycznie rozwoju modeli AI ogólnego przeznaczenia, w tym potrzebę wprowadzenia dalszych środków lub działań, a następnie przekazać sprawozdania z tych ocen Parlamentowi Europejskiemu i Radzie. Ponadto do dnia 2 sierpnia 2028 r., a następnie co trzy lata, Komisja powinna oceniać wpływ i skuteczność dobrowolnych kodeksów postępowania pod względem wspierania stosowania wymogów przewidzianych w przypadku systemów AI wysokiego ryzyka do systemów AI innych niż systemy AI wysokiego ryzyka oraz ewentualnie innych dodatkowych wymogów dotyczących takich systemów AI.
(175)
Jotta voidaan varmistaa tämän asetuksen yhdenmukainen täytäntöönpano, komissiolle olisi siirrettävä täytäntöönpanovaltaa. Tätä valtaa olisi käytettävä Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 182/2011 (56) mukaisesti.
(175)
W celu zapewnienia jednolitych warunków wykonywania niniejszego rozporządzenia należy powierzyć Komisji uprawnienia wykonawcze. Uprawnienia te powinny być wykonywane zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (UE) nr 182/2011 (56).
(176)
Jäsenvaltiot eivät voi riittävällä tavalla saavuttaa tämän asetuksen tavoitetta eli parantaa sisämarkkinoiden toimintaa ja edistää ihmiskeskeisen ja luotettavan tekoälyn käyttöönottoa, samalla varmistaen terveyden, turvallisuuden ja perusoikeuskirjassa vahvistettujen perusoikeuksien suojelun korkea taso, mukaan lukien demokratia, oikeusvaltio ja tekoälyjärjestelmien haitallisia vaikutuksia torjuva ympäristönsuojelu unionissa, ja tukea innovointia, vaan se voidaan toiminnan laajuuden tai vaikutusten vuoksi saavuttaa paremmin unionin tasolla. Sen vuoksi unioni voi toteuttaa toimenpiteitä Euroopan unionista tehdyn sopimuksen 5 artiklassa vahvistetun toissijaisuusperiaatteen mukaisesti. Mainitussa artiklassa vahvistetun suhteellisuusperiaatteen mukaisesti tässä asetuksessa ei ylitetä sitä, mikä on tarpeen tämän tavoitteen saavuttamiseksi.
(176)
Ponieważ cel niniejszego rozporządzenia, a mianowicie poprawa funkcjonowania rynku wewnętrznego i promowanie upowszechniania zorientowanej na człowieka i godnej zaufania AI, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych zapisanych w Karcie, w tym demokracji, praworządności i ochrony środowiska przed szkodliwymi skutkami systemów AI w Unii, oraz wspieranie innowacji, nie może zostać osiągnięty w sposób wystarczający przez państwa członkowskie, natomiast ze względu na rozmiary lub skutki działania możliwe jest jego lepsze osiągnięcie na poziomie Unii, może ona podjąć działania zgodnie z zasadą pomocniczości określoną w art. 5 TUE. Zgodnie z zasadą proporcjonalności określoną w tym artykule niniejsze rozporządzenie nie wykracza poza to, co jest konieczne do osiągnięcia tego celu.
(177)
Jotta voidaan taata oikeusvarmuus, varmistaa asianmukainen sopeutumisaika toimijoille ja välttää markkinoiden vääristyminen, myös varmistamalla tekoälyjärjestelmien käytön jatkuvuus, on asianmukaista, että tätä asetusta sovelletaan suuririskisiin tekoälyjärjestelmiin, jotka on saatettu markkinoille tai otettu käyttöön ennen asetuksen yleistä soveltamispäivää, ainoastaan, jos kyseisten järjestelmien suunnitteluun tai käyttötarkoitukseen tehdään kyseisen päivän jälkeen huomattavia muutoksia. On aiheellista selventää, että tässä yhteydessä huomattavan muutoksen käsitteellä olisi tarkoitettava sisällöltään samaa kuin merkittävän muutoksen käsitteellä, jota käytetään ainoastaan tässä asetuksessa tarkoitettujen suuririskisten tekoälyjärjestelmien osalta. Poikkeuksellisesti ja julkisen vastuuvelvollisuuden vuoksi tämän asetuksen liitteessä luetelluilla säädöksillä perustettujen laaja-alaisten tietojärjestelmien komponentteja olevien tekoälyjärjestelmien ylläpitäjien ja viranomaiskäyttöön tarkoitettujen suuririskisten tekoälyjärjestelmien ylläpitäjien olisi toteutettava tarvittavat toimenpiteet, joilla ne osaltaan varmistavat noudattavansa tämän asetuksen vaatimuksia vuoden 2030 loppuun mennessä ja viimeistään 2 päivänä elokuuta 2030.
(177)
Aby zapewnić pewność prawa, zapewnić operatorom odpowiedni okres na dostosowanie się i uniknąć zakłóceń na rynku, w tym dzięki zapewnieniu ciągłości korzystania z systemów AI, niniejsze rozporządzenie należy stosować do systemów AI wysokiego ryzyka, które zostały wprowadzone do obrotu lub oddane do użytku przed ogólną datą rozpoczęcia jego stosowania, tylko wtedy, gdy po tej dacie w systemach tych wprowadzane będą istotne zmiany dotyczące ich projektu lub przeznaczeniu. Należy wyjaśnić, że w tym względzie pojęcie istotnej zmiany należy rozumieć jako równoważne znaczeniowo z pojęciem istotnej zmiany, które stosuje się wyłącznie w odniesieniu do systemów AI wysokiego ryzyka zgodnie z niniejszym rozporządzeniem. W drodze wyjątku i z uwagi na odpowiedzialność publiczną, operatorzy systemów AI, które są elementami wielkoskalowych systemów informatycznych ustanowionych na mocy aktów prawnych wymienionych w załączniku do niniejszego rozporządzenia, oraz operatorzy systemów AI wysokiego ryzyka, które mają być wykorzystywane przez organy publiczne, powinni odpowiednio podjąć niezbędne kroki w celu spełnienia wymogów niniejszego rozporządzenia do końca 2030 r. i do dnia 2 sierpnia 2030 r.
(178)
Suuririskisten tekoälyjärjestelmien tarjoajia kannustetaan aloittamaan vapaaehtoisesti tämän asetuksen asiaankuuluvien velvoitteiden noudattaminen jo siirtymäkauden aikana.
(178)
Dostawców systemów AI wysokiego ryzyka zachęca się, by już w okresie przejściowym przystąpili do dobrowolnego spełniania odpowiednich obowiązków ustanowionych w niniejszym rozporządzeniu.
(179)
Tätä asetusta olisi sovellettava 2 päivästä elokuuta 2026. Kun kuitenkin otetaan huomioon tietyt tekoälyn käyttötavat, joita ei voida hyväksyä, kieltoja ja tämän asetuksen yleisiä säännöksiä olisi sovellettava jo 2 päivästä helmikuuta 2025. Vaikka kyseiset kiellot vaikuttavat täysimääräisesti tätä asetusta koskevaan valvontaan ja sen täytäntöönpanoon, kieltojen soveltamistavan ennakointi on tärkeää, jotta voidaan ottaa huomioon sellainen riski, jota ei voida hyväksyä, ja vaikuttaa muihin menettelyihin esimerkiksi siviilioikeudessa. Hallintoon ja vaatimustenmukaisuuden arviointijärjestelmään liittyvän infrastruktuurin olisi lisäksi oltava toiminnassa ennen 2 päivää elokuuta 2026, minkä vuoksi ilmoitettuja laitoksia ja hallintorakennetta koskevia säännöksiä olisi sovellettava 2 päivästä elokuuta 2026. Kun otetaan huomioon teknologian nopea kehitys ja yleiskäyttöisten tekoälymallien käyttöönotto, yleiskäyttöisten tekoälymallien tarjoajia koskevia velvoitteita olisi sovellettava 2 päivästä elokuuta 2025. Käytännesäännöt olisi vahvistettava viimeistään 2 päivänä toukokuuta 2025, jotta tarjoajat voivat ajoissa osoittaa toimintansa vaatimustenmukaisuuden. Tekoälytoimiston olisi varmistettava, että luokitussäännöt ja -menettelyt ovat ajan tasalla teknologian kehitykseen nähden. Jäsenvaltioiden olisi lisäksi vahvistettava säännöt, jotka koskevat seuraamuksia, myös hallinnollisia sakkoja, ja ilmoitettava niistä komissiolle sekä varmistettava, että ne pannaan asianmukaisesti ja tehokkaasti täytäntöön tämän asetuksen soveltamispäivään mennessä. Sen vuoksi seuraamuksia koskevia säännöksiä olisi sovellettava 2 päivästä elokuuta 2025.
(179)
Niniejsze rozporządzenie należy stosować od dnia 2 sierpnia 2026 r. Biorąc jednak pod uwagę niedopuszczalne ryzyko związane z niektórymi sposobami wykorzystania AI, zakazy oraz przepisy ogólne niniejszego rozporządzenia należy stosować już od dnia 2 lutego 2025 r. Chociaż pełne skutki tych zakazów zrealizowane zostaną w momencie ustanowienia zarządzania i egzekwowania niniejszego rozporządzenia, wcześniejsze ich stosowanie jest ważne, by uwzględnić niedopuszczalne ryzyko i wywrzeć wpływ na inne procedury, np. w prawie cywilnym. Ponadto infrastruktura związana z zarządzaniem i systemem oceny zgodności powinna być gotowa przed dniem 2 sierpnia 2026 r., w związku z czym przepisy dotyczące jednostek notyfikowanych oraz struktury zarządzania należy stosować od dnia 2 sierpnia 2025 r. Biorąc pod uwagę szybkie tempo postępu technologicznego i przyjęcie modeli AI ogólnego przeznaczenia, obowiązki dostawców modeli AI ogólnego przeznaczenia należy stosować od dnia 2 sierpnia 2025 r. Kodeksy praktyk powinny być gotowe do dnia 2 maja 2025 r., tak aby umożliwić dostawcom terminowe wykazanie zgodności. Urząd ds. AI powinien zapewniać aktualność zasad i procedur klasyfikacji w świetle rozwoju technologicznego. Ponadto państwa członkowskie powinny ustanowić przepisy dotyczące kar, w tym administracyjnych kar pieniężnych i powiadomić o nich Komisję oraz zapewnić ich właściwe i skuteczne wdrożenie przed dniem rozpoczęcia stosowania niniejszego rozporządzenia. Przepisy dotyczące kar należy zatem stosować od dnia 2 sierpnia 2025 r.
(180)
Euroopan tietosuojavaltuutettua ja Euroopan tietosuojaneuvostoa on kuultu asetuksen (EU) 2018/1725 42 artiklan 1 ja 2 kohdan mukaisesti, ja ne ovat antaneet yhteisen lausuntonsa 18 päivänä kesäkuuta 2021,
(180)
Zgodnie z art. 42 ust. 1 i 2 rozporządzenia (UE) 2018/1725 skonsultowano się z Europejskim Inspektorem Ochrony Danych i Europejską Radą Ochrony Danych, którzy wydali wspólną opinię dnia 18 czerwca 2021 r.,
OVAT HYVÄKSYNEET TÄMÄN ASETUKSEN:
PRZYJMUJĄ NINIEJSZE ROZPORZĄDZENIE:
I LUKU
ROZDZIAŁ I
YLEISET SÄÄNNÖKSET
PRZEPISY OGÓLNE
1 artikla
Artykuł 1
Kohde
Przedmiot
1. Tämän asetuksen tarkoituksena on parantaa sisämarkkinoiden toimintaa ja edistää ihmiskeskeisen ja luotettavan tekoälyn käyttöönottoa, samalla kun varmistetaan terveyden, turvallisuuden, perusoikeuskirjassa vahvistettujen perusoikeuksien, mukaan lukien demokratia, oikeusvaltio ja ympäristön korkeatasoinen suojelu, tekoälyjärjestelmien haitallisilta vaikutuksilta unionissa, ja tukea innovointia.
1. Celem niniejszego rozporządzenia jest poprawa funkcjonowania rynku wewnętrznego i promowanie upowszechniania zorientowanej na człowieka i godnej zaufania sztucznej inteligencji (AI), przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych zapisanych w Karcie, w tym demokracji, praworządności i ochrony środowiska, przed szkodliwymi skutkami systemów AI w Unii oraz wspieraniu innowacji.
2. Tässä asetuksessa vahvistetaan
2. W niniejszym rozporządzeniu ustanawia się:
a)
yhdenmukaistetut säännöt tekoälyjärjestelmien markkinoille saattamiselle, käyttöönotolle ja käytölle unionissa;
a)
zharmonizowane przepisy dotyczące wprowadzania do obrotu, oddawania do użytku oraz wykorzystywania systemów AI w Unii;
b)
tiettyjä tekoälyyn liittyviä käytäntöjä koskevat kiellot;
b)
zakazy dotyczące niektórych praktyk w zakresie AI;
c)
suuririskisiä tekoälyjärjestelmiä koskevat erityisvaatimukset ja tällaisiin järjestelmiin liittyvien toimijoiden velvollisuudet;
c)
szczególne wymogi dotyczące systemów AI wysokiego ryzyka oraz obowiązki spoczywające na operatorach takich systemów;
d)
avoimuutta koskevat yhdenmukaistetut säännöt tietyille tekoälyjärjestelmille;
d)
zharmonizowane przepisy dotyczące przejrzystości w przypadku niektórych systemów AI;
e)
yleiskäyttöisten tekoälymallien markkinoille saattamista koskevat yhdenmukaistetut säännöt;
e)
zharmonizowane przepisy dotyczące wprowadzania do obrotu modeli AI ogólnego przeznaczenia;
f)
markkinoiden seurantaa ja valvontaa sekä hallinnointia ja täytäntöönpanoa koskevat säännöt;
f)
przepisy dotyczące monitorowania wprowadzania do obrotu, nadzoru rynku, zarządzania i egzekwowania;
g)
innovointia tukevat toimenpiteet, joissa keskitytään erityisesti pk-yrityksiin, startup-yritykset mukaan lukien.
g)
środki wspierające innowacje, ze szczególnym uwzględnieniem MŚP, w tym przedsiębiorstw typu start-up.
2 artikla
Artykuł 2
Soveltamisala
Zakres stosowania
1. Tätä asetusta sovelletaan
1. Niniejsze rozporządzenie stosuje się do:
a)
tekoälyjärjestelmien tarjoajiin, jotka saattavat markkinoille tai ottavat käyttöön tekoälyjärjestelmiä tai saattavat markkinoille yleiskäyttöisiä tekoälymalleja unionissa, riippumatta siitä, ovatko kyseiset tarjoajat sijoittautuneet unioniin tai kolmanteen maahan vai sijaitsevatko ne unionissa tai kolmannessa maassa;
a)
dostawców wprowadzających do obrotu lub oddających do użytku systemy AI lub wprowadzających do obrotu modele AI ogólnego przeznaczenia w Unii, niezależnie od tego, czy dostawcy ci mają siedzibę lub znajdują się w Unii czy w państwie trzecim;
b)
unioniin sijoittautuneisiin tai unionissa sijaitseviin tekoälyjärjestelmien käyttöönottajiin;
b)
podmiotów stosujących systemy AI, które to podmioty mają siedzibę lub znajdują się w Unii;
c)
kolmannessa maassa kolmanteen maahan sijoittautuneisiin tai sellaisessa sijaitseviin tekoälyjärjestelmien tarjoajiin ja käyttöönottajiin, kun tekoälyjärjestelmän tuottamaa tuotosta käytetään unionissa;
c)
dostawców systemów AI i podmiotów stosujących systemy AI, którzy mają siedzibę lub znajdują się w państwie trzecim, w przypadku gdy wyniki wytworzone przez system AI są wykorzystywane w Unii;
d)
tekoälyjärjestelmien maahantuojiin ja jakelijoihin;
d)
importerów i dystrybutorów systemów AI;
e)
tuotteiden valmistajiin, jotka saattavat markkinoille tai ottavat käyttöön tekoälyjärjestelmän yhdessä tuotteensa kanssa ja omalla nimellään tai tavaramerkillään;
e)
producentów produktu, którzy pod własną nazwą lub znakiem towarowym oraz wraz ze swoim produktem wprowadzają do obrotu lub oddają do użytku system AI;
f)
muualle kuin unioniin sijoittautuneisiin tarjoajien valtuutettuihin edustajiin;
f)
upoważnionych przedstawicieli dostawców niemających siedziby w Unii;
g)
unioniin sijoittautuneisiin henkilöihin, joihin vaikutukset kohdistuvat.
g)
osób, na które AI ma wpływ i które znajdują się w Unii.
2. Tekoälyjärjestelmiin, jotka on luokiteltu suuririskisiksi tekoälyjärjestelmiksi 6 artiklan 1 kohdan mukaisesti ja jotka liittyvät liitteessä I olevassa B jaksossa luetellun unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluviin tuotteisiin, sovelletaan ainoastaan 6 artiklan 1 kohtaa, 102–109 artiklaa ja 112 artiklaa. Asetuksen 57 artiklaa sovelletaan vain siltä osin kuin tämän asetuksen mukaiset suuririskisiä tekoälyjärjestelmiä koskevat vaatimukset on sisällytetty kyseiseen unionin yhdenmukaistamislainsäädäntöön.
2. W przypadku systemów AI zaklasyfikowanych jako systemy AI wysokiego ryzyka zgodnie z art. 6 ust. 1 związanych z produktami, które są objęte unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku I sekcja B, stosuje się wyłącznie art. 6 ust. 1, art. 102–109 i art. 112. Art. 57 stosuje się wyłącznie w zakresie, w jakim wymogi dotyczące systemów AI wysokiego ryzyka ustanowione w niniejszym rozporządzeniu zostały włączone do tego unijnego prawodawstwa harmonizacyjnego.
3. Tätä asetusta ei sovelleta aloihin, jotka eivät kuulu unionin oikeuden soveltamisalaan, eikä se missään tapauksessa vaikuta kansalliseen turvallisuuteen liittyvään jäsenvaltioiden toimivaltaan riippumatta siitä, minkä tyyppisiä tahoja jäsenvaltiot ovat valtuuttaneet suorittamaan näihin toimivaltuuksiin liittyviä tehtäviä.
3. Niniejszego rozporządzenia nie stosuje się do obszarów wykraczających poza zakres stosowania prawa Unii i w żadnym wypadku nie wpływa ono na kompetencje państw członkowskich w zakresie bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu, któremu państwa członkowskie powierzyły wykonywanie zadań związanych z tymi kompetencjami.
Tätä asetusta ei sovelleta tekoälyjärjestelmiin, jos ja siltä osin kuin ne saatetaan markkinoille, otetaan käyttöön tai niitä käytetään muutettuina tai muuttamattomina yksinomaan sotilaallisia, puolustuksen tai kansallisen turvallisuuden tarkoituksia varten, riippumatta kyseisiä toimia toteuttavan toimijan tyypistä.
Niniejszego rozporządzenia nie stosuje się do systemów AI, jeżeli – i w zakresie, w jakim – wprowadzono je do obrotu, oddano do użytku lub są one wykorzystywane, ze zmianami lub bez zmian, wyłącznie do celów wojskowych, obronnych lub do celów bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu prowadzącego te działania.
Tätä asetusta ei sovelleta tekoälyjärjestelmiin, joita ei saateta markkinoille tai oteta käyttöön unionissa, jos tuotosta käytetään unionissa yksinomaan sotilaallisia, puolustuksen tai kansallisen turvallisuuden tarkoituksia varten, riippumatta kyseisiä toimia toteuttavan toimijan tyypistä.
Niniejszego rozporządzenia nie stosuje się do systemów AI, które nie zostały wprowadzone do obrotu ani oddane do użytku w Unii, a których wyniki są wykorzystywane w Unii wyłącznie do celów wojskowych, obronnych lub de celów bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu prowadzącego te działania.
4. Tätä asetusta ei sovelleta kolmannen maan viranomaisiin eikä tämän asetuksen soveltamisalaan 1 kohdan nojalla kuuluviin kansainvälisiin järjestöihin, jos kyseiset viranomaiset tai järjestöt käyttävät tekoälyjärjestelmiä unionin tai yhden tai useamman jäsenvaltion kanssa tehtyjen lainvalvontaa ja rikosoikeudellista yhteistyötä koskevan kansainvälisen yhteistyön tai sopimusten puitteissa, edellyttäen, että asianomainen kolmas maa tai kansainvälinen järjestö antaa yksityisyydensuojaa, perusoikeuksia ja yksilön vapauksia koskevat riittävät takeet.
4. Niniejszego rozporządzenia nie stosuje się do organów publicznych w państwie trzecim ani do organizacji międzynarodowych objętych zakresem stosowania niniejszego rozporządzenia na podstawie ust. 1, jeżeli te organy lub organizacje wykorzystują systemy AI w ramach współpracy międzynarodowej lub umów międzynarodowych w sprawie ścigania przestępstw i współpracy sądowej zawartych z Unią lub z jednym państwem członkowskim bądź ich większą liczbą, pod warunkiem zapewnienia przez to państwo trzecie lub organizację międzynarodową odpowiednich zabezpieczeń w odniesieniu do ochrony podstawowych praw i wolności osób fizycznych.
5. Tämä asetus ei vaikuta asetuksen (EU) 2022/2065 II luvussa vahvistettujen välityspalvelujen tarjoajien vastuuta koskevien säännösten soveltamiseen.
5. Niniejsze rozporządzenie nie ma wpływu na stosowanie przepisów dotyczących odpowiedzialności dostawców usług pośrednich określonych w rozdziale II rozporządzenia (UE) 2022/2065.
6. Tätä asetusta ei sovelleta tekoälyjärjestelmiin tai tekoälymalleihin, jotka on erityisesti kehitetty ja otettu käyttöön yksinomaan tieteellistä tutkimusta ja kehittämistä varten, eikä myöskään niiden tuotoksiin.
6. Niniejszego rozporządzenia nie stosuje się do systemów AI lub modeli AI, w tym ich wyników, rozwiniętych i oddanych do użytku wyłącznie do celów badań naukowych i rozwojowych.
7. Henkilötietojen suojaa, yksityisyyttä ja viestinnän luottamuksellisuutta koskevaa unionin oikeutta sovelletaan henkilötietoihin, joita käsitellään tässä asetuksessa säädettyjen oikeuksien ja velvoitteiden yhteydessä. Tämä asetus ei vaikuta asetusten (EU) 2016/679 ja (EU) 2018/1725 eikä direktiivien 2002/58/EY ja (EU) 2016/680 soveltamiseen, sanotun kuitenkaan rajoittamatta tämän asetuksen 10 artiklan 5 kohdan ja 59 artiklan soveltamista.
7. Prawo Unii w zakresie ochrony danych osobowych, prywatności i poufności komunikacji stosuje się do danych osobowych przetwarzanych w związku z prawami i obowiązkami ustanowionymi w niniejszym rozporządzeniu. Niniejsze rozporządzenie nie ma wpływu na rozporządzenia (UE) 2016/679 lub (UE) 2018/1725, ani na dyrektywy 2002/58/WE lub (UE) 2016/680, bez uszczerbku dla art. 10 ust. 5 i art. 59 niniejszego rozporządzenia.
8. Tätä asetusta ei sovelleta mihinkään tekoälyjärjestelmiä tai tekoälymalleja koskevaan tutkimus-, testaus- ja kehittämistoimintaan ennen niiden markkinoille saattamista tai käyttöönottoa. Tällaiset toimet on toteutettava noudattaen sovellettavaa unionin oikeutta. Kyseinen poikkeus ei kata testausta tosielämän olosuhteissa.
8. Niniejszego rozporządzenia nie stosuje się do żadnej działalności badawczej, testowej ani rozwojowej dotyczącej systemów AI lub modeli AI przed wprowadzeniem ich do obrotu lub oddaniem ich do użytku. Działalność tego rodzaju prowadzona jest zgodnie z mającym zastosowanie prawem Unii. Niniejsze wyłączenie nie obejmuje testów w warunkach rzeczywistych.
9. Tällä asetuksella ei rajoiteta muissa kuluttajansuojaan ja tuoteturvallisuuteen liittyvissä unionin säädöksissä vahvistettujen sääntöjen soveltamista.
9. Niniejsze rozporządzenie nie narusza przepisów ustanowionych w innych aktach prawnych Unii dotyczących ochrony konsumentów i bezpieczeństwa produktów.
10. Tätä asetusta ei sovelleta niiden käyttöönottajien velvoitteisiin, jotka ovat luonnollisia henkilöitä, jotka käyttävät tekoälyjärjestelmiä pelkästään henkilökohtaisessa muussa kuin ammattitoiminnassa.
10. Niniejsze rozporządzenie nie stosuje się do obowiązków podmiotów stosujących będących osobami fizycznymi, które korzystają z systemów AI w ramach czysto osobistej działalności pozazawodowej.
11. Tällä asetuksella ei estetä unionia tai jäsenvaltioita pitämästä voimassa tai ottamasta käyttöön lakeja, asetuksia tai hallinnollisia määräyksiä, jotka ovat työntekijöiden kannalta suotuisampia ja suojelevat heidän oikeuksiaan liittyen tekoälyjärjestelmien käyttöön työnantajien toimesta, tai kannustamasta soveltamaan työntekijöiden kannalta suotuisampia työehtosopimuksia tai sallimasta niiden soveltamisen.
11. Niniejsze rozporządzenie nie uniemożliwia Unii ani państwom członkowskim utrzymywania lub wprowadzania przepisów ustawowych, wykonawczych lub administracyjnych, które są korzystniejsze dla pracowników pod względem ochrony ich praw w odniesieniu do korzystania z systemów AI przez pracodawców, ani zachęcania do stosowania korzystniejszych dla pracowników układów zbiorowych lub zezwalania na ich stosowanie.
12. Tätä asetusta ei sovelleta vapaisiin ja avoimeen lähdekoodiin perustuviin tekoälyjärjestelmiin, paitsi jos ne saatetaan markkinoille tai otetaan käyttöön suuririskisinä tekoälyjärjestelminä taikka 5 tai 50 artiklan soveltamisalaan kuuluvina tekoälyjärjestelminä.
12. Niniejszego rozporządzenia nie stosuje się do systemów AI udostępnianych na podstawie bezpłatnych licencji otwartego oprogramowania, chyba że systemy te są wprowadzane do obrotu lub oddawane do użytku jako systemy AI wysokiego ryzyka lub jako system AI objęty art. 5 lub 50.
3 artikla
Artykuł 3
Määritelmät
Definicje
Tässä asetuksessa tarkoitetaan
Do celów niniejszego rozporządzenia stosuje się następujące definicje:
1)
”tekoälyjärjestelmällä” konepohjaista järjestelmää, joka on suunniteltu toimimaan käyttöönoton jälkeen vaihtelevilla autonomian tasoilla ja jossa voi ilmetä mukautuvuutta käyttöönoton jälkeen ja joka päättelee vastaanottamastaan syötteestä eksplisiittisiä tai implisiittisiä tavoitteita varten, miten tuottaa tuotoksia, kuten ennusteita, sisältöä, suosituksia tai päätöksiä, jotka voivat vaikuttaa fyysisiin tai virtuaalisiin ympäristöihin;
1)
„system AI” oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne;
2)
”riskillä” haitan esiintymisen todennäköisyyden ja haitan vakavuuden yhdistelmää;
2)
„ryzyko” oznacza połączenie prawdopodobieństwa wystąpienia szkody oraz jej dotkliwości;
3)
”tarjoajalla” luonnollista tai oikeushenkilöä, viranomaista, virastoa tai muuta elintä, joka kehittää tai kehityttää tekoälyjärjestelmän tai yleiskäyttöisen tekoälymallin ja saattaa sen markkinoille tai ottaa tekoälyjärjestelmän käyttöön omalla nimellään tai tavaramerkillään joko maksua vastaan tai maksutta;
3)
„dostawca” oznacza osobę fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które rozwijają system AI lub model AI ogólnego przeznaczenia lub zlecają rozwój systemu AI lub modelu AI ogólnego przeznaczenia oraz które – odpłatnie lub nieodpłatnie – pod własną nazwą lub własnym znakiem towarowym wprowadzają do obrotu lub oddają do użytku system AI;
4)
”käyttöönottajalla” luonnollista tai oikeushenkilöä, viranomaista, virastoa tai muuta tahoa, joka käyttää valvonnassaan olevaa tekoälyjärjestelmää, paitsi jos tekoälyjärjestelmää käytetään henkilökohtaisessa muussa kuin ammattitoiminnassa;
4)
„podmiot stosujący” oznacza osobę fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które wykorzystują system AI, nad którym sprawują kontrolę, z wyjątkiem sytuacji, gdy system AI jest wykorzystywany w ramach osobistej działalności pozazawodowej;
5)
”valtuutetulla edustajalla” unionissa sijaitsevaa tai unioniin sijoittautunutta luonnollista tai oikeushenkilöä, joka on saanut ja hyväksynyt tekoälyjärjestelmän tai yleiskäyttöisen tekoälymallin tarjoajan antaman kirjallisen toimeksiannon täyttää ja toteuttaa kyseisen tarjoajan puolesta tässä asetuksessa säädetyt velvollisuudet ja menettelyt;
5)
„upoważniony przedstawiciel” oznacza osobę fizyczną lub prawną znajdującą się lub mającą siedzibę w Unii, która otrzymała i przyjęła pisemne pełnomocnictwo od dostawcy systemu AI lub modelu AI ogólnego przeznaczenia do, odpowiednio, spełnienia w jego imieniu obowiązków i przeprowadzania procedur ustanowionych w niniejszym rozporządzeniu;
6)
”maahantuojalla” unionissa sijaitsevaa tai unioniin sijoittautunutta luonnollista tai oikeushenkilöä, joka saattaa markkinoille tekoälyjärjestelmän, jolla on kolmanteen maahan sijoittautuneen luonnollisen tai oikeushenkilön nimi tai tavaramerkki;
6)
„importer” oznacza osobę fizyczną lub prawną znajdującą się lub mającą siedzibę w Unii, która wprowadza do obrotu system AI opatrzony nazwą lub znakiem towarowym osoby fizycznej lub prawnej mającej siedzibę w państwie trzecim;
7)
”jakelijalla” muuta toimitusketjuun kuuluvaa luonnollista tai oikeushenkilöä kuin tarjoajaa tai maahantuojaa, joka asettaa tekoälyjärjestelmän saataville unionin markkinoilla;
7)
„dystrybutor” oznacza osobę fizyczną lub prawną w łańcuchu dostaw, inną niż dostawca lub importer, która udostępnia system AI na rynku Unii;
8)
”toimijalla” tarjoajaa, tuotteen valmistajaa, käyttöönottajaa, valtuutettua edustajaa, maahantuojaa tai jakelijaa;
8)
„operator” oznacza dostawcę, producenta produktu, podmiot stosujący, upoważnionego przedstawiciela, importera lub dystrybutora;
9)
”markkinoille saattamisella” tekoälyjärjestelmän tai yleiskäyttöisen tekoälymallin asettamista ensimmäistä kertaa saataville unionin markkinoilla;
9)
„wprowadzenie do obrotu” oznacza udostępnienie po raz pierwszy systemu AI lub modelu AI ogólnego przeznaczenia na rynku Unii;
10)
”asettamisella saataville markkinoilla” tekoälyjärjestelmän tai yleiskäyttöisen tekoälymallin toimittamista markkinoille liiketoiminnan yhteydessä jakelua tai käyttöä varten joko maksua vastaan tai maksutta;
10)
„udostępnianie na rynku” oznacza dostarczanie systemu AI lub modelu AI ogólnego przeznaczenia w celu jego dystrybucji lub wykorzystania na rynku Unii w ramach działalności handlowej, odpłatnie lub nieodpłatnie;
11)
”käyttöönotolla” tekoälyjärjestelmän toimittamista ensimmäistä käyttöä varten unionissa sen käyttötarkoitukseen suoraan käyttöönottajalle tai omaan käyttöön;
11)
„oddanie do użytku” oznacza dostarczenie systemu AI do pierwszego użycia bezpośrednio podmiotowi stosującemu lub do użytku własnego w Unii, zgodnie z jego przeznaczeniem;
12)
”käyttötarkoituksella” käyttöä, johon tarjoaja on tarkoittanut tekoälyjärjestelmän, mukaan lukien erityinen käyttöyhteys ja erityiset käyttöolosuhteet, siten kuin ne on määritelty tiedoissa, jotka tarjoaja on antanut käyttöohjeissa, markkinointi- tai myyntimateriaaleissa ja -ilmoituksissa sekä teknisessä dokumentaatiossa;
12)
„przeznaczenie” oznacza zastosowanie, do jakiego system AI został przeznaczony przez jego dostawcę, w tym konkretny kontekst i warunki wykorzystywania, określone w informacjach dostarczonych przez dostawcę w instrukcji obsługi, materiałach promocyjnych lub sprzedażowych i oświadczeniach, jak również w dokumentacji technicznej;
13)
”kohtuudella ennakoitavissa olevalla väärinkäytöllä” tekoälyjärjestelmän käyttöä tavalla, joka ei ole sen käyttötarkoituksen mukainen mutta joka voi olla seurausta kohtuudella ennakoitavissa olevasta ihmisen käyttäytymisestä tai järjestelmän vuorovaikutuksesta muiden järjestelmien, myös muiden tekoälyjärjestelmien, kanssa;
13)
„dające się racjonalnie przewidzieć niewłaściwe wykorzystanie” oznacza wykorzystanie systemu AI w sposób niezgodny z jego przeznaczeniem, które może wynikać z dającego się racjonalnie przewidzieć zachowania człowieka lub interakcji z innymi systemami, w tym z innymi systemami AI;
14)
”turvakomponentilla” tuotteen tai tekoälyjärjestelmän komponenttia, joka toteuttaa kyseisen tuotteen tai tekoälyjärjestelmän turvallisuustoimintoa taikka jonka vika tai toimintahäiriö vaarantaa ihmisten terveyden ja turvallisuuden tai omaisuuden turvallisuuden;
14)
„związany z bezpieczeństwem element” oznacza element produktu lub systemu AI, który spełnia funkcję bezpieczeństwa w przypadku tego produktu lub systemu AI lub którego awaria bądź nieprawidłowe działanie zagrażają zdrowiu i bezpieczeństwu osób lub mienia;
15)
”käyttöohjeilla” tietoja, jotka tarjoaja antaa käyttöönottajalle erityisesti tekoälyjärjestelmän käyttötarkoituksesta ja asianmukaisesta käytöstä;
15)
„instrukcja obsługi” oznacza informacje podane przez dostawcę w celu poinformowania podmiotu stosującego o, w szczególności, przeznaczeniu i właściwym użytkowaniu systemu AI;
16)
”tekoälyjärjestelmän palautusmenettelyllä” kaikkia toimenpiteitä, joiden tarkoituksena on palauttaa käyttöönottajien saataville asetettu tekoälyjärjestelmä takaisin sen tarjoajalle tai poistaa se käytöstä tai tehdä sen käyttö mahdottomaksi;
16)
„wycofanie systemu AI z użytku” oznacza dowolny środek mający na celu doprowadzenie do zwrotu do dostawcy systemu AI udostępnionego podmiotom stosującym lub do wyłączenia takiego systemu z eksploatacji lub uniemożliwienia korzystania z niego;
17)
”tekoälyjärjestelmän markkinoilta poistamisella” kaikkia toimenpiteitä, joiden tarkoituksena on estää toimitusketjussa olevan tekoälyjärjestelmän asettaminen saataville markkinoilla;
17)
„wycofanie systemu AI z rynku” oznacza dowolny środek mający na celu uniemożliwienie udostępnienia na rynku systemu AI znajdującego się w łańcuchu dostaw;
18)
”tekoälyjärjestelmän suorituskyvyllä” tekoälyjärjestelmän kykyä täyttää aiottu käyttötarkoitus;
18)
„skuteczność działania systemu AI” oznacza zdolność systemu AI do działania zgodnie ze swoim przeznaczeniem;
19)
”ilmoittamisesta vastaavalla viranomaisella” kansallista viranomaista, joka vastaa vaatimustenmukaisuuden arviointilaitosten arviointiin, nimeämiseen ja ilmoittamiseen sekä niiden seurantaan tarvittavien menettelyjen perustamisesta ja toteuttamisesta;
19)
„organ notyfikujący” oznacza organ krajowy, który odpowiada za opracowanie i stosowanie procedur koniecznych do oceny, wyznaczania i notyfikowania jednostek oceniających zgodność oraz za ich monitorowanie;
20)
”vaatimustenmukaisuuden arvioinnilla” prosessia, jolla osoitetaan, täyttyvätkö III luvun 2 jaksossa vahvistetut suuririskistä tekoälyjärjestelmää koskevat vaatimukset;
20)
„ocena zgodności” oznacza proces wykazania, czy spełniono wymogi ustanowione w rozdziale III sekcja 2 w odniesieniu do systemu AI wysokiego ryzyka;
21)
”vaatimustenmukaisuuden arviointilaitoksella” tahoa, joka suorittaa kolmantena osapuolena vaatimustenmukaisuuden arviointitoimia, kuten testausta, sertifiointia ja tarkastuksia;
21)
„jednostka oceniająca zgodność” oznacza jednostkę, która wykonuje czynności z zakresu oceny zgodności przeprowadzanej przez stronę trzecią, w tym testowanie, certyfikację i inspekcję;
22)
”ilmoitetulla laitoksella” vaatimustenmukaisuuden arviointilaitosta, joka on ilmoitettu tämän asetuksen ja muun asiaankuuluvan unionin yhdenmukaistamislainsäädännön mukaisesti;
22)
„jednostka notyfikowana” oznacza jednostkę oceniającą zgodność, którą notyfikowano zgodnie z niniejszym rozporządzeniem i innym stosownym unijnym prawodawstwem harmonizacyjnym;
23)
”merkittävällä muutoksella” tekoälyjärjestelmään sen markkinoille saattamisen tai käyttöönoton jälkeen tehtyä muutosta, jota tarjoaja ei ennakoi tai suunnittele alustavassa vaatimustenmukaisuuden arvioinnissa ja joka vaikuttaa siihen, miten tekoälyjärjestelmä täyttää tämän asetuksen III luvun 2 jaksossa vahvistetut vaatimukset, tai joka muuttaa käyttötarkoitusta, jota varten tekoälyjärjestelmä on arvioitu;
23)
„istotna zmiana” oznacza modyfikację w systemie AI po jego wprowadzeniu do obrotu lub oddaniu do użytku, która nie została przewidziana lub zaplanowana przy początkowej ocenie zgodności przeprowadzonej przez dostawcę i która ma wpływ na zgodność systemu AI z wymogami ustanowionymi w rozdziale III sekcja 2, lub która powoduje zmianę przeznaczenia, w odniesieniu do którego oceniono system AI;
24)
”CE-merkinnällä” merkintää, jolla tarjoaja osoittaa, että tekoälyjärjestelmä on niiden vaatimusten mukainen, jotka vahvistetaan III luvun 2 jaksossa ja muussa sovellettavassa unionin yhdenmukaistamislainsäädännössä ja jossa säädetään merkinnän kiinnittämisestä;
24)
„oznakowanie CE” oznacza oznakowanie, za pomocą którego dostawca wskazuje, że system AI spełnia wymogi ustanowione w rozdziale III sekcja 2 i innych mających zastosowanie unijnych przepisach harmonizacyjnych, przewidujących umieszczanie takiego oznakowania;
25)
”markkinoille saattamisen jälkeisellä seurantajärjestelmällä” kaikkia toimia, joita tekoälyjärjestelmien tarjoajat toteuttavat kerätäkseen ja tarkastellakseen niiden markkinoille saattamien tai käyttöön ottamien tekoälyjärjestelmien käytöstä saatuja kokemuksia, jotta voidaan todeta, onko tarpeen toteuttaa välittömästi tarpeellisia korjaavia tai ennalta ehkäiseviä toimenpiteitä;
25)
„system monitorowania po wprowadzeniu do obrotu” oznacza wszelkie działania prowadzone przez dostawców systemów AI służące gromadzeniu i przeglądowi doświadczeń zdobytych w wyniku wykorzystania systemów AI, które wprowadzają oni do obrotu lub oddają do użytku, w celu stwierdzenia ewentualnej konieczności natychmiastowego zastosowania niezbędnych działań naprawczych lub zapobiegawczych;
26)
”markkinavalvontaviranomaisella” kansallista viranomaista, joka toteuttaa asetuksen (EU) 2019/1020 mukaisia toimia;
26)
„organ nadzoru rynku” oznacza organ krajowy prowadzący działania i stosujący środki zgodnie z rozporządzeniem (UE) 2019/1020;
27)
”yhdenmukaistetulla standardilla” asetuksen (EU) N:o 1025/2012 2 artiklan 1 alakohdan c alakohdassa määriteltyä yhdenmukaistettua standardia;
27)
„norma zharmonizowana” oznacza normę zharmonizowaną określoną w art. 2 pkt 1 lit. c) rozporządzenia (UE) nr 1025/2012;
28)
”yhteisellä eritelmällä” asetuksen (EU) N:o 1025/2012 2 artiklan 4 alakohdassa määriteltyjä teknisiä eritelmiä, joiden avulla voidaan noudattaa tiettyjä tässä asetuksessa vahvistettuja vaatimuksia;
28)
„wspólna specyfikacja” oznacza zbiór specyfikacji technicznych zgodnie z definicją w art. 2 pkt 4 rozporządzenia (UE) nr 1025/2012, zapewniający środki umożliwiające zgodność z niektórymi wymogami ustanowionymi w niniejszym rozporządzeniu;
29)
”koulutusdatalla” dataa, jota käytetään tekoälyjärjestelmän kouluttamiseen sovittamalla sen opittavia parametreja;
29)
„dane treningowe” oznaczają dane wykorzystywane do trenowania systemu AI poprzez dopasowanie jego parametrów podlegających uczeniu;
30)
”validointidatalla” dataa, jota käytetään koulutetun tekoälyjärjestelmän arviointiin ja sen ei-opittavien parametrien ja oppimisprosessin hienosäätöön muun muassa ali- tai ylisovittamisen estämiseksi;
30)
„dane walidacyjne” oznaczają dane wykorzystywane do oceny trenowanego systemu AI oraz do dostrajania jego parametrów niepodlegających uczeniu oraz procesu uczenia, między innymi w celu zapobiegania niedostatecznemu wytrenowaniu lub przetrenowaniu;
31)
”validointidatajoukolla” erillistä datajoukkoa tai koulutusdatajoukon osaa joko kiinteällä tai muuttuvalla jaolla;
31)
„zbiór danych walidacyjnych” oznacza oddzielny zbiór danych lub część zbioru danych treningowych, w którym to przypadku udział tego podzbioru w zbiorze danych treningowych może być stały lub zmienny;
32)
”testausdatalla” dataa, jota käytetään tekoälyjärjestelmän riippumattomaan arviointiin kyseisen järjestelmän odotetun suorituskyvyn toteamiseksi ennen järjestelmän markkinoille saattamista tai käyttöönottoa;
32)
„dane testowe” oznaczają dane wykorzystywane do przeprowadzenia niezależnej oceny systemu AI w celu potwierdzenia oczekiwanej skuteczności działania tego systemu przed wprowadzeniem go do obrotu lub oddaniem go do użytku;
33)
”syöttötiedoilla” tekoälyjärjestelmään syötettyä tai sen suoraan hankkimaa dataa, jonka perusteella järjestelmä tuottaa tuloksen;
33)
„dane wejściowe” oznaczają dane dostarczone do systemu AI lub bezpośrednio przez niego pozyskiwane, na podstawie których system ten generuje wynik;
34)
”biometrisillä tiedoilla” kaikkia luonnollisen henkilön fyysisiin ja fysiologisiin ominaisuuksiin tai käyttäytymiseen liittyvällä teknisellä käsittelyllä saatuja henkilötietoja, kuten kasvokuvia tai sormenjälkitietoja;
34)
„dane biometryczne” oznaczają dane osobowe będące wynikiem specjalnego przetwarzania technicznego, które dotyczą cech fizycznych, fizjologicznych lub behawioralnych osoby fizycznej, takich jak wizerunek twarzy lub dane daktyloskopijne;
35)
”biometrisellä tunnistuksella” ihmisen fyysisten, fysiologisten, käyttäytymiseen liittyvien tai psykologisten ominaisuuksien automaattista tunnistamista luonnollisen henkilön henkilöllisyyden toteamiseksi vertaamalla kyseisen henkilön biometrisiä tietoja tietokantaan tallennettuihin toisten yksilöiden biometrisiin tietoihin;
35)
„identyfikacja biometryczna” oznacza zautomatyzowane rozpoznawanie fizycznych, fizjologicznych, behawioralnych lub psychologicznych cech ludzkich w celu ustalenia tożsamości osoby fizycznej przez porównanie danych biometrycznych tej osoby z danymi biometrycznymi osób fizycznych przechowywanymi w bazie danych;
36)
”biometrisellä todennuksella” luonnollisten henkilöiden henkilöllisyyden automaattista yksi yhteen -todentamista, tunnistautuminen mukaan lukien, vertaamalla näiden biometrisiä tietoja aiemmin annettuihin biometrisiin tietoihin;
36)
„weryfikacja biometryczna” oznacza zautomatyzowaną weryfikację typu jeden-do-jednego, w tym uwierzytelnianie, tożsamości osób fizycznych przez porównanie ich danych biometrycznych z wcześniej przekazanymi danymi biometrycznymi;
37)
”erityisillä henkilötietoryhmillä” asetuksen (EU) 2016/679 9 artiklan 1 kohdassa, direktiivin (EU) 2016/680 10 artiklassa ja asetuksen (EU) 2018/1725 10 artiklan 1 kohdassa tarkoitettuja henkilötietoryhmiä;
37)
„szczególne kategorie danych osobowych” oznaczają kategorie danych osobowych, o których mowa w art. 9 ust. 1 rozporządzenia (UE) 2016/679, art. 10 dyrektywy (UE) 2016/680 i art. 10 ust. 1 rozporządzenia (UE) 2018/1725;
38)
”arkaluonteisilla operatiivisilla tiedoilla” operatiivisia tietoja, jotka liittyvät rikosten ennalta ehkäisemistä, paljastamista, tutkimista tai niistä syytteeseenpanoa koskeviin toimiin ja joiden paljastaminen voisi vaarantaa rikosoikeudellisen menettelyn luotettavuuden;
38)
„wrażliwe dane operacyjne” oznaczają dane operacyjne związane z działaniami w zakresie zapobiegania przestępstwom, ich wykrywania, prowadzenia postępowań przygotowawczych w ich sprawie lub ich ścigania, których ujawnienie mogłoby zagrozić integralności postępowania karnego;
39)
”tunteentunnistusjärjestelmällä” tekoälyjärjestelmää, jonka avulla luonnollisten henkilöiden tunteita tai aikomuksia voidaan tunnistaa tai päätellä heidän biometristen tietojensa perusteella;
39)
„system rozpoznawania emocji” oznacza system AI służący do identyfikacji lub wywnioskowania emocji lub zamiarów osób fizycznych na podstawie danych biometrycznych tych osób;
40)
”biometrisellä luokittelujärjestelmällä” tekoälyjärjestelmää, jonka avulla luonnolliset henkilöt luokitellaan heidän biometristen tietojensa perusteella tiettyihin ryhmiin, paitsi jos se on toisen kaupallisen palvelun oheistoiminto ja se on ehdottoman välttämätön objektiivisista teknisistä syistä;
40)
„system kategoryzacji biometrycznej” oznacza system AI służący do przypisywania osób fizycznych do określonych kategorii na podstawie danych biometrycznych tych osób, oprócz przypadków, gdy taki system pełni funkcję pomocniczą w stosunku do innej usługi komercyjnej i jest bezwzględnie konieczny z obiektywnych względów technicznych;
41)
”biometrisellä etätunnistusjärjestelmällä” tekoälyjärjestelmää, jonka avulla luonnolliset henkilöt voidaan tunnistaa ilman heidän aktiivista osallistumistaan – tyypillisesti etäältä – vertaamalla henkilön biometrisiä tietoja viitetietokantaan sisältyviin biometrisiin tietoihin;
41)
„system zdalnej identyfikacji biometrycznej” oznacza system AI służący do identyfikacji osób fizycznych bez ich aktywnego udziału, zwykle na odległość, poprzez porównanie danych biometrycznych danej osoby fizycznej z danymi biometrycznymi zawartymi w referencyjnej bazie danych;
42)
”reaaliaikaisella biometrisellä etätunnistusjärjestelmällä” biometristä etätunnistusjärjestelmää, jossa biometristen tietojen kerääminen, vertailu ja tunnistaminen tapahtuvat ilman merkittävää viivettä ja joka kattaa välittömän tunnistamisen lisäksi myös vähäiset viiveet, joilla pyritään ehkäisemään harhaanjohtamista;
42)
„system zdalnej identyfikacji biometrycznej w czasie rzeczywistym” oznacza system zdalnej identyfikacji biometrycznej, w którym zbieranie danych biometrycznych, ich porównywanie i identyfikacja odbywają się bez znacznego opóźnienia, i który obejmuje nie tylko natychmiastową identyfikację, ale także ograniczone krótkie opóźnienia w celu uniknięcia obchodzenia przepisów;
43)
”jälkikäteisellä biometrisellä etätunnistusjärjestelmällä” muuta kuin reaaliaikaista biometristä etätunnistusjärjestelmää;
43)
„system zdalnej identyfikacji biometrycznej post factum” oznacza system zdalnej identyfikacji biometrycznej inny niż system zdalnej identyfikacji biometrycznej w czasie rzeczywistym;
44)
”julkisella tilalla” mitä tahansa julkisessa tai yksityisessä omistuksessa olevaa fyysistä paikkaa, johon määrittämättömällä määrällä luonnollisia henkilöitä on pääsy, riippumatta siitä, sovelletaanko tiettyjä pääsyä koskevia edellytyksiä ja riippumatta mahdollisista kapasiteettirajoituksista;
44)
„przestrzeń publiczna” oznacza miejsce fizyczne, będące własnością prywatną lub publiczną, dostępne dla nieokreślonej liczby osób fizycznych, niezależnie od tego, czy mogą mieć zastosowanie określone warunki dostępu, oraz niezależnie od potencjalnych ograniczeń pojemności;
45)
”lainvalvontaviranomaisella”
45)
„organ ścigania” oznacza:
a)
kaikkia viranomaisia, joiden toimivalta kattaa rikosten ennalta estämisen, tutkimisen, paljastamisen tai rikoksiin liittyvät syytetoimet tai rikosoikeudellisten seuraamusten täytäntöönpanon, mukaan lukien yleiseen turvallisuuteen kohdistuvilta uhkilta suojelu ja tällaisten uhkien ehkäisy; tai
a)
organ publiczny właściwy w zakresie zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania lub ścigania czynów zabronionych lub wykonywania kar, w tym ochrony przed zagrożeniami dla bezpieczeństwa publicznego i zapobiegania takim zagrożeniom; lub
b)
kaikkia muita elimiä tai yksiköitä, joille on jäsenvaltion lainsäädännössä annettu tehtäväksi käyttää julkista valtaa tai valtuuksia rikosten ennalta estämiseen, tutkimiseen, paljastamiseen tai rikoksiin liittyviin syytetoimiin tai rikosoikeudellisten seuraamusten täytäntöönpanoon, mukaan lukien yleiseen turvallisuuteen kohdistuvilta uhkilta suojelu ja tällaisten uhkien ehkäisy;
b)
inny organ lub podmiot, któremu na podstawie prawa państwa członkowskiego powierzono sprawowanie władzy publicznej i wykonywanie uprawnień publicznych do celów zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania i ścigania czynów zabronionych lub wykonywania kar, w tym ochrony przed zagrożeniami dla bezpieczeństwa publicznego i zapobiegania takim zagrożeniom;
46)
”lainvalvonnalla” toimia, joita lainvalvontaviranomaiset toteuttavat tai joita toteutetaan niiden puolesta rikosten ennalta estämistä, tutkimista, paljastamista tai rikoksiin liittyviä syytetoimia tai rikosoikeudellisten seuraamusten täytäntöönpanoa varten, mukaan lukien yleiseen turvallisuuteen kohdistuvilta uhkilta suojelu ja tällaisten uhkien ehkäisy;
46)
„ściganie przestępstw” oznacza działania prowadzone przez organy ścigania lub w ich imieniu w celu zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania lub ścigania czynów zabronionych lub wykonywania kar, w tym ochrony przed zagrożeniami dla bezpieczeństwa publicznego i zapobiegania takim zagrożeniom;
47)
”tekoälytoimistolla” komission tehtävää edistää 24 päivänä tammikuuta 2024 tehdyssä komission päätöksessä säädettyä tekoälyjärjestelmien, yleiskäyttöisten tekoälymallien ja tekoälyn hallinnoinnin täytäntöönpanoa, seurantaa ja valvontaa; tässä asetuksessa olevia viittauksia tekoälytoimistoon pidetään viittauksina komissioon;
47)
„Urząd ds. AI” oznacza zadanie Komisji polegające na przyczynianiu się do wdrażania, monitorowania i nadzorowania systemów AI i modeli AI ogólnego przeznaczenia oraz zarządzania AI, określone w decyzji Komisji z dnia 24 stycznia 2024 r.; zawarte w niniejszym rozporządzeniu odesłania do Urzędu ds. AI odczytuje się jako odesłania do Komisji;
48)
”kansallisella toimivaltaisella viranomaisella” ilmoittamisesta vastaavaa viranomaista tai markkinavalvontaviranomaista; kun kyseessä ovat unionin toimielinten, virastojen, toimistojen ja elinten käyttöön ottamat tai käyttämät tekoälyjärjestelmät, tässä asetuksessa olevia viittauksia kansallisiin toimivaltaisiin viranomaisiin tai markkinavalvontaviranomaisiin on pidettävä viittauksina Euroopan tietosuojavaltuutettuun;
48)
„właściwy organ krajowy” oznacza organ notyfikujący lub organ nadzoru rynku; w odniesieniu do systemów AI oddanych do użytku lub wykorzystywanych przez instytucje, organy i jednostki organizacyjne Unii, zawarte w niniejszym rozporządzeniu odesłania do właściwych organów krajowych i organów nadzoru rynku odczytuje się jako odesłania do Europejskiego Inspektora Ochrony Danych;
49)
”vakavalla vaaratilanteella” vaaratilannetta tai tekoälyjärjestelmän toimintahäiriötä, joka suoraan tai välillisesti johtaa johonkin seuraavista:
49)
„poważny incydent” oznacza incydent lub nieprawidłowe działanie systemu AI, które bezpośrednio lub pośrednio prowadzą do któregokolwiek z poniższych zdarzeń:
a)
henkilön kuolema tai vakava vahinko henkilön terveydelle;
a)
śmierci osoby lub poważnego uszczerbku na zdrowiu osoby;
b)
vakava tai peruuttamaton häiriö kriittisen infrastruktuurin hallinnassa ja toiminnassa.
b)
poważnego i nieodwracalnego zakłócenia w zarządzaniu infrastrukturą krytyczną lub jej działaniu;
c)
perusoikeuksien suojaamiseen tarkoitettujen unionin oikeuden mukaisten velvoitteiden rikkominen,
c)
naruszenia obowiązków przewidzianych w prawie Unii, których celem jest ochrona praw podstawowych;
d)
vakava vahinko omaisuudelle tai ympäristölle;
d)
poważnej szkody na mieniu lub poważnej szkody dla środowiska;
50)
”henkilötiedoilla” asetuksen (EU) 2016/679 4 artiklan 1 alakohdassa määriteltyjä henkilötietoja;
50)
„dane osobowe” oznaczają dane osobowe zdefiniowane w art. 4 pkt 1 rozporządzenia (UE) 2016/679;
51)
”muilla kuin henkilötiedoilla” muuta dataa kuin asetuksen (EU) 2016/679 4 artiklan 1 alakohdassa määriteltyjä henkilötietoja;
51)
„dane nieosobowe” oznaczają dane inne niż dane osobowe zdefiniowane w art. 4 pkt 1 rozporządzenia (UE) 2016/679;
52)
”profiloinnilla” profilointia asetuksen (EU) 2016/679 4 artiklan 4 alakohdassa tarkoitetulla tavalla;
52)
„profilowanie” oznacza profilowanie zdefiniowane w art. 4 pkt 4 rozporządzenia (UE) 2016/679;
53)
”todellisissa olosuhteissa tapahtuvaa testausta koskevalla suunnitelmalla” asiakirjaa, jossa kuvataan todellisissa olosuhteissa tapahtuvan testauksen tavoitteet, menetelmät, maantieteellinen, väestöä koskeva ja ajallinen laajuus, seuranta, organisointi ja toteuttaminen;
53)
„plan testów w warunkach rzeczywistych” oznacza dokument opisujący cele, metodykę, zasięg geograficzny, populacyjny i czasowy, monitorowanie, organizację i przeprowadzanie testów w warunkach rzeczywistych;
54)
”testiympäristösuunnitelmalla” osallistuvan tarjoajan ja toimivaltaisen viranomaisen välillä sovittua asiakirjaa, jossa kuvataan testiympäristössä toteutettavien toimien tavoitteet, edellytykset, aikataulu, menetelmät ja vaatimukset;
54)
„plan działania piaskownicy” oznacza dokument uzgodniony między uczestniczącym dostawcą a właściwym organem opisujący cele, warunki, ramy czasowe, metodykę i wymogi dotyczące działań prowadzonych w ramach piaskownicy;
55)
”tekoälyn sääntelyn testiympäristöllä” toimivaltaisen viranomaisen perustamaa hallinnoitua kehystä, joka tarjoaa tekoälyjärjestelmien tarjoajille tai mahdollisille tarjoajille mahdollisuuden kehittää, kouluttaa, validoida ja testata tarvittaessa todellisissa olosuhteissa innovatiivista tekoälyjärjestelmää testisuunnitelman mukaisesti rajoitetun ajan viranomaisvalvonnassa;
55)
„piaskownica regulacyjna w zakresie AI” oznacza kontrolowane ramy ustanowione przez właściwy organ, umożliwiające dostawcom lub potencjalnym dostawcom systemów AI możliwość rozwoju, trenowania, walidacji i testowania – w stosownych przypadkach w warunkach rzeczywistych – innowacyjnych systemów AI, w oparciu o plan działania piaskownicy, w ograniczonym czasie i pod nadzorem regulacyjnym;
56)
”tekoälylukutaidolla” osaamista, tietämystä ja ymmärrystä, joiden avulla tarjoajat, käyttöönottajat ja henkilöt, joihin vaikutukset kohdistuvat, voivat ottaen huomioon oikeutensa ja velvollisuutensa tämän asetuksen puitteissa ottaa tietoon perustuen käyttöön tekoälyjärjestelmiä sekä saada tietoa tekoälyn mahdollisuuksista ja riskeistä ja mahdollisista vahingoista, joita se voi aiheuttaa;
56)
„kompetencje w zakresie AI” oznaczają umiejętności, wiedzę oraz zrozumienie, które pozwalają dostawcom, podmiotom stosującym i osobom, na które AI ma wpływ – z uwzględnieniem ich odnośnych praw i obowiązków w kontekście niniejszego rozporządzenia – w przemyślany sposób wdrażać systemy sztucznej inteligencji oraz mieć świadomość, jakie możliwości i ryzyka wiążą się z AI oraz jakie potencjalne szkody może ona wyrządzić;
57)
”todellisissa olosuhteissa suoritettavalla testauksella” tekoälyjärjestelmän tilapäistä testaamista käyttötarkoituksensa mukaisesti todellisissa olosuhteissa muualla kuin laboratoriossa tai muulla tavoin simuloidussa ympäristössä luotettavan ja vankan datan keräämiseksi ja tekoälyjärjestelmän vaatimustenmukaisuuden arvioimiseksi ja todentamiseksi tämän asetuksen vaatimuksiin nähden, ja tätä ei katsota tekoälyjärjestelmän saattamiseksi markkinoille tai sen käyttöönottamiseksi tässä asetuksessa tarkoitetulla tavalla, edellyttäen että kaikki 57 tai 60 artiklassa säädetyt edellytykset täyttyvät;
57)
„testy w warunkach rzeczywistych” oznaczają ograniczone w czasie testy systemu AI dotyczące jego przeznaczenia prowadzone w warunkach rzeczywistych – poza środowiskiem laboratoryjnym lub środowiskiem symulowanym innego typu – w celu zgromadzenia wiarygodnych i solidnych danych oraz w celu oceny i weryfikacji spełnienia przez system AI z wymogów niniejszego rozporządzenia i które nie są kwalifikowane jako wprowadzanie systemu AI do obrotu lub oddawanie go do użytku w rozumieniu niniejszego rozporządzenia, o ile spełnione są wszystkie warunki określone w art. 57 lub 60;
58)
”osallistujalla” todellisissa olosuhteissa tapahtuvan testauksen yhteydessä luonnollista henkilöä, joka osallistuu todellisissa olosuhteissa tapahtuvaan testaukseen;
58)
„uczestnik” do celów testów w warunkach rzeczywistych oznacza osobę fizyczną, która uczestniczy w testach tego typu;
59)
”tietoon perustuvalla suostumuksella” osallistujan vapaasti annettua, tiettyä, yksiselitteistä ja vapaaehtoista ilmaisua halukkuudestaan osallistua tiettyyn todellisissa olosuhteissa tapahtuvaan testaukseen, sen jälkeen kun hän on saanut tiedot testauksen kaikista näkökohdista, jotka ovat merkityksellisiä osallistujan osallistumispäätöksen kannalta;
59)
„świadoma zgoda” oznacza swobodne, konkretne, jednoznaczne i dobrowolne wyrażenie przez uczestnika zgody na uczestnictwo w określonych testach w warunkach rzeczywistych, po uzyskaniu informacji o wszystkich aspektach testów, które są istotne dla decyzji o uczestnictwie podejmowanej przez uczestnika;
60)
”syväväärennöksellä” tekoälyllä tuotettua tai käsiteltyä kuva-, ääni- tai videosisältöä, joka muistuttaa olemassa olevia henkilöitä, esineitä, paikkoja, toimijoita tai tapahtumia ja joka antaa henkilölle valheellisen vaikutelman siitä, että se on aito tai totuudenmukainen;
60)
„deepfake” oznacza wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe;
61)
”laajalle levinneellä rikkomisella” yksityishenkilöiden etuja suojaavan unionin oikeuden vastaisia tekoja tai laiminlyöntejä, jotka
61)
„powszechne naruszenie” oznacza działanie lub zaniechanie sprzeczne z prawem Unii chroniącym interesy osób fizycznych, które:
a)
ovat vahingoittaneet tai ovat omiaan vahingoittamaan sellaisten yksityishenkilöiden yhteisiä etuja, joiden asuinpaikka on vähintään kahdessa muussa jäsenvaltiossa kuin siinä,
a)
szkodzi lub może zaszkodzić zbiorowym interesom osób fizycznych zamieszkałych w co najmniej dwóch państwach członkowskich innych niż państwo członkowskie, w którym:
i)
jossa teko tai laiminlyönti sai alkunsa tai tapahtui,
(i)
działanie lub zaniechanie miały swoje źródło lub miejsce;
ii)
jossa asianomainen tarjoaja tai tapauksen mukaan sen valtuutettu edustaja sijaitsee tai jonne se on sijoittautunut tai
(ii)
znajduje się lub siedzibę ma dany dostawca lub, w stosownych przypadkach, jego upoważniony przedstawiciel; lub
iii)
jonne käyttöönottaja on sijoittautunut silloin, kun hän syyllistyy rikkomiseen;
(iii)
siedzibę ma podmiot stosujący, jeżeli naruszenie zostało popełnione przez ten podmiot;
b)
ovat vahingoittaneet, vahingoittavat tai ovat omiaan vahingoittamaan yksityishenkilöiden yhteisiä etuja ja joilla on yhteisiä piirteitä, kuten sama lainvastainen menettely tai samat edut rikkomuksen kohteena ja jotka ilmenevät samanaikaisesti ja joiden tekijä on sama toimija vähintään kolmessa jäsenvaltiossa;
b)
wyrządziło, wyrządza lub może wyrządzić szkodę zbiorowym interesom osób fizycznych i ma cechy wspólne, w tym dotyczy tej samej bezprawnej praktyki lub naruszenia tego samego interesu, oraz ma miejsce jednocześnie w co najmniej trzech państwach członkowskich, a jego sprawcą jest ten sam operator;
62)
”kriittisellä infrastruktuurilla” direktiivin (EU) 2022/2557 2 artiklan 4 alakohdassa määriteltyä kriittistä infrastruktuuria;
62)
„infrastruktura krytyczna” oznacza infrastrukturę krytyczną zdefiniowaną w art. 2 pkt 4 dyrektywy (UE) 2022/2557;
63)
”yleiskäyttöisellä tekoälymallilla” tekoälymallia, myös silloin, kun tällainen tekoälymalli on koulutettu suurella määrällä dataa käyttäen laajamittaista itsevalvontaa, joka on hyvin yleisluonteinen ja pystyy suorittamaan pätevästi monenlaisia erillisiä tehtäviä riippumatta siitä, miten malli saatetaan markkinoille, ja joka voidaan integroida erilaisiin ketjun loppupään järjestelmiin tai sovelluksiin, lukuun ottamatta tekoälymalleja, joita käytetään tutkimus-, kehitys- tai prototyyppitoimintaan ennen niiden saattamista markkinoille;
63)
„model AI ogólnego przeznaczenia” oznacza model AI, w tym model AI trenowany dużą ilością danych z wykorzystaniem nadzoru własnego na dużą skalę, który wykazuje znaczną ogólność i jest w stanie kompetentnie wykonywać szeroki zakres różnych zadań, niezależnie od sposobu, w jaki model ten jest wprowadzany do obrotu, i który można zintegrować z różnymi systemami lub aplikacjami niższego szczebla – z wyłączeniem modeli AI, które są wykorzystywane na potrzeby działań w zakresie badań, rozwoju i tworzenia prototypów przed wprowadzeniem ich do obrotu;
64)
”vaikutuksiltaan merkittävällä suorituskyvyllä” suorituskykyä, joka vastaa kehittyneimpien yleiskäyttöisten tekoälymallien mitattuja valmiuksia tai ylittää ne;
64)
„zdolności dużego oddziaływania” oznaczają zdolności, które dorównują zdolnościom zapisanym w najbardziej zaawansowanych modelach AI ogólnego przeznaczenia lub je przewyższają;
65)
”systeemisellä riskillä” riskiä, joka on yleiskäyttöisten tekoälymallien vaikutuksiltaan merkittävälle suorituskyvylle ominainen ja jolla on merkittävä vaikutus unionin markkinoihin niiden kattavuuden tai kansanterveyteen, turvallisuuteen, yleiseen turvallisuuteen, perusoikeuksiin tai koko yhteiskuntaan kohdistuvien tosiasiallisten tai kohtuudella ennakoitavissa olevien kielteisten vaikutusten vuoksi ja jota voidaan levittää laajamittaisesti koko arvoketjussa;
65)
„ryzyko systemowe” oznacza ryzyko, które jest charakterystyczne dla modeli AI ogólnego przeznaczenia posiadających zdolności dużego oddziaływania i ma znaczący wpływ na rynek Unii ze względu na zasięg tych modeli lub rzeczywiste lub dające się racjonalnie przewidzieć negatywne skutki dla zdrowia publicznego, porządku publicznego, bezpieczeństwa publicznego, praw podstawowych lub całego społeczeństwa, mogące rozprzestrzenić się na dużą skalę w całym łańcuchu wartości;
66)
”yleiskäyttöisellä tekoälyjärjestelmällä” tekoälyjärjestelmää, joka perustuu yleiskäyttöiseen tekoälymalliin ja joka kykenee palvelemaan erilaisia tarkoituksia sekä suorassa käytössä että muihin tekoälyjärjestelmiin integroituna;
66)
„system AI ogólnego przeznaczenia” oznacza system AI oparty na modelu AI ogólnego przeznaczenia, który to system może służyć różnym celom, nadający się zarówno do bezpośredniego wykorzystania, jak i do integracji z innymi systemami AI;
67)
”liukulukulaskennalla” mitä tahansa matemaattista toimitusta tai tehtävää, johon liittyy liukulukuja, jotka ovat niiden reaalilukujen alajoukko, joita tietokoneissa tyypillisesti esitetään pysyvän arvon kokonaislukuna, jota skaalataan kiinteäkantaisella kokonaislukueksponentilla;
67)
„operacja zmiennoprzecinkowa” oznacza operację matematyczną lub zadanie z wykorzystaniem liczb zmiennoprzecinkowych, które stanowią podzbiór liczb rzeczywistych zwykle przedstawianych na komputerach przez liczbę całkowitą o stałej dokładności przeskalowaną przez całkowity wykładnik stałej podstawy systemu liczbowego;
68)
”ketjun loppupään tarjoajalla” tekoälyjärjestelmän, myös yleiskäyttöisen tekoälyjärjestelmän, johon on integroitu tekoälymalli, tarjoajaa, riippumatta siitä, onko tekoälymalli niiden itsensä tarjoama ja vertikaalisesti integroitu vai jonkin muun yhteisön sopimussuhteiden perusteella tarjoama.
68)
„dostawca niższego szczebla” oznacza dostawcę systemu AI, w tym systemu AI ogólnego przeznaczenia, rozwiniętego w drodze integracji modelu AI, niezależnie od tego, czy ten model AI jest dostarczany przez tego samego dostawcę i zintegrowany pionowo czy dostarczany przez inny podmiot na podstawie stosunków umownych.
4 artikla
Artykuł 4
Tekoälylukutaito
Kompetencje w zakresie AI
Tekoälyjärjestelmien tarjoajien ja käyttöönottajien on parhaansa mukaan toteutettava toimenpiteitä, joilla ne varmistavat henkilöstönsä ja muiden niiden puolesta tekoälyjärjestelmien toiminnasta ja käytöstä vastaavien henkilöiden riittävän tekoälylukutaidon, minkä yhteydessä otetaan huomioon heidän tekninen tietämyksensä, kokemuksensa, koulutuksensa ja tekoälyjärjestelmien käyttöyhteys sekä henkilöt tai henkilöryhmät, joihin tekoälyjärjestelmiä on määrä käyttää.
Dostawcy i podmioty stosujące systemy AI podejmują środki w celu zapewnienia, w możliwie największym stopniu, odpowiedniego poziomu kompetencji w zakresie AI wśród swojego personelu i innych osób zajmujących się działaniem i wykorzystaniem systemów AI w ich imieniu, z uwzględnieniem ich wiedzy technicznej, doświadczenia, wykształcenia i wyszkolenia oraz kontekstu, w którym systemy AI mają być wykorzystywane, a także biorąc pod uwagę osoby lub grupy osób, wobec których systemy AI mają być wykorzystywane.
II LUKU
ROZDZIAŁ II
KIELLETYT TEKOÄLYYN LIITTYVÄT KÄYTÄNNÖT
ZAKAZANE PRAKTYKI
5 artikla
Artykuł 5
Kielletyt tekoälyyn liittyvät käytännöt
Zakazane praktyki w zakresie AI
1. Seuraavat tekoälyyn liittyvät käytännöt ovat kiellettyjä:
1. Zakazuje się następujących praktyk w zakresie AI:
a)
sellaisen tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tai käyttö, jossa käytetään subliminaalisia tekniikoita, joita henkilö ei havaitse tietoisesti, tai tarkoituksellisesti manipuloivia tai harhaanjohtavia tekniikoita, joiden tavoitteena on vääristää tai jotka olennaisesti vääristävät henkilön tai henkilöryhmän käyttäytymistä heikentäen tuntuvasti tämän kykyä tehdä tietoinen päätös ja saaden tämän tekemään päätöksen, jota tämä ei olisi muussa tapauksessa tehnyt, tavalla, joka aiheuttaa tai kohtuullisella todennäköisyydellä aiheuttaa kyseiselle henkilölle, toiselle henkilölle tai henkilöryhmälle merkittävää haittaa.
a)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który stosuje techniki podprogowe będące poza świadomością danej osoby lub celowe techniki manipulacyjne lub wprowadzające w błąd, czego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub grupy osób poprzez znaczące ograniczenie ich zdolności do podejmowania świadomych decyzji, powodując tym samym podjęcie przez nie decyzji, której inaczej by nie podjęły, w sposób, który wyrządza lub może wyrządzić u niej, u innej osoby lub u grupy osób poważną szkodę;
b)
sellaisen tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tai käyttö, jossa hyödynnetään luonnollisen henkilön tai tietyn henkilöryhmän haavoittuvuuksia, jotka liittyvät heidän ikäänsä, vammaansa tai erityiseen sosiaaliseen tai taloudelliseen tilanteeseensa, siten, että tavoitteena tai vaikutuksena on olennaisesti vääristää kyseisen henkilön tai kyseiseen ryhmään kuuluvan henkilön käyttäytymistä tavalla, joka aiheuttaa tai kohtuullisella todennäköisyydellä aiheuttaa kyseiselle henkilölle tai toiselle henkilölle merkittävää haittaa;
b)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który wykorzystuje słabości osoby fizycznej lub określonej grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną, którego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub osoby należącej do tej grupy w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić u tej osoby lub u innej osoby poważną szkodę;
c)
tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tai käyttö luonnollisten henkilöiden tai henkilöryhmien arvioimiseksi tai luokittelemiseksi tiettynä ajanjaksona heidän sosiaalisen käyttäytymisensä tai tunnettujen, pääteltyjen tai ennakoitujen henkilökohtaisten ominaisuuksiensa tai luonteenpiirteidensä perusteella siten, että sosiaalinen pisteytys johtaa jompaankumpaan tai molempiin seuraavista:
c)
wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI na potrzeby oceny lub klasyfikacji osób fizycznych lub grup osób prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości, kiedy to scoring społeczny prowadzi do jednego lub obu z następujących skutków:
i)
tiettyjen luonnollisten henkilöiden tai henkilöryhmien haitallinen tai epäedullinen kohtelu sosiaalisissa yhteyksissä, jotka eivät liity siihen asiayhteyteen, jossa tiedot alun perin tuotettiin tai kerättiin;
(i)
krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane;
ii)
tiettyjen luonnollisten henkilöiden tai henkilöryhmien haitallinen tai epäedullinen kohtelu, joka on perusteetonta tai suhteetonta heidän sosiaaliseen käyttäytymiseensä tai sen vakavuuteen nähden;
(ii)
krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi;
d)
tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tätä erityistarkoitusta varten tai käyttö luonnollisia henkilöitä koskevien riskinarviointien tekemiseen, jotta voidaan arvioida tai ennustaa sen riskiä, että luonnollinen henkilö syyllistyy rikokseen, kun tämä perustuu yksinomaan luonnollisen henkilön profilointiin tai hänen persoonallisuuspiirteidensä ja persoonallisuusominaisuuksiensa arviointiin; tätä kieltoa ei sovelleta tekoälyjärjestelmiin, joita käytetään tukemaan ihmisen tekemää arviointia jonkun henkilön osallistumisesta rikolliseen toimintaan, kun arvio jo perustuu objektiivisiin ja todennettavissa oleviin tosiseikkoihin, jotka liittyvät suoraan rikolliseen toimintaan;
d)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemu AI do przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, by ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez osobę fizyczną, wyłącznie na podstawie profilowania osoby fizycznej lub oceny jej cech osobowości i cech charakterystycznych; zakaz ten nie ma zastosowania do systemów AI wykorzystywanych do wspierania dokonywanej przez człowieka oceny udziału danej osoby w działalności przestępczej, która to ocena opiera się już na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą;
e)
sellaisten tekoälyjärjestelmien saattaminen markkinoille, käyttöönotto tähän tiettyyn tarkoitukseen tai käyttö, joilla luodaan tai laajennetaan kasvojentunnistustietokantoja haravoimalla kasvokuvia kohdentamattomasti internetistä tai valvontakamerakuvista;
e)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej;
f)
tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tätä tarkoitusta varten tai käyttö luonnollisen henkilön tunteiden päättelemiseksi työpaikalla ja oppilaitoksissa, paitsi jos tekoälyjärjestelmän käyttöä on tarkoitus hyödyntää tai saattaa markkinoille lääketieteellisiin tai turvallisuuteen liittyviin tarkoituksiin;
f)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa;
g)
sellaisten biometristen luokittelujärjestelmien markkinoille saattaminen, käyttöönotto tätä tiettyä tarkoitusta varten tai sellaisten biometristen luokittelujärjestelmien käyttö, joissa luonnolliset henkilöt luokitellaan heidän biometristen tietojensa perusteella rodun, poliittisten mielipiteiden, ammattiliiton jäsenyyden, uskonnollisen tai filosofisen vakaumuksen, seksuaalisen käyttäytymisen tai seksuaalisen suuntautumisen perusteella; tämä kielto ei koske laillisesti hankittujen biometristen tietoaineistojen, kuten kuvien, merkitsemistä tai suodattamista biometristen tietojen perusteella lainvalvonta-alalla;
g)
wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby fizyczne w oparciu o ich dane biometryczne, by wydedukować lub wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej; zakaz ten nie obejmuje przypadków etykietowania ani filtrowania pozyskanych zgodnie z prawem zbiorów danych biometrycznych, takich jak obrazy, w oparciu o dane biometryczne, ani kategoryzacji danych biometrycznych w obszarze ścigania przestępstw;
h)
reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö julkisissa tiloissa lainvalvontatarkoituksessa, paitsi jos ja siltä osin kuin se on ehdottoman välttämätöntä jonkin seuraavan tavoitteen saavuttamiseksi:
h)
wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, chyba że – i w zakresie, w jakim – takie wykorzystanie jest bezwzględnie konieczne do jednego z następujących celów:
i)
kaappauksen, ihmiskaupan ja seksuaalisen hyväksikäytön uhrien kohdennettu etsintä sekä kadonneiden henkilöiden etsiminen;
(i)
ukierunkowanego poszukiwania konkretnych ofiar uprowadzeń, handlu ludźmi lub wykorzystywania seksualnego ludzi, a także poszukiwania osób zaginionych;
ii)
luonnollisten henkilöiden henkeen tai fyysiseen turvallisuuteen kohdistuvan erityisen, merkittävän ja välittömän uhan taikka aidon ja välittömän tai aidon ja ennakoitavissa olevan terrori-iskun uhan ehkäiseminen;
(ii)
zapobiegnięcia konkretnemu, istotnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub rzeczywistemu i aktualnemu lub rzeczywistemu i dającemu się przewidzieć zagrożeniu atakiem terrorystycznym;
iii)
rikoksesta epäillyn henkilön paikantaminen tai tunnistaminen liitteessä II tarkoitettujen rikosten tutkintaa tai syytteeseenpanoa tai rikosoikeudellisen seuraamuksen täytäntöönpanoa varten ja joista voi asianomaisessa jäsenvaltiossa seurata vapaudenmenetyksen käsittävä rangaistus tai turvaamistoimenpide, jonka enimmäisaika on vähintään neljä vuotta.
(iii)
lokalizowania lub identyfikowania osoby podejrzanej o popełnienie przestępstwa w celu prowadzenia postępowania przygotowawczego lub ścigania lub wykonania kar w odniesieniu do przestępstw, o których mowa w załączniku II, podlegających w danym państwie członkowskim karze pozbawienia wolności lub środkowi polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej cztery lata.
Ensimmäisen alakohdan h alakohta ei rajoita asetuksen (EU) 2016/679 9 artiklan soveltamista, kun kyse on biometristen tietojen käsittelystä muihin tarkoituksiin kuin lainvalvontaan.
Akapit pierwszy lit. h) pozostaje bez uszczerbku dla art. 9 rozporządzenia (UE) 2016/679 w odniesieniu do przetwarzania danych biometrycznych do celów innych niż ściganie przestępstw.
2. Kun reaaliaikaisia biometrisiä etätunnistusjärjestelmiä käytetään julkisissa tiloissa lainvalvontatarkoituksessa minkä tahansa 1 kohdan ensimmäisen alakohdan h alakohdassa tarkoitetun tavoitteen saavuttamiseksi, käytön on tapahduttava kyseisessä kohdassa vahvistettuihin tarkoituksiin ainoastaan erityisesti kohteena olevan henkilön henkilöllisyyden vahvistamiseksi, ja siinä on otettava huomioon seuraavat seikat:
2. Systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w odniesieniu do któregokolwiek z celów, o których mowa w ust. 1 akapit pierwszy lit. h), mogą być wykorzystywane do celów określonych w tej literze, jedynie w celu potwierdzenia tożsamości konkretnej poszukiwanej osoby, z uwzględnieniem przy tym następujących elementów:
a)
mahdollisen käytön aiheuttavan tilanteen luonne, erityisesti aiheutuvan vahingon vakavuus, todennäköisyys ja laajuus siinä tapauksessa, että järjestelmää ei käytetä;
a)
charakter sytuacji powodującej konieczność ewentualnego wykorzystania takiego systemu, w szczególności powagę, prawdopodobieństwo i skalę szkody, która zostałaby wyrządzona w przypadku niewykorzystania tego systemu;
b)
järjestelmän käytön seuraukset kaikkien asianomaisten henkilöiden oikeuksille ja vapauksille, erityisesti näiden seurausten vakavuus, todennäköisyys ja laajuus.
b)
konsekwencje wykorzystania takiego systemu dla praw i wolności wszystkich zainteresowanych osób, w szczególności powagę, prawdopodobieństwo i skalę tych konsekwencji.
Lisäksi kun reaaliaikaisia biometrisiä etätunnistusjärjestelmiä käytetään julkisissa tiloissa lainvalvontatarkoituksessa minkä tahansa tämän artiklan 1 kohdan ensimmäisen alakohdan h alakohdassa tarkoitetun tavoitteen saavuttamiseksi, on noudatettava käyttöön liittyviä välttämättömiä ja oikeasuhteisia suojatoimia ja edellytyksiä niiden käytön sallivan kansallisen lainsäädännön mukaisesti, erityisesti ajallisia, maantieteellisiä ja henkilötason rajoituksia. Reaaliaikaisen biometrisen etätunnistusjärjestelmän käyttö julkisissa tiloissa sallitaan vain, jos lainvalvontaviranomainen on saattanut päätökseen 27 artiklassa tarkoitetun perusoikeuksia koskevan vaikutustenarvioinnin ja rekisteröinyt järjestelmän EU:n tietokantaan 49 artiklan mukaisesti. Asianmukaisesti perustelluissa kiireellisissä tapauksissa tällaisten järjestelmien käyttö voidaan kuitenkin aloittaa ilman rekisteröintiä EU:n tietokantaan edellyttäen, että rekisteröinti saatetaan päätökseen ilman aiheetonta viivytystä.
Ponadto wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w odniesieniu do któregokolwiek z celów, o których mowa w ust. 1 akapit pierwszy lit. h) niniejszego artykułu, musi przebiegać z zachowaniem niezbędnych i proporcjonalnych zabezpieczeń i warunków w odniesieniu do takiego wykorzystywania zgodnie z zezwalającym na takie wykorzystanie prawem krajowym, w szczególności w odniesieniu do ograniczeń czasowych, geograficznych i osobowych. Wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej jest dozwolone tylko wtedy, gdy organ ścigania przeprowadził ocenę skutków dla praw podstawowych zgodnie z art. 27 oraz zarejestrował system w bazie danych UE zgodnie z przepisami art. 49. W należycie uzasadnionych nadzwyczajnych przypadkach można jednak rozpocząć korzystanie z takich systemów bez rejestracji w bazie danych UE, pod warunkiem że taka rejestracja zostanie dokonana bez zbędnej zwłoki.
3. Edellä olevan 1 kohdan ensimmäisen alakohdan h alakohdan ja 2 kohdan tarkoituksiin jokainen reaaliaikaisen biometrisen etätunnistusjärjestelmän käyttö lainvalvontatarkoituksessa julkisissa tiloissa edellyttää sen jäsenvaltion, jossa käyttö tapahtuu, sellaisen oikeusviranomaisen tai riippumattoman hallintoviranomaisen, jonka päätös on sitova, myöntämää ennakkolupaa, joka annetaan perustellusta pyynnöstä ja 5 kohdassa tarkoitetun kansallisen lainsäädännön yksityiskohtaisten sääntöjen mukaisesti. Asianmukaisesti perustelluissa kiireellisissä tapauksissa tällaisen järjestelmän käyttö voidaan kuitenkin aloittaa ilman lupaa, kunhan asianmukainen lupa pyydetään ilman aiheetonta viivytystä ja viimeistään 24 tunnin kuluessa. Jos tällainen lupa evätään, käyttö on lopetettava välittömästi ja kaikki tiedot sekä tällaiseen käyttöön liittyvät tulokset ja tuotokset on välittömästi poistettava.
3. Na potrzeby ust. 1 akapit pierwszy lit. h) i ust. 2, każde wykorzystanie systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw wymaga uzyskania uprzedniego zezwolenia udzielonego przez organ wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny państwa członkowskiego, w którym ma nastąpić wykorzystanie; zezwolenie to wydawane jest na uzasadniony wniosek i zgodnie ze szczegółowymi przepisami prawa krajowego, o których mowa w ust. 5. W należycie uzasadnionych pilnych przypadkach korzystanie z takiego systemu można jednak rozpocząć bez zezwolenia, pod warunkiem że wniosek o takie zezwolenie zostanie złożony bez zbędnej zwłoki, najpóźniej w ciągu 24 godzin. W przypadku odmowy udzielenia takiego zezwolenia wykorzystywanie systemu wstrzymuje się ze skutkiem natychmiastowym, a wszystkie dane, a także rezultaty i wyniki uzyskane podczas tego wykorzystania musza zostać natychmiast odrzucone i usunięte.
Toimivaltainen oikeusviranomainen tai riippumaton hallintoviranomainen, jonka päätös on sitova, saa myöntää luvan ainoastaan, jos se katsoo sille esitettyjen objektiivisten todisteiden tai selkeiden seikkojen perusteella, että kyseessä oleva reaaliaikaisen biometrisen etätunnistusjärjestelmän käyttö on välttämätöntä ja oikeasuhteista jonkin 1 kohdan ensimmäisen alakohdan h alakohdassa tarkoitetun ja pyynnössä yksilöidyn tavoitteen saavuttamiseksi, ja se rajoittuu erityisesti siihen, mikä on ehdottoman välttämätöntä ajanjakson sekä maantieteellisen ja henkilötason soveltamisalan osalta. Toimivaltaisen viranomaisen on pyyntöä koskevaa päätöstä tehdessään otettava huomioon 2 kohdassa tarkoitetut seikat. Päätöstä, jolla on henkilöön kohdistuvia kielteisiä oikeusvaikutuksia, ei saa tehdä pelkästään reaaliaikaisen biometrisen etätunnistusjärjestelmän tuotosten perusteella.
Właściwy organ wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny udziela zezwolenia tylko wtedy, gdy jest przekonany, na podstawie obiektywnych dowodów lub jasnych przesłanek, które mu przedstawiono, że wykorzystanie danego systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym jest konieczne i proporcjonalne do osiągnięcia jednego z celów określonych w ust. 1 akapit pierwszy lit. h), wskazanego we wniosku, a w szczególności ogranicza się do tego, co jest bezwzględnie konieczne w odniesieniu do przedziału czasowego, a także zakresu geograficznego i podmiotowego. Podejmując decyzję w sprawie wniosku organ ten bierze pod uwagę elementy, o których mowa w ust. 2. Nie można wydać decyzji wywołującej niepożądane skutki prawne dla danej osoby wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
4. Jokaisesta reaaliaikaisen biometrisen etätunnistusjärjestelmän käytöstä julkisissa tiloissa lainvalvontatarkoituksiin on ilmoitettava asianomaiselle markkinavalvontaviranomaiselle ja kansalliselle tietosuojaviranomaiselle 5 kohdassa tarkoitettujen kansallisten sääntöjen mukaisesti, sanotun kuitenkaan rajoittamatta 3 kohdan soveltamista. Ilmoituksen on sisällettävä vähintään 6 kohdassa täsmennetyt tiedot, eikä se saa sisältää arkaluonteisia operatiivisia tietoja.
4. Bez uszczerbku dla ust. 3, o każdym wykorzystaniu systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw powiadamia się właściwy organ nadzoru rynku i krajowy organ ochrony danych zgodnie z przepisami prawa krajowego, o których mowa w ust. 5. Powiadomienie zawiera co najmniej informacje określone w ust. 6 i nie może zawierać wrażliwych danych operacyjnych.
5. Jäsenvaltio voi päättää säätää mahdollisuudesta sallia kokonaan tai osittain reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö julkisissa tiloissa lainvalvontatarkoituksessa 1 kohdan ensimmäisen alakohdan h alakohdassa sekä 2 ja 3 kohdassa luetelluin rajoituksin ja edellytyksin. Asianomaisten jäsenvaltioiden on vahvistettava kansallisessa lainsäädännössään tarvittavat yksityiskohtaiset säännöt 3 kohdassa tarkoitettujen lupien pyytämistä, myöntämistä ja käyttöä sekä niihin liittyvää valvontaa ja raportointia varten. Näissä säännöissä on myös täsmennettävä, minkä 1 kohdan ensimmäisen alakohdan h alakohdassa lueteltujen tavoitteiden osalta, myös minkä mainitun h alakohdan iii alakohdassa tarkoitettujen rikosten osalta, toimivaltaisille viranomaisille voidaan antaa lupa käyttää kyseisiä järjestelmiä lainvalvontatarkoituksessa. Jäsenvaltioiden on ilmoitettava näistä säännöistä komissiolle viimeistään 30 päivän kuluttua niiden hyväksymisestä. Jäsenvaltiot voivat unionin oikeuden mukaisesti ottaa käyttöön rajoittavampaa lainsäädäntöä biometristen etätunnistusjärjestelmien käytön osalta.
5. Państwo członkowskie może podjąć decyzję o wprowadzeniu możliwości pełnego lub częściowego zezwolenia na wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw w granicach i na warunkach wymienionych w ust. 1 akapit pierwszy lit. h) i w ust. 2 i 3. Zainteresowane państwa członkowskie ustanawiają w swoim prawie krajowym niezbędne szczegółowe przepisy dotyczące wniosku o udzielenie zezwoleń, o których mowa w ust. 3, wydawanie i wykonywanie tych zezwoleń oraz ich nadzorowanie składanie sprawozdań w ich sprawie. W przepisach tych określa się również, w odniesieniu do których celów wymienionych w ust. 1 akapit pierwszy lit. h) – w tym w odniesieniu do których przestępstw wymienionych w ust. 1 akapit pierwszy lit. h) ppkt (iii) – właściwe organy mogą uzyskać zezwolenie na wykorzystanie tych systemów do celów celu ścigania przestępstw. Państwa członkowskie powiadamiają Komisję o tych przepisach najpóźniej 30 dni po ich przyjęciu. Państwa członkowskie mogą wprowadzić, zgodnie z prawem Unii, bardziej restrykcyjne przepisy dotyczące wykorzystania systemów zdalnej identyfikacji biometrycznej.
6. Kansallisten markkinavalvontaviranomaisten ja jäsenvaltioiden kansallisten tietosuojaviranomaisten, joille on 4 kohdan mukaisesti ilmoitettu reaaliaikaisten biometristen etätunnistusjärjestelmien käytöstä julkisissa tiloissa lainvalvontatarkoituksiin, on toimitettava komissiolle vuosittain raportti tällaisesta käytöstä. Tätä varten komissio toimittaa jäsenvaltioille ja kansallisille markkinavalvonta- ja tietosuojaviranomaisille mallin, joka sisältää tiedot sellaisen toimivaltaisen oikeusviranomaisen tai riippumattoman hallintoviranomaisen, joiden päätös on sitova, tekemien päätösten lukumäärästä, jotka koskevat 3 kohdan mukaisia lupapyyntöjä, ja niiden tuloksista.
6. Krajowe organy nadzoru rynku i krajowe organy ochrony danych państw członkowskich, które zostały powiadomione o wykorzystaniu systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw zgodnie z ust. 4, przedkładają Komisji roczne sprawozdania z takiego wykorzystania. W tym celu Komisja przekazuje państwom członkowskim i krajowym organom nadzoru rynku i organom ochrony danych wzór formularza zawierającego informacje na temat liczby decyzji podjętych przez właściwe organy wymiaru sprawiedliwości lub wydający wiążące decyzje niezależny organ administracyjny w odniesieniu do wniosków o udzielenie zezwolenia zgodnie z ust. 3 oraz wyników ich rozpatrzenia.
7. Komissio julkaisee vuosittaisia raportteja reaaliaikaisten biometristen etätunnistusjärjestelmien käytöstä julkisissa tiloissa lainvalvontatarkoituksiin jäsenvaltioiden yhdistettyjen tietojen nojalla perustuen 6 kohdassa tarkoitettuihin vuosittaisiin raportteihin. Vuosittaisiin raportteihin ei saa sisältyä arkaluonteisia operatiivisia tietoja asiaan liittyvistä lainvalvontatoimista.
7. Komisja publikuje roczne sprawozdania na temat wykorzystania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, oparte na zagregowanych danych w państwach członkowskich przekazanych w sprawozdaniach rocznych, o których mowa w ust. 6. Te sprawozdania roczne nie mogą zawierać wrażliwych danych operacyjnych dotyczących powiązanych działań w zakresie ścigania przestępstw.
8. Tämä artikla ei vaikuta kieltoihin, joita sovelletaan, jos tekoälyyn liittyvä käytäntö rikkoo muuta unionin oikeutta.
8. Niniejszy artykuł nie ma wpływu na zakazy mające zastosowanie w przypadku, gdy praktyka w zakresie AI narusza inne przepisy prawa Unii.
III LUKU
ROZDZIAŁ III
SUURIRISKISET TEKOÄLYJÄRJESTELMÄT
SYSTEMY AI WYSOKIEGO RYZYKA
1 JAKSO
SEKCJA 1
Tekoälyjärjestelmien luokittelu suuririskisiksi
Klasyfikacja systemów AI jako systemów AI wysokiego ryzyka
6 artikla
Artykuł 6
Suuririskisten tekoälyjärjestelmien luokitussäännöt
Zasady klasyfikacji systemów AI wysokiego ryzyka
1. Riippumatta siitä, saatetaanko tekoälyjärjestelmä markkinoille tai otetaanko se käyttöön erillään a ja b alakohdassa tarkoitetuista tuotteista, kyseistä tekoälyjärjestelmää on pidettävä suuririskisenä, jos molemmat seuraavista edellytyksistä täyttyvät:
1. Bez względu na to, czy system AI wprowadza się do obrotu lub oddaje do użytku niezależnie od produktów, o których mowa w lit. a) i b), taki system AI uznaje się za system wysokiego ryzyka, jeżeli spełnione są oba poniższe warunki:
a)
tekoälyjärjestelmä on tarkoitettu käytettäväksi tuotteen turvakomponenttina tai tekoälyjärjestelmä on itse tuote, joka kuuluu liitteessä I luetellun unionin yhdenmukaistamislainsäädännön soveltamisalaan;
a)
system AI jest przeznaczony do wykorzystania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku I lub sam system AI jest takim produktem;
b)
tuotteelle, jonka turvakomponentti on a alakohdan mukaisesti tekoälyjärjestelmä, tai tekoälyjärjestelmälle, joka on itse tuote, on tehtävä kolmannen osapuolen suorittama vaatimustenmukaisuuden arviointi kyseisen tuotteen saattamiseksi markkinoille tai käyttöön ottamiseksi liitteessä I luetellun unionin yhdenmukaistamislainsäädännön mukaisesti.
b)
produkt, którego związanym z bezpieczeństwem elementem jest zgodnie z lit. a) system AI, lub sam system AI jako produkt podlegają – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I – ocenie zgodności przez stronę trzecią w związku z wprowadzeniem tego produktu do obrotu lub oddaniem go do użytku.
2. Edellä 1 kohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien lisäksi liitteessä III tarkoitettuja tekoälyjärjestelmiä pidetään suuririskisinä.
2. Oprócz systemów AI wysokiego ryzyka, o których mowa w ust. 1, za systemy wysokiego ryzyka uznaje się systemy AI, o których mowa w załączniku III.
3. Poiketen siitä, mitä 2 kohdassa säädetään, liitteessä III tarkoitettua tekoälyjärjestelmää ei ole pidettävä suuririskisenä, jos se ei aiheuta merkittävää vahingon riskiä luonnollisten henkilöiden terveydelle, turvallisuudelle tai perusoikeuksille, mukaan lukien se, että se ei vaikuta olennaisesti päätöksenteon tulokseen.
3. Na zasadzie odstępstwa od ust. 2 systemu AI, o którym mowa w załączniku III, nie uznaje się za system wysokiego ryzyka, w przypadku gdy nie stwarza on znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, w tym poprzez brak znaczącego wpływu na wynik procesu decyzyjnego.
Ensimmäistä alakohtaa sovelletaan, jos mikä tahansa seuraavista edellytyksistä täyttyy:
Akapit pierwszy stosuje się w przypadku, gdy spełniony jest którykolwiek z następujących warunków:
a)
tekoälyjärjestelmän tarkoituksena on suorittaa suppea menettelyllinen tehtävä;
a)
system AI jest przeznaczony do wykonywania wąsko określonego zadania proceduralnego;
b)
tekoälyjärjestelmän tarkoituksena on parantaa aiemmin suoritetun ihmisen toiminnan tulosta;
b)
system AI jest przeznaczony do poprawienia wyniku zakończonej uprzednio czynności wykonywanej przez człowieka;
c)
tekoälyjärjestelmän tarkoituksena on havaita päätöksentekotapoja tai poikkeamia aiemmista päätöksentekotavoista, eikä sen tarkoituksena ole korvata aiemmin tehtyä ihmisen tekemää arviota tai vaikuttaa siihen ilman asianmukaista ihmisen suorittamaa arviota; tai
c)
system AI jest przeznaczony do wykrywania wzorców podejmowania decyzji lub odstępstw od wzorców podjętych uprzednio decyzji i nie ma na celu zastąpienia ani wywarcia wpływu na zakończoną uprzednio ocenę dokonaną przez człowieka – bez odpowiedniej weryfikacji przez człowieka; lub
d)
tekoälyjärjestelmä on tarkoitettu suorittamaan valmistelutehtävä, joka koskee liitteessä III lueteltujen käyttötapausten kannalta merkityksellistä arviointia.
d)
system AI jest przeznaczony do wykonywania zadań przygotowawczych w kontekście oceny istotnej z punktu widzenia przypadków wykorzystania wymienionych w załączniku III.
Sen estämättä, mitä ensimmäisessä alakohdassa säädetään, liitteessä III tarkoitettua tekoälyjärjestelmää on aina pidettävä suuririskisenä, jos tekoälyjärjestelmä suorittaa luonnollisten henkilöiden profilointia.
Niezależnie od akapitu pierwszego system AI, o którym mowa w załączniku III, zawsze uznaje się za system wysokiego ryzyka, w przypadku gdy system ten dokonuje profilowania osób fizycznych.
4. Tarjoajan, joka katsoo, että liitteessä III tarkoitettu tekoälyjärjestelmä ei ole suuririskinen, on dokumentoitava arvionsa ennen kuin kyseinen järjestelmä saatetaan markkinoille tai otetaan käyttöön. Tällaiseen tarjoajaan sovelletaan 49 artiklan 2 kohdassa säädettyä rekisteröintivelvollisuutta. Tarjoajan on kansallisten toimivaltaisten viranomaisten pyynnöstä toimitettava arviointia koskevat asiakirjat.
4. Dostawca, który uważa, że system AI, o którym mowa w załączniku III, nie jest system wysokiego ryzyka, przed wprowadzeniem tego systemu do obrotu lub oddaniem go do użytku dokumentuje swoją ocenę. Taki dostawca podlega obowiązkowi rejestracji określonemu w art. 49 ust. 2. Na wniosek właściwych organów krajowych dostawca przedstawia dokumentację tej oceny.
5. Komissio antaa Euroopan tekoälyneuvostoa, jäljempänä ”tekoälyneuvosto”, kuultuaan ja viimeistään 2 päivänä helmikuuta 2026 ohjeet, joissa täsmennetään tämän artiklan käytännön täytäntöönpano 96 artiklan mukaisesti, sekä kattavan luettelon käytännön esimerkeistä sellaisten tekoälyjärjestelmien käyttötapauksista, jotka ovat suuririskisiä ja muita kuin suuririskisiä.
5. Po konsultacji z Europejską Radą ds. Sztucznej Inteligencji (zwaną dalej „Radą ds. AI”), Komisja przedstawi nie później niż w dniu 2 lutego 2026 r. wytyczne określające praktyczne wdrożenie niniejszego artykułu zgodnie z art. 96 wraz z kompleksowym wykazem praktycznych przykładów przypadków wykorzystania systemów AI, które stanowią przypadki wykorzystania wysokiego ryzyka oraz które nie stanowią przypadków takiego wykorzystania.
6. Siirretään komissiolle valta antaa delegoituja säädöksiä 97 artiklan mukaisesti tämän artiklan 3 kohdan toisen alakohdan muuttamiseksi lisäämällä uusia ehtoja kyseisessä alakohdassa säädettyihin edellytyksiin tai muuttamalla niitä, jos on konkreettista ja luotettavaa näyttöä sellaisten tekoälyjärjestelmien olemassaolosta, jotka kuuluvat liitteen III soveltamisalaan mutta jotka eivät aiheuta merkittävää vahingon riskiä luonnollisten henkilöiden terveydelle, turvallisuudelle tai perusoikeuksille.
6. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany akapitu drugiego ust. 3 niniejszego artykułu poprzez dodanie nowych warunków do warunków ustanowionych w tym przepisie lub ich zmianę, w przypadku gdy istnieją konkretne i wiarygodne dowody na istnienie systemów AI, które wchodzą w zakres stosowania załącznika III, ale nie stwarzają znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych.
7. Komissio antaa delegoituja säädöksiä 97 artiklan mukaisesti tämän artiklan 3 kohdan toisen alakohdan muuttamiseksi poistamalla jonkin siinä säädetyn edellytyksen, jos on konkreettista ja luotettavaa näyttöä siitä, että tämä on tarpeen tässä asetuksessa säädetyn terveyden, turvallisuuden ja perusoikeuksien suojelun tason säilyttämiseksi.
7. Komisja przyjmuje zgodnie z art 97 akty delegowane w celu zmiany akapitu drugiego ust. 3 niniejszego artykułu poprzez usunięcie któregokolwiek z warunków ustanowionych w tym przepisie, w przypadku gdy istnieją konkretne i wiarygodne dowody na to, że jest to konieczne w celu utrzymania poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych przewidzianego w niniejszym rozporządzeniu.
8. Tämän artiklan 6 ja 7 kohdan mukaisesti hyväksytyt, 3 kohdan toisessa alakohdassa säädettyihin edellytyksiin tehtävät muutokset eivät saa heikentää tässä asetuksessa säädetyn terveyden, turvallisuuden ja perusoikeuksien suojelun yleistä tasoa, ja niillä on varmistettava johdonmukaisuus 7 artiklan 1 kohdan nojalla annettujen delegoitujen säädösten kanssa ja otettava huomioon markkinoiden ja teknologian kehityksen.
8. Zmiana warunków ustanowionych w ust. 3 akapit drugi, przyjęta zgodnie z ust. 6 i 7 niniejszego artykułu, nie może prowadzić do obniżenia ogólnego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych przewidzianego w niniejszym rozporządzeniu i musi zapewniać spójność z aktami delegowanymi przyjętymi zgodnie z art. 7 ust. 1 oraz uwzględniać rozwój rynku i technologii.
7 artikla
Artykuł 7
Liitteen III muuttaminen
Zmiany w załączniku III
1. Siirretään komissiolle valta antaa 97 artiklan mukaisesti delegoituja säädöksiä liitteen III muuttamiseksi lisäämällä siihen suuririskisiä tekoälyjärjestelmiä koskevia käyttötapauksia tai muokkaamalla niitä, jos molemmat seuraavista edellytyksistä täyttyvät:
1. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany załącznika III poprzez dodanie systemów AI wysokiego ryzyka lub zmianę przypadków ich wykorzystania, w przypadku gdy spełnione są oba poniższe warunki:
a)
tekoälyjärjestelmiä on tarkoitus käyttää millä tahansa liitteessä III luetelluista aloista;
a)
systemy AI są przeznaczone do wykorzystania w którymkolwiek z obszarów wymienionych w załączniku III;
b)
tekoälyjärjestelmät aiheuttavat terveys- ja turvallisuushaitan riskin tai perusoikeuksiin kohdistuvan kielteisen vaikutuksen riskin, joka on vähintään yhtä suuri kuin liitteessä III jo tarkoitettujen suuririskisten tekoälyjärjestelmien aiheuttaman haitan tai kielteisen vaikutuksen riski.
b)
systemy AI stwarzają ryzyko szkody dla zdrowia i bezpieczeństwa lub ryzyko niepożądanego wpływu na prawa podstawowe i ryzyko to jest równoważne ryzyku szkody lub niepożądanego wpływu, jakie stwarzają systemy AI wysokiego ryzyka wymienione już w załączniku III, lub jest od niego większe.
2. Arvioidessaan 1 kohdan b alakohdan mukaista edellytystä komissio ottaa huomioon seuraavat perusteet:
2. Przy ocenie warunku określonego w ust. 1 lit. b) Komisja uwzględnia następujące kryteria:
a)
tekoälyjärjestelmän käyttötarkoitus;
a)
przeznaczenie systemu AI;
b)
missä määrin tekoälyjärjestelmää on käytetty tai todennäköisesti käytetään;
b)
zakres, w jakim system AI jest wykorzystywany lub prawdopodobnie będzie wykorzystywany;
c)
tekoälyjärjestelmän käsittelemien ja käyttämien tietojen luonne ja määrä, erityisesti se, käsitelläänkö erityisiä henkilötietoryhmiä;
c)
charakter i ilość danych przetwarzanych i wykorzystywanych przez system AI, w szczególności, czy przetwarzane są szczególne kategorie danych osobowych;
d)
missä määrin tekoälyjärjestelmä toimii itsenäisesti, ja missä määrin ihmisen on mahdollista kumota päätös tai suositukset, jotka voisivat aiheuttaa mahdollista haittaa;
d)
zakres, w jakim system AI działa autonomicznie oraz możliwość unieważnienia przez człowieka decyzji lub zaleceń, które mogą prowadzić do potencjalnej szkody;
e)
missä määrin tekoälyjärjestelmän käyttö on jo aiheuttanut haittaa terveydelle ja turvallisuudelle, vaikuttanut kielteisesti perusoikeuksiin tai herättänyt merkittävää huolta tällaisen haitan tai kielteisen vaikutuksen todennäköisyydestä, mikä käy ilmi esimerkiksi kansallisille toimivaltaisille viranomaisille toimitetuista raporteista tai dokumentoiduista väitteistä taikka muista asianmukaisista raporteista;
e)
zakres, w jakim wykorzystywanie systemu AI już wyrządziło szkodę dla zdrowia i bezpieczeństwa lub miało niepożądany wpływ na prawa podstawowe lub wzbudziło istotne obawy co do prawdopodobieństwa wystąpienia takiej szkody lub niepożądanego wpływu, czego potwierdzeniem są np. zgłoszenia lub poparte dokumentami twierdzenia przedstawione właściwym organom krajowym, lub, w stosownych przypadkach, inne zgłoszenia;
f)
tällaisen haitan tai tällaisen haitallisen vaikutuksen mahdollinen laajuus, erityisesti sen voimakkuus ja kyky vaikuttaa useisiin henkilöihin tai vaikuttaa suhteettomasti erityiseen henkilöryhmään;
f)
potencjalny zakres takiej szkody lub takiego niepożądanego wpływu, w szczególności pod względem ich nasilenia i możliwości oddziaływania na wiele osób lub nieproporcjonalnego oddziaływania na określoną grupę osób;
g)
missä määrin henkilöt, joille mahdollisesti aiheutuu haittaa tai joihin mahdollisesti kohdistuu kielteinen vaikutus, ovat riippuvaisia tekoälyjärjestelmän tuottamasta tuloksesta, erityisesti koska käytännöllisistä tai oikeudellisista syistä ei ole kohtuudella mahdollista olla noudattamatta tätä tulosta;
g)
zakres, w jakim osoby potencjalnie poszkodowane lub doświadczające niepożądanego wpływu są zależne od wyniku działania systemu AI, w szczególności ze względu na fakt, że z przyczyn praktycznych lub prawnych nie jest racjonalnie możliwa rezygnacja z objęcia tym wynikiem;
h)
missä määrin on kyse vallan epätasapainosta tai missä määrin henkilöt, joille mahdollisesti aiheutuu haittaa tai kohdistuu kielteinen vaikutus, ovat haavoittuvassa asemassa tekoälyjärjestelmän käyttöönottajaan nähden, erityisesti aseman, valta-aseman, tietämyksen, taloudellisten tai sosiaalisten olosuhteiden tai iän vuoksi;
h)
zakres, w jakim występuje nierówny układ sił lub osoby potencjalnie poszkodowane lub doświadczające niepożądanego wpływu znajdują się w słabszym położeniu względem podmiotu stosującego system AI, w szczególności z powodu statusu, władzy, wiedzy, sytuacji gospodarczej lub społecznej lub wieku;
i)
missä määrin tekoälyjärjestelmän avulla tuotettu tulos on helposti korjattavissa tai peruutettavissa, kun otetaan huomioon korjaukseen tai peruuttamiseen käytettävissä olevat tekniset ratkaisut, jolloin tulosten, joilla on haitallisia vaikutuksia terveyteen, turvallisuuteen tai perusoikeuksiin, ei katsota olevan helposti korjattavissa tai peruutettavissa;
i)
zakres, w jakim wynik uzyskany przy wykorzystaniu systemu AI jest łatwy do skorygowania lub odwracalny, przy uwzględnieniu dostępnych rozwiązań technicznych umożliwiających jego skorygowanie lub odwrócenie, przy czym za łatwe do skorygowania lub odwracalne nie uznaje się wyników działania systemu mających niepożądany wpływ na zdrowie, bezpieczeństwo lub prawa podstawowe;
j)
tekoälyjärjestelmän käyttöönotosta yksilöille, ryhmille tai koko yhteiskunnalle koituvan hyödyn suuruus ja todennäköisyys, tuoteturvallisuuden mahdolliset parannukset mukaan lukien;
j)
rozmiary i prawdopodobieństwo korzyści płynących z wdrożenia systemu AI dla osób fizycznych, grup lub ogółu społeczeństwa, w tym możliwość poprawy bezpieczeństwa produktów;
k)
missä määrin voimassa olevassa unionin oikeudessa säädetään
k)
zakres, w jakim obowiązujące prawo Unii przewiduje:
i)
tekoälyjärjestelmän aiheuttamiin riskeihin liittyvistä tehokkaista oikeussuojakeinoista, lukuun ottamatta vahingonkorvausvaateita;
(i)
skuteczne środki ochrony prawnej w związku z ryzykiem stwarzanym przez system AI, z wyłączeniem roszczeń o odszkodowanie;
ii)
tehokkaista toimenpiteistä kyseisten riskien ehkäisemiseksi tai vähentämiseksi merkittävästi.
(ii)
skuteczne środki zapobiegania temu ryzyku lub jego znacznego minimalizowania.
3. Siirretään komissiolle valta antaa 97 artiklan mukaisesti delegoituja säädöksiä liitteessä III olevan luettelon muuttamiseksi poistamalla siitä suuririskisiä tekoälyjärjestelmiä, jos molemmat seuraavista edellytyksistä täyttyvät:
3. Komisja jest uprawniona do przyjmowania zgodnie z art. 97 aktów delegowanych w celu zmiany wykazu zawartego w załączniku III poprzez usunięcie systemów AI wysokiego ryzyka, jeżeli spełnione są oba poniższe warunki:
a)
kyseessä oleva suuririskinen tekoälyjärjestelmä ei enää aiheuta merkittäviä riskejä perusoikeuksiin, terveyteen tai turvallisuuteen nähden ottaen huomioon 2 kohdassa luetellut kriteerit;
a)
dany system AI wysokiego ryzyka nie stwarza już żadnego znaczącego ryzyka dla praw podstawowych, zdrowia lub bezpieczeństwa, biorąc pod uwagę kryteria wymienione w ust. 2;
b)
poisto ei laske unionin oikeuden mukaisen terveyden, turvallisuuden ja perusoikeuksien suojan yleistä tasoa.
b)
usunięcie z wykazu nie obniża ogólnego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych przewidzianego w prawie Unii.
2 JAKSO
SEKCJA 2
Suuririskisiä tekoälyjärjestelmiä koskevat vaatimukset
Wymogi dotyczące systemów AI wysokiego ryzyka
8 artikla
Artykuł 8
Vaatimustenmukaisuus
Zgodność z wymogami
1. Suuririskisten tekoälyjärjestelmien on täytettävä tässä jaksossa säädetyt vaatimukset, ottaen huomioon niiden suunnitellut käyttötarkoitukset sekä tekoälyn ja tekoälyyn liittyvien teknologioiden yleisesti tunnustettu viimeisin kehitys. Jäljempänä olevassa 9 artiklassa tarkoitettu riskinhallintajärjestelmä on otettava huomioon varmistettaessa, että kyseisiä vaatimuksia noudatetaan.
1. Systemy AI wysokiego ryzyka muszą być zgodne z wymogami ustanowionymi w niniejszej sekcji, przy uwzględnieniu ich przeznaczenia oraz powszechnie uznanego stanu wiedzy technicznej w dziedzinie AI oraz technologii powiązanych z AI. Przy zapewnianiu zgodności z tymi wymogami uwzględnia się system zarządzania ryzykiem, o którym mowa w art. 9.
2. Jos tuote sisältää tekoälyjärjestelmän, johon sovelletaan tämän asetuksen vaatimuksia ja liitteessä I olevassa A jaksossa luetellun unionin yhdenmukaistamislainsäädännön vaatimuksia, tarjoajat ovat vastuussa sen varmistamisesta, että niiden tuote on kaikilta osin vaatimustenmukainen kaikkiin sovellettavan unionin yhdenmukaistamislainsäädännön mukaisiin vaatimuksiin nähden. Varmistaessaan, että 1 kohdassa tarkoitetut suuririskiset tekoälyjärjestelmät ovat tässä jaksossa vahvistettujen vaatimusten mukaisia, ja jotta voidaan varmistaa johdonmukaisuus, välttää päällekkäisyyttä ja minimoida lisärasitteita, tarjoajien on voitava tarvittaessa sisällyttää tarvittavat testaus- ja raportointiprosessit, tiedot ja dokumentaatio, joita ne toimittavat tuotteeseensa liittyen, dokumentaatioon ja menettelyihin, jotka ovat jo olemassa ja joita edellytetään liitteessä I olevassa A jaksossa luetellun unionin yhdenmukaistamislainsäädännön nojalla.
2. W przypadku gdy produkt zawiera system AI, do którego mają zastosowanie wymogi niniejszego rozporządzenia oraz wymogi unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, dostawcy są odpowiedzialni za zapewnienie pełnej zgodności ich produktu ze wszystkimi mającymi zastosowanie wymogami na podstawie mającego zastosowanie unijnego prawodawstwa harmonizacyjnego. Przy zapewnianiu zgodności systemów AI wysokiego ryzyka, o których mowa w ust. 1, z wymogami ustanowionymi w niniejszej sekcji oraz w celu zapewnienia spójności, unikania powielania i zminimalizowania dodatkowych obciążeń, dostawcy mogą wybrać, w stosownych przypadkach, integrację niezbędnych procesów testowania i sprawozdawczości, informacji i dokumentacji, które zapewniają w odniesieniu do swojego produktu, z istniejącą już dokumentacją i procedurami wymaganymi na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A.
9 artikla
Artykuł 9
Riskinhallintajärjestelmä
System zarządzania ryzykiem
1. Suuririskisille tekoälyjärjestelmille on perustettava, pantava täytäntöön ja dokumentoitava riskinhallintajärjestelmä ja sitä on pidettävä yllä.
1. Ustanawia się, wdraża, dokumentuje i obsługuje system zarządzania ryzykiem w odniesieniu do systemów AI wysokiego ryzyka.
2. Riskinhallintajärjestelmän on käsitettävä iteratiiviseksi prosessiksi, joka jatkuu suunnitellusti suuririskisen tekoälyjärjestelmän koko elinkaaren ajan ja joka on säännöllisesti ja järjestelmällisesti tarkastettava ja saatettava ajan tasalle. Siihen on sisällyttävä seuraavat vaiheet:
2. Przez system zarządzania ryzykiem rozumie się ciągły, iteracyjny proces, planowany i realizowany przez cały cykl życia systemu AI wysokiego ryzyka, wymagający regularnego systematycznego przeglądu i aktualizacji. Obejmuje on następujące etapy:
a)
niiden tunnettujen ja kohtuudella ennakoitavissa olevien riskien tunnistaminen ja analysointi, joita suuririskinen tekoälyjärjestelmä voi aiheuttaa liittyen terveyteen, turvallisuuteen tai perusoikeuksiin, kun suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti;
a)
identyfikację i analizę znanego i dającego się racjonalnie przewidzieć ryzyka, jakie dany system AI wysokiego ryzyka może stwarzać dla zdrowia, bezpieczeństwa lub praw podstawowych podczas jego stosowania zgodnie z przeznaczeniem;
b)
niiden riskien arviointi, joita voi syntyä, kun suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti ja kohtuudella ennakoitavissa olevissa väärinkäyttöolosuhteissa;
b)
oszacowanie i ocenę ryzyka, jakie może wystąpić podczas wykorzystywania systemu AI wysokiego ryzyka zgodnie z przeznaczeniem i w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania;
c)
muiden mahdollisesti syntyvien riskien arviointi 72 artiklassa tarkoitetusta markkinoille saattamisen jälkeisestä seurantajärjestelmästä kerättyjen tietojen analysoinnin perusteella;
c)
ocenę innego mogącego wystąpić ryzyka na podstawie analizy danych zebranych z systemu monitorowania po wprowadzeniu do obrotu, o którym mowa w art. 72;
d)
sellaisten asianmukaisten ja kohdennettujen riskinhallintatoimenpiteiden hyväksyminen, joiden tarkoituksena on puuttua a alakohdan mukaisesti tunnistettuihin riskeihin.
d)
przyjęcie odpowiednich i ukierunkowanych środków zarządzania ryzykiem zaprojektowanych w celu przeciwdziałania ryzyku zidentyfikowanemu zgodnie z lit. a).
3. Tässä artiklassa tarkoitetut riskit koskevat ainoastaan niitä, joita voidaan kohtuudella lieventää ja poistaa suuririskisen tekoälyjärjestelmän kehittämisen tai suunnittelun avulla tai asianmukaisten teknisten tietojen antamisella.
3. Ryzyko, o którym mowa w niniejszym artykule, oznacza tylko takie rodzaje ryzyka, które można stosownie ograniczyć lub wyeliminować poprzez rozwój lub zaprojektowanie systemu AI wysokiego ryzyka lub poprzez zapewnienie odpowiednich informacji technicznych.
4. Edellä 2 kohdan d alakohdassa tarkoitetuissa riskinhallintatoimenpiteissä on otettava asianmukaisesti huomioon vaikutukset ja mahdollinen vuorovaikutus, jotka johtuvat tässä jaksossa säädettyjen vaatimusten soveltamisesta yhdessä, jotta voidaan minimoida riskit tehokkaammin ja saavuttaa samalla asianmukainen tasapaino toteutettaessa toimenpiteet kyseisten vaatimusten täyttämiseksi.
4. W ramach środków zarządzania ryzykiem, o których mowa w ust. 2 lit. d), należycie uwzględnia się skutki i możliwe interakcje wynikające z łącznego stosowania wymogów ustanowionych w niniejszej sekcji, w celu skuteczniejszego minimalizowania ryzyka przy jednoczesnym osiągnięciu odpowiedniej równowagi we wdrażaniu środków służących spełnieniu tych wymogów.
5. Edellä 2 kohdan d alakohdassa tarkoitettujen riskinhallintatoimenpiteiden on oltava sellaisia, että kuhunkin vaaraan liittyvän asiaankuuluvan jäännösriskin ja suuririskisten tekoälyjärjestelmien kokonaisjäännösriskin katsotaan olevan hyväksyttävällä tasolla.
5. Środki zarządzania ryzykiem, o których mowa w ust. 2 lit. d), muszą być takie, aby odpowiednie ryzyko szczątkowe związane z każdym zagrożeniem, jak również ogólne ryzyko szczątkowe systemów AI wysokiego ryzyka, oceniano jako dopuszczalne.
Tarkoituksenmukaisimpia riskinhallintatoimenpiteitä määritettäessä on varmistettava seuraavat seikat:
Przy określaniu najodpowiedniejszych środków zarządzania ryzykiem zapewnia się, co następuje:
a)
2 kohdan nojalla määritettyjen ja arvioitujen riskien poistaminen tai vähentäminen siinä määrin kuin se on teknisesti mahdollista suuririskisen tekoälyjärjestelmän asianmukaisella suunnittelulla ja kehittämisellä;
a)
eliminację lub ograniczenie – w zakresie, w jakim jest to technicznie wykonalne – ryzyka zidentyfikowanego i ocenionego zgodnie z ust. 2 poprzez odpowiedni projekt i rozwój systemu AI wysokiego ryzyka;
b)
tarvittaessa asianmukaisten riskinvähentämis- ja valvontatoimenpiteiden toteuttaminen sellaisiin riskeihin puuttumiseksi, joita ei voida poistaa;
b)
w stosownych przypadkach – wdrożenie odpowiednich środków służących ograniczeniu i kontroli ryzyka, którego nie można wyeliminować;
c)
vaadittavien tietojen antaminen 13 artiklan mukaisesti ja tarvittaessa käyttöönottajille annettava koulutus.
c)
dostarczenie informacji wymaganych zgodnie z art. 13 oraz, w stosownych przypadkach, przeszkolenie podmiotów stosujących.
Suuririskisen tekoälyjärjestelmän käyttöön liittyvien riskien poistamiseksi tai vähentämiseksi on otettava asianmukaisesti huomioon käyttöönottajalta odotettava tekninen tietämys, kokemus ja koulutus sekä oletettu yhteys, jossa järjestelmää on tarkoitus käyttää.
W celu eliminowania lub ograniczania ryzyka związanego z wykorzystaniem systemu AI wysokiego ryzyka należytą uwagę zwraca się na wiedzę techniczną, doświadczenie, wykształcenie i szkolenia, jakich oczekuje się od podmiotu stosującego, oraz zakładany kontekst, w którym ma być stosowany system.
6. Suuririskiset tekoälyjärjestelmät on testattava tarkoituksenmukaisimpien ja kohdennetuimpien riskinhallintatoimenpiteiden määrittämiseksi. Testauksella on varmistettava, että suuririskiset tekoälyjärjestelmät toimivat johdonmukaisesti käyttötarkoituksensa mukaisesti ja että ne ovat tässä jaksossa vahvistettujen vaatimusten mukaisia.
6. Systemy AI wysokiego ryzyka testuje się w celu określenia najodpowiedniejszych i ukierunkowanych środków zarządzania ryzykiem. Testy zapewniają, by systemy AI wysokiego ryzyka działały zgodnie z ich przeznaczeniem oraz były zgodne z wymogami ustanowionymi w niniejszej sekcji.
7. Testausmenettelyihin voi sisältyä todellisissa olosuhteissa tapahtuva testaus 60 artiklan mukaisesti.
7. Procedury testowe mogą obejmować testy w warunkach rzeczywistych zgodnie z art. 60.
8. Suuririskisten tekoälyjärjestelmien testaus on tapauksen mukaan suoritettava milloin tahansa kehitysprosessin aikana ja joka tapauksessa ennen niiden markkinoille saattamista tai käyttöönottoa. Testauksessa on käytettävä ennalta määriteltyjä mittareita ja todennäköisyyden kynnyksiä, jotka soveltuvat suuririskisen tekoälyjärjestelmän suunniteltuun käyttötarkoitukseen.
8. Testy systemów AI wysokiego ryzyka przeprowadza się, w stosownych przypadkach, w dowolnym momencie procesu rozwoju systemu, a w każdym przypadku przed wprowadzeniem go do obrotu lub oddaniem do użytku. Testy przeprowadza się w odniesieniu do uprzednio określonych wskaźników i progów probabilistycznych, stosownych ze względu na przeznaczenie systemu AI wysokiego ryzyka.
9. Edellä 1–7 kohdassa kuvattua riskinhallintajärjestelmää täytäntöön pantaessa tarjoajien on kiinnitettävä huomiota siihen, onko suuririskisellä tekoälyjärjestelmällä todennäköisesti sen käyttötarkoitus huomioon ottaen haitallinen vaikutus alle 18-vuotiaisiin henkilöihin ja tarvittaessa muihin haavoittuvassa asemassa oleviin ryhmiin.
9. Przy wdrażaniu systemu zarządzania ryzykiem przewidzianego w ust. 1–7 dostawcy zwracają uwagę na to, czy dany system AI wysokiego ryzyka w świetle swojego przeznaczenia może mieć niekorzystny wpływ na osoby poniżej 18 roku życia oraz, w stosownych przypadkach, na inne grupy szczególnie wrażliwe.
10. Niiden suuririskisten tekoälyjärjestelmien tarjoajien osalta, joihin sovelletaan unionin oikeuden muiden asiaankuuluvien säännösten mukaisia sisäisiä riskinhallintaprosesseja koskevia vaatimuksia, 1–9 kohdassa tarkoitetut näkökohdat voivat olla osa kyseisen lainsäädännön nojalla vahvistettuja riskinhallintamenettelyjä tai voidaan yhdistää niihin.
10. W odniesieniu do dostawców systemów AI wysokiego ryzyka, którzy podlegają wymogom dotyczącym wewnętrznych procesów zarządzania ryzykiem na podstawie innych odpowiednich przepisów prawa Unii, aspekty przewidziane w ust. 1–9 mogą być częścią procedur zarządzania ryzykiem ustanowionych zgodnie z tym prawem lub łączyć się z tymi procedurami.
10 artikla
Artykuł 10
Data ja datanhallinta
Dane i zarządzanie danymi
1. Suuririskiset tekoälyjärjestelmät, joissa hyödynnetään tekniikoita, joihin sisältyy tekoälymallien kouluttaminen datan avulla, on kehitettävä sellaisten koulutus-, validointi- ja testausdatajoukkojen pohjalta, jotka täyttävät 2–5 kohdassa tarkoitetut laatuvaatimukset, kun tällaisia datajoukkoja käytetään.
1. Systemy AI wysokiego ryzyka, które wykorzystują techniki obejmujące trenowanie modeli AI z wykorzystaniem danych, rozwija się na podstawie zbiorów danych treningowych, walidacyjnych i testowych spełniających kryteria jakości, o których mowa w ust. 2–5, w każdym przypadku gdy takie zbiory danych są wykorzystywane.
2. Koulutus-, validointi- ja testausdatajoukkoihin on sovellettava suuririskisen tekoälyjärjestelmän käyttötarkoitukseen soveltuvia datanhallinta- ja hallinnointikäytäntöjä. Näiden käytäntöjen on koskettava erityisesti seuraavia seikkoja:
2. Zbiory danych treningowych, walidacyjnych i testowych podlegają praktykom w zakresie zarządzania danymi stosownym do przeznaczenia danego systemu AI wysokiego ryzyka. Praktyki te dotyczą w szczególności:
a)
asiaankuuluvat suunnitteluvalinnat;
a)
odpowiednich decyzji projektowych;
b)
datan keruuprosessit ja datan alkuperä sekä henkilötietojen osalta datankeruun alkuperäinen tarkoitus;
b)
procesów zbierania danych i pochodzenia danych oraz, w przypadku danych osobowych, pierwotnego celu zbierania danych;
c)
asiaankuuluvat tietojenkäsittelytoimet, kuten huomautusten ja tunnisteiden lisääminen, puhdistus, ajantasaistaminen, rikastaminen ja yhdistäminen;
c)
odpowiednich operacji przetwarzania na potrzeby przygotowania danych, takich jak dodawanie komentarzy, etykietowanie, czyszczenie, aktualizacja, wzbogacanie i agregacja;
d)
oletusten muotoilu erityisesti niiden tietojen osalta, joita datan on tarkoitus mitata ja edustaa;
d)
sformułowania założeń, w szczególności w odniesieniu do informacji, do których pomiaru i reprezentowania mają służyć dane;
e)
tarvittavien datajoukkojen saatavuuden, määrän ja soveltuvuuden arviointi;
e)
oceny dostępności, ilości i przydatności zbiorów danych, które są potrzebne;
f)
sellaisten mahdollisten vinoutumien selvittäminen, jotka todennäköisesti vaikuttavat ihmisten terveyteen ja turvallisuuteen, vaikuttavat kielteisesti perusoikeuksiin tai johtavat unionin oikeudessa kiellettyyn syrjintään, erityisesti silloin, kun tuotokset vaikuttavat tulevien toimintojen syöttötietoihin;
f)
badania pod kątem ewentualnej stronniczości, która może mieć wpływ na zdrowie i bezpieczeństwo osób, negatywnie wpływać na prawa podstawowe lub prowadzić do dyskryminacji zakazanej na mocy prawa Unii, zwłaszcza w przypadku gdy dane wyjściowe wpływają na dane wejściowe wykorzystywane na potrzeby przyszłych operacji;
g)
asianmukaiset toimenpiteet f alakohdan mukaisesti havaittujen mahdollisten vinoutumien havaitsemiseksi, ehkäisemiseksi ja lieventämiseksi;
g)
odpowiednich środków służących wykrywaniu ewentualnej stronniczości określonej zgodnie z lit. f) oraz zapobieganiu jej i jej ograniczaniu;
h)
sellaisten merkityksellisten puuttuvien tai puutteellisten tietojen tunnistaminen, jotka estävät noudattamasta tätä asetusta, ja se, miten nämä puutteet voidaan korjata.
h)
określenia istotnych luk w danych lub braków w danych, które uniemożliwiają zgodność z niniejszym rozporządzeniem, oraz tego, w jaki sposób można zaradzić tym lukom i brakom.
3. Koulutus-, validointi- ja testausdatajoukkojen on oltava käyttötarkoitukseen nähden merkityksellisiä, riittävän edustavia ja niin suurelta osin kuin mahdollista virheettömiä ja täydellisiä. Niillä on oltava asianmukaiset tilastolliset ominaisuudet, tarvittaessa myös niiden henkilöiden tai henkilöryhmien osalta, joihin liittyen suuririskistä tekoälyjärjestelmää on tarkoitus käyttää. Kyseiset datajoukkojen ominaisuudet voidaan saavuttaa yksittäisten datajoukkojen tai niiden yhdistelmän tasolla.
3. Zbiory danych treningowych, walidacyjnych i testowych muszą być adekwatne, wystarczająco reprezentatywne oraz w jak największym stopniu wolne od błędów i kompletne z punktu widzenia przeznaczenia. Muszą się one charakteryzować odpowiednimi właściwościami statystycznymi, w tym, w stosownych przypadkach, w odniesieniu do osób lub grup osób, wobec których ma być stosowany system AI wysokiego ryzyka. Te kryteria zbiorów danych mogą zostać spełnione na poziomie pojedynczych zbiorów danych lub na poziomie ich kombinacji.
4. Datajoukoissa on otettava käyttötarkoituksen edellyttämässä laajuudessa huomioon ne ominaisuudet tai osatekijät, jotka ovat ominaisia sille maantieteelliselle, viitekehyksenä olevalle, käyttäytymiseen liittyvälle tai toiminnalliselle ympäristölle, jossa suuririskistä tekoälyjärjestelmää on tarkoitus käyttää.
4. Zbiory danych muszą uwzględniać, w zakresie wymaganym z uwagi na ich przeznaczenie, cechy lub elementy, które są specyficzne dla określonego otoczenia geograficznego, kontekstualnego, behawioralnego lub funkcjonalnego, w którym ma być wykorzystywany system AI wysokiego ryzyka.
5. Siinä määrin kuin se on ehdottoman välttämätöntä suuririskisten tekoälyjärjestelmien vinoutumien havaitsemisen ja korjaamisen varmistamiseksi tämän artiklan 2 kohdan f ja g alakohdan mukaisesti, tällaisten järjestelmien tarjoajat voivat poikkeuksellisesti käsitellä erityisiä henkilötietoryhmiä edellyttäen, että luonnollisten henkilöiden perusoikeudet ja -vapaudet turvataan asianmukaisilla suojatoimilla. Tällainen käsittely edellyttää asetuksissa (EU) 2016/679 ja (EU) 2018/1725 ja direktiivissä (EU) 2016/680 vahvistettujen säännösten lisäksi kaikkien seuraavien ehtojen täyttymistä:
5. W zakresie, w jakim jest to bezwzględnie konieczne do celów zapewnienia zgodnie z ust. 2 lit. f) i g) niniejszego artykułu wykrywania i korygowania stronniczości systemów AI wysokiego ryzyka, dostawcy takich systemów mogą wyjątkowo przetwarzać szczególne kategorie danych osobowych, pod warunkiem stosowania odpowiednich zabezpieczeń w zakresie podstawowych praw i wolności osób fizycznych. Oprócz przepisów określonych w rozporządzeniach (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywie (UE) 2016/680, aby takie przetwarzanie mogło się odbyć, przetwarzanie takie musi spełniać wszystkie następujące warunki:
a)
vinoutumia ei voida tehokkaasti havaita ja korjata käsittelemällä muita tietoja, kuten synteettisiä tai anonymisoituja tietoja;
a)
nie jest możliwe skuteczne wykrywanie i korygowanie stronniczości poprzez przetwarzanie innych danych, w tym danych syntetycznych lub zanonimizowanych;
b)
erityisiin henkilötietoryhmiin sovelletaan henkilötietojen uudelleenkäyttöä koskevia teknisiä rajoituksia ja viimeisintä kehitystä edustavia tietoturvaa ja yksityisyyden suojaa parantavia toimenpiteitä, kuten pseudonymisointia;
b)
szczególne kategorie danych osobowych podlegają ograniczeniom technicznym dotyczącym ponownego wykorzystywania danych osobowych oraz najnowocześniejszym środkom bezpieczeństwa i ochrony prywatności, w tym pseudonimizacji;
c)
erityisiin henkilötietoryhmiin kohdistetaan toimenpiteitä, joilla varmistetaan, että käsitellyt henkilötiedot turvataan ja suojataan asianmukaisia suojatoimia noudattaen, mukaan lukien tietoihin pääsyn tiukka valvonta ja dokumentointi, jotta vältetään väärinkäyttö ja varmistetaan, että ainoastaan valtuutetuilla henkilöillä on pääsy kyseisiin henkilötietoihin asianmukaista salassapitovelvollisuutta soveltaen;
c)
szczególne kategorie danych osobowych podlegają środkom zapewniającym, by przetwarzane dane osobowe były zabezpieczone, chronione, podlegały odpowiednim środkom ochronnym, w tym ścisłym kontrolom i dokumentowaniu dostępu, aby uniknąć nadużyć i zapewnić, by dostęp do tych danych miały wyłącznie osoby upoważnione, zobowiązane do spełnienia odpowiednich obowiązków dotyczących poufności;
d)
erityisiä henkilötietoryhmiä ei välitetä, siirretä tai muutoin saateta muiden osapuolten saataville;
d)
szczególne kategorie danych osobowych nie są przesyłane, przekazywane ani w inny sposób udostępniane innym podmiotom;
e)
erityisiä henkilötietoryhmiä poistetaan, kun vinoutuma on korjattu tai kun henkilötietojen säilytysaika on päättynyt, sen mukaan kumpi ajankohdista on aikaisempi;
e)
szczególne kategorie danych osobowych usuwa się po skorygowaniu stronniczości lub po upływie okresu przechowywania danych osobowych, w zależności od tego, co nastąpi wcześniej;
f)
asetusten (EU) 2016/679 ja (EU) 2018/1725 sekä direktiivin (EU) 2016/680 mukaisiin käsittelytoimia koskeviin selosteisiin sisältyvät syyt, joiden vuoksi erityisten henkilötietoryhmien käsittely oli ehdottoman välttämätöntä vinoutumien havaitsemiseksi ja korjaamiseksi ja miksi tätä tavoitetta ei voitu saavuttaa käsittelemällä muita tietoja.
f)
rejestry czynności przetwarzania na podstawie rozporządzeń (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywy (UE) 2016/680 zawierają uzasadnienie, dlaczego przetwarzanie szczególnych kategorii danych osobowych było bezwzględnie konieczne do wykrycia i skorygowania stronniczości oraz dlaczego cel ten nie mógł zostać osiągnięty w wyniku przetwarzania innych danych.
6. Sellaisen suuririskisten tekoälyjärjestelmien kehittämisen osalta, jossa ei käytetä tekniikoita, joihin sisältyy tekoälymallien kouluttaminen, 2–5 kohtaa sovelletaan ainoastaan datajoukkojen testaukseen.
6. W przypadkach rozwoju systemów AI wysokiego ryzyka niewykorzystujących technik obejmujących trenowanie modeli AI ust. 2–5 stosuje się jedynie do zbiorów danych testowych.
11 artikla
Artykuł 11
Tekninen dokumentaatio
Dokumentacja techniczna
1. Suuririskisen tekoälyjärjestelmän tekninen dokumentaatio on laadittava ennen kuin järjestelmä saatetaan markkinoille tai otetaan käyttöön, ja se on pidettävä ajan tasalla.
1. Dokumentację techniczną dla systemu AI wysokiego ryzyka sporządza się przed wprowadzeniem danego systemu do obrotu lub oddaniem go do użytku oraz dokonuje się jej aktualizacji.
Tekninen dokumentaatio on laadittava siten, että siinä osoitetaan suuririskisen tekoälyjärjestelmän olevan tässä jaksossa vahvistettujen vaatimusten mukainen ja annetaan kansallisille toimivaltaisille viranomaisille ja ilmoitetuille laitoksille tarvittavat tiedot selkeässä ja ymmärrettävässä muodossa sen arvioimiseksi, täyttääkö tekoälyjärjestelmä kyseiset vaatimukset. Sen on sisällettävä vähintään liitteessä IV esitetyt tiedot. Pk-yritykset, mukaan lukien startup-yritykset, voivat toimittaa liitteessä IV täsmennetyn teknisen dokumentaation osat yksinkertaistetulla tavalla. Tätä varten komissio laatii yksinkertaistetun teknisen dokumentaatiolomakkeen, joka on suunnattu pienten ja mikroyritysten tarpeisiin. Jos pk-yritys, myös startup-yritys, päättää toimittaa liitteessä IV vaaditut tiedot yksinkertaistetussa muodossa, sen on käytettävä tässä kohdassa tarkoitettua lomaketta. Ilmoitettujen laitosten on hyväksyttävä kyseinen lomake vaatimustenmukaisuuden arviointia varten.
Dokumentację techniczną sporządza się w taki sposób, aby wykazać, że system AI wysokiego ryzyka jest zgodny z wymogami ustanowionymi w niniejszej sekcji, oraz aby dostarczyć właściwym organom krajowym i jednostkom notyfikowanym informacji – w jasnej i kompleksowej formie – niezbędnych do oceny zgodności systemu AI z tymi wymogami. Zawiera ona co najmniej elementy określone w załączniku IV. MŚP, w tym przedsiębiorstwa typu start-up, mogą podawać elementy dokumentacji technicznej określone w załączniku IV w formie uproszczonej. W tym celu Komisja ustanawia wzór uproszczonej dokumentacji technicznej ukierunkowany na potrzeby małych przedsiębiorstw i mikroprzedsiębiorstw. W przypadku gdy MŚP, w tym przedsiębiorstwa typu start-up, zdecydują się na podawanie informacji wymaganych w załączniku IV w sposób uproszczony, korzystają z wzoru, o którym mowa w niniejszym ustępie. Jednostki notyfikowane akceptują ten wzór do celów oceny zgodności.
2. Kun markkinoille saatetaan tai käyttöön otetaan suuririskinen tekoälyjärjestelmä, joka liittyy tuotteeseen, johon sovelletaan liitteessä I olevassa A jaksossa lueteltua unionin yhdenmukaistamislainsäädäntöä, on laadittava kootusti tekninen dokumentaatio, joka sisältää kaikki 1 kohdassa esitetyt tiedot sekä kyseisissä säädöksissä vaaditut tiedot.
2. W przypadku wprowadzania do obrotu lub oddawania do użytku systemu AI wysokiego ryzyka związanego z produktem, który jest objęty zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, sporządza się jeden zestaw dokumentacji technicznych zawierający wszystkie informacje określone w ust. 1, jak również informacje wymagane na podstawie tych aktów prawnych.
3. Siirretään komissiolle valta antaa delegoituja säädöksiä 97 artiklan mukaisesti liitteen IV muuttamiseksi tarvittaessa sen varmistamiseksi, että teknisessä dokumentaatiossa annetaan tekniikan kehityksen perusteella kaikki tarvittavat tiedot sen arvioimiseksi, onko järjestelmä tässä jaksossa vahvistettujen vaatimusten mukainen.
3. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany, w razie potrzeby, załącznika IV, aby zagwarantować, by w świetle postępu technicznego dokumentacja techniczna zawierała wszystkie informacje niezbędne do oceny zgodności systemu z wymogami ustanowionymi w niniejszej sekcji.
12 artikla
Artykuł 12
Tietojen säilyttäminen
Rejestrowanie zdarzeń
1. Suuririskisissä tekoälyjärjestelmissä on mahdollistettava teknisesti tapahtumien automaattinen tallentaminen (”lokitiedot”) järjestelmän koko elinkaaren ajan.
1. Systemy AI wysokiego ryzyka muszą dysponować technicznymi możliwościami automatycznego rejestrowania zdarzeń (zwanymi dalej „rejestrami zdarzeń”) w całym cyklu życia danego systemu.
2. Jotta voidaan varmistaa sellainen suuririskisen tekoälyjärjestelmän toiminnan jäljitettävyyden taso, joka on oikeassa suhteessa järjestelmän käyttötarkoitukseen, lokitusvalmiuksilla on mahdollistettava sellaisten tapahtumien tallentaminen, jotka ovat merkityksellisiä seuraaville:
2. W celu zapewnienia, by poziom identyfikowalności funkcjonowania systemu AI wysokiego ryzyka był stosowny ze względu na przeznaczenie tego systemu, funkcja rejestracji zdarzeń musi umożliwiać rejestrowanie zdarzeń istotnych dla:
a)
sellaisten tilanteiden tunnistaminen, jotka voivat johtaa siihen, että suuririskinen tekoälyjärjestelmä aiheuttaa 79 artiklan 1 kohdassa tarkoitetun riskin tai johtaa merkittävään muutokseen;
a)
identyfikowania sytuacji, które mogą skutkować tym, że system AI wysokiego ryzyka będzie stwarzał ryzyko w rozumieniu art. 79 ust. 1, lub które mogą prowadzić do istotnej zmiany;
b)
jäljempänä 72 kohdassa tarkoitetun markkinoille saattamisen jälkeisen seurannan helpottaminen; sekä
b)
ułatwiania monitorowania po wprowadzeniu do obrotu, o którym mowa w art. 72; oraz
c)
jäljempänä 26 artiklan 5 kohdassa tarkoitettu suuririskisten tekoälyjärjestelmien toiminnan seuranta.
c)
monitorowania działania systemów AI wysokiego ryzyka, o których mowa w art. 26 ust. 5.
3. Liitteessä III olevan 1 kohdan a alakohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien lokitusvalmiuksiin on sisällyttävä vähintään seuraavat osatekijät:
3. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 1 lit. a), funkcja rejestracji zdarzeń musi zapewniać rejestrowanie co najmniej:
a)
järjestelmän kunkin käyttöjakson kirjaaminen (kunkin käytön alkamispäivä ja -aika ja päättymispäivä ja -aika);
a)
okresu każdego wykorzystania systemu (data i godzina rozpoczęcia oraz data i godzina zakończenia każdego wykorzystania);
b)
viitetietokanta, jonka perusteella järjestelmä on tarkastanut syöttötiedot;
b)
referencyjnej bazy danych, względem której system sprawdził dane wejściowe;
c)
syöttötiedot, joiden osalta haku on johtanut tulokseen;
c)
danych wejściowych, w których przypadku wyszukiwanie doprowadziło do trafienia;
d)
14 artiklan 5 kohdassa tarkoitettujen tulosten tarkastamiseen osallistuvien luonnollisten henkilöiden tunnistetiedot.
d)
danych umożliwiających identyfikację osób fizycznych uczestniczących w weryfikacji wyników, o których mowa w art. 14 ust. 5.
13 artikla
Artykuł 13
Avoimuus ja tietojen antaminen käyttöönottajille
Przejrzystość i udostępnianie informacji podmiotom stosującym
1. Suuririskiset tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että varmistetaan, että niiden toiminta on riittävän avointa, jotta käyttöönottajat voivat tulkita järjestelmän tuotoksia ja käyttää niitä asianmukaisesti. On varmistettava sopiva avoimuuden tyyppi ja taso, jotta voidaan taata 3 jaksossa säädettyjen tarjoajan ja käyttöönottajan asiaankuuluvien velvoitteiden noudattaminen.
1. Systemy AI wysokiego ryzyka projektuje się i rozwija w sposób zapewniający wystarczającą przejrzystość ich działania, umożliwiającą podmiotom stosującym interpretację wyników systemu i ich właściwe wykorzystanie. Zapewnia się odpowiedni rodzaj i stopień przejrzystości w celu osiągnięcia spełnienia przez dostawcę i podmiot stosujący odpowiednich obowiązków określonych w sekcji 3.
2. Suuririskisten tekoälyjärjestelmien mukana on oltava käyttöohjeet asianmukaisessa digitaalisessa tai muussa muodossa, ja niissä on annettava ytimekkäitä, täydellisiä, paikkansapitäviä ja selkeitä tietoja, jotka ovat käyttöönottajien kannalta olennaisia, esteettömiä ja ymmärrettäviä.
2. Do systemów AI wysokiego ryzyka dołącza się instrukcję obsługi w odpowiednim formacie cyfrowym lub innym formacie zawierającą zwięzłe, kompletne, poprawne i jasne informacje, które są istotne, dostępne i zrozumiałe dla podmiotów stosujących.
3. Käyttöohjeiden on sisällettävä ainakin seuraavat:
3. Instrukcja obsługi zawiera co najmniej następujące informacje:
a)
tarjoajan ja tarvittaessa tämän valtuutetun edustajan henkilöllisyys ja yhteystiedot;
a)
tożsamość i dane kontaktowe dostawcy oraz, w stosownych przypadkach, jego upoważnionego przedstawiciela;
b)
suuririskisen tekoälyjärjestelmän ominaisuudet, valmiudet ja suorituskyvyn rajoitukset, mukaan lukien seuraavat:
b)
cechy, możliwości i ograniczenia skuteczności działania systemu AI wysokiego ryzyka, w tym:
i)
järjestelmän käyttötarkoitus;
(i)
jego przeznaczenie;
ii)
15 artiklassa tarkoitettu tarkkuuden, mukaan lukien sen mittarit, vakauden ja kyberturvallisuuden taso, johon nähden suuririskinen tekoälyjärjestelmä on testattu ja validoitu ja jota voidaan odottaa, sekä kaikki tunnetut ja ennakoitavissa olevat olosuhteet, joilla voi olla vaikutusta kyseiseen tarkkuuden, vakauden ja kyberturvallisuuden odotettuun tasoon;
(ii)
poziom dokładności, wraz z jego wskaźnikami, poziom solidności i cyberbezpieczeństwa, o których mowa w art. 15, względem których przetestowano system AI wysokiego ryzyka i dokonano jego walidacji oraz których to poziomów można oczekiwać, a także wszelkie znane i dające się przewidzieć okoliczności, które mogą mieć wpływ na te oczekiwane poziomy dokładności, solidności i cyberbezpieczeństwa;
iii)
kaikki tunnetut tai ennakoitavissa olevat olosuhteet, jotka liittyvät suuririskisen tekoälyjärjestelmän käyttöön sen käyttötarkoituksen mukaisesti tai kohtuudella ennakoitavissa olevissa väärinkäytön olosuhteissa ja jotka voivat aiheuttaa 9 artiklan 2 kohdassa tarkoitettuja terveyteen ja turvallisuuteen tai perusoikeuksiin kohdistuvia riskejä;
(iii)
wszelkie znane lub dające się przewidzieć okoliczności związane z wykorzystaniem systemu AI wysokiego ryzyka zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, mogące powodować ryzyko dla zdrowia i bezpieczeństwa lub praw podstawowych, o którym to ryzyku mowa w art. 9 ust. 2;
iv)
tapauksen mukaan suuririskisen tekoälyjärjestelmän tekniset valmiudet ja ominaisuudet, jotta voidaan antaa tietoja, jotka ovat merkityksellisiä sen tuotoksen selittämiseksi;
(iv)
w stosownych przypadkach, możliwości techniczne i właściwości systemu AI wysokiego ryzyka w zakresie udostępniania informacji istotnych dla wyjaśnienia jego wyników;
v)
tarvittaessa sen käyttäytyminen niiden henkilöiden tai henkilöryhmien osalta, joihin järjestelmää on tarkoitus käyttää;
(v)
w stosownych przypadkach, działanie systemu w odniesieniu do określonych osób lub grup osób, wobec których ma on być wykorzystywany;
vi)
tarvittaessa syöttötietoja koskevat spesifikaatiot tai muut käytettyjä koulutus-, validointi- ja testausdatajoukkoja koskevat olennaiset tiedot ottaen huomioon suuririskisen tekoälyjärjestelmän käyttötarkoitus;
(vi)
w stosownych przypadkach, specyfikacje dotyczące danych wejściowych lub wszelkie inne istotne informacje dotyczące wykorzystywanych zbiorów danych treningowych, walidacyjnych i testowych, uwzględniając przeznaczenie systemu AI wysokiego ryzyka;
vii)
tapauksen mukaan tiedot, joiden avulla käyttöönottajat voivat tulkita suuririskisen tekoälyjärjestelmän tuotoksia ja käyttää niitä asianmukaisesti;
(vii)
w stosownych przypadkach, informacje umożliwiające podmiotom stosującym interpretację wyników systemu AI wysokiego ryzyka i odpowiednie wykorzystanie tych wyników;
c)
suuririskisen tekoälyjärjestelmän ja sen suorituskyvyn muutokset, jotka tarjoaja on määritellyt ennalta ensimmäisen vaatimustenmukaisuuden arvioinnin yhteydessä, jos sellaisia on;
c)
zmiany w systemie AI wysokiego ryzyka i jego skuteczności działania, które zostały z góry zaplanowane przez dostawcę w momencie przeprowadzania początkowej oceny zgodności;
d)
14 artiklassa tarkoitetut ihmisen suorittamat valvontatoimenpiteet, mukaan lukien tekniset toimenpiteet, jotka on otettu käyttöön, jotta käyttöönottajien olisi helpompi tulkita suuririskisten tekoälyjärjestelmien tuotoksia;
d)
środki nadzoru ze strony człowieka, o których mowa w art. 14, w tym środki techniczne wprowadzone w celu ułatwienia podmiotom stosującym interpretacji wyników systemów AI wysokiego ryzyka;
e)
tarvittavat laskenta- ja laiteresurssit, suuririskisen tekoälyjärjestelmän odotettu käyttöikä ja kaikki tarvittavat huolto- ja hoitotoimenpiteet, mukaan lukien niiden aikavälit, joilla varmistetaan tekoälyjärjestelmän asianmukainen toiminta, mukaan lukien ohjelmistopäivitykset;
e)
potrzebne zasoby obliczeniowe i sprzętowe, przewidywany cykl życia systemu AI wysokiego ryzyka oraz wszelkie niezbędne środki w zakresie konserwacji i utrzymania, w tym częstotliwość ich stosowania, mające na celu zapewnienie właściwego funkcjonowania tego systemu AI, w tym dotyczące aktualizacji oprogramowania;
f)
tarpeen mukaan kuvaus suuririskiseen tekoälyjärjestelmään sisältyvistä mekanismeista, joiden avulla käyttöönottajat voivat asianmukaisesti kerätä, tallentaa ja tulkita lokitietoja 12 artiklan mukaisesti.
f)
w stosownych przypadkach – opis mechanizmów zawartych w systemie AI wysokiego ryzyka, które umożliwiają podmiotom stosującym prawidłowe zbieranie, przechowywanie i interpretowanie rejestrów zdarzeń, zgodnie z art. 12.
14 artikla
Artykuł 14
Ihmisen suorittama valvonta
Nadzór ze strony człowieka
1. Suuririskiset tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että luonnolliset henkilöt voivat tehokkaasti valvoa niitä niiden ollessa käytössä, mukaan lukien asianmukaisten käyttöliittymätyökalujen käyttö.
1. Systemy AI wysokiego ryzyka projektuje się i rozwija w taki sposób, w tym poprzez uwzględnienie odpowiednich narzędzi interfejsu człowiek-maszyna, aby w okresie ich wykorzystywania systemu AI mogły być skutecznie nadzorowane przez osoby fizyczne.
2. Ihmisen suorittamalla valvonnalla on pyrittävä ehkäisemään tai minimoimaan terveydelle, turvallisuudelle tai perusoikeuksille aiheutuvat riskit, joita voi syntyä, kun suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti tai kohtuudella ennakoitavissa olevissa väärinkäytön olosuhteissa, erityisesti jos tällaiset riskit jatkuvat huolimatta muiden tässä jaksossa vahvistettujen vaatimusten soveltamisesta.
2. Nadzór ze strony człowieka ma na celu zapobieganie ryzyku dla zdrowia, bezpieczeństwa lub praw podstawowych lub minimalizowanie takiego ryzyka, które może się pojawić, gdy system AI wysokiego ryzyka jest wykorzystywany zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, w szczególności gdy takie ryzyko utrzymuje się pomimo stosowania innych wymogów ustanowionych w niniejszej sekcji.
3. Valvontatoimenpiteiden on oltava oikeassa suhteessa suuririskisen tekoälyjärjestelmän riskeihin, itsenäisyyden tasoon ja käyttöympäristöön, ja ne on varmistettava jommallakummalla tai molemmilla seuraavista toimenpidetyypeistä:
3. Środki nadzoru muszą być współmierne do ryzyka, poziomu autonomii i kontekstu wykorzystywania danego systemu AI wysokiego ryzyka, a nadzór zapewnia się za pomocą co najmniej jednego z następujących rodzajów środków:
a)
toimenpiteet, jotka tarjoaja on määrittänyt ja, jos se on teknisesti toteutettavissa, sisällyttänyt suuririskiseen tekoälyjärjestelmään ennen sen markkinoille saattamista tai käyttöönottoa;
a)
środków określonych i wbudowanych, jeżeli jest to technicznie wykonalne, w system AI wysokiego ryzyka przez dostawcę przed wprowadzeniem systemu do obrotu lub oddaniem do użytku;
b)
toimenpiteet, jotka tarjoaja on määrittänyt ennen suuririskisen tekoälyjärjestelmän markkinoille saattamista tai käyttöönottoa ja jotka on tarkoituksenmukaista toteuttaa käyttöönottajan toimesta.
b)
środków określonych przez dostawcę przed wprowadzeniem systemu AI wysokiego ryzyka do obrotu lub oddaniem go do użytku i które to środki nadają się do wdrożenia przez podmiot stosujący.
4. Edellä 1, 2 ja 3 kohdan täytäntöönpanoa varten suuririskinen tekoälyjärjestelmä on tarjottava käyttöönottajalle siten, että luonnolliset henkilöt, joiden tehtäväksi ihmisen suorittama valvonta on annettu, voivat tapauksen mukaan ja oikeassa suhteessa niihin nähden
4. Do celów wykonania ust. 1, 2 i 3 system AI wysokiego ryzyka udostępnia się podmiotowi stosującemu w taki sposób, aby umożliwić osobom fizycznym, którym powierzono sprawowanie nadzoru ze strony człowieka, odpowiednio i proporcjonalnie:
a)
ymmärtää asianmukaisesti suuririskisen tekoälyjärjestelmän asiaankuuluvat valmiudet ja rajoitukset ja seurata sen toimintaa asianmukaisesti, myös poikkeamien, toimintahäiriöiden ja odottamattoman toiminnan havaitsemiseksi ja niihin puuttumiseksi;
a)
należyte zrozumienie odpowiednich możliwości i ograniczeń systemu AI wysokiego ryzyka oraz należyte monitorowanie jego działania, w tym w celu wykrywania anomalii, nieprawidłowego funkcjonowania i nieoczekiwanych wyników działania oraz zaradzeniu im w przypadku ich wystąpienia;
b)
pysyä tietoisina mahdollisesta taipumuksesta luottaa automaattisesti tai liiallisesti suuririskisen tekoälyjärjestelmän tuottamiin tuotoksiin (”automaatiovinouma”), erityisesti sellaisten suuririskisten tekoälyjärjestelmien osalta, joita käytetään tietojen tai suositusten antamiseen luonnollisten henkilöiden tekemiä päätöksiä varten;
b)
pozostawanie świadomym potencjalnej tendencji do automatycznego polegania lub nadmiernego polegania na wyniku wytworzonym przez system AI wysokiego ryzyka (tzw. „błąd automatyzacji”), w szczególności w przypadku systemów AI wysokiego ryzyka wykorzystywanych do udzielania informacji lub zaleceń na potrzeby decyzji podejmowanych przez osoby fizyczne;
c)
tulkita oikein suuririskisen tekoälyjärjestelmän tuotoksia ottaen huomioon esimerkiksi käytettävissä olevat tulkintavälineet ja -menetelmät;
c)
prawidłową interpretację wyniku systemu AI wysokiego ryzyka, biorąc pod uwagę na przykład dostępne narzędzia i metody interpretacji;
d)
päättää missä tahansa erityistilanteessa, että suuririskistä tekoälyjärjestelmää ei käytetä, tai muutoin jättää huomiotta, korjata tai peruuttaa suuririskisen tekoälyjärjestelmän tuotokset;
d)
podjęcie decyzji, w każdej konkretnej sytuacji, o niekorzystaniu z systemu AI wysokiego ryzyka lub w inny sposób zignorowanie, unieważnienie lub odwrócenie wyniku systemu AI wysokiego ryzyka;
e)
puuttua suuririskisen tekoälyjärjestelmän toimintaan tai pysäyttää järjestelmän pysäytyspainikkeella tai vastaavalla menettelyllä, jonka avulla järjestelmä voidaan pysäyttää turvalliseen tilaan.
e)
ingerowanie w działanie systemu AI wysokiego ryzyka lub przerwanie działania systemu za pomocą przycisku „stop” lub podobnej procedury, która pozwala na zatrzymanie systemu w stanie bezpiecznym.
5. Liitteessä III olevan 1 kohdan a alakohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien osalta tämän artiklan 3 kohdassa tarkoitetuilla toimenpiteillä on lisäksi varmistettava, että käyttöönottaja ei tee mitään toimia tai päätöstä järjestelmästä seuraavan tunnistamisen perusteella, ellei vähintään kaksi luonnollista henkilöä, joilla on tarvittava pätevyys, koulutus ja valtuudet, ole erikseen todentanut ja vahvistanut sitä.
5. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 1 lit. a), środki, o których mowa w ust. 3 niniejszego artykułu, muszą ponadto zapewniać, aby podmiot stosujący nie podejmował żadnego działania ani decyzji na podstawie identyfikacji będącej wynikiem działania systemu, jeżeli identyfikacji tej nie zweryfikowały ani nie potwierdziły odrębnie co najmniej dwie osoby fizyczne mające wymagane kompetencje, przeszkolenie i uprawnienia.
Vaatimusta vähintään kahden luonnollisen henkilön erikseen tekemästä todentamisesta ei sovelleta suuririskisiin tekoälyjärjestelmiin, joita käytetään lainvalvonnan, muuttoliikkeen hallinnan, rajavalvonnan tai turvapaikka-asioiden tarkoituksiin, jos unionin tai jäsenvaltioiden lainsäädännössä tämän vaatimuksen soveltaminen katsotaan kohtuuttomaksi.
Wymóg odrębnej weryfikacji przez co najmniej dwie osoby fizyczne nie ma zastosowania do systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw, migracji, kontroli granicznej lub azylu, w przypadkach gdy prawo Unii lub prawo krajowe uznaje stosowanie tego wymogu za nieproporcjonalne.
15 artikla
Artykuł 15
Tarkkuus, vakaus ja kyberturvallisuus
Dokładność, solidność i cyberbezpieczeństwo
1. Suuririskiset tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että ne saavuttavat asianmukaisen tarkkuuden, vakauden ja kyberturvallisuuden tason ja toimivat tässä suhteessa johdonmukaisesti koko elinkaarensa ajan.
1. Systemy AI wysokiego ryzyka projektuje się i rozwija w taki sposób, aby osiągały odpowiedni poziom dokładności, solidności i cyberbezpieczeństwa oraz by działały konsekwentnie pod tymi względami w całym cyklu życia.
2. Jotta voitaisiin käsitellä teknisiä näkökohtia, jotka liittyvät 1 kohdassa vahvistettujen tarkkuuden ja vakauden tasojen mittaamiseen ja muihin mahdollisiin merkityksellisiin suorituskykymittareihin, komissio kannustaa kehittämään vertailuarvoja ja mittausmenetelmiä, tarvittaessa yhteistyössä asiaankuuluvien sidosryhmien ja organisaatioiden, kuten metrologiasta ja vertailuanalyysista vastaavien viranomaisten, kanssa.
2. Aby odnieść się do technicznych aspektów pomiaru odpowiednich poziomów dokładności i solidności określonych w ust. 1 oraz wszelkich innych istotnych wskaźników skuteczności działania, Komisja we współpracy z odpowiednimi zainteresowanymi stronami i organizacjami, takimi jak organy metrologiczne i organy ds. analizy porównawczej, zachęca w stosownych przypadkach do opracowywania poziomów odniesienia i metod pomiarowych.
3. Suuririskisten tekoälyjärjestelmien tarkkuustasot ja niihin liittyvät tarkkuusmittarit on ilmoitettava järjestelmän mukana olevissa käyttöohjeissa.
3. Poziomy dokładności i odpowiednie wskaźniki dokładności systemów AI wysokiego ryzyka deklaruje się w dołączonych do nich instrukcjach obsługi.
4. Suuririskisten tekoälyjärjestelmien on siedettävä mahdollisimman paljon virheitä, vikoja tai epäjohdonmukaisuuksia, joita saattaa esiintyä järjestelmässä tai ympäristössä, jossa järjestelmä toimii, erityisesti siksi, että järjestelmät ovat vuorovaikutuksessa luonnollisten henkilöiden tai muiden järjestelmien kanssa. Tältä osin on toteutettava teknisiä ja organisatorisia toimenpiteitä.
4. Systemy AI wysokiego ryzyka muszą być możliwie jak najodporniejsze na błędy, usterki lub niespójności, które mogą wystąpić w systemie lub w środowisku, w którym działa system, w szczególności w wyniku interakcji z osobami fizycznymi lub innymi systemami. W tym zakresie podejmuje się środki techniczne i organizacyjne.
Suuririskisten tekoälyjärjestelmien vakaus voidaan saavuttaa teknisillä vararatkaisuilla, joihin voivat kuulua varasuunnitelmat tai vikavarmistussuunnitelmat.
Solidność systemów AI wysokiego ryzyka można osiągnąć dzięki rozwiązaniom technicznym gwarantującym redundancję, które mogą obejmować plany zakładające dostępność systemu zapasowego lub plany zapewniające przejście systemu w stan bezpieczny (tzw. „fail-safe”).
Suuririskiset tekoälyjärjestelmät, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen, on kehitettävä siten, että poistetaan tai vähennetään mahdollisimman suurelta osin riski mahdollisesti vinoutuneista tuotoksista, jotka vaikuttavat tulevien toimintojen syöttötietoihin (palautesilmukat) ja varmistetaan, että tällaisiin palautesilmukoihin puututaan asianmukaisin lieventävin toimenpitein.
Systemy AI wysokiego ryzyka, które po wprowadzeniu na rynek lub oddaniu do użytku nadal się uczą, rozwija się w taki sposób, aby w możliwie największym stopniu wyeliminować lub ograniczyć ryzyko potencjalnie stronniczych wyników wpływających na dane wejściowe wykorzystywane na potrzeby przyszłych operacji (sprzężenie zwrotne) oraz aby zapewnić, by wszelkie tego typu sprzężenie zwrotne zostało odpowiednio uwzględnione przy pomocy odpowiednich środków ograniczających ryzyko.
5. Suuririskisten tekoälyjärjestelmien on kestettävä asiaankuulumattomien ulkopuolisten tahojen yritykset muuttaa järjestelmän käyttöä, tuotoksia tai suorituskykyä hyödyntämällä järjestelmän haavoittuvuuksia.
5. Systemy AI wysokiego ryzyka muszą być odporne na próby nieupoważnionych osób trzecich mające na celu zmianę ich wykorzystania, wyników lub skuteczności działania poprzez wykorzystanie słabych punktów systemu.
Suuririskisten tekoälyjärjestelmien kyberturvallisuuden varmistamiseen tähtäävien teknisten ratkaisujen on oltava asianmukaisia asiaan liittyviin olosuhteisiin ja riskeihin nähden.
Rozwiązania techniczne mające na celu zapewnienie cyberbezpieczeństwa systemów AI wysokiego ryzyka muszą być dostosowane do odpowiednich okoliczności i ryzyka.
Teknisiin ratkaisuihin, joilla puututaan tekoälyn erityisiin haavoittuvuuksiin, on tarvittaessa sisällyttävä toimenpiteitä, joilla ehkäistään, havaitaan ja rajoitetaan sellaisia hyökkäyksiä ja vastataan sellaisiin hyökkäyksiin ja ratkaistaan sellaiset hyökkäykset, joilla pyritään manipuloimaan koulutusdatajoukkoa (datamyrkytys) tai koulutuksessa käytettyjä koulutusta edeltäviä komponentteja (mallimyrkytys), syöttötietoja, joiden tarkoituksena on saada tekoälymalli tekemään virhe (adversariaaliset esimerkit tai mallin kiertäminen), luottamuksellisuushyökkäykset tai mallin puutteet.
Rozwiązania techniczne mające na celu eliminowanie słabych punktów charakterystycznych dla AI obejmują, w stosownych przypadkach, środki służące zapobieganiu atakom mającym na celu manipulowanie zbiorem danych treningowych (zatruwanie danych) lub elementami stosowanymi przy trenowaniu, które zostały poddane pretrenowaniu (zatruwanie modelu), wprowadzaniu danych wejściowych, które mają na celu spowodowanie błędu w modelu AI (przykłady kontradyktoryjne lub omijanie modelu), atakom na poufność lub wadom modelu, a także środki w zakresie wykrywania tych zagrożeń, reagowania na nie, ich rozwiązywania i ich kontrolowania.
3 JAKSO
SEKCJA 3
Suuririskisten tekoälyjärjestelmien tarjoajien ja käyttöönottajien sekä muiden osapuolten velvollisuudet
Obowiązki dostawców i podmiotów stosujących systemy AI wysokiego ryzyka oraz innych osób
16 artikla
Artykuł 16
Suuririskisten tekoälyjärjestelmien tarjoajien velvollisuudet
Obowiązki dostawców systemów AI wysokiego ryzyka
Suuririskisten tekoälyjärjestelmien tarjoajien on
Dostawcy systemów AI wysokiego ryzyka:
a)
varmistettava, että niiden suuririskiset tekoälyjärjestelmät ovat 2 jaksossa vahvistettujen vaatimusten mukaisia;
a)
zapewniają zgodność swoich systemów AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2;
b)
ilmoitettava suuririskisessä tekoälyjärjestelmässä tai, jos se ei ole mahdollista, sen pakkauksessa tai sen mukana seuraavassa dokumentaatiossa tapauksen mukaan nimensä, rekisteröity tuotenimensä tai rekisteröity tavaramerkkinsä sekä osoite, josta niihin saa yhteyden;
b)
podają w systemie AI wysokiego ryzyka lub – przypadku gdy nie jest to możliwe – na jego opakowaniu lub w dołączonej do niego dokumentacji, stosownie do przypadku, swoją nazwę, zarejestrowaną nazwę handlową lub zarejestrowany znak towarowy i adres, pod którym można się z nimi skontaktować;
c)
käytettävä 17 artiklan mukaista laadunhallintajärjestelmää;
c)
posiadają system zarządzania jakością zgodny z art. 17;
d)
säilytettävä 18 artiklassa tarkoitettu dokumentaatio;
d)
prowadzą dokumentację, o której mowa w art. 18;
e)
säilytettävä 19 artiklassa tarkoitetut suuririskisten tekoälyjärjestelmiensä automaattisesti tuottamat lokitiedot, kun nämä tiedot ovat niiden hallinnassa;
e)
przechowują rejestry zdarzeń generowane automatycznie przez ich systemy AI wysokiego ryzyka, jak określono w art. 19, gdy rejestry takie znajdują się pod ich kontrolą;
f)
varmistettava, että suuririskiselle tekoälyjärjestelmälle tehdään 43 artiklassa tarkoitettu asiaankuuluva vaatimustenmukaisuuden arviointimenettely ennen sen markkinoille saattamista tai käyttöönottoa;
f)
zapewniają, aby przed wprowadzeniem do obrotu lub oddaniem do użytku system AI wysokiego ryzyka poddano odpowiedniej procedurze oceny zgodności, o której mowa w art. 43;
g)
laadittava EU-vaatimustenmukaisuusvakuutus 47 artiklan mukaisesti;
g)
sporządzają deklarację zgodności UE zgodnie z art. 47;
h)
kiinnitettävä CE-merkintä 48 artiklan mukaisesti suuririskiseen tekoälyjärjestelmään tai, jos se ei ole mahdollista, sen pakkaukseen tai sen mukana seuraavaan dokumentaatioon sen osoittamiseksi, että järjestelmä on tämän asetuksen mukainen;
h)
umieszczają, zgodnie z art. 48, oznakowanie CE w systemie AI wysokiego ryzyka lub – w przypadku gdy nie jest to możliwe – na jego opakowaniu lub w dołączonej do niego dokumentacji, na potwierdzenie zgodności z niniejszym rozporządzeniem;
i)
noudatettava 49 artiklan 1 kohdassa tarkoitettuja rekisteröintivelvollisuuksia;
i)
spełniają obowiązki rejestracyjne, o których mowa w art. 49 ust. 1;
j)
toteutettava tarvittavat korjaavat toimenpiteet ja annettava 20 artiklassa vaaditut tiedot;
j)
podejmują niezbędne działania naprawcze i przekazują informacje zgodnie z art. 20;
k)
osoitettava kansallisen toimivaltaisen viranomaisen perustellusta pyynnöstä, että suuririskinen tekoälyjärjestelmä on 2 jaksossa vahvistettujen vaatimusten mukainen;
k)
wykazują, na uzasadniony wniosek właściwego organu krajowego, zgodność systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2;
l)
varmistettava, että suuririskinen tekoälyjärjestelmä täyttää direktiivien (EU) 2016/2102 ja (EU) 2019/882 mukaiset esteettömyysvaatimukset.
l)
zapewniają, by system AI wysokiego ryzyka był zgodny z wymogami dostępności zgodnie z dyrektywami (UE) 2016/2102 i (UE) 2019/882.
17 artikla
Artykuł 17
Laadunhallintajärjestelmä
System zarządzania jakością
1. Suuririskisten tekoälyjärjestelmien tarjoajien on otettava käyttöön laadunhallintajärjestelmä, jolla varmistetaan tämän asetuksen noudattaminen. Järjestelmä on dokumentoitava järjestelmällisesti ja täsmällisesti kirjallisiksi periaatteiksi, menettelyiksi ja ohjeiksi, ja siihen on sisällyttävä ainakin seuraavat seikat:
1. Dostawcy systemów AI wysokiego ryzyka wprowadzają system zarządzania jakością, który zapewnia zgodność z niniejszym rozporządzeniem. System ten dokumentuje się w systematyczny i uporządkowany sposób w formie pisemnych polityk, procedur i instrukcji oraz obejmuje on co najmniej następujące aspekty:
a)
strategia säännösten noudattamista varten, mukaan lukien vaatimustenmukaisuusmenettelyjen ja suuririskisiin tekoälyjärjestelmiin tehtyjen muutosten hallintamenettelyjen noudattaminen;
a)
strategię na rzecz zgodności regulacyjnej, w tym zgodności z procedurami oceny zgodności i procedurami zarządzania zmianami w systemie AI wysokiego ryzyka;
b)
suuririskisen tekoälyjärjestelmän suunnittelussa, suunnittelun valvonnassa ja rakenteen tarkastuksessa käytettävät tekniikat, menettelyt ja järjestelmälliset toimenpiteet;
b)
techniki, procedury i systematyczne działania, które należy stosować na potrzeby projektowania oraz kontroli i weryfikacji projektu systemu AI wysokiego ryzyka;
c)
suuririskisen tekoälyjärjestelmän kehittämisessä, laadunvalvonnassa ja laadunvarmistuksessa käytettävät tekniikat, menettelyt ja järjestelmälliset toimenpiteet;
c)
techniki, procedury i systematyczne działania, które należy stosować na potrzeby rozwoju, kontroli jakości i zapewniania jakości systemu AI wysokiego ryzyka;
d)
tarkastus-, testaus- ja validointimenettelyt, jotka on suoritettava ennen suuririskisen tekoälyjärjestelmän kehittämistä, sen aikana ja sen jälkeen, sekä niiden suoritustiheys;
d)
procedury badania, testowania i walidacji, które należy przeprowadzić przed przystąpieniem do rozwoju systemu AI wysokiego ryzyka, w trakcie tego rozwoju i po jego zakończeniu, oraz częstotliwość, z jaką mają być przeprowadzane;
e)
sovellettavat tekniset eritelmät, standardit mukaan luettuina, ja, jos asiaankuuluvia yhdenmukaistettuja standardeja ei sovelleta täysimääräisesti tai ne eivät kata kaikkia 2 jaksossa vahvistettuja asiaankuuluvia vaatimuksia, keinot, joilla varmistetaan, että suuririskinen tekoälyjärjestelmä on kyseisten vaatimusten mukainen;
e)
specyfikacje techniczne, w tym normy, które należy zastosować, oraz w przypadkach gdy normy zharmonizowane nie są stosowane w pełni lub nie obejmują wszystkich odpowiednich wymogów ustanowionych w sekcji 2, środki, które należy zastosować do zapewnienia, by system AI wysokiego ryzyka był zgodny z tymi wymogami;
f)
datanhallintajärjestelmät ja -menettelyt, mukaan lukien datanhankinta, datankeruu, datan analysointi, tunnisteiden lisääminen, datan tallentaminen, datan suodattaminen, datanlouhinta, datan yhdistäminen, datan säilyttäminen ja kaikki muut dataan liittyvät toimet, jotka suoritetaan ennen suuririskisten tekoälyjärjestelmien markkinoille saattamista tai käyttöönottoa ja näitä toimia varten;
f)
systemy i procedury zarządzania danymi, w tym dotyczące nabywania danych, zbierania danych, analizy danych, etykietowania danych, przechowywania danych, filtrowania danych, eksploracji danych, agregacji danych, zatrzymywania danych i wszelkich innych operacji dotyczących danych, które przeprowadza się przed wprowadzeniem do obrotu lub oddaniem do użytku systemów AI wysokiego ryzyka i do celu wprowadzenia ich do obrotu lub oddania ich do użytku;
g)
9 artiklassa tarkoitettu riskinhallintajärjestelmä;
g)
system zarządzania ryzykiem, o którym mowa w art. 9;
h)
markkinoille saattamisen jälkeistä seurantaa koskevan järjestelmän perustaminen, toteutus ja ylläpito 72 artiklan mukaisesti;
h)
ustanowienie, wdrożenie i obsługa systemu monitorowania po wprowadzeniu do obrotu, zgodnie z art. 72;
i)
menettelyt, jotka liittyvät vakavasta vaaratilanteesta ilmoittamiseen 73 artiklan mukaisesti;
i)
procedury związane ze zgłaszaniem poważnego incydentu zgodnie z art. 73;
j)
kansallisten toimivaltaisten viranomaisten, muiden asianomaisten viranomaisten, myös niiden, jotka tarjoavat pääsyn dataan tai tukevat sitä, ilmoitettujen laitosten, muiden toimijoiden, asiakkaiden tai muiden asianomaisten osapuolten kanssa käytävän viestinnän järjestäminen.
j)
porozumiewanie się z właściwymi organami krajowymi, innymi właściwymi organami, w tym organami zapewniającymi lub wspierającymi dostęp do danych, jednostkami notyfikowanymi, innymi operatorami, klientami lub innymi zainteresowanymi stronami;
k)
järjestelmät ja menettelyt kaiken asiaankuuluvan dokumentaation ja tiedon säilyttämistä varten;
k)
systemy i procedury rejestrowania wszelkiej istotnej dokumentacji i wszelkich istotnych informacji;
l)
resurssien hallinta, mukaan lukien toimitusvarmuuteen liittyvät toimenpiteet;
l)
zarządzanie zasobami, w tym środki związane z bezpieczeństwem dostaw;
m)
vastuuvelvollisuuskehys, jossa määritellään johdon ja muun henkilöstön vastuut kaikkien tässä kohdassa lueteltujen seikkojen osalta.
m)
ramy odpowiedzialności służące określeniu odpowiedzialności kierownictwa i pozostałego personelu w odniesieniu do wszystkich aspektów wymienionych w niniejszym ustępie.
2. Edellä 1 kohdassa tarkoitettujen seikkojen toteutuksen on oltava oikeassa suhteessa tarjoajan organisaation kokoon. Tarjoajien on joka tapauksessa noudatettava sellaista kurinalaisuutta ja suojelun tasoa, jota edellytetään sen varmistamiseksi, että suuririskinen tekoälyjärjestelmä on tämän asetuksen mukainen.
2. Wdrożenie aspektów, o których mowa w ust. 1, musi być proporcjonalne do wielkości organizacji dostawcy. W każdym przypadku dostawcy przestrzegają stopnia rygoryzmu i poziomu ochrony wymaganych do zapewnienia zgodności ich systemów AI wysokiego ryzyka z niniejszym rozporządzeniem.
3. Suuririskisten tekoälyjärjestelmien tarjoajat, joihin sovelletaan asiaankuuluvan alakohtaisen unionin oikeuden mukaisia laadunhallintajärjestelmiä tai vastaavia toimintoja koskevia velvoitteita, voivat sisällyttää 1 kohdassa kuvatut seikat osaksi kyseisen lainsäädännön mukaisia laadunhallintajärjestelmiä.
3. Dostawcy systemów AI wysokiego ryzyka, którzy podlegają obowiązkom dotyczącym systemów zarządzania jakością lub równoważnym obowiązkom na podstawie odpowiednich sektorowych przepisów prawa Unii, mogą uwzględnić aspekty wymienione w ust. 1 jako część systemów zarządzania jakością zgodnie z tymi przepisami.
4. Niiden tarjoajien osalta, jotka ovat rahoituslaitoksia, joihin sovelletaan niiden sisäisiä hallintojärjestelyjä tai -prosesseja koskevia vaatimuksia unionin rahoituspalvelulainsäädännön nojalla, velvoite ottaa käyttöön laadunhallintajärjestelmä lukuun ottamatta tämän artiklan 1 kohdan g, h ja i alakohtaa katsotaan täytetyksi, kun noudatetaan asiaankuuluvan unionin rahoituspalvelulainsäädännön mukaisia sisäisiä hallintojärjestelyjä tai -prosesseja koskevia sääntöjä. Tätä varten on otettava huomioon 40 artiklassa tarkoitetut yhdenmukaistetut standardit.
4. W odniesieniu do dostawców będących instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, obowiązek wprowadzenia systemu zarządzania jakością, z wyjątkiem ust. 1 lit. g), h) oraz i) niniejszego artykułu, uznaje się za spełniony w przypadku zapewnienia zgodności z przepisami dotyczącymi zarządzania wewnętrznego, uzgodnień lub procedur zgodnie z odpowiednimi przepisami prawa Unii dotyczącymi usług finansowych. W tym celu uwzględnia się wszelkie normy zharmonizowane, o których mowa w art. 40.
18 artikla
Artykuł 18
Dokumentaation säilyttäminen
Prowadzenie dokumentacji
1. Tarjoajan on pidettävä seuraavat asiakirjat kansallisten toimivaltaisten viranomaisten saatavilla 10 vuoden ajan sen jälkeen, kun suuririskinen tekoälyjärjestelmä on saatettu markkinoille tai otettu käyttöön:
1. Przez okres 10 lat od dnia wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku dostawca przechowuje do dyspozycji właściwych organów krajowych:
a)
11 artiklassa tarkoitettu tekninen dokumentaatio,
a)
dokumentację techniczną, o której mowa w art. 11;
b)
17 artiklassa tarkoitettu laadunhallintajärjestelmää koskeva dokumentaatio,
b)
dokumentację dotyczącą systemu zarządzania jakością, o którym mowa w art. 17;
c)
tarvittaessa ilmoitettujen laitosten hyväksymiä muutoksia koskeva dokumentaatio,
c)
w stosownych przypadkach – dokumentację dotyczącą zmian zatwierdzonych przez jednostki notyfikowane;
d)
tarvittaessa ilmoitettujen laitosten tekemät päätökset ja niiden antamat muut asiakirjat,
d)
w stosownych przypadkach – decyzje i inne dokumenty wydane przez jednostki notyfikowane;
e)
47 artiklassa tarkoitettu EU-vaatimustenmukaisuusvakuutus.
e)
deklarację zgodności UE, o której mowa w art. 47.
2. Kunkin jäsenvaltion on määritettävä olosuhteet, joissa 1 kohdassa tarkoitettu dokumentaatio on kansallisten toimivaltaisten viranomaisten saatavilla kyseisessä kohdassa esitetyn ajan silloin, kun tarjoaja tai sen alueelle sijoittautunut valtuutettu edustaja menee konkurssiin tai lopettaa toimintansa ennen kyseisen kauden loppua.
2. Każde państwo członkowskie określa warunki, na jakich dokumentacja, o której mowa w ust. 1, pozostaje do dyspozycji właściwych organów krajowych przez okres wskazany w tym ustępie w przypadkach, gdy dostawca lub jego upoważniony przedstawiciel mający miejsce zamieszkania lub siedzibę na terytorium danego państwa członkowskiego ogłoszą upadłość lub zaprzestaną działalności przed upływem tego okresu.
3. Tarjoajien, jotka ovat rahoituslaitoksia, joihin sovelletaan niiden sisäisiä hallintojärjestelyjä tai -prosesseja koskevia vaatimuksia unionin rahoituspalvelulainsäädännön nojalla, on säilytettävä tekninen dokumentaatio osana asiakirjoja, jotka säilytetään asiaankuuluvan unionin rahoituspalvelulainsäädännön nojalla.
3. Dostawcy będący instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, prowadzą dokumentację techniczną jako część dokumentacji prowadzonej na podstawie odpowiednich przepisów prawa Unii dotyczących usług finansowych.
19 artikla
Artykuł 19
Automaattisesti tuotetut lokitiedot
Automatycznie generowane rejestry zdarzeń
1. Suuririskisten tekoälyjärjestelmien tarjoajien on säilytettävä suuririskisten tekoälyjärjestelmiensä automaattisesti tuottamat 12 artiklan 1 kohdassa tarkoitetut lokitiedot siltä osin kuin tällaiset lokitiedot ovat niiden hallinnassa. Lokitietoja on säilytettävä suuririskisen tekoälyjärjestelmän käyttötarkoitukseen nähden asianmukaisen ajanjakson ajan, kuitenkin vähintään kuusi kuukautta, jollei sovellettavassa unionin tai kansallisessa lainsäädännössä, erityisesti henkilötietojen suojaa koskevassa unionin oikeudessa, toisin säädetä, sanotun kuitenkaan rajoittamatta sovellettavan unionin tai kansallisen lainsäädännön soveltamista.
1. Dostawcy systemów AI wysokiego ryzyka przechowują generowane automatycznie przez ich systemy AI wysokiego ryzyka rejestry zdarzeń, o których mowa w art. 12 ust. 1, w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod ich kontrolą. Bez uszczerbku dla mającego zastosowanie prawa Unii lub prawa krajowego rejestry te są przechowywane przez okres stosowny ze względu na przeznaczenie systemu AI wysokiego ryzyka, wynoszący co najmniej 6 miesięcy, o ile mające zastosowanie prawo Unii lub prawo krajowym, w szczególności prawo Unii dotyczące ochrony danych osobowych, nie stanowi inaczej.
2. Tarjoajien, jotka ovat rahoituslaitoksia, joihin sovelletaan niiden sisäisiä hallintojärjestelyjä tai -prosesseja koskevia vaatimuksia unionin rahoituspalvelulainsäädännön nojalla, on säilytettävä suuririskisten tekoälyjärjestelmiensä automaattisesti tuottamat lokitiedot osana asiakirjoja, jotka säilytetään asiaankuuluvan rahoituspalvelulainsäädännön nojalla.
2. Dostawcy będący instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, prowadzą rejestry zdarzeń generowane automatycznie przez ich systemy AI wysokiego ryzyka jako część dokumentacji prowadzonej na podstawie odpowiednich przepisów dotyczących usług finansowych.
20 artikla
Artykuł 20
Korjaavat toimenpiteet ja ilmoitusvelvollisuus
Działania naprawcze i obowiązek informacyjny
1. Suuririskisten tekoälyjärjestelmien tarjoajien, jotka katsovat tai joilla on syytä uskoa, että niiden markkinoille saattama tai käyttöön ottama järjestelmä ei ole tämän asetuksen mukainen, on välittömästi toteutettava tarvittavat korjaavat toimenpiteet kyseisen järjestelmän saattamiseksi vaatimusten mukaiseksi, sen poistamiseksi markkinoilta tai käytöstä taikka sitä koskevan palautusmenettelyn järjestämiseksi. Niiden on ilmoitettava asiasta kyseisen suuririskisen tekoälyjärjestelmän jakelijoille ja tarvittaessa käyttöönottajille, valtuutetulle edustajalle ja maahantuojille.
1. Dostawcy systemów AI wysokiego ryzyka, którzy uważają lub mają powody, by uważać, że system AI wysokiego ryzyka, który wprowadzili do obrotu lub oddali do użytku, nie jest zgodny z niniejszym rozporządzeniem, natychmiast podejmują niezbędne działania naprawcze w celu, stosownie do przypadku, zapewnienia zgodności tego systemu, wycofania go z rynku, wyłączenia go lub wycofania go z użytku. Informują oni o tym dystrybutorów danego systemu AI wysokiego ryzyka oraz, w stosownych przypadkach, odpowiednio podmioty stosujące, upoważnionego przedstawiciela i importerów.
2. Jos suuririskinen tekoälyjärjestelmä aiheuttaa 79 artiklan 1 kohdassa tarkoitetun riskin ja tarjoaja tulee tietoiseksi kyseisestä riskistä, tarjoajan on välittömästi selvitettävä sen syyt tarvittaessa yhteistyössä raportoivan käyttöönottajan kanssa ja ilmoitettava erityisesti vaatimustenvastaisuudesta ja asiaankuuluvista toteutetuista korjaavista toimenpiteistä asianomaisen suuririskisen tekoälyjärjestelmän osalta toimivaltaisille markkinavalvontaviranomaisille ja tarvittaessa sille ilmoitetulle laitokselle, joka on antanut 44 artiklan mukaisesti todistuksen kyseiselle suuririskiselle tekoälyjärjestelmälle.
2. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1 i dostawca danego systemu dowie się o tym ryzyku, dostawca ten natychmiast wyjaśnia przyczyny tego ryzyka, w stosownych przypadkach we współpracy ze zgłaszającym podmiotem stosującym, oraz informuje organy nadzoru rynku właściwe w zakresie przedmiotowych systemów AI wysokiego ryzyka, oraz, w stosownych przypadkach, jednostkę notyfikowaną, która zgodnie z art. 44 wydała certyfikat dla danego systemu AI wysokiego ryzyka, w szczególności o charakterze danej niezgodności oraz o wszelkich podjętych działaniach naprawczych.
21 artikla
Artykuł 21
Yhteistyö toimivaltaisten viranomaisten kanssa
Współpraca z właściwymi organami
1. Suuririskisten tekoälyjärjestelmien tarjoajien on toimivaltaisen viranomaisen perustellusta pyynnöstä toimitettava kyseiselle viranomaiselle kaikki tieto ja dokumentaatio, joka on tarpeen sen osoittamiseksi, että suuririskinen tekoälyjärjestelmä on 2 jaksossa vahvistettujen vaatimusten mukainen, asianomaisen jäsenvaltion ilmaisemalla viranomaisen helposti ymmärtämällä kielellä, joka on yksi unionin toimielinten virallisista kielistä.
1. Dostawcy systemów AI wysokiego ryzyka, na uzasadniony wniosek właściwego organu, przekazują temu organowi wszelkie informacje i dokumenty niezbędne do wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, w języku łatwo zrozumiałym dla danego organu w jednym z oficjalnych języków instytucji Unii wskazanym przez dane państwo członkowskie.
2. Tarjoajien on toimivaltaisen viranomaisen perustellusta pyynnöstä myös annettava pyynnön esittäneelle toimivaltaiselle viranomaiselle tapauksen mukaan pääsy 12 artiklan 1 kohdassa tarkoitetun suuririskisen tekoälyjärjestelmän automaattisesti luotuihin lokitietoihin siltä osin kuin tällaiset lokitiedot ovat niiden hallinnassa.
2. Na uzasadniony wniosek właściwego organu dostawcy zapewniają również występującemu z wnioskiem właściwemu organowi, w stosownych przypadkach, dostęp do generowanych automatycznie przez system AI wysokiego ryzyka rejestrów zdarzeń, o których mowa w art. 12 ust. 1, w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod ich kontrolą.
3. Kaikkea tietoa, jonka toimivaltainen viranomainen saa tämän artiklan nojalla, on käsiteltävä 78 artiklassa säädettyjen salassapitovelvollisuuksien mukaisesti.
3. Wszelkie informacje uzyskane zgodnie z niniejszym artykułem przez właściwy organ traktuje się zgodnie z obowiązkami dotyczącymi poufności określonymi w art. 78.
22 artikla
Artykuł 22
Suuririskisten tekoälyjärjestelmien tarjoajien valtuutetut edustajat
Upoważnieni przedstawiciele dostawców systemów AI wysokiego ryzyka
1. Kolmansiin maihin sijoittautuneiden tarjoajien on ennen suuririskisten tekoälyjärjestelmiensä asettamista saataville unionin markkinoilla nimettävä kirjallisella toimeksiannolla unioniin sijoittautunut valtuutettu edustaja.
1. Przed udostępnieniem swoich systemów AI wysokiego ryzyka na rynku Unii dostawcy mający miejsce zamieszkania lub siedzibę w państwach trzecich ustanawiają – na podstawie pisemnego pełnomocnictwa – upoważnionego przedstawiciela mającego miejsce zamieszkania lub siedzibę w Unii.
2. Tarjoajan on valtuutettava edustajansa suorittamaan tarjoajalta saamassaan toimeksiannossa määritellyt tehtävät.
2. Dostawca umożliwia swojemu upoważnionemu przedstawicielowi wykonywanie zadań powierzonych mu na mocy pełnomocnictwa udzielonego przez dostawcę.
3. Valtuutetun edustajan on suoritettava tarjoajalta saamassaan toimeksiannossa määritellyt tehtävät. Valtuutetun edustajan on toimitettava markkinavalvontaviranomaisille pyynnöstä jäljennös toimeksiannosta jollakin toimivaltaisen viranomaisen määrittämällä unionin toimielinten virallisella kielellä. Tämän asetuksen soveltamiseksi toimeksiannossa valtuutetulle edustajalle on annettava valtuudet suorittaa seuraavat tehtävät:
3. Upoważniony przedstawiciel wykonuje zadania powierzone mu na mocy pełnomocnictwa udzielonego przez dostawcę. Upoważniony przedstawiciel przekazuje organom nadzoru rynku, na wniosek, kopię pełnomocnictwa w jednym z oficjalnych języków instytucji Unii wskazanym przez właściwy organ. Do celów niniejszego rozporządzenia pełnomocnictwo uprawnia upoważnionego przedstawiciela do wykonywania następujących zadań:
a)
varmistaa, että 47 artiklassa tarkoitettu EU-vaatimustenmukaisuusvakuutus ja 11 artiklassa tarkoitettu tekninen dokumentaatio on laadittu ja että tarjoaja on toteuttanut asianmukaisen vaatimustenmukaisuuden arviointimenettelyn;
a)
sprawdzenie, czy zostały sporządzone deklaracja zgodności UE, o której mowa w art. 47, i dokumentacja techniczna, o której mowa w art. 11, oraz czy została przeprowadzona przez dostawcę odpowiednia procedura oceny zgodności;
b)
pitää toimivaltaisten viranomaisten ja 74 artiklan 10 kohdassa tarkoitettujen kansallisten viranomaisten tai elinten saatavilla 10 vuoden ajan sen jälkeen, kun suuririskinen tekoälyjärjestelmä on saatettu markkinoille tai otettu käyttöön, valtuutetun edustajan nimenneen tarjoajan yhteystiedot, jäljennös 47 artiklassa tarkoitetuista EU-vaatimustenmukaisuusvakuutuksesta, teknisestä dokumentaatiosta ja tarvittaessa ilmoitetun laitoksen antamasta todistuksesta;
b)
przechowywanie do dyspozycji właściwych organów i krajowych organów lub jednostek, o których mowa w art. 74 ust. 10, przez okres 10 lat od wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku, danych kontaktowych dostawcy, który ustanowił upoważnionego przedstawiciela, kopii deklaracji zgodności UE, o której mowa w art. 47, dokumentacji technicznej oraz, w stosownych przypadkach, certyfikatu wydanego przez jednostkę notyfikowaną;
c)
antaa toimivaltaiselle viranomaiselle perustellusta pyynnöstä kaikki tieto ja dokumentaatio, mukaan lukien edellä olevan b alakohdan mukainen tieto ja dokumentaatio, joka on tarpeen sen osoittamiseksi, että suuririskinen tekoälyjärjestelmä on 2 jaksossa vahvistettujen vaatimusten mukainen, mukaan lukien pääsy suuririskisen tekoälyjärjestelmän automaattisesti tuottamiin 12 artiklan 1 kohdassa tarkoitettuihin lokitietoihin siltä osin kuin tällaiset lokitiedot ovat tarjoajan hallinnassa;
c)
przekazywanie właściwemu organowi, na uzasadniony wniosek, wszelkich informacji i dokumentów, w tym tych, o których mowa w lit. b) niniejszego ustępu, niezbędnych do wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, w tym zapewnienie temu organowi dostępu do generowanych automatycznie przez system AI wysokiego ryzyka rejestrów zdarzeń, o których mowa w art. 12 ust. 1, w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod kontrolą dostawcy;
d)
tehdä perustellusta pyynnöstä yhteistyötä toimivaltaisten viranomaisten kanssa kaikissa toimissa, joita nämä toteuttavat suuririskisen tekoälyjärjestelmän suhteen, erityisesti suuririskisen tekoälyjärjestelmän aiheuttamien riskien vähentämiseksi ja lieventämiseksi;
d)
współpraca z właściwymi organami, na uzasadniony wniosek, w zakresie wszelkich działań, które organy te podejmują w odniesieniu do danego systemu AI wysokiego ryzyka, w szczególności, aby zmniejszyć i ograniczyć ryzyko, jakie stwarza ten system AI wysokiego ryzyka;
e)
tarpeen mukaan noudattaa 49 artiklan 1 kohdassa tarkoitettuja rekisteröintivelvoitteita tai, jos rekisteröinnin suorittaa tarjoaja itse, varmistaa, että liitteessä VIII olevan A jakson 3 alakohdassa tarkoitetut tiedot pitävät paikkansa.
e)
w stosownych przypadkach spełnianie obowiązków rejestracyjnych, o których mowa w art. 49 ust. 1, lub, jeżeli rejestracji dokonuje sam dostawca, zapewnienie, by informacje, o których mowa w załączniku VIII sekcja A pkt 3, były prawidłowe.
Toimeksiannon ansiosta toimivaltaiset viranomaiset voivat ottaa toimijan lisäksi tai sen puolesta yhteyttä valtuutettuun edustajaan kaikissa tämän asetuksen noudattamisen varmistamiseen liittyvissä kysymyksissä.
Pełnomocnictwo daje upoważnionemu przedstawicielowi prawo do tego, aby właściwe organy mogły się zwracać do niego, obok albo zamiast do dostawcy, we wszystkich kwestiach dotyczących zapewnienia zgodności z niniejszym rozporządzeniem.
4. Valtuutetun edustajan on päätettävä toimeksianto, jos se katsoo tai sillä on syytä katsoa, että tarjoaja toimii tämän asetuksen mukaisten velvoitteidensa vastaisesti. Tässä tapauksessa sen on välittömästi ilmoitettava toimeksiannon päättymisestä ja sen syistä asiaankuuluvalle markkinavalvontaviranomaiselle sekä tapauksen mukaan asiaankuuluvalle ilmoitetulle laitokselle.
4. Upoważniony przedstawiciel wypowiada pełnomocnictwo, jeśli uważa lub ma powody uważać, że dostawca działa w sposób sprzeczny ze swoimi obowiązkami wynikającymi z niniejszego rozporządzenia. W takim przypadku upoważniony przedstawiciel natychmiast informuje o wypowiedzeniu pełnomocnictwa i jego przyczynach odpowiedni organ nadzoru rynku, a także, w stosownych przypadkach, odpowiednią jednostkę notyfikowaną.
23 artikla
Artykuł 23
Maahantuojien velvollisuudet
Obowiązki importerów
1. Suuririskisen tekoälyjärjestelmän maahantuojien on ennen tällaisen järjestelmän markkinoille saattamista varmistettava, että järjestelmä on tämän asetuksen mukainen tarkistamalla, että
1. Przed wprowadzeniem do obrotu systemu AI wysokiego ryzyka importerzy zapewniają jego zgodność z niniejszym rozporządzeniem, sprawdzając, czy:
a)
kyseisen suuririskisen tekoälyjärjestelmän tarjoaja on suorittanut 43 artiklassa tarkoitetun asiaankuuluvan vaatimustenmukaisuuden arviointimenettelyn;
a)
dostawca systemu AI wysokiego ryzyka przeprowadził odpowiednią procedurę oceny zgodności, o której mowa w art. 43;
b)
tarjoaja on laatinut teknisen dokumentaation 11 artiklan ja liitteen IV mukaisesti;
b)
dostawca sporządził dokumentację techniczną zgodnie z art. 11 i załącznikiem IV;
c)
järjestelmällä on vaadittu CE-merkintä ja sen mukana on 47 artiklassa tarkoitettu EU-vaatimustenmukaisuusvakuutus ja käyttöohjeet.
c)
system opatrzono wymaganym oznakowaniem CE oraz dołączono do niego deklarację zgodności UE, o której mowa w art. 47, oraz instrukcję obsługi;
d)
tarjoaja on nimittänyt valtuutetun edustajan 22 artiklan 1 kohdan mukaisesti.
d)
dostawca ustanowił upoważnionego przedstawiciela zgodnie z art. 22 ust. 1.
2. Jos maahantuojalla on riittävät syyt katsoa, että suuririskinen tekoälyjärjestelmä ei ole tämän asetuksen mukainen tai se on väärennetty tai sen mukana on väärennetty dokumentaatio, se ei saa saattaa kyseistä tekoälyjärjestelmää markkinoille ennen kuin se on saatettu vaatimusten mukaiseksi. Jos suuririskinen tekoälyjärjestelmä aiheuttaa 79 artiklan 1 kohdassa tarkoitetun riskin, maahantuojan on ilmoitettava asiasta järjestelmän tarjoajalle, valtuutetuille edustajille ja markkinavalvontaviranomaisille.
2. W przypadku gdy importer ma wystarczające powody, aby uważać, że system AI wysokiego ryzyka jest niezgodny z niniejszym rozporządzeniem lub został sfałszowany lub sfałszowana została dołączona do niego dokumentacja, nie wprowadza tego systemu do obrotu, dopóki nie zostanie zapewniona jego zgodność z niniejszym rozporządzeniem. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, importer informuje o tym dostawcę systemu, upoważnionych przedstawicieli oraz organy nadzoru rynku.
3. Maahantuojien on ilmoitettava nimensä, rekisteröity tuotenimensä tai rekisteröity tavaramerkkinsä sekä osoite, josta maahantuojaan voidaan saada yhteys, suuririskisessä tekoälyjärjestelmässä ja sen pakkauksessa tai tarvittaessa sen mukana seuraavassa dokumentaatiossa.
3. Importerzy podają w systemie AI wysokiego ryzyka, na opakowaniu tego systemu lub, w stosownych przypadkach, w dołączonej do niego dokumentacji swoją nazwę, zarejestrowaną nazwę handlową lub zarejestrowany znak towarowy i adres, pod którym można się z nimi skontaktować.
4. Maahantuojien on varmistettava, että sinä aikana, jona suuririskinen tekoälyjärjestelmä on niiden vastuulla, tapauksen mukaan varastointi- tai kuljetusolosuhteet eivät vaaranna sen tämän osaston 2 jaksossa vahvistettujen vaatimusten mukaisuutta.
4. Importerzy zapewniają, aby w okresie, w którym ponoszą odpowiedzialność za system AI wysokiego ryzyka, warunki jego – stosownie do przypadku – przechowywania lub transportu nie zagrażały jego zgodności z wymogami ustanowionymi w sekcji 2.
5. Maahantuojien on säilytettävä 10 vuoden ajan sen jälkeen, kun suuririskinen tekoälyjärjestelmä on saatettu markkinoille tai otettu käyttöön, jäljennös ilmoitetun laitoksen antamasta todistuksesta, tarvittaessa käyttöohjeista ja 47 artiklassa tarkoitetusta EU-vaatimustenmukaisuusvakuutuksesta.
5. Przez okres 10 lat od wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku, importerzy przechowują kopię certyfikatu wydanego przez jednostkę notyfikowaną, w stosownych przypadkach, kopię instrukcji obsługi oraz deklaracji zgodności UE, o której mowa w art. 47.
6. Maahantuojien on asiaankuuluvien toimivaltaisten viranomaisten perustellusta pyynnöstä toimitettava niille kaikki tieto ja dokumentaatio, mukaan lukien 5 kohdassa tarkoitettu tieto ja dokumentaatio, joka on tarpeen sen osoittamiseksi, että suuririskinen tekoälyjärjestelmä on 2 jaksossa vahvistettujen vaatimusten mukainen, kyseessä olevan viranomaisen helposti ymmärtämällä kielellä. Tätä varten niiden on myös varmistettava, että tekninen dokumentaatio voidaan asettaa kyseisten viranomaisten saataville.
6. Na uzasadniony wniosek odpowiednich właściwych organów importerzy przekazują im wszelkie niezbędne informacje i dokumentację, w tym te, o których mowa w ust. 5, w celu wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, w języku łatwo zrozumiałym dla tych organów. W tym celu importerzy zapewniają również możliwość udostępnienia tym organom dokumentacji technicznej.
7. Maahantuojien on tehtävä yhteistyötä asiaankuuluvien toimivaltaisten viranomaisten kanssa kaikissa toimissa, joita kyseiset viranomaiset toteuttavat maahantuojien markkinoille saattaman suuririskisen tekoälyjärjestelmän suhteen, erityisesti sen aiheuttamien riskien vähentämiseksi ja lieventämiseksi.
7. Importerzy współpracują z odpowiednimi właściwymi organami w zakresie wszelkich działań, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka wprowadzonego do obrotu przez importerów, w szczególności aby zmniejszyć i ograniczyć stwarzane przez ten system ryzyko.
24 artikla
Artykuł 24
Jakelijoiden velvollisuudet
Obowiązki dystrybutorów
1. Jakelijoiden on ennen suuririskisen tekoälyjärjestelmän asettamista saataville markkinoilla tarkastettava, että siinä on vaadittu CE-merkintä, että sen mukana on jäljennös 47 artiklassa tarkoitetusta EU-vaatimustenmukaisuusvakuutuksesta ja käyttöohjeista ja että tapauksen mukaan kyseisen järjestelmän tarjoaja ja maahantuoja ovat noudattaneet 16 artiklan b ja c alakohdassa ja 23 artiklan 3 kohdassa säädettyjä velvoitteitaan.
1. Przed udostępnieniem na rynku systemu AI wysokiego ryzyka dystrybutorzy sprawdzają, czy został on opatrzony wymaganym oznakowaniem zgodności CE, czy dołączono do niego kopię deklaracji zgodności UE, o której mowa w art. 47, i instrukcję obsługi oraz czy dostawca oraz – w stosownych przypadkach – importer tego systemu spełnili swoje obowiązki ustanowione w art. 16 lit. b) i c) oraz w art. 23 ust. 3.
2. Mikäli jakelija katsoo tai sillä on hallussaan olevien tietojen perusteella syytä uskoa, että suuririskinen tekoälyjärjestelmä ei ole 2 jaksossa vahvistettujen vaatimusten mukainen, se ei saa asettaa suuririskistä tekoälyjärjestelmää saataville markkinoilla ennen kuin järjestelmä on saatettu kyseisten vaatimusten mukaiseksi. Lisäksi jos suuririskinen tekoälyjärjestelmä aiheuttaa 79 artiklan 1 kohdassa tarkoitetun riskin, jakelijan on ilmoitettava asiasta tapauksen mukaan tarjoajalle tai maahantuojalle.
2. W przypadku gdy dystrybutor – na podstawie dostępnych mu informacji – uważa lub ma powód, aby uważać, że system AI wysokiego ryzyka nie jest zgodny z wymogami ustanowionymi w sekcji 2 niniejszego tytułu, nie udostępnia na rynku tego systemu AI wysokiego ryzyka, dopóki nie zostanie zapewniona zgodność systemu z tymi wymogami. Ponadto, jeżeli system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, dystrybutor informuje o tym stosownie do przypadku dostawcę lub importera systemu.
3. Jakelijoiden on varmistettava, että sinä aikana, jona suuririskinen tekoälyjärjestelmä on niiden vastuulla, tapauksen mukaan varastointi- tai kuljetusolosuhteet eivät vaaranna sen 2 jaksossa vahvistettujen vaatimusten mukaisuutta.
3. Dystrybutorzy zapewniają, aby w okresie, w którym ponoszą odpowiedzialność za system AI wysokiego ryzyka, warunki jego przechowywania lub transportu – stosownie do przypadku – nie zagrażały zgodności systemu z wymogami ustanowionymi w sekcji 2.
4. Jakelijan, joka katsoo tai jolla on hallussaan olevien tietojen perusteella syytä uskoa, että sen markkinoilla saataville asettama suuririskinen tekoälyjärjestelmä ei ole 2 jaksossa vahvistettujen vaatimusten mukainen, on toteutettava tarvittavat korjaavat toimenpiteet kyseisen järjestelmän saattamiseksi vaatimusten mukaiseksi, sen poistamiseksi markkinoilta tai sitä koskevan palautusmenettelyn järjestämiseksi tai varmistettava, että tarvittaessa tarjoaja, maahantuoja tai mikä tahansa asiaankuuluva toimija toteuttaa kyseiset korjaavat toimenpiteet. Mikäli suuririskinen tekoälyjärjestelmä aiheuttaa 79 artiklan 1 kohdassa tarkoitetun riskin, jakelijan on välittömästi ilmoitettava asiasta järjestelmän tarjoajalle tai maahantuojalle ja asianomaisen suuririskisen tekoälyjärjestelmän osalta toimivaltaisille viranomaisille ja annettava yksityiskohtaiset tiedot erityisesti vaatimustenvastaisuudesta ja mahdollisesti toteutetuista korjaavista toimenpiteistä.
4. Dystrybutor, który uważa lub ma powód, aby – na podstawie dostępnych mu informacji – uważać, że system AI wysokiego ryzyka udostępniony przez niego na rynku jest niezgodny z wymogami ustanowionymi w sekcji 2, podejmuje działania naprawcze konieczne do zapewnienia zgodności tego systemu z tymi wymogami, do wycofania go z rynku lub wycofania go z użytku lub zapewnia podjęcie takich działań naprawczych przez, stosownie do przypadku, dostawcę, importera lub odpowiedniego operatora. W przypadku gdy system AI wysokiego ryzyka stwarza ryzyko w rozumieniu art. 79 ust. 1, dystrybutor natychmiast informuje o tym dostawcę lub importera systemu oraz organy właściwe w zakresie przedmiotowego system AI wysokiego ryzyka, przekazując szczegółowe informacje w szczególności na temat niezgodności systemu z wymogami i wszelkich podjętych działań naprawczych.
5. Suuririskisen tekoälyjärjestelmän jakelijoiden on asiaankuuluvan toimivaltaisen viranomaisen perustellusta pyynnöstä toimitettava kyseiselle viranomaiselle kaikki niiden 1–4 kohdan mukaisia toimia koskevat tiedot ja dokumentaatio, jotka ovat tarpeen sen osoittamiseksi, että kyseinen järjestelmä on 2 jaksossa vahvistettujen vaatimusten mukainen.
5. Na uzasadniony wniosek odpowiedniego organu dystrybutorzy systemów AI wysokiego ryzyka przekazują temu organowi wszelkie informacje i dokumentację dotyczące ich działań zgodnie z ust. 1–4, niezbędne do wykazania zgodności tego systemu z wymogami określonymi w sekcji 2.
6. Jakelijoiden on tehtävä yhteistyötä asiaankuuluvien toimivaltaisten viranomaisten kanssa kaikissa toimissa, joita nämä viranomaiset toteuttavat jakelijoiden markkinoilla saataville asettaman suuririskisen tekoälyjärjestelmän suhteen, erityisesti sen aiheuttamien riskien vähentämiseksi tai lieventämiseksi.
6. Dystrybutorzy współpracują z odpowiednimi organami krajowymi w zakresie wszelkich działań, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka udostępnionego na rynku przez dystrybutorów, w szczególności aby zmniejszyć lub ograniczyć stwarzane przez ten system ryzyko.
25 artikla
Artykuł 25
Vastuut tekoälyn arvoketjussa
Odpowiedzialność w całym łańcuchu wartości AI
1. Mitä tahansa jakelijaa, maahantuojaa, käyttöönottajaa tai muuta kolmatta osapuolta pidetään tätä asetusta sovellettaessa suuririskisen tekoälyjärjestelmän tarjoajana ja niitä koskevat samat velvoitteet kuin tarjoajaa 16 artiklan mukaisesti missä tahansa seuraavissa olosuhteissa:
1. Do celów niniejszego rozporządzenia za dostawcę systemu AI wysokiego ryzyka uznaje się i obejmuje obowiązkami dostawcy ustanowionymi w art. 16 każdego dystrybutora, importera, podmiot stosujący lub inną stronę trzecią, jeżeli zachodzi którakolwiek z następujących okoliczności:
a)
ne laittavat nimensä tai tavaramerkkinsä suuririskiseen tekoälyjärjestelmään, joka on jo saatettu markkinoille tai otettu käyttöön, sanotun kuitenkaan rajoittamatta sopimusjärjestelyjä, joissa määrätään, että velvoitteet jaetaan muulla tavoin;
a)
umieszczają oni swoją nazwę lub znak towarowy w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, bez uszczerbku dla ustaleń umownych przewidujących, że podział obowiązków następuje w inny sposób;
b)
ne tekevät jo markkinoille saatettuun tai jo käyttöön otettuun suuririskiseen tekoälyjärjestelmään merkittävän muutoksen siten, että se pysyy 6 artiklan mukaisena suuririskisenä tekoälyjärjestelmänä;
b)
we wprowadzonym już do obrotu lub oddanym do użytku systemie AI wysokiego ryzyka dokonują oni istotnej zmiany w taki sposób, że pozostaje on systemem AI wysokiego ryzyka zgodnie z art. 6;
c)
ne muuttavat tekoälyjärjestelmän, myös yleiskäyttöisen tekoälyjärjestelmän, jota ei ole luokiteltu suuririskiseksi ja joka on jo saatettu markkinoille tai otettu käyttöön, käyttötarkoitusta siten, että tekoälyjärjestelmästä tulee 6 artiklan mukainen suuririskinen tekoälyjärjestelmä.
c)
zmieniają oni przeznaczenie systemu AI, w tym systemu AI ogólnego przeznaczenia, który nie został zaklasyfikowany jako system AI wysokiego ryzyka i który został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że dany system AI staje się systemem AI wysokiego ryzyka zgodnie z art. 6.
2. Edellä 1 kohdassa tarkoitetuissa tilanteissa tarjoajaa, joka on alun perin saattanut tekoälyjärjestelmän markkinoille tai ottanut sen käyttöön, ei enää pidetä kyseisen tekoälyjärjestelmän tarjoajana tätä asetusta sovellettaessa. Kyseisen alkuperäisen tarjoajan on tehtävä tiivistä yhteistyötä uusien tarjoajien kanssa ja asetettava saataville tarvittavat tiedot ja tarjottava kohtuudella odotettavissa olevat tekninen pääsy ja muu apu, joita tämän asetuksen mukaisten velvoitteiden täyttäminen edellyttää, erityisesti suuririskisten tekoälyjärjestelmien vaatimustenmukaisuuden arvioinnin noudattamisen osalta. Tätä kohtaa ei sovelleta tapauksissa, joissa alkuperäinen tarjoaja on selkeästi täsmentänyt, että sen tekoälyjärjestelmää ei saa muuttaa suuririskiseksi tekoälyjärjestelmäksi eikä siihen sen vuoksi sovelleta dokumentaation luovuttamisvelvoitetta.
2. W przypadku zaistnienia okoliczności, o których mowa w ust. 1, dostawcy, który pierwotnie wprowadził do obrotu lub oddał do użytku ten system AI, nie uznaje się już do celów niniejszego rozporządzenia za dostawcę tego konkretnego systemu AI. Ten pierwotny dostawca ściśle współpracuje z nowymi dostawcami i udostępnia niezbędne informacje oraz udziela racjonalnie oczekiwanego dostępu technicznego i innego wsparcia niezbędnych do spełnienia obowiązków określonych w niniejszym rozporządzeniu, w szczególności w odniesieniu do zgodności z kryteriami oceny zgodności systemów AI wysokiego ryzyka. Niniejszego ustępu nie stosuje się w przypadkach, gdy pierwotny dostawca wyraźnie określił, że jego system AI nie może zostać zmieniony w system AI wysokiego ryzyka, a zatem nie dotyczy go obowiązek przekazania dokumentacji.
3. Niiden suuririskisten tekoälyjärjestelmien osalta, jotka ovat sellaisten tuotteiden turvakomponentteja, joihin sovelletaan liitteessä I olevassa A jaksossa lueteltua unionin yhdenmukaistamislainsäädäntöä, tuotteen valmistajaa pidetään suuririskisen tekoälyjärjestelmän tarjoajana, ja siihen sovelletaan 16 artiklan mukaisia velvoitteita jommassakummassa seuraavista olosuhteista:
3. W przypadku systemów AI wysokiego ryzyka, które stanowią związane z bezpieczeństwem elementy produktów objętych zakresem unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, producenta produktów uznaje się za dostawcę systemu AI wysokiego ryzyka i podlega on obowiązkom ustanowionym w art. 16, jeżeli zachodzi którakolwiek z następujących okoliczności:
a)
suuririskinen tekoälyjärjestelmä saatetaan markkinoille yhdessä tuotteen kanssa tuotteen valmistajan nimellä tai tavaramerkillä;
a)
system AI wysokiego ryzyka jest wprowadzany do obrotu wraz z produktem pod nazwą lub znakiem towarowym producenta produktu;
b)
suuririskinen tekoälyjärjestelmä otetaan käyttöön tuotteen valmistajan nimellä tai tavaramerkillä sen jälkeen, kun tuote on saatettu markkinoille.
b)
system AI wysokiego ryzyka jest oddawany do użytku pod nazwą lub znakiem towarowym producenta produktu po wprowadzeniu produktu do obrotu.
4. Suuririskisen tekoälyjärjestelmän tarjoajan ja kolmannen osapuolen, joka toimittaa suuririskisessä tekoälyjärjestelmässä käytettäviä tai siihen integroitavia tekoälyjärjestelmiä, välineitä, palveluja, komponentteja tai prosesseja, on määritettävä kirjallisella sopimuksella tarvittavat tiedot, valmiudet, tekninen pääsy ja muu apu, jotka perustuvat yleisesti tunnustettuun alan viimeisimpään kehitykseen, jotta suuririskisen tekoälyjärjestelmän tarjoaja voi noudattaa täysimääräisesti tämän asetuksen mukaisia velvoitteita. Tätä kohtaa ei sovelleta kolmansiin osapuoliin, jotka asettavat yleisön saataville maksuttomalla ja avoimen lähdekoodin lisenssillä välineitä, palveluja, prosesseja tai komponentteja, jotka ovat muita kuin yleiskäyttöisiä tekoälymalleja.
4. Dostawca systemu AI wysokiego ryzyka i osoba trzecia dostarczająca system AI, narzędzia, usługi, komponenty lub procesy, które są wykorzystywane w systemie AI wysokiego ryzyka lub z nim zintegrowane, wskazują, w drodze pisemnej umowy, informacje, zdolności, dostęp techniczny i innego rodzaju pomoc opartą na powszechnie uznanym stanie wiedzy technicznej wymagane, aby umożliwić dostawcy systemu AI wysokiego ryzyka pełne spełnienie obowiązków ustanowionych w niniejszym rozporządzeniu. Niniejszego ustępu nie stosuje się do osób trzecich udostępniających publicznie na podstawie bezpłatnej licencji otwartego oprogramowania narzędzia, usługi, procesy lub komponenty inne niż modele AI ogólnego przeznaczenia.
Tekoälytoimisto voi laatia ja suositella vapaaehtoisia mallisopimusehtoja suuririskisten tekoälyjärjestelmien tarjoajien ja sellaisten kolmansien osapuolten välisiä sopimuksia varten, jotka toimittavat välineitä, palveluja, komponentteja tai prosesseja, joita käytetään suuririskisissä tekoälyjärjestelmissä tai integroidaan niihin. Laatiessaan kyseisiä vapaaehtoisia mallisopimusehtoja tekoälytoimisto ottaa huomioon tietyillä aloilla tai tietyissä liiketoimintamalleissa mahdollisesti sovellettavat sopimusperusteiset vaatimukset. Vapaaehtoiset mallisopimusehdot on julkaistava, ja niiden on oltava saatavilla maksutta helposti käytettävässä sähköisessä muodossa.
Urząd ds. AI może opracować i zalecić dobrowolne wzorcowe postanowienia umowne dla umów zawieranych między dostawcami systemów AI wysokiego ryzyka a osobami trzecimi dostarczającymi narzędzia, usługi, komponenty lub procesy, które są wykorzystywane na potrzeby systemów AI wysokiego ryzyka lub zintegrowane z tymi systemami. Przy opracowywaniu dobrowolnych wzorcowych postanowień umownych, Urząd ds. AI bierze również pod uwagę ewentualne wymogi umowne mające zastosowanie w określonych sektorach lub przypadkach biznesowych. Dobrowolne wzorcowe postanowienia umowne są publikowane i udostępniane bezpłatnie w łatwym w użyciu formacie elektronicznym.
5. Edellä olevat 2 ja 3 kohta eivät rajoita tarvetta kunnioittaa ja suojata teollis- ja tekijänoikeuksia ja luottamuksellisia liiketoimintatietoja ja liikesalaisuuksia unionin ja kansallisen lainsäädännön mukaisesti.
5. Ust. 2 i 3 pozostają bez uszczerbku dla konieczności przestrzegania i ochrony praw własności intelektualnej, poufnych informacji handlowych i tajemnic przedsiębiorstwa zgodnie z prawem Unii i prawem krajowym.
26 artikla
Artykuł 26
Suuririskisten tekoälyjärjestelmien käyttöönottajien velvollisuudet
Obowiązki podmiotów stosujących systemy AI wysokiego ryzyka
1. Suuririskisten tekoälyjärjestelmien käyttöönottajien on toteutettava asianmukaiset tekniset ja organisatoriset toimenpiteet varmistaakseen, että ne käyttävät tällaisia järjestelmiä niiden mukana seuraavien käyttöohjeiden mukaisesti 3 ja 6 kohdassa säädetyllä tavalla.
1. Podmioty stosujące systemy AI wysokiego ryzyka podejmują – na podstawie ust. 3 i 6 – odpowiednie środki techniczne i organizacyjne w celu zapewnienia, aby systemy takie były wykorzystywane zgodnie z dołączoną do nich instrukcją obsługi.
2. Käyttöönottajien on annettava ihmisen suorittama valvonta tehtäväksi luonnollisille henkilöille, joilla on tarvittava pätevyys, koulutus ja valtuudet, sekä annettava tarvittavaa tukea.
2. Podmioty stosujące powierzają sprawowanie nadzoru ze strony człowieka osobom fizycznym, które mają niezbędne kompetencje, przeszkolenie i uprawnienia, a także niezbędne wsparcie.
3. Edellä 1 ja 2 kohdassa säädetyt velvollisuudet eivät rajoita muiden unionin tai kansallisesta lainsäädännöstä johtuvien käyttöönottajien velvollisuuksien soveltamista eivätkä käyttöönottajan vapautta järjestää omat resurssinsa ja toimintansa tarjoajan ilmoittamien ihmisen suorittamien valvontatoimien toteuttamiseksi.
3. Obowiązki ustanowione w ust. 1 i 2 pozostają bez uszczerbku dla innych obowiązków podmiotu stosującego wynikających z prawa Unii lub prawa krajowego oraz dla przysługującej podmiotowi stosującemu swobody organizowania swoich zasobów własnych i działań w celu wdrożenia wskazanych przez dostawcę środków nadzoru ze strony człowieka.
4. Siltä osin kuin käyttöönottaja valvoo syöttötietoja, käyttöönottajan on varmistettava, että syöttötiedot ovat merkityksellisiä ja riittävän edustavia suuririskisen tekoälyjärjestelmän käyttötarkoituksen kannalta, sanotun kuitenkaan rajoittamatta 1 ja 2 kohdan soveltamista.
4. Bez uszczerbku dla ust. 1 i 2 podmiot stosujący zapewnia, w zakresie, w jakim sprawuje on kontrolę nad danymi wejściowymi, adekwatność i wystarczającą reprezentatywność danych wejściowych w odniesieniu do przeznaczenia systemu AI wysokiego ryzyka.
5. Käyttöönottajien on seurattava suuririskisen tekoälyjärjestelmän toimintaa käyttöohjeiden perusteella ja tarvittaessa ilmoitettava asiasta tarjoajille 72 artiklan mukaisesti. Jos käyttöönottajilla on syytä katsoa, että suuririskisen tekoälyjärjestelmän käyttöohjeiden mukainen käyttö voi johtaa siihen, että kyseinen tekoälyjärjestelmä aiheuttaa 79 artiklan 1 kohdassa tarkoitetun riskin, niiden on ilman aiheetonta viivytystä ilmoitettava asiasta tarjoajalle tai jakelijalle ja asianomaiselle markkinavalvontaviranomaiselle ja keskeytettävä kyseisen järjestelmän käyttö. Jos käyttöönottajat ovat havainneet vakavan vaaratilanteen, niiden on myös välittömästi ilmoitettava kyseisestä vaaratilanteesta ensin tarjoajalle ja sen jälkeen tuojalle tai jakelijalle sekä asianomaisille markkinavalvontaviranomaisille. Jos käyttöönottaja ei pysty tavoittamaan tarjoajaa, 73 artiklaa sovelletaan soveltuvin osin. Tätä velvoitetta ei sovelleta niiden tekoälyjärjestelmien käyttöönottajien arkaluonteiseen operatiiviseen tietoon, jotka ovat lainvalvontaviranomaisia.
5. Podmioty stosujące monitorują działanie systemu AI wysokiego ryzyka w oparciu o instrukcję obsługi i w stosownych przypadkach informują dostawców zgodnie z art. 72. W przypadku gdy podmioty stosujące mają powody uważać, że wykorzystanie systemu AI wysokiego ryzyka zgodnie z instrukcją obsługi może powodować, że ten system AI będzie stwarzał ryzyko w rozumieniu art. 79 ust. 1, bez zbędnej zwłoki informują o tym dostawcę lub dystrybutora oraz odpowiedni organ nadzoru rynku i zawieszają wykorzystywanie systemu. W przypadku gdy podmioty stosujące stwierdziły wystąpienie poważnego incydentu, natychmiast informują o tym incydencie najpierw dostawcę, a następnie importera lub dystrybutora oraz odpowiednie organy nadzoru rynku. Jeżeli podmiot stosujący nie jest w stanie skontaktować się z dostawcą, art. 73 stosuje się odpowiednio. Obowiązek ten nie obejmuje wrażliwych danych operacyjnych podmiotów stosujących systemy AI będących organami ścigania.
Niiden käyttöönottajien osalta, jotka ovat rahoituslaitoksia, joihin sovelletaan niiden sisäisiä hallintojärjestelyjä tai -prosesseja koskevia vaatimuksia unionin rahoituspalvelulainsäädännön nojalla, ensimmäisessä alakohdassa esitetty seurantavelvoite katsotaan täytetyksi, kun noudatetaan asiaankuuluvan rahoituspalvelulainsäädännön mukaisia sisäisiä hallintojärjestelyjä, -prosesseja ja -mekanismeja koskevia sääntöjä.
W odniesieniu do podmiotów stosujących będących instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, obowiązek w zakresie monitorowania, o którym mowa w akapicie pierwszym, uznaje się za spełniony w przypadku zapewnienia zgodności z przepisami dotyczącymi uzgodnień, procedur i mechanizmów zarządzania wewnętrznego na podstawie odpowiednich przepisów dotyczących usług finansowych.
6. Suuririskisten tekoälyjärjestelmien käyttöönottajien on säilytettävä kyseisen suuririskisen tekoälyjärjestelmän automaattisesti tuottamat lokitiedot siltä osin kuin tällaiset lokitiedot ovat heidän hallinnassaan, suuririskisen tekoälyjärjestelmän käyttötarkoitukseen nähden asianmukaisen ajanjakson ajan, kuitenkin vähintään kuuden kuukauden ajan, jollei sovellettavassa unionin tai kansallisessa lainsäädännössä, erityisesti henkilötietojen suojaa koskevassa unionin oikeudessa, toisin säädetä.
6. Podmioty stosujące systemy AI wysokiego ryzyka przechowują generowane automatycznie przez system AI wysokiego ryzyka rejestry zdarzeń – w zakresie, w jakim rejestry te znajdują się pod ich kontrolą – przez stosowny ze względu na przeznaczenie danego systemu AI wysokiego ryzyka okres, wynoszący co najmniej sześć miesięcy, o ile mające zastosowanie prawo Unii lub prawo krajowe, w szczególności prawo Unii dotyczące ochrony danych osobowych, nie stanowi inaczej.
Käyttöönottajien, jotka ovat rahoituslaitoksia, joihin sovelletaan niiden sisäisiä hallintojärjestelyjä tai -prosesseja koskevia vaatimuksia unionin rahoituspalvelulainsäädännön nojalla, on säilytettävä lokitiedot osana asiakirjoja, jotka säilytetään asiaankuuluvan unionin rahoituspalvelulainsäädännön nojalla.
Podmioty stosujące będące instytucjami finansowymi, które podlegają wymogom dotyczącym ich systemu zarządzania wewnętrznego, uzgodnień lub procedur na podstawie przepisów prawa Unii dotyczących usług finansowych, prowadzą rejestry zdarzeń jako część dokumentacji prowadzonej na podstawie odpowiednich unijnych przepisów dotyczących usług finansowych.
7. Ennen suuririskisen tekoälyjärjestelmän käyttöönottoa tai käyttöä työpaikalla käyttöönottajien, jotka ovat työnantajia, on ilmoitettava työntekijöiden edustajille ja asianomaisille työntekijöille, että heihin sovelletaan suuririskistä tekoälyjärjestelmää. Nämä tiedot on tarvittaessa annettava työntekijöille ja heidän edustajilleen tiedottamista koskevassa unionin ja kansallisessa lainsäädännössä ja käytännössä vahvistettujen sääntöjen ja menettelyjen mukaisesti.
7. Przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka w miejscu pracy podmioty stosujące będące pracodawcami informują przedstawicieli pracowników i pracowników, których to dotyczy, że będzie w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Informacje te przekazuje się, w stosownych przypadkach, zgodnie z zasadami i procedurami ustanowionymi w prawie Unii i prawie krajowym oraz praktyką w zakresie informowania pracowników i ich przedstawicieli.
8. Suuririskisten tekoälyjärjestelmin käyttöönottajien, jotka ovat viranomaisia tai unionin toimielimiä, elimiä tai laitoksia, on noudatettava 49 artiklassa tarkoitettuja rekisteröintivelvollisuuksia. Jos tällaiset käyttöönottajat toteavat, että suuririskistä tekoälyjärjestelmää, jota ne aikovat käyttää, ei ole rekisteröity 71 artiklassa tarkoitettuun EU:n tietokantaan, ne eivät saa käyttää kyseistä järjestelmää ja niiden on ilmoitettava asiasta tarjoajalle tai jakelijalle.
8. Podmioty stosujące systemy AI wysokiego ryzyka, będące publicznymi organami lub instytucjami, organami i jednostkami organizacyjnymi Unii, spełniają obowiązki rejestracji, o których mowa w art. 49. Jeżeli takie podmioty stosujące ustalą, że system AI wysokiego ryzyka, który zamierzają wykorzystywać, nie został zarejestrowany w bazie danych UE, o której mowa w art. 71, nie stosują tego systemu i informują o tym dostawcę lub dystrybutora.
9. Suuririskisten tekoälyjärjestelmien käyttöönottajien on tarvittaessa käytettävä tämän asetuksen 13 artiklan mukaisesti toimitettuja tietoja noudattaakseen velvollisuuttaan tehdä tietosuojaa koskeva vaikutustenarviointi asetuksen (EU) 2016/679 35 artiklan tai direktiivin (EU) 2016/680 27 artiklan mukaisesti.
9. W stosownych przypadkach, podmioty stosujące systemy AI wysokiego ryzyka korzystają z informacji przekazanych na podstawie art. 13 niniejszego rozporządzenia, aby spełnić spoczywając na nich obowiązki przeprowadzenia oceny skutków dla ochrony danych zgodnie z art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680.
10. Rikoksesta epäillyn tai tuomitun henkilön kohdennettua etsintää koskevan tutkinnan yhteydessä suuririskisen tekoälyjärjestelmän, joka on tarkoitettu käytettäväksi jälkikäteiseen biometriseen etätunnistukseen, käyttöönottajan on pyydettävä oikeusviranomaiselta tai hallintoviranomaiselta, jonka päätös on sitova ja johon sovelletaan tuomioistuinvalvontaa, lupaa kyseisen järjestelmän käyttöön etukäteen tai ilman aiheetonta viivytystä ja viimeistään 48 tunnin kuluessa kyseisen järjestelmän käyttöön, paitsi jos sitä käytetään mahdollisen epäillyn alustavaan tunnistamiseen rikokseen suoraan liittyvien objektiivisten ja todennettavissa olevien tosiseikkojen perusteella, sanotun kuitenkaan rajoittamatta direktiivin (EU) 2016/680 soveltamista. Kukin käyttö on rajoitettava siihen, mikä on ehdottoman välttämätöntä kyseessä olevan rikoksen tutkintaa varten.
10. Bez uszczerbku dla dyrektywy (UE) 2016/680, w ramach postępowania przygotowawczego dotyczącego ukierunkowanego poszukiwania osoby podejrzanej o popełnienie przestępstwa lub skazanej za popełnienie przestępstwa podmiot stosujący system AI wysokiego ryzyka do celów zdalnej identyfikacji biometrycznej post factum zwraca się – ex ante lub bez zbędnej zwłoki, nie później jednak niż w ciągu 48 godzin – do organu wymiaru sprawiedliwości lub organu administracyjnego, którego decyzja jest wiążąca i podlega kontroli sądowej, z wnioskiem o zezwolenie na wykorzystanie tego systemu, z wyjątkiem sytuacji, gdy jest on wykorzystywany do wstępnej identyfikacji potencjalnego podejrzanego w oparciu o obiektywne i możliwe do zweryfikowania fakty bezpośrednio związane z przestępstwem. Każde wykorzystanie takiego systemu musi być ograniczone do tego, co jest bezwzględnie konieczne do prowadzenia postępowań przygotowawczych w sprawie konkretnego przestępstwa.
Jos ensimmäisen alakohdan nojalla haettu lupa hylätään, kyseiseen lupaan linkitetyn jälkikäteisen biometrisen etätunnistusjärjestelmän käyttö on lopetettava välittömästi ja sen suuririskisen tekoälyjärjestelmän käyttöön liittyvät henkilötiedot, jota varten lupaa haettiin, on poistettava.
W przypadku gdy wniosek o zezwolenie, o którym mowa w akapicie pierwszym, zostanie odrzucony, korzystanie z systemu zdalnej identyfikacji biometrycznej post factum, będące przedmiotem wniosku o zezwolenie, zostaje wstrzymane ze skutkiem natychmiastowym, a dane osobowe związane z wykorzystaniem systemu AI wysokiego ryzyka, w odniesieniu do którego złożono wniosek o zezwolenie, zostają usunięte.
Tällaista suuririskistä tekoälyjärjestelmää, joka on tarkoitettu käytettäväksi jälkikäteiseen biometriseen etätunnistukseen, ei saa missään tapauksessa käyttää lainvalvontatarkoituksiin kohdentamattomalla tavalla ilman minkäänlaista yhteyttä tiettyyn rikokseen, rikosoikeudelliseen menettelyyn, todelliseen ja välittömään tai todelliseen ja ennakoitavissa olevaan rikoksen uhkaan tai tietyn kadonneen henkilön etsimiseen. On varmistettava, että päätöstä, jolla on yksittäiseen henkilöön kohdistuvia kielteisiä oikeusvaikutuksia, ei saa tehdä pelkästään tällaisen jälkikäteisen biometrisen etätunnistusjärjestelmän tuotosten perusteella.
W żadnym przypadku taki system AI wysokiego ryzyka służący do zdalnej identyfikacji biometrycznej post factum nie może być wykorzystywany do celów ścigania przestępstw w sposób nieukierunkowany, bez związku z przestępstwem, postępowaniem karnym, rzeczywistym i obecnym lub rzeczywistym i dającym się przewidzieć zagrożeniem popełnieniem przestępstwa lub poszukiwaniem konkretnej osoby zaginionej. Zapewnia się, aby organy ścigania mogły wydać żadnej decyzji wywołującej niepożądane skutki prawne dla danej osoby wyłącznie na podstawie wyników uzyskanych z systemu zdalnej identyfikacji biometrycznej post factum.
Tämä kohta ei rajoita asetuksen (EU) 2016/679 9 artiklan ja direktiivin (EU) 2016/680 10 artiklan soveltamista biometristen tietojen käsittelyn osalta.
Niniejszy ustęp pozostaje bez uszczerbku dla art. 9 rozporządzenia (UE) 2016/679 i art. 10 dyrektywy (UE) 2016/680 w odniesieniu do przetwarzania danych biometrycznych.
Käyttötarkoituksesta tai käyttöönottajasta riippumatta tällaisten suuririskisten tekoälyjärjestelmien kaikenlainen käyttö on dokumentoitava asianomaiseen poliisitiedostoon ja asetettava pyynnöstä asianomaisen markkinavalvontaviranomaisen ja kansallisen tietosuojaviranomaisen saataville, lukuun ottamatta lainvalvontaan liittyvien arkaluonteisten operatiivisten tietojen luovuttamista. Tämä alakohta ei rajoita valvontaviranomaisille direktiivin (EU) 2016/680 nojalla annettuja valtuuksia.
Niezależnie od celu lub podmiotu stosującego każde wykorzystanie takich systemów AI wysokiego ryzyka musi zostać udokumentowane w odpowiednich aktach policyjnych i udostępnione na wniosek właściwego organu nadzoru rynku i krajowemu organowi ochrony danych, z wyłączeniem ujawniania wrażliwych danych operacyjnych związanych ze ściganiem przestępstw. Niniejszy akapit pozostaje bez uszczerbku dla uprawnień powierzonych organom nadzorczym dyrektywą (UE) 2016/680.
Käyttöönottajien on toimitettava asianomaisille markkinavalvonta- ja kansallisille tietosuojaviranomaisille vuosittain raportit jälkikäteisten biometristen etätunnistusjärjestelmien käytöstä, lukuun ottamatta lainvalvontaan liittyvien arkaluonteisten operatiivisten tietojen luovuttamista. Raportit voidaan koota yhteen siten, että ne kattavat useamman kuin yhden käyttökerran.
Podmioty stosujące przedkładają właściwym organom nadzoru rynku i krajowym organom ochrony danych roczne sprawozdania dotyczące wykorzystania przez nie systemów zdalnej identyfikacji biometrycznej post factum, z wyłączeniem ujawniania wrażliwych danych operacyjnych związanych ze ściganiem przestępstw. Sprawozdania te mogą zostać zagregowane w celu uwzględnienia stosowania więcej niż jednego systemu.
Jäsenvaltiot voivat unionin oikeuden mukaisesti ottaa käyttöön jälkikäteisten biometristen etätunnistusjärjestelmien käyttöä koskevaa rajoittavampaa lainsäädäntöä.
Państwa członkowskie mogą wprowadzić, zgodnie z prawem Unii, bardziej restrykcyjne przepisy dotyczące korzystania z systemów zdalnej identyfikacji biometrycznej post factum.
11. Sellaisten liitteessä III tarkoitettujen suuririskisten tekoälyjärjestelmien käyttöönottajien, jotka tekevät tai auttavat tekemään luonnollisiin henkilöihin liittyviä päätöksiä, on ilmoitettava luonnollisille henkilöille, että heihin sovelletaan suuririskistä tekoälyjärjestelmää, sanotun kuitenkaan rajoittamatta tämän asetuksen 50 artiklan soveltamista. Lainvalvontatarkoituksiin käytettäviin suuririskisiin tekoälyjärjestelmiin sovelletaan direktiivin (EU) 2016/680 13 artiklaa.
11. Bez uszczerbku dla art. 50 niniejszego rozporządzenia podmioty stosujące systemy wysokiego ryzyka, o których mowa w załączniku III, które to podmioty podejmują decyzje lub uczestniczą w podejmowaniu decyzji dotyczących osób fizycznych, informują osoby fizyczne o tym, że jest w stosunku do nich wykorzystywany system AI wysokiego ryzyka. W przypadku systemów AI wysokiego ryzyka wykorzystywanych do celów ścigania przestępstw stosuje się art. 13 dyrektywy (UE) 2016/680.
12. Käyttöönottajien on tehtävä yhteistyötä asiaankuuluvien toimivaltaisten viranomaisten kanssa kaikissa toimissa, joita kyseiset viranomaiset toteuttavat suuririskisen tekoälyjärjestelmän suhteen tämän asetuksen täytäntöönpanemiseksi.
12. Podmioty stosujące współpracują z odpowiednimi właściwymi organami przy wszelkich działaniach, które organy te podejmują w odniesieniu do systemu AI wysokiego ryzyka, w celu wykonywania niniejszego rozporządzenia.
27 artikla
Artykuł 27
Suuririskisten tekoälyjärjestelmien perusoikeusvaikutusten arviointi
Ocena skutków systemów AI wysokiego ryzyka dla praw podstawowych
1. Käyttöönottajien, jotka ovat julkisoikeudellisia laitoksia tai julkisia palveluja tarjoavia yksityisiä yhteisöjä, ja liitteessä III olevassa 5 kohdan b ja c alakohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien käyttöönottajien on tehtävä arviointi tällaisen järjestelmän käytön mahdollisista perusoikeusvaikutuksista ennen 6 artiklan 2 kohdassa tarkoitetun suuririskisen tekoälyjärjestelmän käyttöönottoa, lukuun ottamatta suuririskisiä tekoälyjärjestelmiä, jotka on tarkoitettu käytettäviksi liitteessä III olevassa 2 kohdassa luetellulla alueella. Tätä varten käyttöönottajien on suoritettava arviointi, joka sisältää seuraavat:
1. Przed wdrożeniem systemu AI wysokiego ryzyka, o którym mowa w art. 6 ust. 2, z wyjątkiem systemów AI wysokiego ryzyka przeznaczonych do stosowania w obszarze wymienionym w załączniku III pkt 2, podmioty stosujące będące podmiotami prawa publicznego lub podmiotami prywatnymi świadczącymi usługi publiczne, oraz podmioty stosujące systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 5 lit. b) i c), przeprowadzają ocenę skutków w zakresie praw podstawowych, jakie może wywołać wykorzystanie takiego systemu. W tym celu podmioty stosujące przeprowadzają ocenę obejmującą:
a)
kuvaus käyttöönottajan prosesseista, joissa suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti;
a)
opis procesów podmiotu stosującego, w których system AI wysokiego ryzyka będzie wykorzystywany zgodnie z jego przeznaczeniem;
b)
kuvaus ajanjaksosta, jonka kuluessa kutakin suuririskistä tekoälyjärjestelmää on tarkoitus käyttää, ja kuinka usein;
b)
opis okresu, w którym każdy system AI wysokiego ryzyka ma być wykorzystywany i opis częstotliwości tego wykorzystywania;
c)
niiden luonnollisten henkilöiden ja ryhmien luokat, joihin järjestelmän käyttö todennäköisesti vaikuttaa;
c)
kategorie osób fizycznych i grup, na które może mieć wpływ wykorzystywanie systemu;
d)
erityiset sellaisen haitan riskit, joka todennäköisesti kohdistuu tämän kohdan c alakohdan mukaisesti yksilöityihin luokkiin kuuluviin luonnollisiin henkilöihin tai henkilöryhmiin, ottaen huomioon tarjoajan 13 artiklan mukaisesti antamat tiedot;
d)
szczególne ryzyko szkody, które może mieć wpływ na kategorie osób fizycznych lub grupy osób zidentyfikowane zgodnie z lit. c) niniejszego ustępu, z uwzględnieniem informacji przekazanych przez dostawcę zgodnie z art. 13;
e)
kuvaus ihmisen suorittamien valvontatoimenpiteiden toteuttamisesta käyttöohjeiden mukaisesti;
e)
opis wdrożenia środków nadzoru ze strony człowieka, zgodnie z instrukcją obsługi;
f)
toimenpiteet, jotka on toteutettava kyseisten riskien toteutuessa, mukaan lukien sisäistä hallintoa ja valitusmekanismeja koskevat järjestelyt.
f)
środki, jakie należy podjąć w przypadku urzeczywistnienia się tego ryzyka, w tym ustalenia dotyczące zarządzania wewnętrznego i mechanizmów rozpatrywania skarg.
2. Edellä 1 kohdassa säädettyä velvoitetta sovelletaan suuririskisen tekoälyjärjestelmän ensimmäiseen käyttökertaan. Käyttöönottaja voi samanlaisissa tapauksissa tukeutua aiemmin tehtyyn perusoikeusvaikutusten arviointiin tai tarjoajan tekemään olemassa olevaan vaikutustenarviointiin. Jos käyttöönottaja katsoo suuririskisen tekoälyjärjestelmän käytön aikana, että jokin 1 kohdassa luetelluista elementeistä on muuttunut tai ei ole enää ajan tasalla, käyttöönottajan on toteutettava tarvittavat toimenpiteet tietojen päivittämiseksi.
2. Obowiązek ustanowiony w ust. 1 ma zastosowanie do wykorzystania systemu AI wysokiego ryzyka po raz pierwszy. W podobnych przypadkach podmiot stosujący może polegać na wcześniej przeprowadzonych ocenach skutków dla praw podstawowych lub na istniejących ocenach skutków przeprowadzonych przez dostawcę. Jeżeli w trakcie wykorzystania systemu AI wysokiego ryzyka podmiot stosujący uzna, że którykolwiek z elementów wymienionych w ust. 1 uległ zmianie lub nie jest już aktualny, podmiot ten podejmuje niezbędne kroki w celu aktualizacji informacji.
3. Kun tämän artiklan 1 kohdassa tarkoitettu arviointi on suoritettu, käyttöönottajan on ilmoitettava markkinavalvontaviranomaiselle sen tuloksista, ja palautettava tämän artiklan 5 kohdassa tarkoitettu täytetty lomake ilmoituksen osana. Käyttöönottajat voidaan 46 artiklan 1 kohdassa tarkoitetussa tapauksessa vapauttaa tästä ilmoitusvelvoitteesta.
3. Po przeprowadzeniu oceny, o której mowa w ust. 1 niniejszego artykułu, podmiot stosujący powiadamia organ nadzoru rynku o jej wynikach, przedkładając jako element tego powiadomienia wypełniony wzór, o którym mowa w ust. 5 niniejszego artykułu. W przypadku, o którym mowa w art. 46 ust. 1, podmioty stosujące mogą zostać zwolnione z obowiązku dokonania powiadomienia.
4. Jos jokin tässä artiklassa säädetyistä velvoitteista on jo täytetty asetuksen (EU) 2016/679 35 artiklan tai direktiivin (EU) 2016/680 27 artiklan nojalla suoritetun tietosuojaa koskevan vaikutustenarvioinnin avulla, tämän artiklan 1 kohdassa tarkoitetulla perusoikeuksia koskevalla vaikutustenarvioinnilla täydennetään kyseistä tietosuojaa koskevaa vaikutustenarviointia.
4. Jeżeli którykolwiek z obowiązków ustanowionych w niniejszym artykule został już spełniony w wyniku oceny skutków dla ochrony danych przeprowadzonej zgodnie z art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680, ocena skutków w zakresie praw podstawowych, o której mowa w ust. 1 niniejszego artykułu, stanowi uzupełnieniem tej oceny skutków dla ochrony danych.
5. Tekoälytoimisto laatii mallin kyselylomakkeelle, käyttämällä myös automaattista välinettä, jotta käyttöönottajia voidaan auttaa täyttämään tämän artiklan mukaiset velvoitteensa yksinkertaistetulla tavalla.
5. Urząd ds. AI opracowuje wzór kwestionariusza, w tym za pomocą zautomatyzowanego narzędzia, aby ułatwić podmiotom stosującym spełnianie ich obowiązków wynikających z niniejszego artykułu w sposób uproszczony.
4 JAKSO
SEKCJA 4
Ilmoittamisesta vastaavat viranomaiset ja ilmoitetut laitokset
Organy notyfikujące i jednostki notyfikowane
28 artikla
Artykuł 28
Ilmoittamisesta vastaavat viranomaiset
Organy notyfikujące
1. Kunkin jäsenvaltion on nimettävä tai perustettava vähintään yksi ilmoittamisesta vastaava viranomainen, joka vastaa vaatimustenmukaisuuden arviointilaitosten arviointiin, nimeämiseen ja ilmoittamiseen sekä niiden valvontaan liittyvien tarvittavien menettelyjen perustamisesta ja toteuttamisesta. Kyseiset menettelyt on kehitettävä yhteistyössä kaikkien jäsenvaltioiden ilmoittamisesta vastaavien viranomaisten kesken.
1. Każde państwo członkowskie wyznacza lub ustanawia przynajmniej jeden organ notyfikujący odpowiedzialny za opracowanie i stosowanie procedur koniecznych do oceny, wyznaczania i notyfikowania jednostek oceniających zgodność oraz za ich monitorowanie. Procedury te są przygotowywane wspólnie przez organy notyfikujące wszystkich państw członkowskich.
2. Jäsenvaltiot voivat päättää, että 1 kohdassa tarkoitetun arvioinnin ja valvonnan suorittaa asetuksen (EY) N:o 765/2008 mukaisesti mainitussa asetuksessa tarkoitettu kansallinen akkreditointielin.
2. Państwa członkowskie mogą zdecydować, że ocena oraz monitorowanie, o których mowa w ust. 1, są prowadzone przez krajową jednostkę akredytującą w rozumieniu rozporządzenia (WE) nr 765/2008 oraz zgodnie z tym rozporządzeniem.
3. Ilmoittamisesta vastaavien viranomaisten on oltava toteutukseltaan, organisaatioltaan ja toiminnaltaan sellaisia, että eturistiriitoja vaatimustenmukaisuuden arviointilaitosten kanssa ei synny ja että niiden toimien objektiivisuus ja puolueettomuus on turvattu.
3. Organy notyfikujące ustanawia się, organizuje się i zarządza się nimi w taki sposób, aby nie dopuścić do wystąpienia konfliktu interesów z jednostkami oceniającymi zgodność i aby zapewnić obiektywny i bezstronny charakter ich działalności.
4. Ilmoittamisesta vastaavien viranomaisten organisaation on oltava sellainen, että vaatimustenmukaisuuden arviointilaitosten ilmoittamista koskevat päätökset tekevät eri toimivaltaiset henkilöt kuin ne, jotka ovat suorittaneet näiden laitosten arvioinnin.
4. Działalność organów notyfikujących organizuje się w taki sposób, aby decyzje dotyczące notyfikacji jednostek oceniających zgodność podejmowały kompetentne osoby, które nie przeprowadzały oceny tych jednostek.
5. Ilmoittamisesta vastaavat viranomaiset eivät saa tarjota mitään toimintoja, joita vaatimustenmukaisuuden arviointilaitokset suorittavat, eivätkä mitään konsultointipalveluja kaupallisin tai kilpailullisin perustein.
5. Organy notyfikujące nie mogą oferować ani podejmować żadnych działań realizowanych przez jednostki oceniające zgodność ani świadczyć żadnych usług doradztwa na zasadzie komercyjnej lub konkurencyjnej.
6. Ilmoittamisesta vastaavien viranomaisten on turvattava saamiensa tietojen luottamuksellisuus 78 artiklan mukaisesti.
6. Organy notyfikujące zapewniają poufność otrzymywanych informacji zgodnie z art. 78.
7. Ilmoittamisesta vastaavilla viranomaisilla on oltava käytössään riittävä määrä pätevää henkilöstöä tehtäviensä asianmukaista hoitamista varten. Pätevällä henkilöstöllä on tarvittaessa oltava tehtäviensä edellyttämä asiantuntemus esimerkiksi tietotekniikan, tekoälyn ja lainsäädännön aloilla, mukaan lukien perusoikeuksien valvonta.
7. Organy notyfikujące muszą dysponować odpowiednią liczbą kompetentnych pracowników, aby należycie wykonywać powierzone im zadania. Kompetentni pracownicy muszą posiadać, w odpowiednich przypadkach, wiedzę fachową niezbędną do pełnienia ich funkcji w dziedzinach, takich jak technologie informacyjne, AI i prawo, w tym nadzór nad prawami podstawowymi.
29 artikla
Artykuł 29
Vaatimustenmukaisuuden arviointilaitoksen ilmoittamista koskeva hakemus
Wniosek jednostki oceniającej zgodność o notyfikację
1. Vaatimustenmukaisuuden arviointilaitosten on toimitettava ilmoittamista koskeva hakemus sen jäsenvaltion ilmoittamisesta vastaavalle viranomaiselle, johon ne ovat sijoittautuneet.
1. Jednostki oceniające zgodność przekazują wniosek o notyfikację organowi notyfikującemu państwa członkowskiego, w którym znajduje się ich siedziba.
2. Ilmoittamista koskevaan hakemukseen on liitettävä kuvaus vaatimustenmukaisuuden arviointitoimista, vaatimustenmukaisuuden arviointimoduulista tai -moduuleista ja tekoälyjärjestelmätyypeistä, joiden osalta vaatimustenmukaisuuden arviointilaitos katsoo olevansa pätevä, sekä mahdollinen akkreditointitodistus, jonka kansallinen akkreditointielin on antanut ja jossa todistetaan, että vaatimustenmukaisuuden arviointilaitos täyttää 31 artiklassa säädetyt vaatimukset.
2. Do wniosku o notyfikację załącza się opis czynności z zakresu oceny zgodności, modułu lub modułów oceny zgodności i rodzajów systemów AI, w odniesieniu do których jednostka oceniająca zgodność uważa się za kompetentną, a także wydany przez krajową jednostkę akredytującą certyfikat akredytacji (o ile takowy istnieje) poświadczający, że jednostka oceniająca zgodność spełnia wymogi ustanowione w art. 31.
Hakemukseen on liitettävä kaikki voimassa olevat asiakirjat, jotka liittyvät hakemuksen esittävän ilmoitetun laitoksen voimassa oleviin nimeämisiin jonkin muun unionin yhdenmukaistamislainsäädännön nojalla.
Do wniosku załącza się również wszelkie ważne dokumenty dotyczące obowiązującego wyznaczenia – na podstawie innego unijnego prawodawstwa harmonizacyjnego – występującej z wnioskiem jednostki notyfikowanej.
3. Jos asianomainen vaatimustenmukaisuuden arviointilaitos ei voi toimittaa akkreditointitodistusta, sen on toimitettava ilmoittamisesta vastaavalle viranomaiselle kaikki tarpeelliset asiakirjatodisteet, joiden avulla voidaan tarkastaa, tunnustaa ja säännöllisesti valvoa, että se täyttää 31 artiklassa säädetyt vaatimukset.
3. Jeżeli dana jednostka oceniająca zgodność nie jest w stanie przedstawić certyfikatu akredytacji, przekazuje organowi notyfikującemu wszystkie dowody w postaci dokumentów niezbędne do zweryfikowania, potwierdzenia i regularnego monitorowania spełnienia przez tę jednostkę wymogów ustanowionych w art. 31.
4. Kun on kyse muun unionin yhdenmukaistamislainsäädännön nojalla nimetyistä ilmoitetuista laitoksista, kaikkia näihin nimeämisiin liittyviä asiakirjoja ja todistuksia voidaan tarvittaessa käyttää tämän asetuksen mukaisen nimeämismenettelyn tukena. Ilmoitetun laitoksen on päivitettävä tämän artiklan 2 ja 3 kohdassa tarkoitetut asiakirjat aina, kun merkityksellisiä muutoksia esiintyy, jotta ilmoitetuista laitoksista vastaava viranomainen voi seurata ja todentaa, että 31 artiklassa säädettyjä vaatimuksia noudatetaan jatkuvasti.
4. W odniesieniu do jednostek notyfikowanych wyznaczonych na podstawie innego unijnego prawodawstwa harmonizacyjnego w stosownych przypadkach dopuszcza się możliwość wykorzystania wszelkich dokumentów i certyfikatów dotyczących takiego wyznaczenia w charakterze dowodów w toku procedury wyznaczania przeprowadzanej zgodnie z niniejszym rozporządzeniem. Jednostka notyfikowana aktualizuje dokumentację, o której mowa w ust. 2 i 3 niniejszego artykułu, w każdym przypadku gdy wystąpią istotne zmiany, aby umożliwić organowi odpowiedzialnemu za jednostki notyfikowane monitorowanie i weryfikowanie, czy zapewniona jest ciągła zgodność ze wszystkimi wymogami ustanowionymi w art. 31.
30 artikla
Artykuł 30
Ilmoitusmenettely
Procedura notyfikacyjna
1. Ilmoittamisesta vastaavat viranomaiset voivat ilmoittaa ainoastaan sellaisia vaatimustenmukaisuuden arviointilaitoksia, jotka ovat täyttäneet 31 artiklassa säädetyt vaatimukset.
1. Organy notyfikujące mogą dokonywać notyfikacji wyłącznie w odniesieniu do tych jednostek oceniających zgodność, które spełniają wymogi ustanowione w art. 31.
2. Ilmoittamisesta vastaavien viranomaisten on tehtävä kustakin 1 kohdassa tarkoitetusta vaatimustenmukaisuuden arviointilaitoksesta ilmoitus komissiolle ja muille jäsenvaltioille käyttäen komission kehittämää ja hallinnoimaa sähköistä ilmoitusvälinettä.
2. Organy notyfikujące dokonują notyfikacji Komisji i pozostałym państwom członkowskim za pomocą narzędzia do notyfikacji elektronicznej opracowanego i obsługiwanego przez Komisję, o każdej jednostce oceniającej zgodność, o której mowa w ust. 1.
3. Tämän artiklan 2 kohdassa tarkoitetun ilmoituksen on sisällettävä täydelliset tiedot vaatimustenmukaisuuden arviointitoimista, vaatimustenmukaisuuden arviointimoduulista tai -moduuleista, asianomaisista tekoälyjärjestelmätyypeistä sekä asiaankuuluva todistus pätevyydestä. Jos ilmoitus ei perustu 29 artiklan 2 kohdassa tarkoitettuun akkreditointitodistukseen, ilmoittamisesta vastaavan viranomaisen on toimitettava komissiolle ja muille jäsenvaltioille asiakirjatodisteet, joiden avulla voidaan todistaa vaatimustenmukaisuuden arviointilaitoksen pätevyys ja toteutetut järjestelyt, joilla varmistetaan, että laitosta valvotaan säännöllisesti ja että se täyttää edelleen 31 artiklassa säädetyt vaatimukset.
3. Notyfikacja, o której mowa w ust. 2 niniejszego artykułu, zawiera wyczerpujące informacje na temat czynności z zakresu oceny zgodności, modułu lub modułów oceny zgodności i przedmiotowych rodzajów systemów AI oraz odpowiednie poświadczenie kompetencji. W przypadku gdy podstawą notyfikacji nie jest certyfikat akredytacji, o którym mowa w art. 29 ust. 2, organ notyfikujący przedkłada Komisji i pozostałym państwom członkowskim dowody w postaci dokumentów potwierdzające kompetencje jednostki oceniającej zgodność oraz wdrożone rozwiązania zapewniające regularne monitorowanie tej jednostki i nieustanne spełnianie przez nią wymagań ustanowionych w art. 31.
4. Asianomainen vaatimustenmukaisuuden arviointilaitos voi suorittaa ilmoitetun laitoksen tehtäviä ainoastaan siinä tapauksessa, että komissio tai muut jäsenvaltiot eivät esitä vastalauseita kahden viikon kuluessa ilmoittamisesta vastaavan viranomaisen ilmoituksesta siinä tapauksessa, että käytetään 29 artiklan 2 kohdassa tarkoitettua akkreditointitodistusta, ja kahden kuukauden kuluessa ilmoittamisesta vastaavan viranomaisen ilmoituksesta siinä tapauksessa, että käytetään 29 artiklan 3 kohdassa tarkoitettuja asiakirjatodisteita.
4. Dana jednostka oceniająca zgodność może wykonywać czynności jednostki notyfikowanej tylko wówczas, gdy Komisja lub pozostałe państwa członkowskie nie zgłosiły sprzeciwu w terminie dwóch tygodni od notyfikacji przez organ notyfikujący, w przypadku gdy notyfikacja ta obejmuje certyfikat akredytacji, o którym mowa w art. 29 ust. 2, lub w terminie dwóch miesięcy od notyfikacji przez organ notyfikujący, w przypadku gdy notyfikacja ta obejmuje dowody w postaci dokumentów, o których mowa w art. 29 ust. 3.
5. Jos vastalauseita esitetään, komissio kuulee viipymättä asiaankuuluvia jäsenvaltioita ja vaatimustenmukaisuuden arviointilaitosta. Komissio päättää kyseisten kuulemisten perusteella, onko lupa perusteltu vai ei. Komissio osoittaa päätöksensä asianomaiselle jäsenvaltiolle sekä asiaankuuluvalle vaatimustenmukaisuuden arviointilaitokselle.
5. W przypadku zgłoszenia sprzeciwu Komisja niezwłocznie przystępuje do konsultacji z odpowiednimi państwami członkowskimi i jednostką oceniającą zgodność. Na podstawie tych konsultacji Komisja podejmuje decyzję, czy dane zezwolenie jest uzasadnione. Komisja kieruje swoją decyzję do zainteresowanego państwa członkowskiego i odpowiedniej jednostki oceniającej zgodność.
31 artikla
Artykuł 31
Ilmoitettuja laitoksia koskevat vaatimukset
Wymogi dotyczące jednostek notyfikowanych
1. Ilmoitettu laitos on perustettava jäsenvaltion kansallisen lainsäädännön mukaisesti ja sen on oltava oikeushenkilö.
1. Jednostkę notyfikowaną ustanawia się zgodnie z prawem krajowym danego państwa członkowskiego i ma ona osobowość prawną.
2. Ilmoitettujen laitosten on täytettävä organisaatiota, laadunhallintaa, resursseja ja prosessia koskevat vaatimukset, jotka ovat tarpeen niiden tehtävien suorittamiseksi, sekä asiaankuuluvat kyberturvallisuusvaatimukset.
2. Jednostki notyfikowane muszą spełniać wymogi organizacyjne, wymogi w zakresie zarządzania jakością oraz wymogi dotyczące zasobów i procesów niezbędne do tego, aby mogły wykonywać powierzone im zadania, jak również odpowiednie wymogi w zakresie cyberbezpieczeństwa.
3. Ilmoitetun laitoksen organisaatiorakenteen, vastuunjaon, raportointisuhteiden ja toiminnan on oltava sellaiset, että niillä varmistetaan luottamus kyseisen laitoksen toimiin ja sen toteuttamien vaatimustenmukaisuuden arviointitoimien tuloksiin.
3. Struktura organizacyjna jednostek notyfikowanych, podział obowiązków w tych jednostkach, obowiązująca w nich hierarchia służbowa oraz ich funkcjonowanie zapewniają, by działalność jednostek notyfikowanych oraz wyniki czynności z zakresu oceny zgodności prowadzonych przez te jednostki nie budziły żadnych wątpliwości.
4. Ilmoitettujen laitosten on oltava riippumattomia sen suuririskisen tekoälyjärjestelmän tarjoajasta, jonka vaatimustenmukaisuutta ne arvioivat. Ilmoitettujen laitosten on oltava riippumattomia myös kaikista muista toimijoista, joilla on arvioitavaan suuririskiseen tekoälyjärjestelmään liittyviä taloudellisia intressejä, sekä kaikista tarjoajan kilpailijoista. Tämä ei sulje pois sellaisten arvioitujen suuririskisten tekoälyjärjestelmien käyttöä, jotka ovat vaatimustenmukaisuuden arviointilaitoksen toimien kannalta tarpeellisia, tai tällaisten suuririskisten tekoälyjärjestelmien käyttöä henkilökohtaisiin tarkoituksiin.
4. Jednostki notyfikowane muszą być niezależne od dostawcy systemu AI wysokiego ryzyka, wobec którego podejmują czynności z zakresu oceny zgodności. Jednostki notyfikowane muszą być również niezależne od wszelkich innych operatorów, których interes gospodarczy wiąże się z systemami AI wysokiego ryzyka będącymi przedmiotem oceny, a także od wszelkich innych konkurentów dostawcy. Nie wyklucza to wykorzystania będących przedmiotem oceny systemów AI wysokiego ryzyka, które są niezbędne do prowadzenia działalności jednostki oceniającej zgodność, ani wykorzystania takich systemów AI wysokiego ryzyka do celów prywatnych.
5. Vaatimustenmukaisuuden arviointilaitos, sen ylin johto ja vaatimustenmukaisuuden arviointitehtävien suorittamisesta vastaava henkilöstö eivät saa olla suoraan mukana suuririskisten tekoälyjärjestelmien suunnittelussa, kehityksessä, markkinoinnissa tai käytössä eivätkä saa edustaa näissä toiminnoissa mukana olevia osapuolia. Ne eivät saa osallistua mihinkään toimintaan, joka saattaisivat olla ristiriidassa niiden suorittaman arvioinnin riippumattomuuden kanssa tai vaarantaa niiden luotettavuuden vaatimuksenmukaisuuden arviointitoimissa, joita varten ne on ilmoitettu. Tämä koskee erityisesti konsultointipalveluja.
5. Jednostka oceniająca zgodność, jej kierownictwo najwyższego szczebla ani pracownicy odpowiedzialni za realizację zadań związanych z oceną zgodności nie mogą być bezpośrednio zaangażowani w projektowanie, rozwój, sprzedaż ani wykorzystywanie systemów AI wysokiego ryzyka, nie mogą też reprezentować stron zaangażowanych w taką działalność. Nie angażują się oni w żadną działalność, która może zagrozić niezależności ich osądów i wiarygodności w związku z czynnościami z zakresu oceny zgodności, do której zostali notyfikowani. Dotyczy to w szczególności usług konsultingowych.
6. Ilmoitettujen laitosten on oltava organisaatioltaan ja toiminnaltaan sellaisia, että niiden toimien riippumattomuus, objektiivisuus ja puolueettomuus on turvattu. Ilmoitettujen laitosten on dokumentoitava ja toteutettava rakenne ja menettelyt, joilla turvataan puolueettomuus sekä edistetään ja sovelletaan puolueettomuuden periaatteita koko niiden organisaatiossa ja henkilöstössä ja kaikissa arviointitoimissa.
6. Jednostki notyfikowane organizuje się i zarządza się nimi w sposób gwarantujący niezależność, obiektywizm i bezstronność podejmowanych przez nie czynności. Jednostki notyfikowane dokumentują i wdrażają strukturę i procedury służące zagwarantowaniu ich bezstronności oraz propagowaniu i stosowaniu zasad bezstronności we wszystkich podejmowanych przez nie czynnościach organizacyjnych i kadrowych oraz we wszystkich ich czynnościach związanych z oceną.
7. Ilmoitetuilla laitoksilla on oltava käytössään dokumentoidut menettelyt, joilla varmistetaan, että niiden henkilöstö, asiantuntijaryhmät, tytäryhtiöt, alihankkijat ja niihin liittyvät tahot tai ulkoisten tahojen henkilöstö noudattavat 78 artiklan mukaisesti luottamuksellisuutta sellaisten tietojen osalta, jotka ne saavat haltuunsa vaatimustenmukaisuuden arviointitoimien suorittamisen aikana, paitsi kun lainsäädännössä edellytetään tietojen luovuttamista. Ilmoitettujen laitosten henkilöstöllä on vaitiolovelvollisuus kaikkien niiden tietojen suhteen, joita ne saavat suorittaessaan tämän asetuksen mukaisia tehtäviään, paitsi sen jäsenvaltion ilmoittamisesta vastaaviin viranomaisiin nähden, jossa ne toimivat.
7. Jednostki notyfikowane dysponują udokumentowanymi procedurami, które zapewniają zachowanie poufności informacji – zgodnie z art. 78 – przez ich personel, komitety, jednostki zależne, podwykonawców oraz wszelkie stowarzyszone z nimi jednostki lub pracowników podmiotów zewnętrznych, które to informacje znalazły się w ich posiadaniu w toku czynności z zakresu oceny zgodności, chyba że ujawnienie takich informacji jest wymagane na mocy obowiązującego prawa. Personel jednostek notyfikowanych pozostaje związany tajemnicą zawodową w kwestii wszystkich informacji pozyskiwanych w toku wykonywania zadań powierzonych mu zgodnie z niniejszym rozporządzeniem, jednak nie w stosunku do organów notyfikujących państwa członkowskiego, w którym jednostki notyfikowane podejmują czynności.
8. Ilmoitetuilla laitoksilla on oltava käytössään menettelyt tehtävien hoitamiseksi siten, että tarjoajan koko, toimiala ja rakenne sekä kyseessä olevan tekoälyjärjestelmän monimutkaisuus otetaan asianmukaisesti huomioon.
8. Jednostki notyfikowane dysponują procedurami prowadzenia czynności z uwzględnieniem rozmiaru dostawcy, sektora, w którym prowadzi on działalność, jego struktury oraz stopnia złożoności danego systemu AI.
9. Ilmoitetuilla laitoksilla on oltava asianmukainen vastuuvakuutus vaatimustenmukaisuuden arviointitoimiensa varalle, jollei vastuu kuulu jäsenvaltiolle, johon ne ovat sijoittautuneet, kansallisen lainsäädännön mukaisesti tai jollei jäsenvaltio itse ole suoraan vastuussa vaatimustenmukaisuuden arvioinnista.
9. Jednostki notyfikowane zawierają odpowiednie umowy ubezpieczenia od odpowiedzialności cywilnej w odniesieniu do podejmowanych przez siebie czynności z zakresu oceny zgodności, chyba że państwo członkowskie, w którym mają siedzibę, bierze na siebie odpowiedzialność z tego tytułu zgodnie z prawem krajowym lub bezpośrednia odpowiedzialność za ocenę zgodności spoczywa na danym państwie członkowskim.
10. Ilmoitettujen laitosten on kyettävä suorittamaan kaikki niille tämän asetuksen mukaisesti kuuluvat tehtävät osoittaen mahdollisimman suurta ammatillista luotettavuutta ja kyseisellä erityisalalla vaadittavaa pätevyyttä riippumatta siitä, suorittavatko ilmoitetut laitokset kyseiset tehtävät itse vai suoritetaanko ne niiden puolesta ja vastuulla.
10. Jednostki notyfikowane posiadają zdolność wykonywania wszystkich zadań wynikających z niniejszego rozporządzenia z zachowaniem najwyższego poziomu uczciwości zawodowej i wymaganych kompetencji w danej dziedzinie, niezależnie od tego, czy zadania te są wykonywane przez nie samodzielnie, czy też w ich imieniu i na ich odpowiedzialność.
11. Ilmoitetuilla laitoksilla on oltava riittävästi sisäistä osaamista, jotta ne voivat tehokkaasti arvioida ulkoisten osapuolten niiden puolesta suorittamat tehtävät. Ilmoitetulla laitoksella on oltava pysyvästi käytettävissään riittävä määrä hallinnollista, teknistä, oikeudellista ja tieteellistä henkilöstöä, jolla on asiaankuuluviin tekoälyjärjestelmätyyppeihin, dataan ja datalaskentaan sekä 2 jaksossa vahvistettuihin vaatimuksiin liittyvää kokemusta ja tietämystä.
11. Jednostki notyfikowane dysponują wystarczającymi kompetencjami wewnętrznymi pozwalającymi im skutecznie oceniać zadania wykonywane w ich imieniu przez podmioty zewnętrzne. Jednostka notyfikowana dysponuje stałą dostępnością wystarczającej liczby pracowników odpowiedzialnych za aspekty administracyjne, techniczne, prawne i naukowe dysponujących doświadczeniem i wiedzą w zakresie odnośnych rodzajów systemów AI, danych i metod przetwarzania danych oraz w zakresie wymogów ustanowionych w sekcji 2.
12. Ilmoitettujen laitosten on osallistuttava 38 artiklassa tarkoitettuihin koordinointitoimiin. Niiden on myös osallistuttava suoraan tai oltava edustettuina eurooppalaisissa standardointiorganisaatioissa tai varmistettava, että ne ovat tietoisia asiaa koskevista standardeista ja ajan tasalla niiden suhteen.
12. Jednostki notyfikowane biorą udział w działaniach koordynacyjnych, o których mowa w art. 38. Angażują się także w działalność europejskich organizacji normalizacyjnych bezpośrednio lub za pośrednictwem swoich przedstawicieli lub zapewniają, by same posiadały znajomość odpowiednich norm i dysponowały zawsze aktualną wiedzą na ich temat.
32 artikla
Artykuł 32
Olettama ilmoitettuja laitoksia koskevien vaatimusten noudattamisesta
Domniemanie zgodności z wymogami dotyczącymi jednostek notyfikowanych
Jos vaatimustenmukaisuuden arviointilaitos voi osoittaa olevansa sellaisissa asiaankuuluvissa yhdenmukaistetuissa standardeissa tai niiden osissa vahvistettujen edellytysten mukainen, joiden viitetiedot on julkaistu Euroopan unionin virallisessa lehdessä, sen oletetaan täyttävän 31 artiklassa säädetyt vaatimukset, mikäli sovellettavat yhdenmukaistetut standardit kattavat nämä vaatimukset.
W przypadku gdy jednostka oceniająca zgodność wykaże swoją zgodność z kryteriami ustanowionymi w odpowiednich normach zharmonizowanych lub częściach tych norm, do których odniesienia opublikowano w Dzienniku Urzędowym Unii Europejskiej, domniemuje się, że spełnia ona wymogi ustanowione w art. 31 w zakresie, w jakim mające zastosowanie normy zharmonizowane obejmują te wymogi.
33 artikla
Artykuł 33
Ilmoitettujen laitosten tytäryhtiöt ja alihankinta
Jednostki zależne i podwykonawcy jednostek notyfikowanych
1. Jos ilmoitettu laitos antaa tietyt vaatimustenmukaisuuden arviointiin liittyvät tehtävät alihankintaan tai käyttää tytäryhtiötä, sen on varmistettava, että alihankkija tai tytäryhtiö täyttää 31 artiklassa säädetyt vaatimukset, ja tiedotettava asiasta ilmoittamisesta vastaavalle viranomaiselle.
1. W przypadku gdy jednostka notyfikowana zleca wykonywanie określonych zadań związanych z oceną zgodności podwykonawcy lub korzysta w tym celu z usług jednostki zależnej, zapewnia spełnienie przez podwykonawcę lub przez jednostkę zależną wymogów ustanowionych w art. 31 oraz informuje o tym organ notyfikujący.
2. Ilmoitettujen laitosten on kannettava täysi vastuu tehtävistä, jotka mitkä tahansa alihankkijat tai tytäryhtiöt suorittavat.
2. Jednostki notyfikowane ponoszą pełną odpowiedzialność za zadania wykonywane przez podwykonawców lub jednostki zależne.
3. Toimia voidaan antaa alihankintaan tai teettää tytäryhtiöllä ainoastaan, jos siitä on sovittu tarjoajan kanssa. Ilmoitettujen laitosten on asetettava julkisesti saataville luettelo tytäryhtiöistään.
3. Zadania mogą być zlecane podwykonawcy lub wykonywane przez jednostkę zależną wyłącznie za zgodą dostawcy. Jednostki notyfikowane podają do wiadomości publicznej wykaz swoich jednostek zależnych.
4. Asiaankuuluvat asiakirjat, jotka koskevat alihankkijan tai tytäryhtiön pätevyyden arviointia sekä työtä, jonka nämä ovat suorittaneet tämän asetuksen nojalla, on pidettävä ilmoittamisesta vastaavan viranomaisen saatavilla viiden vuoden ajan alihankinnan päättymispäivästä.
4. Odpowiednie dokumenty dotyczące oceny kwalifikacji podwykonawcy lub jednostki zależnej oraz prac wykonywanych przez nich na podstawie niniejszego rozporządzenia przechowuje się do dyspozycji organu notyfikującego przez okres 5 lat od dnia zakończenia podwykonawstwa.
34 artikla
Artykuł 34
Ilmoitettujen laitosten toimintaan liittyvät velvoitteet
Obowiązki operacyjne jednostek notyfikowanych
1. Ilmoitettujen laitosten on tarkastettava suuririskisen tekoälyjärjestelmien vaatimustenmukaisuus 43 artiklassa olevien vaatimustenmukaisuuden arviointimenettelyjen mukaisesti.
1. Jednostki notyfikowane weryfikują zgodność systemów AI wysokiego ryzyka zgodnie z procedurami oceny zgodności określonymi w art. 43.
2. Ilmoitettujen laitosten on vältettävä tarpeetonta rasitetta tarjoajille niiden toteuttaessa toimintaansa ja otettava asianmukaisesti huomioon tarjoajan koko, toimiala, sen rakenne ja kyseisen suuririskisen tekoälyjärjestelmän monimutkaisuus, erityisesti jotta voidaan minimoida suosituksessa 2003/361/EY tarkoitetuille mikroyrityksille ja pienille yrityksille aiheutuvat hallinnolliset rasitteet ja säännösten noudattamisesta aiheutuvat kustannukset. Ilmoitetun laitoksen on kuitenkin noudatettava sellaista tarkkuutta ja suojelun tasoa, jota suuririskisen tekoälyjärjestelmän vaatimustenmukaisuudelta edellytetään tämän asetuksen mukaisesti.
2. Jednostki notyfikowane unikają niepotrzebnych obciążeń dla dostawców podczas wykonywania swoich czynności oraz należycie uwzględniają rozmiar dostawcy, sektor, w którym prowadzi on działalność, jego strukturę oraz stopień złożoności danego systemu AI wysokiego ryzyka, w szczególności w celu zminimalizowania obciążeń administracyjnych i kosztów zapewnienia zgodności dla mikroprzedsiębiorstw i małych przedsiębiorstw w rozumieniu zalecenia 2003/361/WE. Jednostka notyfikowana przestrzega jednak rygoryzmu i poziomu ochrony wymaganych do zapewnienia zgodności danego systemu AI wysokiego ryzyka z wymogami niniejszego rozporządzenia.
3. Ilmoitettujen laitosten on asetettava saataville ja pyynnöstä toimitettava kaikki asiaankuuluvat asiakirjat, myös tarjoajien dokumentaatio, 28 artiklassa tarkoitetulle ilmoittamisesta vastaavalle viranomaiselle, jotta kyseinen viranomainen voisi suorittaa arviointi-, nimeämis-, ilmoitus- ja seurantatoimensa ja jotta helpotetaan tässä jaksossa kuvattua arviointia.
3. Na wniosek organu notyfikującego, o którym mowa w art. 28, jednostki notyfikowane udostępniają i przekazują temu organowi wszystkie stosowne dokumenty, uwzględniając dokumentację dostawców, aby umożliwić temu organowi przeprowadzenie czynności w zakresie oceny, wyznaczania, notyfikacji i monitorowania oraz aby ułatwić mu przeprowadzenie oceny opisanej w niniejszej sekcji.
35 artikla
Artykuł 35
Ilmoitettujen laitosten tunnusnumerot ja luettelot
Numery identyfikacyjne i wykazy jednostek notyfikowanych
1. Komissio antaa kullekin ilmoitetulle laitokselle yhden tunnusnumeron, vaikka laitos olisi ilmoitettu useamman kuin yhden unionin säädöksen nojalla.
1. Komisja przydziela każdej jednostce notyfikowanej jeden numer identyfikacyjny, nawet jeżeli jednostkę tę notyfikowano na podstawie kilku aktów Unii.
2. Komissio julkaisee tämän asetuksen mukaisesti ilmoitettujen laitosten luettelon, joka sisältää niiden tunnusnumerot ja toimet, joita varten ne on ilmoitettu. Komissio huolehtii luettelon pitämisestä ajan tasalla.
2. Komisja podaje do wiadomości publicznej wykaz jednostek notyfikowanych na podstawie niniejszego rozporządzenia, łącznie z ich numerami identyfikacyjnymi oraz informacją na temat czynności będących przedmiotem notyfikacji. Komisja zapewnia aktualność tego wykazu.
36 artikla
Artykuł 36
Ilmoituksiin tehtävät muutokset
Zmiany w notyfikacjach
1. Ilmoittamisesta vastaava viranomainen ilmoittaa komissiolle ja muille jäsenvaltioille merkityksellisistä muutoksista ilmoitettua laitosta koskevaan ilmoitukseen käyttäen 30 artiklan 2 kohdassa tarkoitettua sähköistä ilmoitusvälinettä.
1. Organ notyfikujący powiadamia Komisję i pozostałe państwa członkowskie za pomocą systemu notyfikacji elektronicznej, o którym mowa w art. 30 ust. 2, o wszelkich istotnych zmianach w notyfikacji danej jednostki notyfikowanej.
2. Edellä 29 ja 30 artiklassa vahvistettuja menettelyjä on sovellettava ilmoituksen soveltamisalan laajentamisiin.
2. Procedury ustanowione w art. 29 i 30 stosuje się do rozszerzenia zakresu notyfikacji.
Jäljempänä 3–9 kohdassa vahvistettuja menettelyjä on sovellettava ilmoitusta koskeviin muutoksiin, jotka eivät koske sen soveltamisalan laajentamista.
W przypadku zmian w notyfikacji innych niż rozszerzenie jej zakresu stosuje się procedury ustanowione w ust. 3-9.
3. Jos ilmoitettu laitos päättää lopettaa vaatimustenmukaisuuden arviointia koskevat toimensa, sen on tiedotettava asiasta ilmoittamisesta vastaavalle viranomaiselle ja kyseisille tarjoajille mahdollisimman pian ja suunnitellun toimien lopettamisen tapauksessa vähintään yksi vuosi ennen toimien lopettamista. Ilmoitettujen laitosten todistukset voivat pysyä voimassa yhdeksän kuukauden ajan ilmoitetun laitoksen toimien lopettamisesta edellyttäen, että toinen ilmoitettu laitos on kirjallisesti vahvistanut, että se ottaa vastuulleen kyseisten todistusten kattamat suuririskiset tekoälyjärjestelmät. Viimeksi mainitun ilmoitetun laitoksen on saatettava suuririskisten tekoälyjärjestelmien täydellinen arviointi päätökseen kyseisen yhdeksän kuukauden jakson loppuun mennessä ennen uusien todistusten myöntämistä kyseisille järjestelmille. Jos ilmoitettu laitos on lopettanut toimintansa, ilmoittamisesta vastaava viranomainen peruuttaa nimeämisen.
3. W przypadku gdy jednostka notyfikowana podejmie decyzję o zaprzestaniu prowadzenia czynności z zakresu oceny zgodności, jak najszybciej informuje o tym organ notyfikujący i zainteresowanych dostawców, a w przypadku planowanego zaprzestania działalności – na co najmniej rok przed zaprzestaniem działalności. Certyfikaty wydane przez jednostkę notyfikowaną mogą pozostać ważne przez okres dziewięciu miesięcy po zaprzestaniu działalności jednostki notyfikowanej, pod warunkiem że inna jednostka notyfikowana potwierdzi na piśmie, że przejmie odpowiedzialność za objęte tymi certyfikatami systemy AI wysokiego ryzyka. Przed upływem tego okresu dziewięciu miesięcy ta inna jednostka notyfikowana przeprowadza pełną ocenę odnośnych systemów AI wysokiego ryzyka, zanim wyda nowe certyfikaty dla tych systemów. W przypadku gdy jednostka notyfikowana zaprzestała działalności, organ notyfikujący cofa jej wyznaczenie.
4. Jos ilmoittamisesta vastaavalla viranomaisella on riittävä syy katsoa, ettei ilmoitettu laitos enää täytä 31 artiklassa säädettyjä vaatimuksia tai ettei se täytä velvollisuuksiaan, ilmoittamisesta vastaavan viranomaisen on tutkittava asia viipymättä ja perinpohjaisesti. Sen on tässä yhteydessä ilmoitettava asianomaiselle ilmoitetulle laitokselle esitetyistä väitteistä ja annettava sille mahdollisuus esittää näkemyksensä. Jos ilmoittamisesta vastaava viranomainen tulee johtopäätökseen, ettei ilmoitettu laitos enää täytä 31 artiklassa säädettyjä vaatimuksia tai ettei se täytä velvollisuuksiaan, sen on kyseisten vaatimusten tai velvollisuuksien täyttämisen laiminlyönnin vakavuudesta riippuen rajoitettava nimeämistä taikka peruutettava se toistaiseksi tai kokonaan. Sen on ilmoitettava tästä viipymättä komissiolle ja muille jäsenvaltioille.
4. W przypadku gdy organ notyfikujący ma wystarczające powody, by uważać, że jednostka notyfikowana przestała spełniać wymogi określone w art. 31 lub nie spełnia swoich obowiązków, organ notyfikujący niezwłocznie wszczyna postępowanie wyjaśniające w tej sprawie z zachowaniem największej staranności. W takim przypadku organ notyfikujący informuje daną jednostkę notyfikowaną o zgłoszonym sprzeciwu i zapewnia jej możliwość ustosunkowania się do tego sprzeciwu. Jeżeli organ notyfikujący dojdzie do wniosku, że jednostka notyfikowana przestała spełniać wymogi ustanowione w art. 31 lub nie spełnia swoich obowiązków, organ ten, stosownie do przypadku, ogranicza, zawiesza lub cofa wyznaczenie, w zależności od powagi niespełnienia tych wymogów lub tych obowiązków. Informuje on o tym natychmiast Komisję i pozostałe państwa członkowskie.
5. Jos sen nimeäminen on peruutettu määräaikaisesti, sitä on rajoitettu tai se on peruutettu kokonaan tai osittain, ilmoitetun laitoksen on tiedotettava asiasta asianomaisille tarjoajille 10 päivän kuluessa.
5. W przypadku gdy wyznaczenie zostało zawieszone, ograniczone lub całkowicie lub częściowo cofnięte, jednostka notyfikowana informuje o tym zainteresowanych dostawców w terminie 10 dni.
6. Jos nimeämistä rajoitetaan tai se peruutetaan määräaikaisesti tai kokonaan, ilmoittamisesta vastaavan viranomaisen on toteutettava asianmukaiset toimenpiteet sen varmistamiseksi, että kyseisen ilmoitetun laitoksen asiakirja-aineistot säilytetään ja pidetään muiden jäsenvaltioiden ilmoittamisesta vastaavien viranomaisten ja markkinavalvontaviranomaisten saatavilla näiden pyynnöstä;
6. W przypadku ograniczenia, zawieszenia lub cofnięcia wyznaczenia organ notyfikujący podejmuje odpowiednie kroki w celu zapewnienia, by zachowana została dokumentacja danej jednostki notyfikowanej i była ona udostępniana organom notyfikującym w pozostałych państwach członkowskich oraz organom nadzoru rynku na ich wniosek.
7. Kun kyseessä on nimeämisen rajoittaminen, peruuttaminen määräaikaisesti tai peruuttaminen kokonaan, ilmoittamisesta vastaavan viranomaisen on
7. W przypadku ograniczenia, zawieszenia lub cofnięcia wyznaczenia organ notyfikujący:
a)
arvioitava vaikutusta ilmoitetun laitoksen antamiin todistuksiin;
a)
ocenia skutki dla certyfikatów wydanych przez daną jednostkę notyfikowaną;
b)
toimitettava havainnoistaan raportti komissiolle ja muille jäsenvaltioille kolmen kuukauden kuluessa siitä, kun se on ilmoittanut nimeämiseen tehtävistä muutoksista;
b)
przedkłada Komisji i pozostałym państwom członkowskim sprawozdanie ze swoich ustaleń w terminie trzech miesięcy od powiadomienia o zmianach w wyznaczeniu;
c)
vaadittava ilmoitettua laitosta peruuttamaan määräaikaisesti tai kokonaan todistukset, jotka on annettu perusteettomasti, viranomaisen määrittelemän kohtuullisen ajanjakson kuluessa markkinoilla olevien suuririskisten tekoälyjärjestelmien jatkuvan vaatimustenmukaisuuden varmistamiseksi;
c)
zwraca się do jednostki notyfikowanej z żądaniem, by w celu zapewnienia ciągłości zgodności systemów AI wysokiego ryzyka na rynku zawiesiła lub cofnęła, w rozsądnym terminie ustalonym przez ten organ, wszelkie certyfikaty, które zostały nienależnie wydane;
d)
ilmoitettava komissiolle ja jäsenvaltioille todistuksista, joiden peruuttamista määräaikaisesti tai peruuttamista kokonaan se on vaatinut.
d)
informuje Komisję i państwa członkowskie o certyfikatach, których zawieszenia lub cofnięcia zażądał;
e)
annettava sen jäsenvaltion kansallisille toimivaltaisille viranomaisille, jossa tarjoajalla on sääntömääräinen kotipaikkansa, kaikki asiaankuuluvat tiedot todistuksista, joiden peruuttamista määräaikaisesti tai kokonaan se on vaatinut. kyseisen viranomaisen on tarvittaessa toteutettava asianmukaiset toimenpiteet terveyteen, turvallisuuteen tai perusoikeuksiin kohdistuvan mahdollisen riskin välttämiseksi.
e)
przekazuje właściwym organom krajowym państwa członkowskiego, w którym dostawca ma zarejestrowane miejsce prowadzenia działalności, wszelkie istotne informacje na temat certyfikatów, których zawieszenia lub cofnięcia zażądał; organy te podejmują w stosownych przypadkach odpowiednie środki w celu uniknięcia potencjalnego ryzyka dla zdrowia, bezpieczeństwa lub praw podstawowych.
8. Lukuun ottamatta perusteettomasti annettuja todistuksia ja jos nimeäminen on peruttu määräaikaisesti tai sitä on rajoitettu, todistukset pysyvät edelleen voimassa jonkin seuraavan edellytyksen toteutuessa:
8. Z wyjątkiem certyfikatów nienależnie wydanych, w przypadkach, w których wyznaczenie zostało zawieszone lub ograniczone, certyfikaty pozostają ważne, jeżeli zachodzi którakolwiek z następujących okoliczności:
a)
ilmoittamisesta vastaava viranomainen on vahvistanut kuukauden kuluessa määräaikaisesta peruuttamisesta tai rajoittamisesta, että todistuksiin, joihin määräaikainen peruuttaminen tai rajoittaminen vaikuttaa, ei liity terveydelle, turvallisuudelle tai perusoikeuksille aiheutuvaa riskiä, ja ilmoittamisesta vastaava viranomainen on esittänyt aikataulun ja toimet määräaikaisen peruuttamisen tai rajoittamisen korjaamiseksi; tai
a)
organ notyfikujący potwierdził, w terminie jednego miesiąca od zawieszenia lub ograniczenia, że w odniesieniu do certyfikatów, których dotyczy zawieszenie lub ograniczenie, nie występuje ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych i określił czas działań służących temu, by znieść zawieszenie lub ograniczenie; lub
b)
ilmoittamisesta vastaava viranomainen on vahvistanut, että määräaikaisen peruuttamisen kannalta merkityksellisiä todistuksia ei myönnetä, muuteta tai uusita määräaikaisen peruuttamisen tai rajoittamisen aikana ja toteaa, pystyykö ilmoitettu laitos edelleen seuraamaan olemassa olevia myönnettyjä todistuksia määräaikaisen peruuttamisen tai rajoittamisen aikana ja ottamaan niistä vastuun; jos ilmoittamisesta vastaava viranomainen toteaa, että ilmoitettu laitos ei pysty ottamaan vastuuta olemassa olevista myönnetyistä todistuksista, on todistuksen kattaman järjestelmän tarjoajan vahvistettava kirjallisesti sen jäsenvaltion kansallisille toimivaltaisille viranomaisille, jossa sillä on sääntömääräinen kotipaikkansa, kolmen kuukauden kuluessa määräaikaisesta peruuttamisesta tai rajoittamisesta, että toinen pätevä ilmoitettu laitos ottaa väliaikaisesti hoitaakseen ilmoitetun laitoksen tehtävät seurata todistuksia ja ottaa niistä vastuu määräaikaisen peruuttamisen tai rajoittamisen aikana.
b)
organ notyfikujący potwierdził, że w czasie trwania zawieszenia lub ograniczenia nie będą wydawane, zmieniane ani wydawane ponownie żadne certyfikaty powiązane z danym zawieszeniem, oraz stwierdza, czy dana jednostka notyfikowana jest zdolna do dalszego monitorowania i bycia odpowiedzialną za wydane już certyfikaty obowiązujące w okresie pokrywającym się z tym zawieszeniem lub ograniczeniem; w przypadku gdy organ notyfikujący ustali, że jednostka notyfikowana nie posiada zdolności do obsługi wydanych certyfikatów, dostawca systemu objętego danym certyfikatem – w terminie trzech miesięcy od zawieszenia lub ograniczenia – przekazuje właściwym organom krajowym w państwie członkowskim, w którym ma zarejestrowane miejsce prowadzenia działalności, potwierdzenie na piśmie, że inna wykwalifikowana jednostka notyfikowana tymczasowo przejmuje funkcje jednostki notyfikowanej w zakresie monitorowania certyfikatów i pozostanie ona odpowiedzialna za te certyfikaty w okresie zawieszenia lub ograniczenia wyznaczenia.
9. Lukuun ottamatta perusteettomasti annettuja todistuksia ja jos nimeäminen on peruttu, todistukset pysyvät voimassa yhdeksän kuukauden ajan seuraavin edellytyksin:
9. Z wyjątkiem certyfikatów nienależnie wydanych, w przypadkach, w których wyznaczenie zostało cofnięte, certyfikaty pozostają ważne przez okres dziewięciu miesięcy w następujących okolicznościach:
a)
sen jäsenvaltion kansallinen toimivaltainen viranomainen, jossa todistuksen kattaman suuririskisen tekoälyjärjestelmän tarjoajalla on sääntömääräinen kotipaikkansa, on vahvistanut, että kyseisiin suuririskisiin tekoälyjärjestelmiin ei liity terveyteen, turvallisuuteen tai perusoikeuksiin kohdistuvia riskejä; sekä
a)
właściwy organ krajowy w państwie członkowskim, w którym dostawca systemu AI wysokiego ryzyka objętego certyfikatem ma zarejestrowane miejsce prowadzenia działalności, potwierdził, że nie występuje ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych związane z danymi systemami AI wysokiego ryzyka; oraz
b)
toinen ilmoitettu laitos on kirjallisesti vahvistanut, että se ottaa välittömästi vastuulleen kyseiset tekoälyjärjestelmät ja saattaa niiden arvioinnin päätöksen 12 kuukauden kuluessa nimeämisen peruuttamisesta.
b)
inna jednostka notyfikowana potwierdziła na piśmie, że przejmie bezpośrednią odpowiedzialność za te systemy AI i zakończy swoją ocenę w terminie dwunastu miesięcy od cofnięcia wyznaczenia.
Ensimmäisessä alakohdassa tarkoitetuissa olosuhteissa sen jäsenvaltion kansallinen toimivaltainen viranomainen, jossa todistuksen kattaman järjestelmän tarjoajalla on kotipaikkansa, voi jatkaa todistusten väliaikaista voimassaoloa kolmen kuukauden pituisilla ajanjaksoilla, joiden kokonaiskesto ei saa ylittää 12:ta kuukautta.
W okolicznościach, o których mowa w akapicie pierwszym, właściwy organ krajowy w państwie członkowskim, w którym dostawca systemu objętego certyfikatem ma zarejestrowane miejsce prowadzenia działalności, może przedłużyć tymczasową ważność tych certyfikatów o dodatkowe trzymiesięczne okresy, które łącznie nie mogą przekraczać dwunastu miesięcy.
Kansallisen toimivaltaisen viranomaisen tai ilmoitetun laitoksen, joka ottaa hoitaakseen nimeämismuutoksen kohteena olevan ilmoitetun laitoksen tehtävät, on viipymättä ilmoitettava asiasta komissiolle, muille jäsenvaltioille ja muille ilmoitetuille laitoksille.
Właściwy organ krajowy lub jednostka notyfikowana przejmująca funkcje jednostki notyfikowanej, której dotyczy zmiana wyznaczenia, natychmiast powiadamiają o tym Komisję, pozostałe państwa członkowskie i pozostałe jednostki notyfikowane.
37 artikla
Artykuł 37
Ilmoitettujen laitosten pätevyyden riitauttaminen
Kwestionowanie kompetencji jednostek notyfikowanych
1. Komissio tutkii tarvittaessa kaikki tapaukset, joissa on syytä epäillä laitoksen pätevyyttä tai sitä, täyttääkö ilmoitettu laitos edelleen 31 artiklassa vahvistetut vaatimukset ja siihen sovellettavat velvollisuudet.
1. W razie konieczności Komisja przeprowadza postępowanie wyjaśniające dotyczące wszystkich przypadków, w których ma podstawy, by wątpić w kompetencje jednostki notyfikowanej lub w ciągłość spełniania przez jednostkę notyfikowaną wymogów ustanowionych w art. 31 oraz wypełnianie mających zastosowanie obowiązków.
2. Ilmoittamisesta vastaavan viranomaisen on toimitettava komissiolle pyynnöstä kaikki merkitykselliset tiedot, jotka koskevat kyseisen ilmoitetun laitoksen ilmoittamista tai sen pätevyyden ylläpitoa.
2. Organ notyfikujący przekazuje Komisji, na wniosek, wszystkie istotne informacje dotyczące notyfikacji lub utrzymania kompetencji przez daną jednostkę notyfikowaną.
3. Komissio varmistaa, että kaikkia sen tämän artiklan mukaisten tutkimusten yhteydessä saamia arkaluontoisia tietoja käsitellään luottamuksellisesti 78 artiklan mukaisesti.
3. Komisja zapewnia zgodnie z art. 78 poufność wszystkich informacji wrażliwych uzyskanych w toku postępowań wyjaśniających prowadzonych zgodnie z niniejszym artykułem.
4. Jos komissio toteaa, että ilmoitettu laitos ei täytä tai ei enää täytä sen ilmoittamiselle asetettuja vaatimuksia, se ilmoittaa asiasta ilmoituksen tehneelle jäsenvaltiolle asianmukaisesti ja pyytää sitä ryhtymään tarvittaviin korjaaviin toimenpiteisiin, mukaan lukien tarvittaessa ilmoituksen peruuttaminen toistaiseksi tai kokonaan. Jos jäsenvaltio ei toteuta tarvittavia korjaavia toimenpiteitä, komissio voi täytäntöönpanosäädöksellä peruuttaa nimeämisen toistaiseksi, rajoittaa sitä tai peruuttaa sen kokonaan. Tämä täytäntöönpanosäädös hyväksytään 98 artiklan 2 kohdassa tarkoitettua tarkastelumenettelyä noudattaen.
4. W przypadku gdy Komisja stwierdzi, że jednostka notyfikowana nie spełnia wymogów notyfikacji lub przestała je spełniać, informuje o tym notyfikujące państwo członkowskie i zwraca się do niego o podjęcie koniecznych środków naprawczych, włącznie z zawieszeniem lub cofnięciem notyfikacji, jeżeli zachodzi taka potrzeba. W przypadku niepodjęcia przez państwo członkowskie koniecznych środków naprawczych Komisja może w drodze aktu wykonawczego zawiesić, ograniczyć lub cofnąć wyznaczenie. Ten akt wykonawczy przyjmuje się zgodnie z procedurą sprawdzającą, o której mowa w art. 98 ust. 2.
38 artikla
Artykuł 38
Ilmoitettujen laitosten koordinointi
Koordynacja jednostek notyfikowanych
1. Komissio varmistaa, että suuririskisten tekoälyjärjestelmien osalta otetaan käyttöön asianmukainen koordinointi ja yhteistyö sellaisten ilmoitettujen laitosten välillä, jotka toimivat vaatimustenmukaisuuden arviointimenettelyissä tämän asetuksen mukaisesti, ja että koordinointi ja yhteistyö toteutetaan asianmukaisesti ilmoitettujen laitosten alakohtaisen ryhmän muodossa.
1. Komisja zapewnia – w odniesieniu do systemów AI wysokiego ryzyka – wprowadzenie i właściwy przebieg odpowiedniej koordynacji i współpracy w formie sektorowej grupy jednostek notyfikowanych jednostek notyfikowanych prowadzących działalność w zakresie procedur oceny zgodności zgodnie z niniejszym rozporządzeniem.
2. Jokaisen ilmoittamisesta vastaavan viranomaisen on varmistettava, että sen ilmoittamat laitokset osallistuvat kohdassa 1 tarkoitetun ryhmän työhön suoraan tai nimettyjen edustajien välityksellä.
2. Każdy organ notyfikujący zapewnia, aby notyfikowane przez niego jednostki uczestniczyły bezpośrednio lub za pośrednictwem wyznaczonych przedstawicieli w pracach grupy, o której mowa w ust. 1.
3. Komissio huolehtii osaamisen ja parhaiden käytäntöjen vaihdosta ilmoittamisesta vastaavien viranomaisten välillä.
3. Komisja jest zobowiązana zapewnić wymianę wiedzy i najlepszych praktyk między organami notyfikującymi.
39 artikla
Artykuł 39
Kolmansien maiden vaatimustenmukaisuuden arviointilaitokset
Jednostki oceniające zgodność z państw trzecich
Sellaisen kolmannen maan lainsäädännön mukaisesti perustetut vaatimustenmukaisuuden arviointilaitokset, jonka kanssa unioni on tehnyt sopimuksen, voidaan valtuuttaa suorittamaan ilmoitettujen laitosten toimia tämän asetuksen mukaisesti edellyttäen, että ne täyttävät 31 artiklassa säädetyt vaatimukset tai varmistavat vastaavan vaatimustenmukaisuuden tason.
Jednostki oceniające zgodność ustanowione na mocy prawa państwa trzeciego, z którym Unia zawarła umowę, mogą być upoważnione do wykonywania czynności jednostek notyfikowanych zgodnie z niniejszym rozporządzeniem, pod warunkiem, że spełniają wymogi ustanowione w art. 31 lub zapewniają równoważny poziom zgodności.
5 JAKSO
SEKCJA 5
Standardit, vaatimustenmukaisuuden arviointi, todistukset, rekisteröinti
Normy, ocena zgodności, certyfikaty, rejestracja
40 artikla
Artykuł 40
Yhdenmukaistetut standardit ja standardointituotteet
Normy zharmonizowane i dokumenty normalizacyjne
1. Suuririskisiä tekoälyjärjestelmiä tai yleiskäyttöisiä tekoälymalleja, jotka ovat sellaisten yhdenmukaistettujen standardien tai niiden osien mukaisia, joiden viitetiedot on julkaistu Euroopan unionin virallisessa lehdessä asetuksen (EU) N:o 1025/2012 mukaisesti, on pidettävä tämän luvun 2 jaksossa vahvistettujen vaatimusten mukaisina tai tapauksen mukaan tämän asetuksen V luvun 2 ja 3 jaksossa vahvistettujen velvoitteiden mukaisina siltä osin kuin kyseiset standardit kattavat nämä vaatimukset tai velvoitteet.
1. W przypadku systemów AI wysokiego ryzyka oraz systemów AI ogólnego przeznaczenia spełniających normy zharmonizowane lub części tych norm, do których odniesienia opublikowano w Dzienniku Urzędowym Unii Europejskiej zgodnie z rozporządzeniem (UE) nr 1025/2012, domniemuje się, że spełniają one wymogi ustanowione w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, obowiązki ustanowione w rozdziale V sekcja 2 i 3 niniejszego rozporządzenia, w zakresie, w jakim normy te obejmują te wymogi lub obowiązki.
2. Asetuksen (EU) N:o 1025/2012 10 artiklan mukaisesti komissio esittää ilman aiheetonta viivytystä standardointipyyntöjä, jotka kattavat kaikki tämän luvun 2 jaksossa vahvistetut vaatimukset, ja tapauksen mukaan standardointipyyntöjä, jotka kattavat tämän asetuksen V luvun 2 ja 3 jaksossa säädetyt velvoitteet. Standardointipyynnössä on myös pyydettävä tuotteita raportointi- ja dokumentointiprosesseista, joilla parannetaan tekoälyjärjestelmien resurssitehokkuutta, kuten vähennetään suuririskisen tekoälyjärjestelmän energian ja muiden resurssien kulutusta sen elinkaaren aikana sekä kehitetään energiatehokkaasti yleiskäyttöisiä tekoälymalleja. Standardointipyyntöä valmistellessaan komissio kuulee tekoälylautakuntaa ja asiaankuuluvia sidosryhmiä, myös neuvoa-antavaa foorumia.
2. Zgodnie z art. 10 rozporządzenia (UE) nr 1025/2012 Komisja wydaje bez zbędnej zwłoki wnioski o normalizację obejmujące wszystkie wymogi ustanowione w sekcji 2 niniejszego rozdziału oraz, w stosownych przypadkach, wnioski o normalizację obejmujące obowiązki ustanowione w rozdziale V sekcja 2 i 3 niniejszego rozporządzenia. We wniosku o normalizację zwraca się również o przedstawienie wyników sprawozdawczości i procesów dokumentowania w celu poprawy skuteczności działania zasobów systemów AI, takich jak zmniejszenie zużycia energii i innych zasobów przez system AI wysokiego ryzyka w jego cyklu życia, oraz wyników dotyczących efektywnego energetycznie rozwoju modeli AI ogólnego przeznaczenia. Przygotowując wniosek o normalizację, Komisja konsultuje się z Radą ds. AI i odpowiednimi zainteresowanymi stronami, w tym z forum doradczym.
Esittäessään standardointipyynnön eurooppalaisille standardointiorganisaatioille komissio täsmentää, että standardien on oltava selkeitä, yhdenmukaisia, myös eri aloilla kehitetyt standardit liitteessä I luetellun voimassa olevan unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluville tuotteille, ja niillä on pyrittävä varmistamaan, että unionissa markkinoille saatetut tai käyttöön otetut suuririskiset tekoälyjärjestelmät tai yleiskäyttöiset tekoälymallit täyttävät tässä asetuksessa säädetyt asiaankuuluvat vaatimukset tai velvoitteet.
Wydając wniosek o normalizację do europejskich organizacji normalizacyjnych, Komisja określa, że normy muszą być jasne, spójne, w tym z normami opracowanymi w poszczególnych sektorach dla produktów objętych zakresem stosowania obowiązującego unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I, i mieć na celu zapewnienie, by systemy AI wysokiego ryzyka lub modele AI ogólnego przeznaczenia wprowadzane do obrotu lub oddawane do użytku w Unii spełniały odpowiednie wymogi lub obowiązki ustanowione w niniejszym rozporządzeniu.
Komissio pyytää eurooppalaisia standardointiorganisaatioita esittämään asetuksen (EU) N:o 1025/2012 24 artiklan mukaisesti näyttöä siitä, että ne ovat parhaansa mukaan pyrkineet saavuttamaan tämän kohdan ensimmäisessä ja toisessa alakohdassa tarkoitetut tavoitteet.
Komisja zwraca się do europejskich organizacji normalizacyjnych o przedstawienie dowodów, że dokładają wszelkich starań, aby osiągnąć cele, o których mowa w akapicie pierwszym i drugim niniejszego ustępu, zgodnie z art. 24 rozporządzenia (UE) nr 1025/2012.
3. Standardointiprosessiin osallistuvien on pyrittävä edistämään tekoälyalan investointeja ja innovointia, myös lisäämällä oikeusvarmuutta, sekä unionin markkinoiden kilpailukykyä ja kasvua sekä osaltaan edistämään maailmanlaajuisen standardointiyhteistyön lujittamista ja sellaisten olemassa olevien tekoälyalan kansainvälisten standardien huomioon ottamista, jotka ovat unionin arvojen, perusoikeuksien ja etujen mukaisia, ja edistämään monisidosryhmäistä hallintoa varmistaen etujen tasapainoinen edustus ja kaikkien asiaankuuluvien sidosryhmien tosiasiallinen osallistuminen asetuksen (EU) N:o 1025/2012 5, 6 ja 7 artiklan mukaisesti.
3. Uczestnicy procesu normalizacji dążą do promowania inwestycji i innowacji w dziedzinie AI, w tym poprzez zwiększenie pewności prawa, a także konkurencyjności i wzrostu rynku Unii, do przyczynienia się do wzmocnienia globalnej współpracy w zakresie normalizacji, z uwzględnieniem istniejących w dziedzinie AI norm międzynarodowych zgodnych z wartościami Unii, prawami podstawowymi i interesem Unii, a także do poprawy zarządzania wielostronnego, zapewniając wyważoną reprezentację interesów i skuteczny udział wszystkich odpowiednich zainteresowanych stron zgodnie z art. 5, 6 i 7 rozporządzenia (UE) nr 1025/2012.
41 artikla
Artykuł 41
Yhteiset eritelmät
Wspólne specyfikacje
1. Komissio voi antaa täytäntöönpanosäädöksiä, joilla vahvistetaan yhteiset eritelmät tämän luvun 2 jaksossa säädettyjä vaatimuksia tai tapauksen mukaan V luvun 2 ja 3 jaksossa säädettyjä velvoitteita varten, jos seuraavat edellytykset täyttyvät:
1. Komisja może przyjmować akty wykonawcze ustanawiające wspólne specyfikacje w odniesieniu do wymogów ustanowionych w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, obowiązków ustanowionych w rozdziale V sekcja 2 i 3, w przypadku gdy spełnione są następujące warunki:
a)
komissio on pyytänyt asetuksen (EU) N:o 1025/2012 10 artiklan 1 kohdan nojalla yhtä tai useampaa eurooppalaista standardointiorganisaatiota laatimaan yhdenmukaistetun standardin tämän luvun 2 jaksossa vahvistettuja vaatimuksia varten tai tapauksen mukaan V luvun 2 ja 3 jaksossa säädettyjä velvoitteita varten:
a)
Komisja wystąpiła zgodnie z art. 10 ust. 1 rozporządzenia (UE) nr 1025/2012 do jednej lub kilku europejskich organizacji normalizacyjnych z wnioskiem o opracowanie normy zharmonizowanej w odniesieniu do wymogów określonych w sekcji 2 niniejszego rozdziału, lub, w stosownych przypadkach, w odniesieniu do obowiązków ustanowionych w rozdziale V sekcja 2 i 3, oraz:
i)
yksikään eurooppalainen standardointiorganisaatio ei ole hyväksynyt pyyntöä; tai
(i)
wniosek ten nie został przyjęty przez żadną z europejskich organizacji normalizacyjnych; lub
ii)
kyseiseen pyyntöön liittyviä eurooppalaisia yhdenmukaistettuja standardeja ei ole toimitettu asetuksen (EU) N:o 1025/2012 10 artiklan 1 kohdan mukaisesti asetetussa määräajassa; tai
(ii)
normy zharmonizowane stanowiące odpowiedź na ten wniosek nie zostały wydane w terminie określonym zgodnie z art. 10 ust. 1 rozporządzenia (UE) nr 1025/2012; lub
iii)
asiaankuuluvissa yhdenmukaistetuissa standardeissa ei oteta riittävästi huomioon perusoikeuksiin liittyviä huolenaiheita; tai
(iii)
odpowiednie normy zharmonizowane w niewystarczającym stopniu uwzględniają obawy dotyczące praw podstawowych; lub
iv)
yhdenmukaistetut standardit eivät ole pyynnön mukaisia; ja
(iv)
normy zharmonizowane nie są zgodne z wnioskiem; oraz
b)
tämän luvun 2 jaksossa tarkoitetut vaatimukset tai tapauksen mukaan V luvun 2 ja 3 jaksossa säädetyt velvoitteet kattavien yhdenmukaistettujen standardien viitetietoja ei ole julkaistu Euroopan unionin virallisessa lehdessä asetuksen (EU) N:o 1025/2012 mukaisesti, eikä ole odotettavissa, että tällaiset viitetiedot julkaistaan kohtuullisen ajan kuluessa.
b)
w Dzienniku Urzędowym Unii Europejskiej nie opublikowano odniesienia do zharmonizowanych norm obejmujących wymogi, o których mowa w sekcji 2 niniejszego rozdziału, lub, w stosownych przypadkach, obowiązki, o których mowa w rozdziale V sekcja 2 i 3, zgodnie z przepisami rozporządzenia (UE) nr 1025/2012 i nie przewiduje się opublikowania takiego odniesienia w rozsądnym terminie.
Yhteisiä eritelmiä laatiessaan komissio kuulee 67 artiklassa tarkoitettua neuvoa-antavaa ryhmää.
Przygotowując projekt wspólnych specyfikacji, Komisja konsultuje się z forum doradczym, o którym mowa w art. 67.
Tämän kohdan ensimmäisessä alakohdassa tarkoitetut täytäntöönpanosäädökset hyväksytään 98 artiklan 2 kohdassa tarkoitettua tarkastelumenettelyä noudattaen.
Akty wykonawcze, o których mowa w akapicie pierwszym niniejszego ustępu, przyjmuje się zgodnie z procedurą sprawdzającą, o której mowa w art. 98 ust. 2.
2. Ennen kuin komissio laatii ehdotuksen täytäntöönpanosäädökseksi, se ilmoittaa asetuksen (EU) N:o 1025/2012 22 artiklassa tarkoitetulle komitealle katsovansa, että tämän artiklan 1 kohdassa säädetyt edellytykset täyttyvät.
2. Przed przygotowaniem projektu aktu wykonawczego Komisja informuje komitet, o którym mowa w art. 22 rozporządzenia (UE) nr 1025/2012, że uważa za spełnione warunki ustanowione w ust. 1 niniejszego artykułu.
3. Suuririskisiä tekoälyjärjestelmiä ja yleiskäyttöisiä tekoälymalleja, jotka ovat 1 kohdassa tarkoitettujen yhteisten eritelmien tai kyseisten eritelmien osien mukaisia, on pidettävä tämän luvun 2 jaksossa vahvistettujen vaatimusten tai tapauksen mukaan V luvun 2 ja 3 jaksossa tarkoitettujen velvoitteiden mukaisina siltä osin kuin kyseiset yhteiset eritelmät kattavat nämä vaatimukset tai velvoitteet.
3. W przypadku systemów AI wysokiego ryzyka lub modeli AI ogólnego przeznaczenia zgodnych ze wspólnymi specyfikacjami, o których mowa w ust. 1, lub z częściami tych specyfikacji domniemuje się, że są one zgodne z wymogami ustanowionymi w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, spełniają obowiązki ustanowione w rozdziale V sekcja 2 i 3, w zakresie, w jakim te wspólne specyfikacje obejmują te wymogi i te obowiązki.
4. Jos eurooppalainen standardointiorganisaatio vahvistaa yhdenmukaistetun standardin ja ehdottaa komissiolle sen viitetietojen julkaisemista Euroopan unionin virallisessa lehdessä, komissio arvioi yhdenmukaistetun standardin asetuksen (EU) N:o 1025/2012 mukaisesti. Kun yhdenmukaistetun standardin viitetiedot julkaistaan Euroopan unionin virallisessa lehdessä, komissio kumoaa 1 kohdassa tarkoitetut täytäntöönpanosäädökset tai niiden osat, jotka kattavat samat tämän luvun 2 jaksossa vahvistetut vaatimukset tai tapauksen mukaan samat V luvun 2 ja 3 jaksossa säädetyt velvoitteet.
4. W przypadku gdy europejska organizacja normalizacyjna przyjmuje normę zharmonizowaną i proponuje Komisji opublikowanie odniesienia do niej w Dzienniku Urzędowym Unii Europejskiej, Komisja ocenia normę zharmonizowaną zgodnie z rozporządzeniem (UE) nr 1025/2012. W przypadku opublikowania odniesienia do normy zharmonizowanej w Dzienniku Urzędowym Unii Europejskiej Komisja uchyla akty wykonawcze, o których mowa w ust. 1, lub ich części, które obejmują te same wymogi ustanowione w sekcji 2 niniejszego rozdziału lub, w stosownych przypadkach, te same obowiązki ustanowione w rozdziale V sekcja 2 i 3.
5. Jos suuririskisten tekoälyjärjestelmien tai yleiskäyttöisten tekoälymallien tarjoajat eivät noudata 1 kohdassa tarkoitettuja yhteisiä eritelmiä, niiden on perusteltava asianmukaisesti, että ne ovat ottaneet käyttöön tämän luvun 2 jaksossa vahvistetut vaatimukset tai tapauksen mukaan V luvun 2 ja 3 jaksossa säädetyt velvoitteet täyttäviä, vähintään vastaavan tasoisia teknisiä ratkaisuja.
5. W przypadku gdy dostawcy systemów AI wysokiego ryzyka lub modeli AI ogólnego przeznaczenia nie zapewnią zgodności ze wspólnymi specyfikacjami, o których mowa w ust. 1, należycie wykazują oni, że przyjęli rozwiązania techniczne, które są zgodne z wymogami, o których mowa w rozdziale I sekcja 2, lub, w stosownych przypadkach, spełniają obowiązki ustanowione w rozdziale V sekcja 2 i 3, na poziomie co najmniej równoważnym tym wspólnym specyfikacjom.
6. Jos jäsenvaltio katsoo, että yhteinen eritelmä ei täysin täytä 2 jaksossa vahvistettuja vaatimuksia tai tapauksen mukaan V luvun 2 ja 3 jaksossa säädettyjä velvoitteita, sen on ilmoitettava asiasta komissiolle toimittamalla yksityiskohtainen selvitys. Komissio arvioi kyseiset tiedot ja muuttaa tarvittaessa täytäntöönpanosäädöstä, jolla kyseinen yhteinen eritelmä vahvistetaan.
6. W przypadku gdy państwo członkowskie uważa, że wspólna specyfikacja nie jest całkowicie zgodna z wymogami ustanowionymi w sekcji 2 lub, w stosownych przypadkach, nie spełnia całkowicie obowiązków ustanowionych w rozdziale V sekcja 2 i 3, informuje o tym Komisję, przedstawiając szczegółowe wyjaśnienie. Komisja ocenia te informacje i w stosownym przypadku zmienia akt wykonawczy ustanawiający daną wspólną specyfikację.
42 artikla
Artykuł 42
Olettama tiettyjen vaatimusten noudattamisesta
Domniemanie zgodności z określonymi wymogami
1. Suuririskisten tekoälyjärjestelmien, jotka on koulutettu ja testattu datalla, joka ilmentää erityistä maantieteellistä, käyttäytymiseen liittyvää, viitekehyksenä olevaa tai toiminnallista ympäristöä, jossa järjestelmiä on tarkoitus käyttää, on katsottava täyttävän 10 artiklan 4 kohdassa vahvistetut asiaankuuluvat vaatimukset.
1. W przypadku systemów AI wysokiego ryzyka, które zostały wytrenowane i przetestowane przy użyciu danych odzwierciedlających określone otoczenie geograficzne, behawioralne, kontekstualne lub funkcjonalne, do wykorzystywania w którym są one przeznaczone, domniemuje się, że spełniają one odpowiednie wymogi ustanowione w art. 10 ust. 4.
2. Suuririskisten tekoälyjärjestelmien, jotka on sertifioitu tai joista on annettu vaatimustenmukaisuusilmoitus asetuksen (EU) 2019/881 mukaisessa kyberturvallisuusjärjestelmässä ja joiden viitetiedot on julkaistu Euroopan unionin virallisessa lehdessä, oletetaan täyttävän tämän asetuksen 15 artiklassa vahvistetut kyberturvallisuusvaatimukset, siltä osin kuin kyberturvallisuussertifikaatti tai vaatimustenmukaisuusilmoitus tai niiden osat kattavat kyseiset vaatimukset.
2. W przypadku systemów AI wysokiego ryzyka, które uzyskały certyfikację lub w odniesieniu do których wydano deklarację zgodności w ramach programu certyfikacji cyberbezpieczeństwa zgodnie z rozporządzeniem (UE) 2019/881 i do których odniesienia opublikowano w Dzienniku Urzędowym Unii Europejskiej, domniemuje się, że spełniają one wymogi w zakresie cyberbezpieczeństwa ustanowione w art. 15 niniejszego rozporządzenia w zakresie, w jakim certyfikat cyberbezpieczeństwa lub deklaracja zgodności lub ich części obejmują te wymogi.
43 artikla
Artykuł 43
Vaatimustenmukaisuuden arviointi
Ocena zgodności
1. Kun tarjoaja on liitteessä III olevassa 1 kohdassa lueteltujen suuririskisten tekoälyjärjestelmien osalta soveltanut 40 artiklassa tarkoitettuja yhdenmukaistettuja standardeja tai mahdollisuuksien mukaan 41 artiklassa tarkoitettuja yhteisiä eritelmiä osoittaakseen, että suuririskinen tekoälyjärjestelmä on 2 jaksossa vahvistettujen vaatimusten mukainen, tarjoajan on valittava jompikumpi seuraavista vaatimustenmukaisuuden arviointimenettelyistä, jotka perustuvat seuraaviin:
1. W odniesieniu do systemów AI wysokiego ryzyka wymienionych w załączniku III pkt 1, w przypadku gdy do wykazania zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2 dostawca zastosował normy zharmonizowane, o których mowa w art. 40, lub, w stosownych przypadkach, wspólne specyfikacje, o których mowa w art. 41, dostawca wybiera jedną z następujących procedur oceny zgodności w oparciu o:
a)
liitteessä VI tarkoitettu sisäinen valvonta; tai
a)
kontrolę wewnętrzną, o której mowa w załączniku VI; lub
b)
liitteessä VII tarkoitettu laadunhallintajärjestelmän ja teknisen dokumentaation arviointi, johon osallistuu ilmoitettu laitos.
b)
ocenę systemu zarządzania jakością i ocenę dokumentacji technicznej przeprowadzaną z udziałem jednostki notyfikowanej, o której to procedurze mowa w załączniku VII.
Osoittaessaan, että suuririskinen tekoälyjärjestelmä on 2 jaksossa vahvistettujen vaatimusten mukainen, tarjoajan on noudatettava liitteessä VII vahvistettua vaatimustenmukaisuuden arviointimenettelyä, jos
Przy wykazywaniu zgodności systemu AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2 dostawca postępuje zgodnie z procedurą oceny zgodności ustanowioną w załączniku VII, w przypadku gdy:
a)
40 artiklassa tarkoitettuja yhdenmukaistettuja standardeja ei ole olemassa eikä 41 artiklassa tarkoitettuja yhteisiä eritelmiä ole saatavilla;
a)
normy zharmonizowane, o których mowa w art. 40, nie istnieją, a wspólne specyfikacje, o których mowa w art. 41, nie są dostępne;
b)
tarjoaja ei ole soveltanut tai on soveltanut vain osaa yhdenmukaistetusta standardista;
b)
dostawca nie zastosował normy zharmonizowanej lub zastosował jedynie jej część;
c)
edellä a alakohdassa tarkoitetut yhteiset eritelmät ovat olemassa, mutta tarjoaja ei ole soveltanut niitä;
c)
wspólne specyfikacje, o których mowa w lit. a), istnieją, ale dostawca ich nie zastosował;
d)
yksi tai useampi a alakohdassa tarkoitetuista yhdenmukaistetuista standardeista on julkaistu rajoitetusti ja vain standardin siltä osin, jota rajoitus koskee.
d)
co najmniej jedna z norm zharmonizowanych, o których mowa w lit. a), została opublikowana z ograniczeniem i jedynie w odniesieniu do tej części normy, której dotyczy ograniczenie.
Tarjoaja voi valita minkä tahansa ilmoitetuista laitoksista liitteessä VII tarkoitettua vaatimustenmukaisuuden arviointimenettelyä varten. Kuitenkin jos lainvalvonta-, maahanmuutto- tai turvapaikkaviranomaisten tai unionin toimielinten, elinten, toimistojen tai virastojen on tarkoitus ottaa suuririskinen tekoälyjärjestelmä käyttöön, ilmoitettuna laitoksena toimii tapauksen mukaan 74 artiklan 8 tai 9 kohdassa tarkoitettu markkinavalvontaviranomainen.
Na potrzeby procedury oceny zgodności, o której mowa w załączniku VII, dostawca może wybrać dowolną jednostkę notyfikowaną. Jednak w przypadku gdy system ma zostać oddany do użytku przez organy ścigania, organy imigracyjne lub organy azylowe lub przez instytucje, organy i jednostki organizacyjne Unii, funkcję jednostki notyfikowanej pełni organ nadzoru rynku, o którym mowa odpowiednio w art. 74 ust. 8 lub ust. 9.
2. Liitteessä III olevassa 2–8 kohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien osalta tarjoajien on noudatettava liitteessä VI tarkoitettua sisäiseen valvontaan perustuvaa vaatimustenmukaisuuden arviointimenettelyä, jossa ei edellytetä ilmoitetun laitoksen osallistumista.
2. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 2–8, dostawcy postępują zgodnie z procedurą oceny zgodności opierającą się na kontroli wewnętrznej, o której mowa w załączniku VI i która nie przewiduje udziału jednostki notyfikowanej.
3. Sellaisten suuririskisten tekoälyjärjestelmien osalta, joihin sovelletaan liitteessä I olevassa A jaksossa lueteltua unionin yhdenmukaistamislainsäädäntöä, tarjoajan on noudatettava kyseisissä säädöksissä edellytettyä asiaankuuluvaa vaatimustenmukaisuuden arviointimenettelyä. Kyseisiin suuririskisiin tekoälyjärjestelmiin sovelletaan tämän luvun 2 jaksossa vahvistettuja vaatimuksia, ja niiden on oltava osa tätä arviointia. Lisäksi sovelletaan liitteessä VII olevaa 4.3, 4.4 ja 4.5 kohtaa sekä 4.6 kohdan viidettä kohtaa.
3. W przypadku systemów AI wysokiego ryzyka objętych zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A, dostawca postępuje zgodnie z odpowiednią procedurą oceny zgodności wymaganą na podstawie tych aktów prawnych. W odniesieniu do tego rodzaju systemów AI wysokiego ryzyka zastosowanie mają wymogi ustanowione w sekcji 2 niniejszego rozdziału i stanowią one jeden z elementów tej oceny. Zastosowanie mają również przepisy załącznika VII pkt 4.3, pkt 4.4, pkt 4.5 i pkt 4.6 akapit piąty.
Tätä arviointia varten ilmoitetuilla laitoksilla, jotka on ilmoitettu kyseisten säädösten mukaisesti, on oikeus valvoa, että suuririskiset tekoälyjärjestelmät ovat 2 jaksossa vahvistettujen vaatimusten mukaisia, edellyttäen, että sitä, että kyseiset ilmoitut laitokset täyttävät 31 artiklan 4, 5, 10 ja 11 kohdassa vahvistetut vaatimukset, on arvioitu kyseisten säädösten mukaisen ilmoitusmenettelyn yhteydessä.
Na potrzeby tej oceny jednostki notyfikowane, które notyfikowano zgodnie z tymi aktami prawnymi, są uprawnione do przeprowadzania kontroli zgodności systemów AI wysokiego ryzyka z wymogami ustanowionymi w sekcji 2, o ile zgodność tych jednostek notyfikowanych z wymogami ustanowionymi w art. 31 ust. 4, 5, 10 i 11 została oceniona w kontekście procedury notyfikacyjnej przewidzianej w tych aktach prawnych.
Jos liitteessä I olevassa A jaksossa luetellun säädöksen nojalla tuotteen valmistaja voi olla soveltamatta kolmannen osapuolen suorittamaa vaatimustenmukaisuuden arviointia ja edellyttäen, että kyseinen valmistaja on soveltanut kaikkia yhdenmukaistettuja standardeja, jotka kattavat kaikki asiaankuuluvat vaatimukset, kyseinen valmistaja voi käyttää tätä vaihtoehtoa ainoastaan, jos se on myös soveltanut yhdenmukaistettuja standardeja tai mahdollisuuksien mukaan 41 artiklassa tarkoitettuja yhteisiä eritelmiä, jotka kattavat kaikki tämän luvun 2 jaksossa vahvistetut vaatimukset.
W przypadku gdy akt prawny wymieniony w załączniku I sekcja A zapewnia producentowi produktu możliwość zrezygnowania z oceny zgodności przeprowadzanej przez stronę trzecią, pod warunkiem że producent ten zapewnił zgodność ze wszystkimi normami zharmonizowanymi obejmującymi wszystkie stosowne wymogi, taki producent może skorzystać z tej możliwości wyłącznie w przypadku, gdy zapewnił również zgodność z normami zharmonizowanymi lub – w stosownych przypadkach – wspólnymi specyfikacjami, o których mowa w art. 41, obejmującymi wszystkie wymogi ustanowione w sekcji 2 niniejszego rozdziału.
4. Suuririskisille tekoälyjärjestelmille, joille on jo tehty vaatimustenmukaisuuden arviointimenettely, on tehtävä uusi vaatimustenmukaisuuden arviointimenettely silloin, kun niitä muutetaan merkittävästi, riippumatta siitä, onko muutettua järjestelmää tarkoitus jaella edelleen vai jatkaako nykyinen käyttöönottaja sen käyttöä.
4. Systemy AI wysokiego ryzyka, które poddano już procedurze oceny zgodności, poddaje się nowej procedurze oceny zgodności w przypadku gdy wprowadza się w nich istotne zmiany, niezależnie od tego, czy zmieniony system jest przeznaczony do dalszej dystrybucji lub czy ma być nadal wykorzystywany przez obecny podmiot stosujący.
Sellaisten suuririskisten tekoälyjärjestelmien osalta, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen, suuririskiseen tekoälyjärjestelmään ja sen suorituskykyyn tehtävät muutokset, jotka tarjoaja on määritellyt ennalta ensimmäisen vaatimustenmukaisuuden arvioinnin yhteydessä ja jotka ovat osa liitteessä IV olevan 2 kohdan f alakohdassa tarkoitettuja tekniseen dokumentaatioon sisältyviä tietoja, eivät muodosta merkittävää muutosta.
W przypadku systemów AI wysokiego ryzyka, które nadal uczą się po wprowadzeniu ich do obrotu lub po oddaniu ich do użytku, istotnej zmiany nie stanowią zmiany w systemie AI wysokiego ryzyka i jego skuteczności działania, które dostawca z góry zaplanował w chwili przeprowadzania początkowej oceny zgodności i które są częścią informacji zawartych w dokumentacji technicznej, o której mowa w pkt 2 lit. f) załącznika IV.
5. Siirretään komissiolle valta antaa delegoituja säädöksiä 97 artiklan mukaisesti liitteiden VI ja VII muuttamiseksi niiden saattamiseksi ajan tasalle tekniikan kehityksen huomioon ottamiseksi.
5. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany załączników VI i VII poprzez ich zmianę w świetle postępu technicznego.
6. Siirretään komissiolle valta antaa delegoituja säädöksiä 97 artiklan mukaisesti tämän artiklan 1 ja 2 kohdan muuttamiseksi, jotta liitteessä III olevassa 2–8 kohdassa tarkoitettuihin suuririskisiin tekoälyjärjestelmiin voidaan soveltaa liitteessä VII tarkoitettua vaatimustenmukaisuuden arviointimenettelyä tai sen osia. Komissio ottaa tällaisia delegoituja säädöksiä hyväksyessään huomioon liitteessä VI tarkoitetun sisäiseen valvontaan perustuvan vaatimustenmukaisuuden arviointimenettelyn tehokkuuden tällaisista järjestelmistä terveydelle ja turvallisuudelle sekä perusoikeuksien suojelulle aiheutuvien riskien ehkäisemisessä tai minimoimisessa sekä riittävien valmiuksien ja resurssien saatavuuden ilmoitetuissa laitoksissa.
6. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany ust. 1 i 2 niniejszego artykułu, aby objąć systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 2–8, procedurą oceny zgodności, o której mowa w załączniku VII, lub elementami tej procedury. Komisja przyjmuje takie akty delegowane, biorąc pod uwagę skuteczność procedury oceny zgodności opierającej się na kontroli wewnętrznej, o której mowa w załączniku VI, w zapobieganiu ryzyku dla zdrowia i bezpieczeństwa oraz ryzyku związanemu z ochroną praw podstawowych stwarzanemu przez takie systemy lub minimalizowaniu takiego ryzyka, a także uwzględniając dostępność odpowiednich zdolności i zasobów wśród jednostek notyfikowanych.
44 artikla
Artykuł 44
Todistukset
Certyfikaty
1. Ilmoitettujen laitosten liitteen VII mukaisesti antamien todistusten on oltava laadittu kielellä, jota sen jäsenvaltion, johon ilmoitettu laitos on sijoittautunut, asiaankuuluvat viranomaiset ymmärtävät helposti.
1. Certyfikaty wydane przez jednostki notyfikowane zgodnie z załącznikiem VII są sporządzane w języku łatwo zrozumiałym dla odpowiednich organów w państwie członkowskim, w którym jednostka notyfikowana ma siedzibę.
2. Todistukset ovat voimassa niissä mainitun ajan, joka saa olla enintään viisi vuotta liitteen I soveltamisalaan kuuluvien tekoälyjärjestelmien osalta ja enintään neljä vuotta liitteen III soveltamisalaan kuuluvien tekoälyjärjestelmien osalta. Tarjoajan pyynnöstä todistuksen voimassaoloa voidaan jatkaa uusilla, enintään viiden vuoden pituisilla jaksoilla liitteen I soveltamisalaan kuuluvien tekoälyjärjestelmien osalta ja enintään neljän vuoden pituisilla jaksoilla liitteen III soveltamisalaan kuuluvien tekoälyjärjestelmien osalta, uudelleenarvioinnin perusteella, joka suoritetaan sovellettavien vaatimustenmukaisuuden arviointimenettelyjen mukaisesti. Todistusten mahdolliset täydennykset ovat voimassa, jos todistus, johon täydennys on tehty, on voimassa.
2. Certyfikaty zachowują ważność przez wskazany w nich okres, który nie może przekraczać pięciu lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika I oraz czterech lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika III. Na wniosek dostawcy ważność certyfikatu można przedłużyć na kolejne okresy, które nie mogą każdorazowo przekraczać pięciu lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika I oraz czterech lat – w odniesieniu do systemów AI objętych zakresem stosowania załącznika III, w oparciu o wyniki ponownej oceny przeprowadzonej zgodnie z mającymi zastosowanie procedurami oceny zgodności. Wszelkie uzupełnienia do certyfikatu pozostają ważne, pod warunkiem, że uzupełniany certyfikat jest ważny.
3. Jos ilmoitettu laitos toteaa, ettei suuririskinen tekoälyjärjestelmä enää täytä 2 jaksossa vahvistettuja vaatimuksia, sen on suhteellisuusperiaate huomioon ottaen peruutettava todistus määräaikaisesti tai kokonaan tai asetettava sille rajoituksia, jollei kyseisten vaatimusten noudattamista ole varmistettu siten, että tarjoaja toteuttaa asianmukaiset korjaavat toimenpiteet ilmoitetun laitoksen asettamassa asianmukaisessa määräajassa. Ilmoitetun laitoksen on perusteltava päätöksensä.
3. Jeżeli jednostka notyfikowana ustali, że system AI przestał spełniać wymogi ustanowione w sekcji 2, zawiesza lub cofa wydany certyfikat lub nakłada na niego ograniczenia, biorąc pod uwagę zasadę proporcjonalności, chyba że dostawca systemu zapewni zgodność z tymi wymogami poprzez podjęcie odpowiedniego działania naprawczego w stosownym terminie wyznaczonym przez jednostkę notyfikowaną. Jednostka notyfikowana uzasadnia swoją decyzję.
Ilmoitettujen laitosten päätöksiä koskeva muutoksenhakumenettely, myös annettujen vaatimustenmukaisuuta koskevien todistusten osalta, on oltava käytössä.
Od decyzji jednostek notyfikowanych, w tym dotyczących wydanych certyfikatów zgodności, przysługuje odwołanie.
45 artikla
Artykuł 45
Ilmoitettujen laitosten tiedotusvelvollisuudet
Obowiązki jednostek notyfikowanych w zakresie informowania
1. Ilmoitettujen laitosten on tiedotettava ilmoittamisesta vastaavalle viranomaiselle seuraavista:
1. Jednostki notyfikowane informują organ notyfikujący:
a)
liitteen VII mukaisesti annetut unionin teknisen dokumentaation arviointitodistukset, näiden todistusten täydennykset ja kaikki laatujärjestelmän hyväksynnät;
a)
o unijnych certyfikatach oceny dokumentacji technicznej, uzupełnieniach tych certyfikatów i decyzjach zatwierdzających system zarządzania jakością wydanych zgodnie z wymogami załącznika VII;
b)
liitteen VII vaatimusten mukaisesti myönnetyn unionin teknisen dokumentaation arviointitodistuksen tai laatujärjestelmän hyväksynnän epääminen, rajoittaminen tai peruuttaminen toistaiseksi tai kokonaan;
b)
o odmowie wydania, ograniczeniu, zawieszeniu lub cofnięciu unijnego certyfikatu oceny dokumentacji technicznej lub decyzji zatwierdzającej system zarządzania jakością wydanych zgodnie z wymogami załącznika VII;
c)
olosuhteet, jotka vaikuttavat ilmoituksen soveltamisalaan tai ehtoihin;
c)
o okolicznościach wpływających na zakres lub warunki notyfikacji;
d)
vaatimustenmukaisuuden arviointitoimia koskevat tietopyynnöt, jotka ne ovat saaneet markkinavalvontaviranomaisilta;
d)
o wystąpieniu przez organy nadzoru rynku z wnioskiem udzielenia informacji o czynnościach z zakresu oceny zgodności;
e)
pyynnöstä vaatimustenmukaisuuden arviointitoimet, jotka on suoritettu niitä koskevan ilmoituksen puitteissa, ja mahdollisesti suoritetut muut toimet, mukaan luettuna rajat ylittävät toimet ja alihankinta.
e)
na wniosek, o czynnościach z zakresu oceny zgodności objętych zakresem ich notyfikacji oraz o wszelkiej innej prowadzonej działalności, w tym działalności transgranicznej i podwykonawstwie.
2. Kunkin ilmoitetun laitoksen on tiedotettava muille ilmoitetuille laitoksille seuraavista:
2. Każda jednostka notyfikowana informuje pozostałe jednostki notyfikowane o:
a)
laatujärjestelmien hyväksynnät, jotka se on evännyt tai peruuttanut toistaiseksi tai kokonaan, ja pyynnöstä laatujärjestelmien hyväksynnät, jotka se on myöntänyt;
a)
decyzjach zatwierdzających system zarządzania jakością, których wydania odmówiła, które zawiesiła lub które cofnęła, oraz – na wniosek – o wydanych przez siebie decyzjach zatwierdzających system zarządzania jakością;
b)
unionin teknisen dokumentaation arviointitodistukset tai niiden täydennykset, jotka se on evännyt tai peruuttanut toistaiseksi tai joita se on muutoin rajoittanut, sekä pyynnöstä antamansa todistukset ja/tai niiden täydennykset.
b)
unijnych certyfikatach oceny dokumentacji technicznej lub o wszelkich uzupełnieniach tych certyfikatów, których wydania odmówiła, które cofnęła, które zawiesiła lub na które nałożyła innego rodzaju ograniczenia, oraz – na wniosek – o wydanych przez siebie certyfikatach lub uzupełnieniach certyfikatów.
3. Kunkin ilmoitetun laitoksen on toimitettava muille ilmoitetuille laitoksille, jotka suorittavat samanlaisia, samat tekoälyjärjestelmätyypit kattavia vaatimustenmukaisuuden arviointitoimia, asiaankuuluvat tiedot seikoista, jotka liittyvät vaatimustenmukaisuuden arvioinnin kielteisiin tuloksiin ja pyynnöstä myös myönteisiin tuloksiin.
3. Każda jednostka notyfikowana przekazuje pozostałym jednostkom notyfikowanym prowadzącym podobne czynności z zakresu oceny zgodności w odniesieniu do tych samych rodzajów systemów AI stosowne informacje na temat kwestii związanych z negatywnymi, a także – na ich wniosek – pozytywnymi wynikami oceny zgodności.
4. Ilmoittamisesta vastaavien viranomaisten on turvattava saamiensa tietojen luottamuksellisuus 78 artiklan mukaisesti.
4. Organy notyfikujące zapewniają poufność otrzymywanych informacji zgodnie z art. 78.
46 artikla
Artykuł 46
Poikkeus vaatimustenmukaisuuden arviointimenettelystä
Odstępstwo od procedury oceny zgodności
1. Poiketen siitä, mitä 43 artiklassa säädetään, ja asianmukaisesti perustellusta pyynnöstä mikä tahansa markkinavalvontaviranomainen voi antaa luvan tiettyjen suuririskisten tekoälyjärjestelmien markkinoille saattamiseen tai käyttöönottoon asianomaisen jäsenvaltion alueella poikkeuksellisista yleiseen turvallisuuteen tai ihmisten elämän ja terveyden suojeluun, ympäristönsuojeluun tai keskeisten teollisten resurssien ja infrastruktuurien suojaamiseen liittyvistä syistä. Lupa on voimassa rajallisen ajanjakson, kun tarvittavia vaatimustenmukaisuuden arviointimenettelyjä suoritetaan, ottaen huomioon poikkeuksen perusteena olevat poikkeukselliset syyt. Nämä menettelyt on saatettava päätökseen ilman aiheetonta viivytystä.
1. Na zasadzie odstępstwa od art. 43 i na należycie uzasadniony wniosek organ nadzoru rynku może wydać zezwolenie na wprowadzenie do obrotu lub oddanie do użytku konkretnych systemów AI wysokiego ryzyka na terytorium danego państwa członkowskiego w związku z wystąpieniem nadzwyczajnych względów dotyczących bezpieczeństwa publicznego lub ochrony zdrowia i życia osób, ochrony środowiska lub ochrony kluczowych aktywów przemysłowych i infrastrukturalnych. Zezwolenie to wydaje się tymczasowo na okres przeprowadzenia niezbędnych procedur oceny zgodności, uwzględniając nadzwyczajne względy uzasadniające przedmiotowe odstępstwo. Dokłada się starań, aby procedury te ukończono bez zbędnej zwłoki.
2. Asianmukaisesti perustellussa kiireellisessä tilanteessa, joka johtuu poikkeuksellisista yleiseen turvallisuuteen liittyvistä syistä, tai kun kyseessä on erityinen, merkittävä ja välitön uhka luonnollisten henkilöiden elämälle tai fyysiselle turvallisuudelle, lainvalvontaviranomaiset tai pelastuspalveluviranomaiset voivat ottaa käyttöön tietyn suuririskisen tekoälyjärjestelmän ilman 1 kohdassa tarkoitettua lupaa edellyttäen, että tällainen lupa pyydetään ilman aiheetonta viivytystä tekoälyjärjestelmän käytön aikana tai sen jälkeen. Jos 1 kohdassa tarkoitettu lupa evätään, suuririskisen tekoälyjärjestelmän käyttö on lopetettava välittömästi ja kaikki tällaisen käytön tulokset ja tuotokset on välittömästi hylättävä.
2. W należycie uzasadnionych pilnych przypadkach w związku z wystąpieniem nadzwyczajnych względów bezpieczeństwa publicznego lub w przypadku konkretnego, istotnego i bezpośredniego zagrożenia życia lub bezpieczeństwa fizycznego osób fizycznych, organy ścigania lub organy ochrony ludności mogą oddać do użytku określony system AI wysokiego ryzyka bez zezwolenia, o którym mowa w ust. 1, pod warunkiem że wniosek o takie zezwolenie zostanie bez zbędnej zwłoki złożony w trakcie wykorzystywania tego systemu lub tuż po nim. W przypadku odmowy wydania zezwolenia, o którym mowa w ust. 1, wykorzystywanie tego systemu AI wysokiego ryzyka wstrzymuje się ze skutkiem natychmiastowym, a wszystkie rezultaty i wyniki tego wykorzystania muszą zostać natychmiast odrzucone.
3. Edellä 1 kohdassa tarkoitettu lupa voidaan myöntää ainoastaan, jos markkinavalvontaviranomainen toteaa, että suuririskinen tekoälyjärjestelmä täyttää 2 jakson vaatimukset. Markkinavalvontaviranomaisen on ilmoitettava komissiolle ja muille jäsenvaltioille 1 ja 2 kohdan mukaisesti annetuista luvista. Tätä velvoitetta ei sovelleta arkaluonteiseen operatiiviseen tietoon, joka liittyy lainvalvontaviranomaisten toimiin.
3. Zezwolenie, o którym mowa w ust. 1, wydaje się wyłącznie wówczas, gdy organ nadzoru rynku stwierdzi, że system AI wysokiego ryzyka jest zgodny z wymogami ustanowionymi w sekcji 2. Organ nadzoru rynku informuje Komisję i pozostałe państwa członkowskie o zezwoleniach wydanych zgodnie z ust. 1 i 2. Obowiązek ten nie obejmuje wrażliwych danych operacyjnych dotyczących działań organów ścigania.
4. Jos mikään jäsenvaltio tai komissio ei ole 15 kalenteripäivän kuluessa 3 kohdassa tarkoitetun ilmoituksen vastaanottamisesta esittänyt vastalausetta jäsenvaltion markkinavalvontaviranomaisen 1 kohdan mukaisesti antamasta luvasta, luvan katsotaan olevan perusteltu.
4. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 3, ani żadne państwo członkowskie, ani Komisja nie zgłoszą sprzeciwu dotyczącego zezwolenia wydanego przez organ nadzoru rynku państwa członkowskiego zgodnie z ust. 1, takie zezwolenie uznaje się za uzasadnione.
5. Jos 15 kalenteripäivän kuluessa 3 kohdassa tarkoitetun ilmoituksen vastaanottamisesta jokin jäsenvaltio esittää vastalauseita toisen jäsenvaltion markkinavalvontaviranomaisen antamasta luvasta tai jos komissio katsoo, että lupa on unionin oikeuden vastainen tai että 3 kohdassa tarkoitettu järjestelmän vaatimustenmukaisuutta koskeva jäsenvaltioiden päätelmä on perusteeton, komissio aloittaa viipymättä asianomaisen jäsenvaltion kuulemisen; asianomaisia toimijoita on kuultava, ja niillä on oltava mahdollisuus esittää näkemyksensä. Komissio päättää kuulemisten perusteella, onko lupa perusteltu vai ei. Komissio osoittaa päätöksensä asianomaiselle jäsenvaltiolle sekä asianomaiselle toimijalle tai asianomaisille toimijoille.
5. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 3, państwo członkowskie zgłosi sprzeciw dotyczący zezwolenia wydanego przez organ nadzoru rynku innego państwa członkowskiego lub w przypadku gdy Komisja uzna zezwolenie za sprzeczne z prawem Unii lub uzna za bezpodstawne dokonane przez państwo członkowskie stwierdzenie zgodności systemu, o czym mowa w ust. 3, Komisja niezwłocznie przystępuje do konsultacji z odpowiednim państwem członkowskim. W takim przypadku zasięga się opinii zainteresowanych operatorów i zapewnia się im możliwość przedstawienia ich stanowiska. Na tej podstawie Komisja podejmuje decyzję, czy dane zezwolenie jest uzasadnione. Komisja kieruje swoją decyzję do zainteresowanego państwa członkowskiego i odpowiednich operatorów.
6. Jos komissio katsoo luvan perusteettomaksi, asianomaisen jäsenvaltion markkinavalvontaviranomaisen on peruutettava se.
6. W przypadku gdy Komisja uzna zezwolenie za bezpodstawne, organ nadzoru rynku zainteresowanego państwa członkowskiego cofa je.
7. Suuririskisiin tekoälyjärjestelmiin, jotka liittyvät liitteessä I olevassa A jaksossa lueteltuihin unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluviin tuotteisiin, sovelletaan ainoastaan kyseisessä unionin yhdenmukaistamislainsäädännössä vahvistettuja poikkeuksia vaatimustenmukaisuuden arvioinnista.
7. W przypadku systemów AI wysokiego ryzyka powiązanych z produktami objętymi zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A stosuje się wyłącznie odstępstwa od oceny zgodności ustanowione w tym unijnym prawodawstwie harmonizacyjnym.
47 artikla
Artykuł 47
EU-vaatimustenmukaisuusvakuutus
Deklaracja zgodności UE
1. Tarjoajan on laadittava kirjallinen koneluettava, fyysinen tai sähköisesti allekirjoitettu EU-vaatimustenmukaisuusvakuutus kullekin tekoälyjärjestelmälle ja pidettävä se kansallisten toimivaltaisten viranomaisten saatavilla 10 vuoden ajan sen jälkeen, kun suuririskinen tekoälyjärjestelmä on saatettu markkinoille tai otettu käyttöön. EU-vaatimustenmukaisuusvakuutuksessa on yksilöitävä suuririskinen tekoälyjärjestelmä, jota varten se on laadittu. Jäljennös EU-vaatimustenmukaisuusvakuutuksesta on pyynnöstä toimitettava asiaankuuluville kansallisille toimivaltaisille viranomaisille.
1. Dostawca sporządza pisemną i nadającą się do odczytu maszynowego, podpisaną fizycznie lub elektronicznie, deklarację zgodności UE dla każdego systemu AI wysokiego ryzyka i przechowuje ją do dyspozycji właściwych organów krajowych przez okres 10 lat od dnia wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku. W deklaracji zgodności UE wskazuje się system AI wysokiego ryzyka, dla którego ją sporządzono. Kopię deklaracji zgodności UE przedkłada się odpowiednim właściwym organom krajowym na ich wniosek.
2. EU-vaatimustenmukaisuusvakuutuksessa on ilmoitettava, että kyseinen suuririskinen tekoälyjärjestelmä täyttää tämän osaston 2 jaksossa vahvistetut vaatimukset. EU-vaatimustenmukaisuusvakuutuksen on sisällettävä liitteessä V esitetyt tiedot, ja se on käännettävä kielelle, jota niiden jäsenvaltioiden kansalliset toimivaltaiset viranomaiset, joissa suuririskinen tekoälyjärjestelmä asetetaan markkinoille tai saataville, voivat ymmärtää helposti.
2. W deklaracji zgodności UE stwierdza się, że dany system AI wysokiego ryzyka spełnia wymogi ustanowione w sekcji 2. Deklaracja zgodności UE zawiera informacje określone w załączniku V i musi zostać przetłumaczona na język łatwo zrozumiały dla właściwych organów krajowych państw członkowskich, w których dany system AI wysokiego ryzyka jest wprowadzany do obrotu lub udostępniany.
3. Jos suuririskisiin tekoälyjärjestelmiin sovelletaan muuta unionin yhdenmukaistamislainsäädäntöä, jossa myös edellytetään EU-vaatimustenmukaisuusvakuutusta, kaiken suuririskiseen tekoälyjärjestelmään sovellettavan unionin oikeuden osalta on laadittava yksi ainoa EU-vaatimustenmukaisuusvakuutus. Kyseisen vaatimustenmukaisuusvakuutuksen on sisällettävä kaikki tiedot, jotka vaaditaan sen unionin yhdenmukaistamislainsäädännön yksilöimiseksi, johon kyseinen vaatimustenmukaisuusvakuutus liittyy.
3. W przypadku gdy systemy AI wysokiego ryzyka podlegają innemu unijnemu prawodawstwu harmonizacyjnemu, w którym również ustanowiono wymóg sporządzenia deklaracji zgodności UE, na potrzeby wszystkich przepisów prawa Unii mających zastosowanie do systemu AI wysokiego ryzyka sporządza się jedną deklarację zgodności UE. W deklaracji zamieszcza się wszystkie informacje niezbędne do zidentyfikowania unijnego prawodawstwa harmonizacyjnego, do którego się ona odnosi.
4. Laatimalla EU-vaatimustenmukaisuusvakuutuksen tarjoaja ottaa vastuun 2 jaksossa vahvistettujen vaatimusten noudattamisesta. Tarjoajan on pidettävä EU-vaatimustenmukaisuusvakuutus tarvittaessa ajan tasalla.
4. Sporządzając deklarację zgodności UE, dostawca bierze na siebie odpowiedzialność za zgodność z wymogami ustanowionymi w sekcji 2. Dostawca odpowiednio zapewnia aktualność deklaracji zgodności UE.
5. Siirretään komissiolle valta antaa delegoituja säädöksiä 97 artiklan mukaisesti liitteen V muuttamiseksi päivittämällä kyseisessä liitteessä vahvistetun EU-vaatimustenmukaisuusvakuutuksen sisältö, jotta siihen voidaan lisätä osatekijöitä, jotka ovat tarpeen tekniikan kehityksen huomioon ottamiseksi.
5. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 97 w celu zmiany załącznika V poprzez zaktualizowanie treści deklaracji zgodności UE określonej w tym załączniku w celu wprowadzenia elementów, które stały się konieczne w świetle postępu technicznego.
48 artikla
Artykuł 48
CE-merkintä
Oznakowanie CE
1. CE-merkintää koskevat asetuksen (EY) N:o 765/2008 30 artiklassa säädetyt yleiset periaatteet.
1. Oznakowanie CE podlega ogólnym zasadom określonym w art. 30 rozporządzenia (WE) nr 765/2008.
2. Digitaalisessa muodossa tarjottavissa suuririskisissä tekoälyjärjestelmissä on käytettävä digitaalista CE-merkintää vain, jos siihen pääsee helposti kyseisen järjestelmän käyttöliittymän kautta tai helposti saatavilla olevan koneluettavan koodin tai muun sähköisen välineen avulla.
2. W przypadku systemów AI wysokiego ryzyka dostarczanych w formie cyfrowej cyfrowe oznakowanie CE stosuje się wyłącznie wtedy, gdy można do niego łatwo dotrzeć za pośrednictwem interfejsu, poprzez który uzyskuje się dostęp do tego systemu, lub za pomocą łatwo dostępnego kodu nadającego się do odczytu maszynowego lub innych środków elektronicznych.
3. CE-merkintä on kiinnitettävä suuririskisiin tekoälyjärjestelmiin näkyvästi, helposti luettavasti ja pysyvästi. Jos tämä ei ole suuririskisen tekoälyjärjestelmän luonteen vuoksi mahdollista tai perusteltua, merkintä on tapauksen mukaan kiinnitettävä pakkaukseen ja mukana tulevaan dokumentaatioon.
3. Oznakowanie CE umieszcza się na systemie AI wysokiego ryzyka w sposób widoczny, czytelny i trwały. W przypadku gdy z uwagi na charakter systemu AI wysokiego ryzyka oznakowanie systemu w taki sposób nie jest możliwe lub zasadne, oznakowanie to umieszcza się na opakowaniu lub – w stosownych przypadkach – w dołączonej do systemu dokumentacji.
4. CE-merkinnän yhteyteen on tarvittaessa liitettävä 43 artiklassa säädetyistä vaatimustenmukaisuusmenettelyistä vastuussa olevan ilmoitetun laitoksen tunnusnumero. Ilmoitetun laitoksen tunnusnumeron kiinnittää laitos itse tai sen antamien ohjeiden mukaisesti tarjoaja tai tarjoajan valtuutettu edustaja. Tunnusnumero on ilmoitettava myös kaikessa markkinointimateriaalissa, jossa mainitaan suuririskisen tekoälyjärjestelmän täyttävän CE-merkintää koskevat vaatimukset.
4. W stosownych przypadkach oznakowaniu CE towarzyszy również numer identyfikacyjny jednostki notyfikowanej odpowiedzialnej za przeprowadzenie procedur oceny zgodności ustanowionych w art. 43. Numer identyfikacyjny jednostki notyfikowanej umieszcza sama jednostka lub, według wskazówek jednostki notyfikowanej, dostawca lub jego upoważniony przedstawiciel. Numer identyfikacyjny umieszcza się również na wszelkich materiałach promocyjnych zawierających informacje o tym, że system AI wysokiego ryzyka spełnia wymogi konieczne do opatrzenia go oznakowaniem CE.
5. Jos suuririskiset tekoälyjärjestelmät kuuluvat sellaisen muun unionin oikeuden soveltamisalaan, jossa myös säädetään CE-merkinnän kiinnittämisestä, CE-merkintä osoittaa, että suuririskinen tekoälyjärjestelmä täyttää myös kyseisessä muussa lainsäädännössä vahvistetut vaatimukset.
5. W przypadku gdy systemy AI wysokiego ryzyka podlegają innym przepisom Unii, które również przewidują umieszczenie oznakowania CE, oznakowanie CE wskazuje, że dany system AI wysokiego ryzyka spełnia także wymogi zawarte w tych innych przepisach.
49 artikla
Artykuł 49
Rekisteröinti
Rejestracja
1. Ennen kuin liitteessä III lueteltu suuririskinen tekoälyjärjestelmä saatetaan markkinoille tai otetaan käyttöön, lukuun ottamatta liitteessä III olevassa 2 kohdassa tarkoitettuja suuririskisiä tekoälyjärjestelmiä, tarjoajan tai tarvittaessa valtuutetun edustajan on rekisteröitävä itsensä ja järjestelmänsä 71 artiklassa tarkoitettuun EU:n tietokantaan.
1. Przed wprowadzeniem do obrotu lub oddaniem do użytku systemu AI wysokiego ryzyka wymienionego w załączniku III, z wyjątkiem systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 2, dostawca lub – w stosownych przypadkach – jego upoważniony przedstawiciel rejestrują się i swój system w bazie danych UE, o której mowa w art. 71.
2. Ennen sellaisen tekoälyjärjestelmän markkinoille saattamista tai käyttöönottoa, jonka osalta tarjoaja on todennut, että se ei ole 6 artiklan 3 kohdan mukaisesti suuririskinen, kyseisen tarjoajan tai tarvittaessa valtuutetun edustajan on rekisteröitävä itsensä ja kyseinen järjestelmä 71 artiklassa tarkoitettuun EU:n tietokantaan.
2. Przed wprowadzeniem do obrotu lub oddaniem do użytku systemu AI, co do którego dostawca stwierdził, że nie jest systemem wysokiego ryzyka zgodnie z art. 6 ust. 3, dostawca ten lub – w stosownych przypadkach – jego upoważniony przedstawiciel rejestrują się i swój system w bazie danych UE, o której mowa w art. 71.
3. Ennen liitteessä III luetellun suuririskisen tekoälyjärjestelmän käyttöönottoa tai käyttöä, lukuun ottamatta liitteessä III olevassa 2 kohdassa lueteltuja suuririskisiä tekoälyjärjestelmiä, käyttöönottajien, jotka ovat viranomaisia, unionin toimielimiä, elimiä, toimistoja tai virastoja tai niiden puolesta toimivia henkilöitä, on rekisteröidyttävä, valittava järjestelmä ja rekisteröitävä sen käyttö 71 artiklassa tarkoitettuun EU:n tietokantaan.
3. Przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka wymienionego w załączniku III, z wyjątkiem systemów AI wysokiego ryzyka wymienionych w załączniku III pkt 2, podmioty stosujące będące publicznymi organami, instytucjami, organami lub jednostkami organizacyjnymi Unii lub osobami działającymi w ich imieniu rejestrują się, wybierają system i rejestrują jego wykorzystanie w bazie danych UE, o której mowa w art. 71.
4. Liitteessä III olevassa 1, 6 ja 7 kohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien osalta lainvalvonnan, muuttoliikkeen, turvapaikka-asioiden ja rajavalvonnan aloilla tämän artiklan 1, 2 ja 3 kohdassa tarkoitetun rekisteröinnin on tapahduttava 71 artiklassa tarkoitetun EU:n tietokannan suojattuun ei-julkiseen osaan, ja siihen on sisällyttävä tarvittaessa ainoastaan seuraavat tiedot:
4. W przypadku systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 1, 6 i 7, w obszarach ścigania przestępstw, migracji, azylu i zarządzania kontrolą graniczną, rejestracji, o której mowa w ust. 1, 2 i 3 niniejszego artykułu, dokonuje się w bezpiecznej niepublicznej sekcji bazy danych UE, o której mowa w art. 71, i – stosownie do przypadku – zawiera wyłącznie następujące informacje, o których mowa w:
a)
A jakso, liitteessä VIII oleva 1–10 kohta lukuun ottamatta 6, 8 ja 9 kohtaa;
a)
załączniku VIII sekcja A pkt 1–10, z wyjątkiem pkt 6, 8 i 9;
b)
B jakso, liitteessä VIII oleva 1–5 kohta sekä 8 ja 9 kohta;
b)
załączniku VIII sekcja B pkt 1–5 oraz pkt 8 i 9;
c)
C jakso, liitteessä VIII oleva 1–3 kohta;
c)
załączniku VIII sekcja C pkt 1–3;
d)
liitteessä IX oleva 1, 2, 3 ja 5 kohta.
d)
załączniku IX pkt 1, 2, 3 i 5.
Ainoastaan komissiolla ja 74 artiklan 8 kohdassa tarkoitetuilla kansallisilla viranomaisilla on pääsy tämän kohdan ensimmäisessä alakohdassa luetellun EU:n tietokannan asiaankuuluviin rajoitettuihin osiin.
Do odpowiednich zastrzeżonych sekcji bazy danych UE wymienionych w akapicie pierwszym niniejszego ustępu dostęp mają jedynie Komisja i organy krajowe, o których mowa w art. 74 ust. 8.
5. Liitteessä III olevassa 2 kohdassa tarkoitetut suuririskiset tekoälyjärjestelmät on rekisteröitävä kansallisella tasolla.
5. Systemy AI wysokiego ryzyka, o których mowa w załączniku III pkt 2, rejestruje się na poziomie krajowym.
IV LUKU
ROZDZIAŁ IV
TIETTYJEN TEKOÄLYJÄRJESTELMIEN TARJOAJIA JA KÄYTTÖÖNOTTAJIA KOSKEVAT AVOIMUUSVELVOITTEET
OBOWIĄZKI W ZAKRESIE PRZEJRZYSTOŚCI DLA DOSTAWCÓW I PODMIOTÓW STOSUJĄCYCH NIEKTÓRE SYSTEMY AI
50 artikla
Artykuł 50
Tiettyjen tekoälyjärjestelmien tarjoajia ja käyttöönottajia koskevat avoimuusvelvoitteet
Obowiązki w zakresie przejrzystości dla dostawców i podmiotów stosujących niektóre systemy AI
1. Tarjoajien on varmistettava, että luonnollisten henkilöiden kanssa suoraan vuorovaikutukseen tarkoitetut tekoälyjärjestelmät suunnitellaan ja toteutetaan siten, että asianomaisille luonnollisille henkilöille ilmoitetaan, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, ellei tämä ole ilmeistä sellaisen luonnollisen henkilön näkökulmasta, joka on suhteellisen valistunut, tarkkaavainen ja huolellinen ottaen huomioon olosuhteet ja käytön asiayhteys. Tätä velvoitetta ei sovelleta tekoälyjärjestelmiin, joita on lain mukaan sallittua käyttää rikosten paljastamiseen, estämiseen tai tutkimiseen ja rikoksiin liittyviin syytetoimiin, edellyttäen, että kolmansien osapuolten oikeudet ja vapaudet turvataan asianmukaisesti, paitsi jos kyseiset järjestelmät ovat julkisesti saatavilla rikosilmoitusten tekemistä varten.
1. Dostawcy zapewniają, aby systemy AI przeznaczone do wchodzenia w bezpośrednią interakcję z osobami fizycznymi projektowano i rozwijano w taki sposób, aby zainteresowane osoby fizyczne były informowane o tym, że prowadzą interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu wykorzystywania. Obowiązek ten nie ma zastosowania do systemów AI, których wykorzystywanie jest dozwolone na mocy prawa do celów wykrywania przestępstw, przeciwdziałania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich, chyba że systemy te udostępnia się ogółowi społeczeństwa na potrzeby składania zawiadomień o popełnieniu przestępstwa.
2. Synteettistä ääni-, kuva-, video- tai tekstisisältöä tuottavien tekoälyjärjestelmien, mukaan lukien yleiskäyttöiset tekoälyjärjestelmät, tarjoajien on varmistettava, että tekoälyjärjestelmän tuotokset merkitään koneellisesti luettavassa muodossa ja että ne voidaan tunnistaa keinotekoisesti tuotetuiksi tai manipuloiduiksi. Tarjoajien on varmistettava siinä määrin kuin se on teknisesti mahdollista, että niiden tekniset ratkaisut ovat tehokkaita, yhteentoimivia, vakaita ja luotettavia, ottaen huomioon monenlaisten sisältöjen erityispiirteet ja rajoitukset, toteuttamiskustannukset ja yleisesti tunnustettu uusin teknologia, jotka voidaan huomioida asianmukaisissa teknisissä standardeissa. Tätä velvoitetta ei sovelleta tapauksissa, joissa tekoälyjärjestelmät avustavat vakiomuokkaamista tai eivät olennaisesti muuta käyttöönottajan toimittamia syöttödataa tai sen semantiikkaa tai jos niitä on lain mukaan sallittua käyttää rikosten paljastamiseen, estämiseen ja tutkimiseen tai rikoksiin liittyviin syytetoimiin.
2. Dostawcy systemów AI, w tym systemów AI ogólnego zastosowania, generujących treści w postaci syntetycznych dźwięków, obrazów, wideo lub tekstu, zapewniają, aby wyniki systemu AI zostały oznakowane w formacie nadającym się do odczytu maszynowego i były wykrywalne jako sztucznie wygenerowane lub zmanipulowane. Dostawcy zapewniają skuteczność, in