Amtsblatt
der Europäischen Union
DE
VERORDNUNG (EU) 2024/1689 DES EUROPÄISCHEN PARLAMENTS UND DES RATES
EUROOPA PARLAMENDI JA NÕUKOGU MÄÄRUS (EL) 2024/1689,
zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz)
millega nähakse ette tehisintellekti käsitlevad ühtlustatud õigusnormid ning muudetakse määruseid (EÜ) nr 300/2008, (EL) nr 167/2013, (EL) nr 168/2013, (EL) 2018/858, (EL) 2018/1139 ja (EL) 2019/2144 ning direktiive 2014/90/EL, (EL) 2016/797 ja (EL) 2020/1828 (tehisintellekti käsitlev määrus)
(Text von Bedeutung für den EWR)
DAS EUROPÄISCHE PARLAMENT UND DER RAT DER EUROPÄISCHEN UNION —
EUROOPA PARLAMENT JA EUROOPA LIIDU NÕUKOGU,
gestützt auf den Vertrag über die Arbeitsweise der Europäischen Union, insbesondere auf die Artikel 16 und 114,
võttes arvesse Euroopa Liidu toimimise lepingut, eriti selle artikleid 16 ja 114,
auf Vorschlag der Europäischen Kommission,
võttes arvesse Euroopa Komisjoni ettepanekut,
nach Zuleitung des Entwurfs des Gesetzgebungsakts an die nationalen Parlamente,
olles edastanud seadusandliku akti eelnõu liikmesriikide parlamentidele,
nach Stellungnahme des Europäischen Wirtschafts- und Sozialausschusses (1),
võttes arvesse Euroopa Majandus- ja Sotsiaalkomitee arvamust (1),
nach Stellungnahme der Europäischen Zentralbank (2),
võttes arvesse Euroopa Keskpanga arvamust (2),
nach Stellungnahme des Ausschusses der Regionen (3),
võttes arvesse Regioonide Komitee arvamust (3),
gemäß dem ordentlichen Gesetzgebungsverfahren (4),
toimides seadusandliku tavamenetluse kohaselt (4)
in Erwägung nachstehender Gründe:
ning arvestades järgmist:
(1)
Zweck dieser Verordnung ist es, das Funktionieren des Binnenmarkts zu verbessern, indem ein einheitlicher Rechtsrahmen insbesondere für die Entwicklung, das Inverkehrbringen, die Inbetriebnahme und die Verwendung von Systemen künstlicher Intelligenz (KI-Systeme) in der Union im Einklang mit den Werten der Union festgelegt wird, um die Einführung von menschenzentrierter und vertrauenswürdiger künstlicher Intelligenz (KI) zu fördern und gleichzeitig ein hohes Schutzniveau in Bezug auf Gesundheit, Sicherheit und der in der Charta der Grundrechte der Europäischen Union („Charta“) verankerten Grundrechte, einschließlich Demokratie, Rechtsstaatlichkeit und Umweltschutz, sicherzustellen, den Schutz vor schädlichen Auswirkungen von KI-Systemen in der Union zu gewährleisten und gleichzeitig die Innovation zu unterstützen. Diese Verordnung gewährleistet den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert wird, dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von KI-Systemen beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird.
(1)
Käesoleva määruse eesmärk on parandada siseturu toimimist ühtse õigusraamistiku kehtestamisega eeskätt tehisintellektisüsteemide arendamiseks, turule laskmiseks, kasutusele võtmiseks ja kasutamiseks liidus kooskõlas liidu väärtustega, et edendada inimkeskse ja usaldusväärse tehisintellekti levikut, tagades samal ajal tervise, turvalisuse, Euroopa Liidu põhiõiguste hartas (edaspidi „põhiõiguste harta“) sätestatud põhiõiguste, sealhulgas demokraatia ja õigusriigi kõrgetasemelise kaitse ning keskkonnakaitse, kaitsta tehisintellekti süsteemide kahjuliku mõju vastu liidus, ning toetada innovatsiooni. Käesoleva määrusega tagatakse tehisintellektil põhinevate kaupade ja teenuste vaba piiriülene liikumine, takistades seega liikmesriikidel kehtestamast piiranguid tehisintellektisüsteemide arendamisele, turustamisele ja kasutamisele, välja arvatud juhul, kui see käesoleva määrusega selgesõnaliselt lubatakse.
(2)
Diese Verordnung sollte im Einklang mit den in der Charta verankerten Werten der Union angewandt werden, den Schutz von natürlichen Personen, Unternehmen, Demokratie und Rechtsstaatlichkeit sowie der Umwelt erleichtern und gleichzeitig Innovation und Beschäftigung fördern und der Union eine Führungsrolle bei der Einführung vertrauenswürdiger KI verschaffen.
(2)
Käesolevat määrust tuleks kohaldada kooskõlas põhiõiguste hartas sätestatud liidu väärtustega, hõlbustades füüsiliste isikute, ettevõtjate, demokraatia ja õigusriigi kaitset ning keskkonnakaitset, edendades samal ajal innovatsiooni ja tööhõivet ning viies liidu usaldusväärse tehisintellekti laialdaselt kasutuselevõtmises juhtpositsioonile.
(3)
KI-Systeme können problemlos in verschiedenen Bereichen der Wirtschaft und Gesellschaft, auch grenzüberschreitend, eingesetzt werden und in der gesamten Union verkehren. Einige Mitgliedstaaten haben bereits die Verabschiedung nationaler Vorschriften in Erwägung gezogen, damit KI vertrauenswürdig und sicher ist und im Einklang mit den Grundrechten entwickelt und verwendet wird. Unterschiedliche nationale Vorschriften können zu einer Fragmentierung des Binnenmarkts führen und können die Rechtssicherheit für Akteure, die KI-Systeme entwickeln, einführen oder verwenden, beeinträchtigen. Daher sollte in der gesamten Union ein einheitlich hohes Schutzniveau sichergestellt werden, um eine vertrauenswürdige KI zu erreichen, wobei Unterschiede, die den freien Verkehr, Innovationen, den Einsatz und die Verbreitung von KI-Systemen und damit zusammenhängenden Produkten und Dienstleistungen im Binnenmarkt behindern, vermieden werden sollten, indem den Akteuren einheitliche Pflichten auferlegt werden und der gleiche Schutz der zwingenden Gründe des Allgemeininteresses und der Rechte von Personen im gesamten Binnenmarkt auf der Grundlage des Artikels 114 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV) gewährleistet wird. Soweit diese Verordnung konkrete Vorschriften zum Schutz von Einzelpersonen im Hinblick auf die Verarbeitung personenbezogener Daten enthält, mit denen die Verwendung von KI-Systemen zur biometrischen Fernidentifizierung zu Strafverfolgungszwecken, die Verwendung von KI-Systemen für die Risikobewertung natürlicher Personen zu Strafverfolgungszwecken und die Verwendung von KI-Systemen zur biometrischen Kategorisierung zu Strafverfolgungszwecken eingeschränkt wird, ist es angezeigt, diese Verordnung in Bezug auf diese konkreten Vorschriften auf Artikel 16 AEUV zu stützen. Angesichts dieser konkreten Vorschriften und des Rückgriffs auf Artikel 16 AEUV ist es angezeigt, den Europäischen Datenschutzausschuss zu konsultieren.
(3)
Tehisintellektisüsteeme saab kergesti juurutada paljudes erinevates majandussektorites ja ühiskonna osades, sealhulgas piiriüleselt, ning need saavad kergesti levida kogu liidus. Teatavad liikmesriigid on juba uurinud võimalust võtta vastu riigisisesed õigusnormid, et tagada tehisintellekti usaldusväärsus ja ohutus ning selle arendamine ja kasutamine kooskõlas põhiõigustealaste kohustustega. Erinevad riigisisesed õigusnormid võivad tuua kaasa siseturu killustumise ja võivad vähendada tehisintellektisüsteemide arendamise, impordi või kasutamisega tegelevate operaatorite õiguskindlust. Seepärast tuleks usaldusväärse tehisintellekti saavutamiseks tagada kõikjal liidus kaitse järjekindlus ja kõrge tase ning ühtlasi hoida ära erinevusi, mis kahjustavad tehisintellektisüsteemide ja nendega seotud toodete ja teenuste vaba ringlust, innovatsiooni, juurutamist ja levikut siseturul; selleks tuleks operaatoritele kehtestada ühetaolised kohustused ja tagada kaalukate üldiste huvide ja isikute õiguste ühtne kaitse siseturul, lähtudes Euroopa Liidu toimimise lepingu (ELi toimimise leping) artiklist 114. Kuivõrd käesolev määrus sisaldab konkreetseid õigusnorme, mis puudutavad üksikisikute kaitset isikuandmete töötlemisel ja millega piiratakse tehisintellektisüsteemide kasutamist õiguskaitse eesmärgil toimuva biomeetrilise kaugtuvastamise jaoks, tehisintellektisüsteemide kasutamist õiguskaitse eesmärgil toimuva füüsiliste isikutega seotud riskihindamise jaoks ja tehisintellektisüsteemide kasutamist õiguskaitse eesmärgil toimuva biomeetrilise liigitamise jaoks, on asjakohane võtta nende konkreetsete normide puhul käesoleva määruse aluseks ELi toimimise lepingu artikkel 16. Neid konkreetseid õigusnorme ja ELi toimimise lepingu artiklile 16 tuginemist silmas pidades on asjakohane konsulteerida Euroopa Andmekaitsenõukoguga.
(4)
KI bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und zu vielfältigem Nutzen für Wirtschaft, Umwelt und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Tätigkeiten hinweg beitragen. Durch die Verbesserung der Vorhersage, die Optimierung der Abläufe, Ressourcenzuweisung und die Personalisierung digitaler Lösungen, die Einzelpersonen und Organisationen zur Verfügung stehen, kann die Verwendung von KI Unternehmen wesentliche Wettbewerbsvorteile verschaffen und zu guten Ergebnissen für Gesellschaft und Umwelt führen, beispielsweise in den Bereichen Gesundheitsversorgung, Landwirtschaft, Lebensmittelsicherheit, allgemeine und berufliche Bildung, Medien, Sport, Kultur, Infrastrukturmanagement, Energie, Verkehr und Logistik, öffentliche Dienstleistungen, Sicherheit, Justiz, Ressourcen- und Energieeffizienz, Umweltüberwachung, Bewahrung und Wiederherstellung der Biodiversität und der Ökosysteme sowie Klimaschutz und Anpassung an den Klimawandel.
(4)
Tehisintellekt on kiiresti arenev tehnoloogiaharu, mis aitab saavutada mitmesuguseid majanduslikke, keskkondlikke ja ühiskondlikke hüvesid kõigis tööstusharudes ja ühiskondlikes tegevustes. Tänu täpsemale prognoosimisele, tegevuse ja ressursijaotuse optimeerimisele ning üksikisikutele ja organisatsioonidele kättesaadavate digilahenduste personaliseerimisele võib tehisintellekti kasutamine anda ettevõtjatele olulise konkurentsieelise ning toetada ühiskonna ja keskkonna jaoks soodsate tulemuste saavutamist näiteks sellistes valdkondades nagu tervishoid, põllumajandus, toiduohutus, haridus ja koolitus, meedia, sport, kultuur, taristuhaldus, energeetika, transport ja logistika, avalikud teenused, turvalisus, õigus, ressursi- ja energiatõhusus, keskkonnaseire, elurikkuse ja ökosüsteemide säilitamine ja taastamine ning kliimamuutuste leevendamine ja nendega kohanemine.
(5)
Gleichzeitig kann KI je nach den Umständen ihrer konkreten Anwendung und Nutzung sowie der technologischen Entwicklungsstufe Risiken mit sich bringen und öffentliche Interessen und grundlegende Rechte schädigen, die durch das Unionsrecht geschützt sind. Ein solcher Schaden kann materieller oder immaterieller Art sein, einschließlich physischer, psychischer, gesellschaftlicher oder wirtschaftlicher Schäden.
(5)
Samas võib tehisintellekt olenevalt konkreetse rakenduse asjaoludest, kasutusest ja tehnoloogilise arengu tasemest tekitada ka riske ning kahjustada avalikke huve ja liidu õigusega kaitstud põhiõigusi. Selline kahju võib olla varaline või mittevaraline, sealhulgas füüsiline, psühholoogiline, ühiskondlik või majanduslik.
(6)
Angesichts der großen Auswirkungen, die KI auf die Gesellschaft haben kann, und der Notwendigkeit, Vertrauen aufzubauen, ist es von entscheidender Bedeutung, dass KI und ihr Regulierungsrahmen im Einklang mit den in Artikel 2 des Vertrags über die Europäische Union (EUV) verankerten Werten der Union, den in den Verträgen und, nach Artikel 6 EUV, der Charta verankerten Grundrechten und -freiheiten entwickelt werden. Voraussetzung sollte sein, dass KI eine menschenzentrierte Technologie ist. Sie sollte den Menschen als Instrument dienen und letztendlich das menschliche Wohlergehen verbessern.
(6)
Võttes arvesse suurt mõju, mida tehisintellekt võib ühiskonnale avaldada, ja vajadust suurendada usaldust, on äärmiselt oluline, et tehisintellekti arendamisel ja selle õigusraamistiku väljatöötamisel järgitaks Euroopa Liidu lepingu (ELi lepingu) artiklis 2 sätestatud liidu väärtusi ning aluslepingutes ja ELi lepingu artikli 6 kohaselt põhiõiguste hartas sätestatud põhiõigusi ja -vabadusi. Tuleks seada eeltingimuseks, et tehisintellekt peab olema inimkeskne tehnoloogia. See peaks olema vahend, mis teenib inimesi ja mille lõppeesmärk on suurendada inimeste heaolu.
(7)
Um ein einheitliches und hohes Schutzniveau in Bezug auf öffentliche Interessen im Hinblick auf Gesundheit, Sicherheit und Grundrechte zu gewährleisten, sollten für alle Hochrisiko-KI-Systeme gemeinsame Vorschriften festgelegt werden. Diese Vorschriften sollten mit der Charta im Einklang stehen, nichtdiskriminierend sein und mit den internationalen Handelsverpflichtungen der Union vereinbar sein. Sie sollten auch die Europäische Erklärung zu den digitalen Rechten und Grundsätzen für die digitale Dekade und die Ethikleitlinien für vertrauenswürdige KI der hochrangigen Expertengruppe für künstliche Intelligenz berücksichtigen.
(7)
Selleks et tagada järjekindel ja kõrgetasemeline avalike huvide kaitse tervise, turvalisuse ja põhiõiguste vallas, tuleks suure riskiga tehisintellektisüsteemide jaoks kehtestada ühised õigusnormid. Need õigusnormid peaksid olema kooskõlas põhiõiguste hartaga, mittediskrimineerivad ja järgima liidu rahvusvahelisi kaubanduskohustusi. Samuti tuleks nende õigusnormide puhul arvesse võtta Euroopa deklaratsiooni digiõiguste ja -põhimõtete kohta digikümnendiks ja kõrgetasemelise tehisintellekti eksperdirühma suuniseid usaldusväärse tehisintellekti arendamiseks.
(8)
Daher ist ein Rechtsrahmen der Union mit harmonisierten Vorschriften für KI erforderlich, um die Entwicklung, Verwendung und Verbreitung von KI im Binnenmarkt zu fördern und gleichzeitig ein hohes Schutzniveau in Bezug auf öffentliche Interessen wie etwa Gesundheit und Sicherheit und den Schutz der durch das Unionsrecht anerkannten und geschützten Grundrechte, einschließlich der Demokratie, der Rechtsstaatlichkeit und des Umweltschutzes, zu gewährleisten. Zur Umsetzung dieses Ziels sollten Vorschriften für das Inverkehrbringen, die Inbetriebnahme und die Verwendung bestimmter KI-Systeme festgelegt werden, um das reibungslose Funktionieren des Binnenmarkts zu gewährleisten, sodass diesen Systemen der Grundsatz des freien Waren- und Dienstleistungsverkehrs zugutekommen kann. Diese Regeln sollten klar und robust sein, um die Grundrechte zu schützen, neue innovative Lösungen zu unterstützen und ein europäisches Ökosystem öffentlicher und privater Akteure zu ermöglichen, die KI-Systeme im Einklang mit den Werten der Union entwickeln, und um das Potenzial des digitalen Wandels in allen Regionen der Union zu erschließen. Durch die Festlegung dieser Vorschriften sowie durch Maßnahmen zur Unterstützung der Innovation mit besonderem Augenmerk auf kleinen und mittleren Unternehmen (KMU), einschließlich Start-up-Unternehmen, unterstützt diese Verordnung das vom Europäischen Rat formulierte Ziel, das europäische menschenzentrierte KI-Konzept zu fördern und bei der Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren KI weltweit eine Führungsrolle einzunehmen (5), und sorgt für den vom Europäischen Parlament ausdrücklich geforderten Schutz von Ethikgrundsätzen (6).
(8)
Seepärast on vaja liidu õigusraamistikku, milles nähakse ette tehisintellekti käsitlevad ühtlustatud õigusnormid, et edendada siseturul tehisintellekti arendamist, kasutamist ja levikut, mille puhul oleks ühtlasi tagatud liidu õigusega tunnustatud ja kaitstud avalike huvide, näiteks tervise ja ohutuse ning põhiõiguste, sealhulgas demokraatia ja õigusriigi kõrgetasemeline kaitse ning keskkonnakaitse. Selle eesmärgi saavutamiseks tuleks kehtestada teatavate tehisintellektisüsteemide turule laskmist, kasutusele võtmist ja kasutamist reguleerivad õigusnormid, et seeläbi tagada siseturu sujuv toimimine ja võimaldada neil süsteemidel saada kasu kaupade ja teenuste vaba liikumise põhimõttest. Nimetatud normid peaksid olema põhiõiguste kaitsmisel selged ja töökindlad, toetades uusi innovatiivseid lahendusi ning võimaldades avaliku ja erasektori osalejate Euroopa ökosüsteemil luua tehisintellektisüsteeme kooskõlas liidu väärtustega ja vallandades digipöörde potentsiaali kõigis liidu piirkondades. Nimetatud õigusnormide kehtestamisega, samuti meetmete võtmisega innovatsiooni toetamiseks, keskendudes eriti väikestele ja keskmise suurusega ettevõtjatele (VKEd), sealhulgas idufirmadele, toetab käesolev määrus eesmärki edendada Euroopa inimkeskset lähenemisviisi tehisintellektile ning seda, et liidul oleks turvalise, usaldusväärse ja eetilise tehisintellekti arendamises ülemaailmne juhtroll, nagu sõnastati Euroopa Ülemkogul, (5) ning samas aitab see tagada eetiliste põhimõtete kaitse, mida on eraldi nõudnud Euroopa Parlament (6).
(9)
Es sollten harmonisierte Vorschriften für das Inverkehrbringen, die Inbetriebnahme und die Verwendung von Hochrisiko-KI-Systemen im Einklang mit der Verordnung (EG) Nr. 765/2008 des Europäischen Parlaments und des Rates (7), dem Beschluss Nr. 768/2008/EG des Europäischen Parlaments und des Rates (8) und der Verordnung (EU) 2019/1020 des Europäischen Parlaments und des Rates (9) („neuer Rechtsrahmen“) festgelegt werden. Die in dieser Verordnung festgelegten harmonisierten Vorschriften sollten in allen Sektoren gelten und sollten im Einklang mit dem neuen Rechtsrahmen bestehendes Unionsrecht, das durch diese Verordnung ergänzt wird, unberührt lassen, insbesondere in den Bereichen Datenschutz, Verbraucherschutz, Grundrechte, Beschäftigung, Arbeitnehmerschutz und Produktsicherheit. Daher bleiben alle Rechte und Rechtsbehelfe, die für Verbraucher und andere Personen, auf die sich KI-Systeme negativ auswirken können, gemäß diesem Unionsrecht vorgesehen sind, auch in Bezug auf einen möglichen Schadenersatz gemäß der Richtlinie 85/374/EWG des Rates (10) unberührt und in vollem Umfang anwendbar. Darüber hinaus und unter Einhaltung des Unionsrechts in Bezug auf Beschäftigungs- und Arbeitsbedingungen, einschließlich des Gesundheitsschutzes und der Sicherheit am Arbeitsplatz sowie der Beziehungen zwischen Arbeitgebern und Arbeitnehmern sollte diese Verordnung daher — was Beschäftigung und den Schutz von Arbeitnehmern angeht — das Unionsrecht im Bereich der Sozialpolitik und die nationalen Arbeitsrechtsvorschriften nicht berühren. Diese Verordnung sollte auch die Ausübung der in den Mitgliedstaaten und auf Unionsebene anerkannten Grundrechte, einschließlich des Rechts oder der Freiheit zum Streik oder zur Durchführung anderer Maßnahmen, die im Rahmen der spezifischen Systeme der Mitgliedstaaten im Bereich der Arbeitsbeziehungen vorgesehen sind, sowie das Recht, im Einklang mit nationalem Recht Kollektivvereinbarungen auszuhandeln, abzuschließen und durchzusetzen oder kollektive Maßnahmen zu ergreifen, nicht beeinträchtigen. Diese Verordnung sollte die in einer Richtlinie des Europäischen Parlaments und des Rates zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit enthaltenen Bestimmungen nicht berühren. Darüber hinaus zielt diese Verordnung darauf ab, die Wirksamkeit dieser bestehenden Rechte und Rechtsbehelfe zu stärken, indem bestimmte Anforderungen und Pflichten, auch in Bezug auf die Transparenz, die technische Dokumentation und das Führen von Aufzeichnungen von KI-Systemen, festgelegt werden. Ferner sollten die in dieser Verordnung festgelegten Pflichten der verschiedenen Akteure, die an der KI-Wertschöpfungskette beteiligt sind, unbeschadet der nationalen Rechtsvorschriften unter Einhaltung des Unionsrechts angewandt werden, wodurch die Verwendung bestimmter KI-Systeme begrenzt wird, wenn diese Rechtsvorschriften nicht in den Anwendungsbereich dieser Verordnung fallen oder mit ihnen andere legitime Ziele des öffentlichen Interesses verfolgt werden als in dieser Verordnung. So sollten etwa die nationalen arbeitsrechtlichen Vorschriften und die Rechtsvorschriften zum Schutz Minderjähriger, nämlich Personen unter 18 Jahren, unter Berücksichtigung der Allgemeinen Bemerkung Nr. 25 (2021) des UNCRC über die Rechte der Kinder im digitalen Umfeld von dieser Verordnung unberührt bleiben, sofern sie nicht spezifisch KI-Systeme betreffen und mit ihnen andere legitime Ziele des öffentlichen Interesses verfolgt werden.
(9)
Suure riskiga tehisintellektisüsteemide turule laskmise, kasutusele võtmise ja kasutamise suhtes kohaldatavad ühtlustatud õigusnormid tuleks kehtestada kooskõlas Euroopa Parlamendi ja nõukogu määrusega (EÜ) nr 765/2008, (7) Euroopa Parlamendi ja nõukogu otsusega nr 768/2008/EÜ (8) ning Euroopa Parlamendi ja nõukogu määrusega (EL) 2019/1020 (9) (edaspidi „uus õigusraamistik“). Käesolevas määruses sätestatud ühtlustatud õigusnorme tuleks kohaldada kõigis sektorites ning kooskõlas uue õigusraamistikuga ei tohiks need piirata kehtivat liidu õigust, eeskätt andmekaitset, tarbijakaitset, põhiõigusi, tööhõivet ja töötajate kaitset ning tooteohutust käsitlevaid õigusakte, mida käesolev määrus täiendab. Sellest tulenevalt jäävad muutumatuks ja täielikult kohaldatavaks kõik õigused ja õiguskaitsevahendid, mis on liidu õiguses ette nähtud tarbijatele ja muudele isikutele, keda tehisintellektisüsteemid võivad negatiivselt mõjutada, sealhulgas seoses võimaliku kahju hüvitamisega vastavalt nõukogu direktiivile 85/374/EMÜ (10). Lisaks ei tohiks käesolev määrus tööhõive ja töötajate kaitse kontekstis mõjutada sotsiaalpoliitikat käsitlevat liidu õigust ega liidu õigusega kooskõlas olevat riigisisest tööõigust, mis käsitleb tööhõivet ja töötingimusi, sealhulgas töötervishoidu ja -ohutust ning tööandjate ja töötajate vahelisi suhteid. Käesolev määrus ei tohiks samuti mõjutada liikmesriikides ja liidu tasandil tunnustatud põhiõiguste, sealhulgas streigiõiguse või -vabaduse teostamist või õigust või vabadust võtta muid liikmesriikide töösuhete erisüsteemidega hõlmatud meetmeid, samuti õigust pidada läbirääkimisi kollektiivlepingute üle, neid sõlmida ja jõustada või kollektiivselt tegutseda kooskõlas riigisisese õigusega. Käesolev määrus ei tohiks mõjutada sätteid, mille eesmärk on parandada platvormitöö tingimusi, mis on sätestatud Euroopa Parlamendi ja nõukogu direktiivis platvormitöö tingimuste parandamise kohta. Lisaks sellele on käesoleva määruse eesmärk tugevdada nimetatud kehtivate õiguste ja õiguskaitsevahendite tõhusust, kehtestades konkreetsed nõuded ja kohustused, sealhulgas seoses tehisintellektisüsteemide läbipaistvuse, tehnilise dokumentatsiooni ja andmete säilitamisega. Samuti ei tohiks käesoleva määruse alusel tehisintellekti väärtusahelas osalevatele eri operaatoritele pandud kohustuste kohaldamine mõjutada liidu õigusega kooskõlas olevate teatavate tehisintellektisüsteemide kasutamist piiravate riigisiseste õigusaktide kohaldamist, kui sellised õigusaktid jäävad käesoleva määruse kohaldamisalast välja või kui nendega taotletakse muid õiguspäraseid avaliku huvi eesmärke kui need, mida taotletakse käesoleva määrusega. Näiteks ei tohiks käesolev määrus mõjutada riigisisest tööõigust ja alaealiste, nimelt alla 18-aastaste isikute kaitset käsitlevaid õigusakte, võttes arvesse ÜRO lapse õiguste komitee üldist märkust nr 25 (2021) laste õiguste kohta seoses digikeskkonnaga, niivõrd, kuivõrd need ei ole tehisintellektisüsteemidele eriomased ja taotlevad muid õiguspäraseid avaliku huvi eesmärke.
(10)
Das Grundrecht auf Schutz personenbezogener Daten wird insbesondere durch die Verordnungen (EU) 2016/679 (11) und (EU) 2018/1725 (12) des Europäischen Parlaments und des Rates und die Richtlinie (EU) 2016/680 des Europäischen Parlaments und des Rates (13) gewahrt. Die Richtlinie 2002/58/EG des Europäischen Parlaments und des Rates (14) schützt darüber hinaus die Privatsphäre und die Vertraulichkeit der Kommunikation, auch durch Bedingungen für die Speicherung personenbezogener und nicht personenbezogener Daten auf Endgeräten und den Zugang dazu. Diese Rechtsakte der Union bieten die Grundlage für eine nachhaltige und verantwortungsvolle Datenverarbeitung, auch wenn Datensätze eine Mischung aus personenbezogenen und nicht-personenbezogenen Daten enthalten. Diese Verordnung soll die Anwendung des bestehenden Unionsrechts zur Verarbeitung personenbezogener Daten, einschließlich der Aufgaben und Befugnisse der unabhängigen Aufsichtsbehörden, die für die Überwachung der Einhaltung dieser Instrumente zuständig sind, nicht berühren. Sie lässt ferner die Pflichten der Anbieter und Betreiber von KI-Systemen in ihrer Rolle als Verantwortliche oder Auftragsverarbeiter, die sich aus dem Unionsrecht oder dem nationalen Recht über den Schutz personenbezogener Daten ergeben, unberührt, soweit die Konzeption, die Entwicklung oder die Verwendung von KI-Systemen die Verarbeitung personenbezogener Daten umfasst. Ferner sollte klargestellt werden, dass betroffene Personen weiterhin über alle Rechte und Garantien verfügen, die ihnen durch dieses Unionsrecht gewährt werden, einschließlich der Rechte im Zusammenhang mit der ausschließlich automatisierten Entscheidungsfindung im Einzelfall und dem Profiling. Harmonisierte Vorschriften für das Inverkehrbringen, die Inbetriebnahme und die Verwendung von KI-Systemen, die im Rahmen dieser Verordnung festgelegt werden, sollten die wirksame Durchführung erleichtern und die Ausübung der Rechte betroffener Personen und anderer Rechtsbehelfe, die im Unionsrecht über den Schutz personenbezogener Daten und anderer Grundrechte garantiert sind, ermöglichen.
(10)
Põhiõigus isikuandmete kaitsele on tagatud eelkõige Euroopa Parlamendi ja nõukogu määrustega (EL) 2016/679 (11) ja (EL) 2018/1725 (12) ning Euroopa Parlamendi ja nõukogu direktiiviga (EL) 2016/680 (13). Euroopa Parlamendi ja nõukogu direktiiviga 2002/58/EÜ (14) kaitstakse lisaks eraelu puutumatust ja side konfidentsiaalsust, sealhulgas isikuandmete ja isikustamata andmete lõppseadmesse talletamist ja andmetele lõppseadmest juurdepääsu käsitlevate tingimuste sätestamise kaudu. Need liidu õigusaktid on aluseks kestlikule ja vastutustundlikule andmetöötlusele, sealhulgas juhtudel, kui andmestikud sisaldavad nii isikuandmeid kui ka isikustamata andmeid. Käesoleva määruse eesmärk ei ole mõjutada isikuandmete töötlemist reguleeriva kehtiva liidu õiguse kohaldamist, sealhulgas selliste sõltumatute järelevalveasutuste ülesandeid ja volitusi, kes on pädevad jälgima kõnealuste õigusaktide järgimist. Samuti ei mõjuta käesolev määrus tehisintellektisüsteemide pakkujate ja juurutajate jaoks liidu või liikmesriikide õigusest tulenevaid kohustusi, mis on seotud nende rolliga vastutava töötlejana või volitatud töötlejana ning mis käsitlevad isikuandmete kaitset, niivõrd, kuivõrd tehisintellektisüsteemide projekteerimine, arendamine või kasutamine hõlmab isikuandmete töötlemist. Samuti on asjakohane selgitada, et andmesubjektide jaoks säilivad kõik sellisest liidu õigusest tulenevad õigused ja tagatised, sealhulgas üksnes automatiseeritud üksikotsuste tegemisega (k.a profiilianalüüsiga) seotud õigused. Käesoleva määruse alusel kehtestatud tehisintellektisüsteemide turule laskmist, kasutusele võtmist ja kasutamist käsitlevad ühtlustatud õigusnormid peaksid hõlbustama andmesubjektide õiguste ja teiste liidu õiguse kohaselt isikuandmete kaitse ja muude põhiõigustega seoses tagatud õiguskaitsevahendite tulemuslikku rakendamist ning võimaldama nende kasutamist.
(11)
Diese Verordnung sollte die Bestimmungen über die Verantwortlichkeit der Anbieter von Vermittlungsdiensten gemäß der Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates (15) unberührt lassen.
(11)
Käesolev määrus ei tohiks mõjutada Euroopa Parlamendi ja nõukogu määruse (EL) 2022/2065 (15) vahendajatest teenuseosutajate vastutust käsitlevate sätete kohaldamist.
(12)
Der Begriff „KI-System“ in dieser Verordnung sollte klar definiert und eng mit der Tätigkeit internationaler Organisationen abgestimmt werden, die sich mit KI befassen, um Rechtssicherheit, mehr internationale Konvergenz und hohe Akzeptanz sicherzustellen und gleichzeitig Flexibilität zu bieten, um den raschen technologischen Entwicklungen in diesem Bereich Rechnung zu tragen. Darüber hinaus sollte die Begriffsbestimmung auf den wesentlichen Merkmalen der KI beruhen, die sie von einfacheren herkömmlichen Softwaresystemen und Programmierungsansätzen abgrenzen, und sollte sich nicht auf Systeme beziehen, die auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen. Ein wesentliches Merkmal von KI-Systemen ist ihre Fähigkeit, abzuleiten. Diese Fähigkeit bezieht sich auf den Prozess der Erzeugung von Ausgaben, wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen, die physische und digitale Umgebungen beeinflussen können, sowie auf die Fähigkeit von KI-Systemen, Modelle oder Algorithmen oder beides aus Eingaben oder Daten abzuleiten. Zu den Techniken, die während der Gestaltung eines KI-Systems das Ableiten ermöglichen, gehören Ansätze für maschinelles Lernen, wobei aus Daten gelernt wird, wie bestimmte Ziele erreicht werden können, sowie logik- und wissensgestützte Konzepte, wobei aus kodierten Informationen oder symbolischen Darstellungen der zu lösenden Aufgabe abgeleitet wird. Die Fähigkeit eines KI-Systems, abzuleiten, geht über die einfache Datenverarbeitung hinaus, indem Lern-, Schlussfolgerungs- und Modellierungsprozesse ermöglicht werden. Die Bezeichnung „maschinenbasiert“ bezieht sich auf die Tatsache, dass KI-Systeme von Maschinen betrieben werden. Durch die Bezugnahme auf explizite oder implizite Ziele wird betont, dass KI-Systeme gemäß explizit festgelegten Zielen oder gemäß impliziten Zielen arbeiten können. Die Ziele des KI-Systems können sich — unter bestimmten Umständen — von der Zweckbestimmung des KI-Systems unterscheiden. Für die Zwecke dieser Verordnung sollten Umgebungen als Kontexte verstanden werden, in denen KI-Systeme betrieben werden, während die von einem KI-System erzeugten Ausgaben verschiedene Funktionen von KI-Systemen widerspiegeln, darunter Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen. KI-Systeme sind mit verschiedenen Graden der Autonomie ausgestattet, was bedeutet, dass sie bis zu einem gewissen Grad unabhängig von menschlichem Zutun agieren und in der Lage sind, ohne menschliches Eingreifen zu arbeiten. Die Anpassungsfähigkeit, die ein KI-System nach Inbetriebnahme aufweisen könnte, bezieht sich auf seine Lernfähigkeit, durch sie es sich während seiner Verwendung verändern kann. KI-Systeme können eigenständig oder als Bestandteil eines Produkts verwendet werden, unabhängig davon, ob das System physisch in das Produkt integriert (eingebettet) ist oder der Funktion des Produkts dient, ohne darin integriert zu sein (nicht eingebettet).
(12)
Tehisintellektisüsteemi mõiste tuleks käesolevas määruses selgelt määratleda ja see peaks olema tihedalt kooskõlas tehisintellekti valdkonnas tegutsevate rahvusvaheliste organisatsioonide tööga, et tagada õiguskindlus, hõlbustada rahvusvahelist lähenemist ja laialdast aktsepteerimist, võimaldades samal ajal paindlikkust, et võtta arvesse tehnoloogia kiiret arengut selles valdkonnas. Lisaks peaks see mõiste põhinema tehisintellektisüsteemide põhiomadustel, mis eristavad neid lihtsamatest traditsioonilistest tarkvarasüsteemidest või programmeerimisviisidest ega peaks hõlmama süsteeme, mis kasutavad toimingute automaatseks sooritamiseks üksnes füüsiliste isikute määratletud reegleid. Tehisintellektisüsteemide põhiomadus on nende võime teha järeldusi. See järelduste tegemise võime viitab protsessile, mis toodab selliseid väljundeid nagu prognoosid, sisu, soovitused või otsused, mis võivad mõjutada füüsilist ja virtuaalset keskkonda, ning tehisintellektisüsteemide võimele tuletada sisenditest või andmetest mudeleid või algoritme või mõlemaid. Meetodid, mis aitavad tehisintellektisüsteemi loomisel saavutada selle järelduste tegemise võime, hõlmavad masinõppemeetodeid, mis õpivad andmete põhjal, kuidas saavutada teatavaid eesmärke, ning loogika- ja teadmistepõhiseid lähenemisviise, mis teevad järeldusi kodeeritud teadmiste või lahendatava ülesande sümboolse esituse põhjal. Tehisintellektisüsteemi võime teha järeldusi ulatub kaugemale vaid andmete töötlemisest, võimaldades õppimist, arutlust või modelleerimist. Mõiste „masinpõhine“ viitab asjaolule, et tehisintellektisüsteemid kasutavad oma tööks masinaid. Viide otsestele või kaudsetele eesmärkidele rõhutab, et tehisintellektisüsteemid võivad toimida vastavalt selgetele määratletud eesmärkidele või kaudsetele eesmärkidele. Tehisintellektisüsteemi eesmärgid võivad teatud kontekstis erineda tehisintellektisüsteemi kasutusotstarbest. Käesoleva määruse kohaldamisel tuleks keskkondade all mõista konteksti, milles tehisintellektisüsteemid toimivad, samas kui tehisintellektisüsteemi loodud väljundid kajastavad tehisintellektisüsteemide erinevaid funktsioone ning hõlmavad prognoose, sisu, soovitusi ja otsuseid. Tehisintellektisüsteemid on projekteeritud töötama erinevatel autonoomsuse tasemetel, mis tähendab, et neil on teatav inimesest sõltumatu tegevusvabadus ja suutlikkus toimida ilma inimsekkumiseta. Kohanemisvõime, mida tehisintellektisüsteem võib pärast juurutamist demonstreerida, viitab iseõppimisvõimele, mis võimaldab süsteemil kasutamise ajal muutuda. Tehisintellektisüsteeme võib kasutada autonoomselt või mingi toote komponentidena, olenemata sellest, kas süsteem on füüsiliselt tootesse integreeritud (sisseehitatud) või teenib toote funktsionaalsust ilma, et oleks sellesse integreeritud (sisseehitamata).
(13)
Der in dieser Verordnung verwendete Begriff „Betreiber“ sollte als eine natürliche oder juristische Person, einschließlich Behörden, Einrichtungen oder sonstiger Stellen, die ein KI-System unter ihrer Befugnis verwenden, verstanden werden, es sei denn das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet. Je nach Art des KI-Systems kann sich dessen Verwendung auf andere Personen als den Betreiber auswirken.
(13)
Käesolevas määruses osutatud juurutaja mõistet tuleks tõlgendada kui tehisintellektisüsteemi kasutavat mis tahes füüsilist või juriidilist isikut, sealhulgas avaliku sektori asutust, ametit või muud organit, kelle volitusel süsteemi kasutatakse, välja arvatud juhul, kui tehisintellektisüsteemi kasutatakse isikliku, mitte kutselise tegevuse jaoks. Olenevalt tehisintellektisüsteemi tüübist võib süsteemi kasutamine mõjutada lisaks juurutajale ka muid isikuid.
(14)
Der in dieser Verordnung verwendete Begriff „biometrische Daten“ sollte im Sinne des Begriffs „biometrische Daten“ nach Artikel 4 Nummer 14 der Verordnung (EU) 2016/679, Artikel 3 Nummer 18 der Verordnung (EU) 2018/1725 und Artikel 3 Nummer 13 der Richtlinie (EU) 2016/680 ausgelegt werden. Biometrische Daten können die Authentifizierung, Identifizierung oder Kategorisierung natürlicher Personen und die Erkennung von Emotionen natürlicher Personen ermöglichen.
(14)
Käesolevas määruses kasutatavat biomeetriliste andmete mõistet tuleks tõlgendada lähtudes määruse (EL) 2016/679 artikli 4 punktis 14, määruse (EL) 2018/1725 artikli 3 punktis 18 ja direktiivi (EL) 2016/680 artikli 3 punktis 13 määratletud biomeetriliste andmete mõistest. Biomeetrilised andmed võivad võimaldada füüsiliste isikute autentimist, tuvastamist või liigitamist ning füüsiliste isikute emotsioonide tuvastamist.
(15)
Der Begriff „biometrische Identifizierung“ sollte gemäß dieser Verordnung als automatische Erkennung physischer, physiologischer und verhaltensbezogener menschlicher Merkmale wie Gesicht, Augenbewegungen, Körperform, Stimme, Prosodie, Gang, Haltung, Herzfrequenz, Blutdruck, Geruch, charakteristischer Tastenanschlag zum Zweck der Überprüfung der Identität einer Person durch Abgleich der biometrischen Daten der entsprechenden Person mit den in einer Datenbank gespeicherten biometrischen Daten definiert werden, unabhängig davon, ob die Einzelperson ihre Zustimmung dazu gegeben hat oder nicht. Dies umfasst keine KI-Systeme, die bestimmungsgemäß für die biometrische Verifizierung, wozu die Authentifizierung gehört, verwendet werden sollen, deren einziger Zweck darin besteht, zu bestätigen, dass eine bestimmte natürliche Person die Person ist, für die sie sich ausgibt, sowie zur Bestätigung der Identität einer natürlichen Person zu dem alleinigen Zweck Zugang zu einem Dienst zu erhalten, ein Gerät zu entriegeln oder Sicherheitszugang zu Räumlichkeiten zu erhalten.
(15)
Käesolevas määruses osutatud biomeetrilise tuvastamise mõiste tuleks määratleda kui inimeste füüsiliste, füsioloogiliste ja käitumuslike tunnuste, nagu nägu, silmade liikumine, kehakuju, hääl, prosoodia, kõnnak, kehahoiak, südame löögisagedus, vererõhk, lõhn, klahvivajutuste erijooned, automaatseks tuvastamiseks isiku isikusamasuse kindlakstegemise eesmärgil, võrreldes selle isiku biomeetrilisi andmeid isikute võrdlusandmebaasi salvestatud biomeetriliste andmetega, sõltumata sellest, kas isik on andnud selleks nõusoleku või mitte. See ei hõlma tehisintellektisüsteeme, mis on ette nähtud biomeetriliseks kontrolliks, kaasa arvatud autentimiseks, mille ainus eesmärk on kinnitada, et konkreetne füüsiline isik on see, kes ta väidab end olevat, ning füüsilise isiku isikusamasuse kinnitamiseks üksnes selleks, et saada juurdepääs teenusele, avada seade või saada juurdepääsuluba ruumidesse sisenemiseks.
(16)
Der Begriff „biometrischen Kategorisierung“ sollte im Sinne dieser Verordnung die Zuordnung natürlicher Personen auf der Grundlage ihrer biometrischen Daten zu bestimmten Kategorien bezeichnen. Diese bestimmten Kategorien können Aspekte wie Geschlecht, Alter, Haarfarbe, Augenfarbe, Tätowierungen, Verhaltens- oder Persönlichkeitsmerkmale, Sprache, Religion, Zugehörigkeit zu einer nationalen Minderheit, sexuelle oder politische Ausrichtung betreffen. Dies gilt nicht für Systeme zur biometrischen Kategorisierung, bei denen es sich um eine reine Nebenfunktion handelt, die untrennbar mit einem anderen kommerziellen Dienst verbunden ist, d. h. die Funktion kann aus objektiven technischen Gründen nicht ohne den Hauptdienst verwendet werden und die Integration dieses Merkmals oder dieser Funktion dient nicht dazu, die Anwendbarkeit der Vorschriften dieser Verordnung zu umgehen. Beispielsweise könnten Filter zur Kategorisierung von Gesichts- oder Körpermerkmalen, die auf Online-Marktplätzen verwendet werden, eine solche Nebenfunktion darstellen, da sie nur im Zusammenhang mit der Hauptdienstleistung verwendet werden können, die darin besteht, ein Produkt zu verkaufen, indem es dem Verbraucher ermöglicht wird, zu sehen, wie das Produkt an seiner Person aussieht, und ihm so zu helfen, eine Kaufentscheidung zu treffen. Filter, die in sozialen Netzwerken eingesetzt werden und Gesichts- oder Körpermerkmale kategorisieren, um es den Nutzern zu ermöglichen, Bilder oder Videos hinzuzufügen oder zu verändern, können ebenfalls als Nebenfunktion betrachtet werden, da ein solcher Filter nicht ohne die Hauptdienstleistung sozialer Netzwerke verwendet werden kann, die in der Weitergabe von Online-Inhalten besteht.
(16)
Käesolevas määruses osutatud biomeetrilise liigitamise mõiste tuleks määratleda kui füüsiliste isikute jagamine teatud kategooriatesse nende biomeetriliste andmete alusel. Kõnealused konkreetsed kategooriad võivad olla seotud selliste aspektidega nagu sugu, vanus, juuksevärv, silmade värv, tätoveeringud, käitumine või isikuomadused, keel, usk, rahvusvähemusse kuulumine, seksuaalne või poliitiline sättumus. See ei hõlma biomeetrilise liigitamise süsteeme, mis on puhtalt lisafunktsioonid, mis on lahutamatult seotud teise äriteenusega, mis tähendab, et seda funktsiooni ei saa objektiivsetel tehnilistel põhjustel kasutada ilma põhiteenuseta ning selle funktsiooni või funktsioonistiku integreerimine ei ole vahend käesoleva määruse normide kohaldamisest kõrvalehoidmiseks. Sellised lisafunktsioonid võivad olla näiteks internetipõhistes kauplemiskohtades kasutatavad filtrid näojoonte või kehaehituse liigitamiseks, kuna neid saab kasutada ainult seoses põhiteenusega, mis seisneb toote müümises sellisel viisil, mis võimaldab tarbijal toote virtuaalset proovimist enda peal ja aidates selle abil tarbijal teha ostuotsust. Lisafunktsiooniks võib pidada ka veebipõhistes sotsiaalvõrgustike teenustes kasutatavaid filtreid, millega liigitatakse näojooned või kehaehitus, et võimaldada kasutajatel lisada või muuta pilte või videoid, kuna sellist filtrit ei saa kasutada ilma sotsiaalvõrgustiku teenuste põhiteenuseta, mis seisneb veebisisu jagamises.
(17)
Der in dieser Verordnung verwendete Begriff „biometrisches Fernidentifizierungssystem“ sollte funktional definiert werden als KI-System, das dem Zweck dient, natürliche Personen ohne ihre aktive Einbeziehung in der Regel aus der Ferne durch Abgleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank gespeicherten biometrischen Daten zu identifizieren, unabhängig davon, welche Technologie, Verfahren oder Arten biometrischer Daten dazu verwendet werden. Diese biometrischen Fernidentifizierungssysteme werden in der Regel zur zeitgleichen Erkennung mehrerer Personen oder ihrer Verhaltensweisen verwendet, um die Identifizierung natürlicher Personen ohne ihre aktive Einbeziehung erheblich zu erleichtern. Dies umfasst keine KI-Systeme, die bestimmungsgemäß für die biometrische Verifizierung, wozu die Authentifizierung gehört, verwendet werden sollen, deren einziger Zweck darin besteht, zu bestätigen, dass eine bestimmte natürliche Person die Person ist, für die sie sich ausgibt, sowie zur Bestätigung der Identität einer natürlichen Person zu dem alleinigen Zweck Zugang zu einem Dienst zu erhalten, ein Gerät zu entriegeln oder Sicherheitszugang zu Räumlichkeiten zu erhalten. Diese Ausnahme wird damit begründet, dass diese Systeme im Vergleich zu biometrischen Fernidentifizierungssystemen, die zur Verarbeitung biometrischer Daten einer großen Anzahl von Personen ohne ihre aktive Einbeziehung verwendet werden können, geringfügige Auswirkungen auf die Grundrechte natürlicher Personen haben dürften. Bei „Echtzeit-Systemen“ erfolgen die Erfassung der biometrischen Daten, der Abgleich und die Identifizierung zeitgleich, nahezu zeitgleich oder auf jeden Fall ohne erhebliche Verzögerung. In diesem Zusammenhang sollte es keinen Spielraum für eine Umgehung der Bestimmungen dieser Verordnung über die „Echtzeit-Nutzung“ der betreffenden KI-Systeme geben, indem kleinere Verzögerungen vorgesehen werden. „Echtzeit-Systeme“ umfassen die Verwendung von „Live-Material“ oder „Near-live-Material“ wie etwa Videoaufnahmen, die von einer Kamera oder einem anderen Gerät mit ähnlicher Funktion erzeugt werden. Bei Systemen zur nachträglichen Identifizierung hingegen wurden die biometrischen Daten schon zuvor erfasst und der Abgleich und die Identifizierung erfolgen erst mit erheblicher Verzögerung. Dabei handelt es sich um Material wie etwa Bild- oder Videoaufnahmen, die von Video-Überwachungssystemen oder privaten Geräten vor der Anwendung des Systems auf die betroffenen natürlichen Personen erzeugt wurden.
(17)
Käesolevas määruses osutatud biomeetrilise kaugtuvastamise süsteemi mõiste tuleks määratleda funktsioonidest lähtuvalt kui tehisintellektisüsteem, mis on mõeldud füüsiliste isikute tuvastamiseks ilma nende aktiivse osaluseta, tavaliselt eemalt, võrreldes isiku biomeetrilisi andmeid võrdlusandmebaasis sisalduvate biomeetriliste andmetega, olenemata sellest, milliseid konkreetseid tehnoloogiaid ja protseduure või mis liiki biomeetrilisi andmeid selleks kasutatakse. Selliseid biomeetrilise kaugtuvastamise süsteeme kasutatakse tavaliselt mitme isiku või nende käitumise samaaegseks tajumiseks, et oluliselt hõlbustada füüsiliste isikute tuvastamist ilma nende aktiivse osaluseta. See ei hõlma tehisintellektisüsteeme, mis on ette nähtud biomeetriliseks kontrolliks, kaasa arvatud autentimiseks, mille ainus eesmärk on kinnitada, et konkreetne füüsiline isik on see, kes ta väidab end olevat, ning füüsilise isiku isikusamasuse kinnitamiseks üksnes selleks, et saada juurdepääs teenusele, avada seade või saada juurdepääsuluba ruumidesse sisenemiseks. Kõnealune väljajätmine on põhjendatud asjaoluga, et sellistel süsteemidel on tõenäoliselt väike mõju füüsiliste isikute põhiõigustele võrreldes selliste biomeetrilise kaugtuvastamise süsteemidega, mida võidakse kasutada suure hulga isikute biomeetriliste andmete töötlemiseks ilma nende aktiivse osaluseta. Reaalajaliste süsteemide puhul toimub nii biomeetriliste andmete hõive, võrdlemine kui ka isikutuvastus koheselt, peaaegu koheselt või igal juhul ilma märkimisväärse viivituseta. Siinjuures ei tohiks jääda võimalust hoida väikeste viivituste kasutamisega kõrvale käesoleva määruse sätetest, mis käsitlevad asjaomaste tehisintellektisüsteemide kasutamist reaalajas. Reaalajalistes süsteemides kasutatakse kaamera või muu sarnase funktsiooniga seadmega tehtud otse edastatavat või peaaegu otse edastatavat materjali, näiteks videosalvestisi. Tagantjärele kasutatavate süsteemide puhul on aga biomeetriliste andmete hõive juba toimunud ning võrdlemine ja isikutuvastus toimub alles pärast olulist viivitust. Sealjuures kasutatakse sellist materjali nagu videovalvesüsteemi või isikliku seadmega tehtud pildid või videosalvestised, mis on tehtud enne, kui süsteemi konkreetse füüsilise isiku puhul kasutatakse.
(18)
Der in dieser Verordnung verwendete Begriff „Emotionserkennungssystem“ sollte als ein KI-System definiert werden, das dem Zweck dient, Emotionen oder Absichten natürlicher Personen auf der Grundlage ihrer biometrischen Daten festzustellen oder daraus abzuleiten. In diesem Begriff geht es um Emotionen oder Absichten wie Glück, Trauer, Wut, Überraschung, Ekel, Verlegenheit, Aufregung, Scham, Verachtung, Zufriedenheit und Vergnügen. Dies umfasst nicht physische Zustände wie Schmerz oder Ermüdung, einschließlich beispielsweise Systeme, die zur Erkennung des Zustands der Ermüdung von Berufspiloten oder -fahrern eigesetzt werden, um Unfälle zu verhindern. Es geht dabei auch nicht um die bloße Erkennung offensichtlicher Ausdrucksformen, Gesten und Bewegungen, es sei denn, sie werden zum Erkennen oder Ableiten von Emotionen verwendet. Bei diesen Ausdrucksformen kann es sich um einfache Gesichtsausdrücke wie ein Stirnrunzeln oder ein Lächeln oder um Gesten wie Hand-, Arm- oder Kopfbewegungen oder um die Stimmmerkmale einer Person handeln, wie eine erhobene Stimme oder ein Flüstern.
(18)
Käesolevas määruses osutatud emotsioonituvastussüsteemi mõiste tuleks määratleda kui tehisintellektisüsteem, mille eesmärk on tuvastada või tuletada füüsiliste isikute emotsioone või kavatsusi nende biomeetriliste andmete põhjal. Selle mõistega viidatakse sellistele emotsioonidele või kavatsustele nagu õnnetunne, kurbus, viha, üllatus, vastikus, piinlikkus, elevus, häbi, põlgus, rahulolu ja lõbustatus. See ei hõlma füüsilisi seisundeid, nagu valu või väsimus, sealhulgas näiteks süsteeme, mida kasutatakse kutseliste pilootide või sõidukijuhtide väsimuse avastamiseks, et õnnetusi ära hoida. See ei hõlma ka pelgalt kergesti arusaadavate ilmete, žestide või liigutuste kindlakstegemist, välja arvatud juhul, kui neid kasutatakse emotsioonide tuvastamiseks või tuletamiseks. Nimetatud ilmed võivad olla tavalised näoilmed, näiteks kulmukortsutus või naeratus, või žestid, nagu käte- või pealiigutused, või isiku hääle erijooned, näiteks vali hääl või sosistamine.
(19)
Für die Zwecke dieser Verordnung sollte der Begriff „öffentlich zugänglicher Raum“ so verstanden werden, dass er sich auf einen einer unbestimmten Anzahl natürlicher Personen zugänglichen physischen Ort bezieht, unabhängig davon, ob er sich in privatem oder öffentlichem Eigentum befindet, unabhängig von den Tätigkeiten, für die der Ort verwendet werden kann; dazu zählen Bereiche wie etwa für Gewerbe, etwa Geschäfte, Restaurants, Cafés, für Dienstleistungen, etwa Banken, berufliche Tätigkeiten, Gastgewerbe, für Sport, etwa Schwimmbäder, Fitnessstudios, Stadien, für Verkehr, etwa Bus- und U-Bahn-Haltestellen, Bahnhöfe, Flughäfen, Transportmittel, für Unterhaltung, etwa Kinos, Theater, Museen, Konzert- und Konferenzsäle oder für Freizeit oder Sonstiges, etwa öffentliche Straßen und Plätze, Parks, Wälder, Spielplätze. Ein Ort sollte auch als öffentlich zugänglich eingestuft werden, wenn der Zugang, unabhängig von möglichen Kapazitäts- oder Sicherheitsbeschränkungen, bestimmten im Voraus festgelegten Bedingungen unterliegt, die von einer unbestimmten Anzahl von Personen erfüllt werden können, etwa durch den Kauf eines Fahrscheins, die vorherige Registrierung oder die Erfüllung eines Mindestalters. Dahingegen sollte ein Ort nicht als öffentlich zugänglich gelten, wenn der Zugang auf natürliche Personen beschränkt ist, die entweder im Unionsrecht oder im nationalen Recht, das direkt mit der öffentlichen Sicherheit zusammenhängt, oder im Rahmen einer eindeutigen Willenserklärung der Person, die die entsprechende Befugnis über den Ort ausübt, bestimmt und festgelegt werden. Die tatsächliche Zugangsmöglichkeit allein, etwa eine unversperrte Tür oder ein offenes Zauntor, bedeutet nicht, dass der Ort öffentlich zugänglich ist, wenn aufgrund von Hinweisen oder Umständen das Gegenteil nahegelegt wird (etwa Schilder, die den Zugang verbieten oder einschränken). Unternehmens- und Fabrikgelände sowie Büros und Arbeitsplätze, die nur für die betreffenden Mitarbeiter und Dienstleister zugänglich sein sollen, sind Orte, die nicht öffentlich zugänglich sind. Justizvollzugsanstalten und Grenzkontrollbereiche sollten nicht zu den öffentlich zugänglichen Orten zählen. Einige andere Gebiete können sowohl öffentlich zugängliche als auch nicht öffentlich zugängliche Orte umfassen, etwa die Gänge eines privaten Wohngebäudes, deren Zugang erforderlich ist, um zu einer Arztpraxis zu gelangen, oder Flughäfen. Online-Räume werden nicht erfasst, da es sich nicht um physische Räume handelt. Ob ein bestimmter Raum öffentlich zugänglich ist, sollte jedoch von Fall zu Fall unter Berücksichtigung der Besonderheiten der jeweiligen individuellen Situation entschieden werden.
(19)
Käesoleva määruse kohaldamisel tuleks avalikult juurdepääsetava ruumina käsitada mis tahes füüsilist ruumi, mis on määratlemata arvu füüsiliste isikute jaoks juurdepääsetav, olenemata sellest, kas kõnealune ruum on era- või avalik-õiguslikus omandis, olenemata tegevusest, mille jaoks ruumi võidakse kasutada, nagu kaubandus, näiteks kauplused, restoranid, kohvikud; teenused, näiteks pangad, ametialane tegevus, majutus; sport, näiteks ujumisbasseinid, võimlad, staadionid; transport, näiteks bussi-, metroo- ja raudteejaamad, lennujaamad, transpordivahendid; meelelahutus, näiteks kinod, teatrid, muuseumid, kontserdi- ja konverentsisaalid; vaba aja veetmine või muu, näiteks avalikud teed ja väljakud, pargid, metsad, mänguväljakud. Ruumi tuleks liigitada ka avalikult juurdepääsetavaks, kui olenemata võimalikest mahtuvus- või turvapiirangutest sõltub juurdepääs teatud eelmääratletud tingimustest, mida saab täita määratlemata arv isikuid, näiteks pääsme või sõidupileti ostmine, eelnev registreerimine või isikute teatav vanus. Seevastu ei tohiks ruumi pidada avalikult juurdepääsetavaks, kui juurdepääs on piiratud konkreetsete ja kindlaksmääratud füüsiliste isikutega kas liidu või liikmesriigi õiguse alusel, mis on otseselt seotud avaliku turvalisuse või julgeolekuga, või ruumi suhtes asjaomaseid volitusi omava isiku selge tahteavalduse alusel. Ainuüksi juurdepääsu faktiline võimalus, näiteks lukustamata uks, avatud aiavärav, ei tähenda, et ruum on avalikult juurdepääsetav, kui on olemas vastupidisele viitavad tähised või asjaolud, näiteks juurdepääsu keelavad või piiravad märgid. Ettevõtete ja tehaste ruumid ning kontorid ja töökohad, millele on juurdepääs ainult asjaomastel töötajatel ja teenuseosutajatel, on ruumid, mis ei ole avalikult juurdepääsetavad. Avalikult juurdepääsetavate ruumide hulka ei tohiks kuuluda vanglad ega piirikontrolliala. Mõned muud ruumid võivad koosneda nii avalikult juurdepääsetavatest kui ka avalikult mitte juurdepääsetavatest ruumidest, näiteks eraomandis oleva eluhoone koridor, mille kaudu on vaja minna arstikabinetti, või lennujaam. Selle mõiste alla ei käi küberruum, sest see ei ole füüsiline ruum. See, kas konkreetne ruum on avalikult juurdepääsetav, tuleks siiski otsustada igal üksikjuhul eraldi, võttes arvesse asjaomase olukorra iseärasusi.
(20)
Um den größtmöglichen Nutzen aus KI-Systemen zu ziehen und gleichzeitig die Grundrechte, Gesundheit und Sicherheit zu wahren und eine demokratische Kontrolle zu ermöglichen, sollte die KI-Kompetenz Anbieter, Betreiber und betroffene Personen mit den notwendigen Konzepten ausstatten, um fundierte Entscheidungen über KI-Systeme zu treffen. Diese Konzepte können in Bezug auf den jeweiligen Kontext unterschiedlich sein und das Verstehen der korrekten Anwendung technischer Elemente in der Entwicklungsphase des KI-Systems, der bei seiner Verwendung anzuwendenden Maßnahmen und der geeigneten Auslegung der Ausgaben des KI-Systems umfassen sowie — im Falle betroffener Personen — das nötige Wissen, um zu verstehen, wie sich mithilfe von KI getroffene Entscheidungen auf sie auswirken werden. Im Zusammenhang mit der Anwendung dieser Verordnung sollte die KI-Kompetenz allen einschlägigen Akteuren der KI-Wertschöpfungskette die Kenntnisse vermitteln, die erforderlich sind, um die angemessene Einhaltung und die ordnungsgemäße Durchsetzung der Verordnung sicherzustellen. Darüber hinaus könnten die umfassende Umsetzung von KI-Kompetenzmaßnahmen und die Einführung geeigneter Folgemaßnahmen dazu beitragen, die Arbeitsbedingungen zu verbessern und letztlich die Konsolidierung und den Innovationspfad vertrauenswürdiger KI in der Union unterstützen. Ein Europäisches Gremium für Künstliche Intelligenz (im Folgenden „KI-Gremium“) sollte die Kommission dabei unterstützen, KI-Kompetenzinstrumente sowie die Sensibilisierung und Aufklärung der Öffentlichkeit in Bezug auf die Vorteile, Risiken, Schutzmaßnahmen, Rechte und Pflichten im Zusammenhang mit der Nutzung von KI-Systeme zu fördern. In Zusammenarbeit mit den einschlägigen Interessenträgern sollten die Kommission und die Mitgliedstaaten die Ausarbeitung freiwilliger Verhaltenskodizes erleichtern, um die KI-Kompetenz von Personen, die mit der Entwicklung, dem Betrieb und der Verwendung von KI befasst sind, zu fördern.
(20)
Selleks et saada tehisintellektisüsteemidest võimalikult suur kasu, kaitstes samal ajal põhiõigusi, tervist ja ohutust, ning võimaldada demokraatlikku kontrolli, peaks tehisintellektipädevus andma pakkujatele, juurutajatele ja mõjutatud isikutele vajalikud mõisted tehisintellektisüsteemide kohta teadlike otsuste tegemiseks. Nimetatud mõisted võivad asjaomase konteksti poolest erineda ja võivad hõlmata arusaamist tehniliste elementide nõuetekohasest kohaldamisest tehisintellektisüsteemi arendusetapis, selle kasutamisel kohaldatavaid meetmeid, sobivaid viise tehisintellektisüsteemi väljundi tõlgendamiseks ja mõjutatud isikute puhul teadmisi, mis on vajalikud, et mõista, kuidas tehisintellekti abil tehtud otsused neid mõjutavad. Käesoleva määruse kohaldamisel peaks tehisintellektipädevus andma kõigile tehisintellekti väärtusahela asjaomastele osalejatele vajalikud teadmised, et tagada määruse asjakohane järgimine ja selle korrektne jõustamine. Lisaks võib tehisintellektipädevusega seotud meetmete laialdane rakendamine ja asjakohaste järelmeetmete kehtestamine aidata parandada töötingimusi ning lõppkokkuvõttes toetada usaldusväärse tehisintellekti konsolideerimist ja innovatsiooni liidus. Euroopa tehisintellekti nõukoda (edaspidi „nõukoda“) peaks toetama komisjoni, et edendada tehisintellektipädevusega seotud vahendeid, üldsuse teadlikkust ja arusaamist tehisintellektisüsteemide kasutamisega seotud kasust, riskidest, kaitsemeetmetest, õigustest ja kohustustest. Komisjon ja liikmesriigid peaksid koostöös asjaomaste sidusrühmadega hõlbustama vabatahtlike käitumisjuhendite koostamist, et edendada tehisintellektipädevust tehisintellekti arendamise, käitamise ja kasutamisega tegelevate isikute seas.
(21)
Um gleiche Wettbewerbsbedingungen und einen wirksamen Schutz der Rechte und Freiheiten von Einzelpersonen in der gesamten Union zu gewährleisten, sollten die in dieser Verordnung festgelegten Vorschriften in nichtdiskriminierender Weise für Anbieter von KI-Systemen — unabhängig davon, ob sie in der Union oder in einem Drittland niedergelassen sind — und für Betreiber von KI-Systemen, die in der Union niedergelassen sind, gelten.
(21)
Selleks et tagada võrdsed tingimused ning üksikisikute õiguste ja vabaduste tõhus kaitse kogu liidus, tuleks käesoleva määrusega kehtestatud õigusnorme kohaldada tehisintellektisüsteemide pakkujate suhtes mittediskrimineerival viisil, olenemata sellest, kas nad on asutatud liidus või mõnes kolmandas riigis, ja liidus asutatud tehisintellektisüsteemide juurutajate suhtes.
(22)
Angesichts ihres digitalen Charakters sollten bestimmte KI-Systeme in den Anwendungsbereich dieser Verordnung fallen, selbst wenn sie in der Union weder in Verkehr gebracht noch in Betrieb genommen oder verwendet werden. Dies ist beispielsweise der Fall, wenn ein in der Union niedergelassener Akteur bestimmte Dienstleistungen an einen in einem Drittland niedergelassenen Akteur im Zusammenhang mit einer Tätigkeit vergibt, die von einem KI-System ausgeübt werden soll, das als hochriskant einzustufen wäre. Unter diesen Umständen könnte das von dem Akteur in einem Drittland betriebene KI-System Daten verarbeiten, die rechtmäßig in der Union erhoben und aus der Union übertragen wurden, und dem vertraglichen Akteur in der Union die aus dieser Verarbeitung resultierende Ausgabe dieses KI-Systems liefern, ohne dass dieses KI-System dabei in der Union in Verkehr gebracht, in Betrieb genommen oder verwendet würde. Um die Umgehung dieser Verordnung zu verhindern und einen wirksamen Schutz in der Union ansässiger natürlicher Personen zu gewährleisten, sollte diese Verordnung auch für Anbieter und Betreiber von KI-Systemen gelten, die in einem Drittland niedergelassen sind, soweit beabsichtigt wird, die von diesem System erzeugte Ausgabe in der Union zu verwenden. Um jedoch bestehenden Vereinbarungen und besonderen Erfordernissen für die künftige Zusammenarbeit mit ausländischen Partnern, mit denen Informationen und Beweismittel ausgetauscht werden, Rechnung zu tragen, sollte diese Verordnung nicht für Behörden eines Drittlands und internationale Organisationen gelten, wenn sie im Rahmen der Zusammenarbeit oder internationaler Übereinkünfte tätig werden, die auf Unionsebene oder nationaler Ebene für die Zusammenarbeit mit der Union oder den Mitgliedstaaten im Bereich der Strafverfolgung und der justiziellen Zusammenarbeit geschlossen wurden, vorausgesetzt dass dieses Drittland oder diese internationale Organisationen angemessene Garantien in Bezug auf den Schutz der Grundrechte und -freiheiten von Einzelpersonen bieten. Dies kann gegebenenfalls Tätigkeiten von Einrichtungen umfassen, die von Drittländern mit der Wahrnehmung bestimmter Aufgaben zur Unterstützung dieser Zusammenarbeit im Bereich der Strafverfolgung und der justiziellen Zusammenarbeit betraut wurden. Ein solcher Rahmen für die Zusammenarbeit oder für Übereinkünfte wurde bilateral zwischen Mitgliedstaaten und Drittländern oder zwischen der Europäischen Union, Europol und anderen Agenturen der Union und Drittländern und internationalen Organisationen erarbeitet. Die Behörden, die nach dieser Verordnung für die Aufsicht über die Strafverfolgungs- und Justizbehörden zuständig sind, sollten prüfen, ob diese Rahmen für die Zusammenarbeit oder internationale Übereinkünfte angemessene Garantien in Bezug auf den Schutz der Grundrechte und -freiheiten von Einzelpersonen enthalten. Empfangende nationale Behörden und Organe, Einrichtungen sowie sonstige Stellen der Union, die diese Ausgaben in der Union verwenden, sind weiterhin dafür verantwortlich, sicherzustellen, dass ihre Verwendung mit Unionsrecht vereinbar ist. Wenn diese internationalen Übereinkünfte überarbeitet oder wenn künftig neue Übereinkünfte geschlossen werden, sollten die Vertragsparteien größtmögliche Anstrengungen unternehmen, um diese Übereinkünfte an die Anforderungen dieser Verordnung anzugleichen.
(22)
Kuna tehisintellektisüsteemid on digitaalsed, peaksid teatavad tehisintellektisüsteemid kuuluma käesoleva määruse kohaldamisalasse isegi siis, kui neid ei ole liidus turule lastud ega kasutusele võetud või kui neid liidus ei kasutata. See kehtib näiteks siis, kui liidus asutatud operaator sõlmib kolmandas riigis asutatud operaatoriga lepingu, et see osutaks teatavaid teenuseid, mis on seotud sellise tehisintellektisüsteemi teostatava tegevusega, mida peetakse suure riskiga tehisintellektisüsteemiks. Sellisel juhul võib operaatori kolmandas riigis kasutatav tehisintellektisüsteem töödelda andmeid, mis on seaduslikult liidus kogutud ja mida liidust edastatakse, ning anda liidus asuvale lepingu sõlminud operaatorile väljundi, mille see tehisintellektisüsteem kõnealuse töötlemise tulemusena genereeris, ilma et see tehisintellektisüsteem oleks liidus turule lastud, kasutusele võetud või kasutatav. Et hoida ära käesoleva määruse sätetest kõrvalehoidmist ja tagada liidus asuvate füüsiliste isikute tulemuslik kaitse, tuleks käesolevat määrust kohaldada ka tehisintellektisüsteemide kolmandas riigis asutatud pakkujate ja juurutajate suhtes niivõrd, kuivõrd nende süsteemide genereeritud väljundit kavatsetakse liidus kasutada. Võtmaks siiski arvesse olemasolevaid kokkuleppeid ja erivajadusi, mis puudutavad tulevast koostööd välispartneritega, kellega vahetatakse teavet ja tõendeid, ei tuleks käesolevat määrust kohaldada kolmanda riigi ametiasutuste ja rahvusvaheliste organisatsioonide suhtes, kui tegutsetakse koostöö või selliste rahvusvaheliste lepingute alusel, mis on liidu või riigi tasandil sõlmitud liidu või liikmesriikidega tehtava õiguskaitse- ja õigusalase koostöö kohta, tingimusel et asjaomane kolmas riik või rahvusvaheline organisatsioon pakub piisavaid kaitsemeetmeid üksikisikute põhiõiguste ja -vabaduste kaitseks. Vajaduse korral võib see hõlmata selliste üksuste tegevust, kellele kolmandad riigid on usaldanud konkreetsete ülesannete täitmise sellise õiguskaitse- ja õigusalase koostöö toetamiseks. Selliseid koostööraamistikke või lepinguid on sõlmitud kahepoolselt liikmesriikide ja kolmandate riikide vahel, aga ka Euroopa Liidu, Europoli ja muude liidu asutuste ning kolmandate riikide ja rahvusvaheliste organisatsioonide vahel. Pädevad asutused, kes vastutavad käesoleva määruse alusel õiguskaitse- ja õigusasutuste järelevalve eest, peaksid hindama, kas need koostööraamistikud või rahvusvahelised lepingud sisaldavad piisavaid kaitsemeetmeid üksikisikute põhiõiguste ja -vabaduste kaitseks. Vastuvõtvad riiklikud ametiasutused ning liidu institutsioonid, organid ja asutused, kes selliseid väljundeid liidus kasutavad, vastutavad selle tagamise eest, et väljundite kasutamine oleks kooskõlas liidu õigusega. Kui kõnealused rahvusvahelised lepingud vaadatakse läbi või sõlmitakse tulevikus uusi, peaksid lepinguosalised tegema kõik endast oleneva, et viia need lepingud vastavusse käesoleva määruse nõuetega.
(23)
Diese Verordnung sollte auch für Organe, Einrichtungen und sonstige Stellen der Union gelten, wenn sie als Anbieter oder Betreiber eines KI-Systems auftreten.
(23)
Käesolevat määrust tuleks kohaldada ka liidu institutsioonide, organite ja asutuste suhtes, kui need tegutsevad tehisintellektisüsteemi pakkuja või juurutajana.
(24)
Wenn und soweit KI-Systeme mit oder ohne Änderungen für Zwecke in den Bereichen Militär, Verteidigung oder nationale Sicherheit in Verkehr gebracht, in Betrieb genommen oder verwendet werden, sollten sie vom Anwendungsbereich dieser Verordnung ausgenommen werden, unabhängig von der Art der Einrichtung, die diese Tätigkeiten ausübt, etwa ob es sich um eine öffentliche oder private Einrichtung handelt. In Bezug auf die Zwecke in den Bereichen Militär und Verteidigung gründet sich die Ausnahme sowohl auf Artikel 4 Absatz 2 EUV als auch auf die Besonderheiten der Verteidigungspolitik der Mitgliedstaaten und der in Titel V Kapitel 2 EUV abgedeckten gemeinsamen Verteidigungspolitik der Union, die dem Völkerrecht unterliegen, was daher den geeigneteren Rechtsrahmen für die Regulierung von KI-Systemen im Zusammenhang mit der Anwendung tödlicher Gewalt und sonstigen KI-Systemen im Zusammenhang mit Militär- oder Verteidigungstätigkeiten darstellt. In Bezug auf die Zwecke im Bereich nationale Sicherheit gründet sich die Ausnahme sowohl auf die Tatsache, dass die nationale Sicherheit gemäß Artikel 4 Absatz 2 EUV weiterhin in die alleinige Verantwortung der Mitgliedstaaten fällt, als auch auf die besondere Art und die operativen Bedürfnisse der Tätigkeiten im Bereich der nationalen Sicherheit und der spezifischen nationalen Vorschriften für diese Tätigkeiten. Wird ein KI-System, das für Zwecke in den Bereichen Militär, Verteidigung oder nationale Sicherheit entwickelt, in Verkehr gebracht, in Betrieb genommen oder verwendet wird, jedoch vorübergehend oder ständig für andere Zwecke verwendet, etwa für zivile oder humanitäre Zwecke oder für Zwecke der Strafverfolgung oder öffentlichen Sicherheit, so würde dieses System in den Anwendungsbereich dieser Verordnung fallen. In diesem Fall sollte die Einrichtung, die das KI-System für andere Zwecke als Zwecke in den Bereichen Militär, Verteidigung oder nationale Sicherheit verwendet, die Konformität des KI-Systems mit dieser Verordnung sicherstellen, es sei denn, das System entspricht bereits dieser Verordnung. KI-Systeme, die für einen ausgeschlossenen Zweck, nämlich Militär, Verteidigung oder nationale Sicherheit, und für einen oder mehrere nicht ausgeschlossene Zwecke, etwa zivile Zwecke oder Strafverfolgungszwecke, in Verkehr gebracht oder in Betrieb genommen werden, fallen in den Anwendungsbereich dieser Verordnung, und Anbieter dieser Systeme sollten die Einhaltung dieser Verordnung sicherstellen. In diesen Fällen sollte sich die Tatsache, dass ein KI-System in den Anwendungsbereich dieser Verordnung fällt, nicht darauf auswirken, dass Einrichtungen, die Tätigkeiten in den Bereichen nationale Sicherheit, Verteidigung oder Militär ausüben, KI-Systeme für Zwecke in den Bereichen nationale Sicherheit, Militär und Verteidigung verwenden können, unabhängig von der Art der Einrichtung, die diese Tätigkeiten ausübt, wobei die Verwendung vom Anwendungsbereich dieser Verordnung ausgenommen ist. Ein KI-System, das für zivile Zwecke oder Strafverfolgungszwecke in Verkehr gebracht wurde und mit oder ohne Änderungen für Zwecke in den Bereichen Militär, Verteidigung oder nationale Sicherheit verwendet wird, sollte nicht in den Anwendungsbereich dieser Verordnung fallen, unabhängig von der Art der Einrichtung, die diese Tätigkeiten ausübt.
(24)
Juhul kui ja sel määral mil tehisintellektisüsteeme lastakse turule, võetakse kasutusele või kasutatakse muudetud või muutmata kujul sõjalisel, kaitse- või riikliku julgeoleku eesmärgil, tuleks need käesoleva määruse kohaldamisalast välja jätta, olenemata sellest, mis liiki üksus neid tegevusi teostab, näiteks kas tegemist on avalik-õigusliku või eraõigusliku üksusega. Sõjalisel ja kaitse-eesmärgil on selline väljajätmine põhjendatud nii ELi lepingu artikli 4 lõikega 2 kui ka ELi lepingu V jaotise 2. peatükiga hõlmatud liikmesriikide ja ühise liidu kaitsepoliitika eripäradega, mille suhtes kohaldatakse rahvusvahelist avalikku õigust ning mis on seega sobivam õigusraamistik, et reguleerida tehisintellektisüsteeme surmava jõu kasutamise kontekstis ja muid tehisintellektisüsteeme sõjalise ja kaitsetegevuse kontekstis. Mis puudutab riigi julgeolekuga seotud eesmärke, siis on väljajätmine põhjendatud nii asjaoluga, et riigi julgeolek kuulub ELi lepingu artikli 4 lõike 2 kohaselt jätkuvalt liikmesriikide ainuvastutusse, kui ka riikliku julgeolekualase tegevuse eripära ja operatiivvajadustega ning selle tegevuse suhtes kohaldatavate konkreetsete riigisiseste õigusnormidega. Kui aga sõjalisel, kaitse- või riikliku julgeoleku eesmärgil välja töötatud, turule lastud, kasutusele võetud või kasutatavat tehisintellektisüsteemi kasutatakse ajutiselt või alaliselt muudel eesmärkidel, näiteks tsiviil- või humanitaareesmärkidel, õiguskaitse või avaliku julgeoleku eesmärgil, kuulub selline süsteem käesoleva määruse kohaldamisalasse. Sellisel juhul peaks üksus, kes kasutab tehisintellektisüsteemi muul kui sõjalisel, kaitse- või riikliku julgeoleku eesmärgil, tagama tehisintellektisüsteemi vastavuse käesolevale määrusele, välja arvatud juhul, kui süsteemi vastavus on juba tagatud. Tehisintellektisüsteemid, mis on turule lastud või kasutusele võetud määruse kohaldamisalast välja jäetud eesmärgil, nimelt sõjalisel, kaitse- või riikliku julgeoleku eesmärgil, ja ühel või mitmel määruse kohaldamisalasse kuuluval eesmärgil, näiteks tsiviileesmärgil või õiguskaitse eesmärgil, kuuluvad käesoleva määruse kohaldamisalasse ning nende süsteemide pakkujad peaksid tagama vastavuse käesolevale määrusele. Sellistel juhtudel ei tohiks asjaolu, et tehisintellektisüsteem võib kuuluda käesoleva määruse kohaldamisalasse, mõjutada riikliku julgeoleku, kaitse- ja sõjalise tegevusega tegelevate üksuste – olenemata sellest, mis liiki üksus seda tegevust teostab – võimalust kasutada tehisintellektisüsteeme riikliku julgeoleku, sõjalisel ja kaitseotstarbel, mis on käesoleva määruse kohaldamisalast välja jäetud. Tsiviileesmärgil või õiguskaitse eesmärgil turule lastud tehisintellektisüsteem, mida kasutatakse muudetud või muutmata kujul sõjalisel, kaitse- või riikliku julgeoleku eesmärgil, ei peaks kuuluma käesoleva määruse kohaldamisalasse, olenemata sellest, mis liiki üksus seda tegevust teostab.
(25)
Diese Verordnung sollte die Innovation fördern, die Freiheit der Wissenschaft achten und Forschungs- und Entwicklungstätigkeiten nicht untergraben. Daher müssen KI-Systeme und -Modelle, die eigens für den alleinigen Zweck der wissenschaftlichen Forschung und Entwicklung entwickelt und in Betrieb genommen werden, vom Anwendungsbereich der Verordnung ausgenommen werden. Ferner muss sichergestellt werden, dass sich die Verordnung nicht anderweitig auf Forschungs- und Entwicklungstätigkeiten zu KI-Systemen und -Modellen auswirkt, bevor diese in Verkehr gebracht oder in Betrieb genommen werden. Hinsichtlich produktorientierter Forschungs-, Test- und Entwicklungstätigkeiten in Bezug auf KI-Systeme oder -Modelle sollten die Bestimmungen dieser Verordnung auch nicht vor der Inbetriebnahme oder dem Inverkehrbringen dieser Systeme und Modelle gelten. Diese Ausnahme berührt weder die Pflicht zur Einhaltung dieser Verordnung, wenn ein KI-System, das in den Anwendungsbereich dieser Verordnung fällt, infolge solcher Forschungs- und Entwicklungstätigkeiten in Verkehr gebracht oder in Betrieb genommen wird, noch die Anwendung der Bestimmungen zu KI-Reallaboren und zu Tests unter Realbedingungen. Darüber hinaus sollte unbeschadet der Ausnahme in Bezug auf KI-Systeme, die eigens für den alleinigen Zweck der wissenschaftlichen Forschung und Entwicklung entwickelt und in Betrieb genommen werden, jedes andere KI-System, das für die Durchführung von Forschungs- und Entwicklungstätigkeiten verwendet werden könnte, den Bestimmungen dieser Verordnung unterliegen. In jedem Fall sollten jegliche Forschungs- und Entwicklungstätigkeiten gemäß anerkannten ethischen und professionellen Grundsätzen für die wissenschaftliche Forschung und unter Wahrung des geltenden Unionsrechts ausgeführt werden.
(25)
Käesolev määrus peaks toetama innovatsiooni, peaks austama teadusvabadust ega tohiks kahjustada teadus- ja arendustegevust. Seepärast on vaja jätta selle kohaldamisalast välja tehisintellektisüsteemid ja -mudelid, mis on spetsiaalselt välja töötatud ja kasutusele võetud üksnes teadus- ja arendustegevuse eesmärgil. Lisaks on vaja tagada, et käesolev määrus ei mõjuta muul viisil tehisintellektisüsteemide või -mudelitega seotud teadus- ja arendustegevust enne nende turule laskmist või kasutusele võtmist. Samuti ei tohiks käesoleva määruse sätteid kohaldada tehisintellektisüsteemide või -mudelite tootepõhise teadus-, testimis- ja arendustegevuse suhtes enne nende süsteemide ja mudelite kasutusele võtmist või turule laskmist. See väljajätmine ei piira käesoleva määruse järgimise kohustust, kui sellise teadus- ja arendustegevuse tulemusena lastakse turule või võetakse kasutusele käesoleva määruse kohaldamisalasse kuuluv tehisintellektisüsteem, ega tehisintellekti regulatiivliivakasti ja tegelikes tingimustes testimist käsitlevate sätete kohaldamist. Lisaks peaksid käesoleva määruse kohaldamisalasse jääma kõik muud tehisintellektisüsteemid, mida võidakse kasutada mis tahes teadus- ja arendustegevuseks, ilma et see piiraks selliste tehisintellektisüsteemide väljajätmist, mis on spetsiaalselt välja töötatud ja kasutusele võetud üksnes teadus- ja arendustegevuse eesmärgil. Teadus- ja arendustegevus peaks igal juhul toimuma kooskõlas teadusuuringute tunnustatud eetiliste ja kutsestandarditega ning see peaks toimuma kooskõlas kohaldatava liidu õigusega.
(26)
Um ein verhältnismäßiges und wirksames verbindliches Regelwerk für KI-Systeme einzuführen, sollte ein klar definierter risikobasierter Ansatz verfolgt werden. Bei diesem Ansatz sollten Art und Inhalt solcher Vorschriften auf die Intensität und den Umfang der Risiken zugeschnitten werden, die von KI-Systemen ausgehen können. Es ist daher notwendig, bestimmte inakzeptable Praktiken im Bereich der KI zu verbieten und Anforderungen an Hochrisiko-KI-Systeme und Pflichten für die betreffenden Akteure sowie Transparenzpflichten für bestimmte KI-Systeme festzulegen.
(26)
Selleks et kehtestada tehisintellektisüsteemide suhtes proportsionaalsed, mõjusad ja siduvad õigusnormid, tuleks järgida selgelt määratletud riskipõhist lähenemisviisi. Sellise lähenemisviisi kohaselt tuleks nende õigusnormide liiki ja sisu kujundada vastavalt nende riskide intensiivsusele ja ulatusele, mida tehisintellektisüsteemid võivad põhjustada. Seepärast tuleb keelata teatavad vastuvõetamatud tehisintellekti kasutusviisid, näha ette suure riskiga tehisintellektisüsteemide suhtes kohaldatavad nõuded ja asjaomaste operaatorite kohustused ning kehtestada teatavatele tehisintellektisüsteemidele läbipaistvuskohustused.
(27)
Während der risikobasierte Ansatz die Grundlage für ein verhältnismäßiges und wirksames verbindliches Regelwerk bildet, muss auch auf die Ethikleitlinien für vertrauenswürdige KI von 2019 der von der Kommission eingesetzten unabhängigen hochrangigen Expertengruppe für künstliche Intelligenz verwiesen werden. In diesen Leitlinien hat die hochrangige Expertengruppe sieben unverbindliche ethische Grundsätze für KI entwickelt, die dazu beitragen sollten, dass KI vertrauenswürdig und ethisch vertretbar ist. Zu den sieben Grundsätzen gehören: menschliches Handeln und menschliche Aufsicht, technische Robustheit und Sicherheit, Privatsphäre und Daten-Governance, Transparenz, Vielfalt, Nichtdiskriminierung und Fairness, soziales und ökologisches Wohlergehen sowie Rechenschaftspflicht. Unbeschadet der rechtsverbindlichen Anforderungen dieser Verordnung und anderer geltender Rechtsvorschriften der Union tragen diese Leitlinien zur Gestaltung kohärenter, vertrauenswürdiger und menschenzentrierter KI bei im Einklang mit der Charta und den Werten, auf die sich die Union gründet. Nach den Leitlinien der hochrangigen Expertengruppe bedeutet „menschliches Handeln und menschliche Aufsicht“, dass ein KI-System entwickelt und als Instrument verwendet wird, das den Menschen dient, die Menschenwürde und die persönliche Autonomie achtet und so funktioniert, dass es von Menschen angemessen kontrolliert und überwacht werden kann. „Technische Robustheit und Sicherheit“ bedeutet, dass KI-Systeme so entwickelt und verwendet werden, dass sie im Fall von Schwierigkeiten robust sind und widerstandsfähig gegen Versuche, die Verwendung oder Leistung des KI-Systems so zu verändern, dass dadurch die unrechtmäßige Verwendung durch Dritte ermöglicht wird, und dass ferner unbeabsichtigte Schäden minimiert werden. „Privatsphäre und Daten-Governance“ bedeutet, dass KI-Systeme im Einklang mit den geltenden Vorschriften zum Schutz der Privatsphäre und zum Datenschutz entwickelt und verwendet werden und dabei Daten verarbeiten, die hohen Qualitäts- und Integritätsstandards genügen. „Transparenz“ bedeutet, dass KI-Systeme so entwickelt und verwendet werden, dass sie angemessen nachvollziehbar und erklärbar sind, wobei den Menschen bewusst gemacht werden muss, dass sie mit einem KI-System kommunizieren oder interagieren, und dass die Betreiber ordnungsgemäß über die Fähigkeiten und Grenzen des KI-Systems informieren und die betroffenen Personen über ihre Rechte in Kenntnis setzen müssen. „Vielfalt, Nichtdiskriminierung und Fairness“ bedeutet, dass KI-Systeme in einer Weise entwickelt und verwendet werden, die unterschiedliche Akteure einbezieht und den gleichberechtigten Zugang, die Geschlechtergleichstellung und die kulturelle Vielfalt fördert, wobei diskriminierende Auswirkungen und unfaire Verzerrungen, die nach Unionsrecht oder nationalem Recht verboten sind, verhindert werden. „Soziales und ökologisches Wohlergehen“ bedeutet, dass KI-Systeme in nachhaltiger und umweltfreundlicher Weise und zum Nutzen aller Menschen entwickelt und verwendet werden, wobei die langfristigen Auswirkungen auf den Einzelnen, die Gesellschaft und die Demokratie überwacht und bewertet werden. Die Anwendung dieser Grundsätze sollte, soweit möglich, in die Gestaltung und Verwendung von KI-Modellen einfließen. Sie sollten in jedem Fall als Grundlage für die Ausarbeitung von Verhaltenskodizes im Rahmen dieser Verordnung dienen. Alle Interessenträger, einschließlich der Industrie, der Wissenschaft, der Zivilgesellschaft und der Normungsorganisationen, werden aufgefordert, die ethischen Grundsätze bei der Entwicklung freiwilliger bewährter Verfahren und Normen, soweit angebracht, zu berücksichtigen.
(27)
Kuigi riskipõhine lähenemisviis on proportsionaalsete ja tõhusate siduvate õigusnormide alus, on oluline meelde tuletada 2019. aasta eetikasuuniseid usaldusväärse tehisintellekti arendamiseks, mille töötas välja komisjoni määratud sõltumatu kõrgetasemeline tehisintellekti eksperdirühm. Kõrgetasemeline tehisintellekti eksperdirühm töötas nendes suunistes välja seitse mittesiduvat tehisintellekti eetikapõhimõtet, mille eesmärk on aidata tagada, et tehisintellekt on usaldusväärne ja järgib eetikanorme. Nende seitsme põhimõtte seas on: inimese toimevõime ja inimjärelevalve; tehniline töökindlus ja ohutus; privaatsus ja andmehaldus; läbipaistvus; mitmekesisus, mittediskrimineerimine ja õiglus; ühiskondlik ja keskkonnaalane heaolu ning vastutuse võtmine. Ilma et see piiraks käesoleva määruse ja mis tahes muu kohaldatava liidu õiguse õiguslikult siduvate nõuete kohaldamist, aitavad need suunised kujundada sidusat, usaldusväärset ja inimkeskset tehisintellekti kooskõlas põhiõiguste harta ja liidu alusväärtustega. Kõrgetasemelise tehisintellekti eksperdirühma suuniste kohaselt tähendab inimese toimevõime ja inimjärelevalve, et tehisintellektisüsteeme arendatakse ja kasutatakse vahendina, mis teenib inimesi, austab inimväärikust ja isiklikku sõltumatust ning toimib viisil, mille üle inimesed saavad nõuetekohaselt kontrolli ja järelevalvet teostada. Tehniline töökindlus ja ohutus tähendab seda, et tehisintellektisüsteeme arendatakse ja kasutatakse viisil, mis tagab probleemide esinemisel nende töökindluse ning vastupidavuse katsetele muuta tehisintellektisüsteemi kasutust või toimivust nii, et kolmandad isikud saaksid neid ebaseaduslikult kasutada, ning et minimeerida soovimatut kahju. Privaatsus ja andmehaldus tähendab, et tehisintellektisüsteeme arendatakse ja kasutatakse kooskõlas privaatsus- ja andmekaitsenormidega ning andmetöötlus vastab kõrgetele kvaliteedi ja tervikluse standarditele. Läbipaistvus tähendab, et tehisintellektisüsteeme arendatakse ja kasutatakse viisil, mis võimaldab asjakohast jälgitavust ja selgitatavust, andes samal ajal inimestele teada, et nad suhtlevad tehisintellektisüsteemiga, ning teavitades juurutajaid igakülgselt selle tehisintellektisüsteemi võimetest ja piiridest ning mõjutatud isikuid nende õigustest. Mitmekesisus, mittediskrimineerimine ja õiglus tähendavad, et tehisintellektisüsteeme arendatakse ja kasutatakse viisil, mis hõlmab erinevaid osalejaid ja edendab võrdset ligipääsu, soolist võrdõiguslikkust ja kultuurilist mitmekesisust, vältides samal ajal diskrimineerivat mõju ja ebaõiglast kallutatust, mis on liidu või liikmesriikide õigusega keelatud. Ühiskondlik ja keskkonnaalane heaolu tähendab, et tehisintellektisüsteeme arendatakse ja kasutatakse kestlikul ja keskkonnasõbralikul viisil, samuti viisil, mis toob kasu kõigile inimestele, jälgides ja hinnates samal ajal pikaajalist mõju üksikisikule, ühiskonnale ning demokraatiale. Nimetatud põhimõtete kohaldamine tuleks võimaluse korral üle kanda tehisintellektimudelite projekteerimisse ja kasutamisse. Igal juhul peaksid need olema aluseks käesoleva määruse alusel koostatavatele käitumisjuhenditele. Kõiki sidusrühmi, sealhulgas tööstust, akadeemilisi ringkondi, kodanikuühiskonda ja standardiorganisatsioone, julgustatakse vabatahtlike parimate tavade ja standardite väljatöötamisel võtma vastavalt vajadusele arvesse eetikapõhimõtteid.
(28)
Abgesehen von den zahlreichen nutzbringenden Verwendungsmöglichkeiten von KI kann diese Technologie auch missbraucht werden und neue und wirkungsvolle Instrumente für manipulative, ausbeuterische und soziale Kontrollpraktiken bieten. Solche Praktiken sind besonders schädlich und missbräuchlich und sollten verboten werden, weil sie im Widerspruch zu den Werten der Union stehen, nämlich der Achtung der Menschenwürde, Freiheit, Gleichheit, Demokratie und Rechtsstaatlichkeit sowie der in der Charta verankerten Grundrechte, einschließlich des Rechts auf Nichtdiskriminierung, Datenschutz und Privatsphäre sowie der Rechte des Kindes.
(28)
Lisaks sellele, et tehisintellektil on mitmeid kasulikke rakendusvõimalusi, on seda võimalik ka väärkasutada ning luua uudseid ja võimsaid manipuleerimise, ärakasutamise ja sotsiaalse kontrolli vahendeid. Sellised kasutusviisid on eriti kahjulikud ja kuritarvituslikud ning tuleks keelata, sest need on vastuolus selliste liidu väärtustega nagu inimväärikuse austamine, vabadus, võrdsus, demokraatia ja õigusriik ning põhiõiguste hartas sätestatud põhiõigustega, kaasa arvatud õigusega mittediskrimineerimisele, andmekaitsele ja privaatsusele, aga ka lapse õigustega.
(29)
KI-gestützte manipulative Techniken können dazu verwendet werden, Personen zu unerwünschten Verhaltensweisen zu bewegen oder sie zu täuschen, indem sie in einer Weise zu Entscheidungen angeregt werden, die ihre Autonomie, Entscheidungsfindung und freie Auswahl untergräbt und beeinträchtigt. Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung bestimmter KI-Systeme, die das Ziel oder die Auswirkung haben, menschliches Verhalten maßgeblich nachteilig zu beeinflussen, und große Schäden, insbesondere erhebliche nachteilige Auswirkungen auf die physische und psychische Gesundheit oder auf die finanziellen Interessen verursachen dürften, ist besonders gefährlich und sollte dementsprechend verboten werden. Solche KI-Systeme setzen auf eine unterschwellige Beeinflussung, beispielweise durch Reize in Form von Ton-, Bild- oder Videoinhalten, die für Menschen nicht erkennbar sind, da diese Reize außerhalb ihres Wahrnehmungsbereichs liegen, oder auf andere Arten manipulativer oder täuschender Beeinflussung, die ihre Autonomie, Entscheidungsfindung oder freie Auswahl in einer Weise untergraben und beeinträchtigen, die sich ihrer bewussten Wahrnehmung entzieht oder deren Einfluss — selbst wenn sie sich seiner bewusst sind — sie nicht kontrollieren oder widerstehen können. Dies könnte beispielsweise durch Gehirn-Computer-Schnittstellen oder virtuelle Realität erfolgen, da diese ein höheres Maß an Kontrolle darüber ermöglichen, welche Reize den Personen, insofern diese das Verhalten der Personen in erheblichem Maße schädlich beeinflussen können, angeboten werden. Ferner können KI-Systeme auch anderweitig die Vulnerabilität einer Person oder bestimmter Gruppen von Personen aufgrund ihres Alters oder einer Behinderung im Sinne der Richtlinie (EU) 2019/882 des Europäischen Parlaments und des Rates (16) oder aufgrund einer bestimmten sozialen oder wirtschaftlichen Situation ausnutzen, durch die diese Personen gegenüber einer Ausnutzung anfälliger werden dürften, beispielweise Personen, die in extremer Armut leben, und ethnische oder religiöse Minderheiten. Solche KI-Systeme können mit dem Ziel oder der Wirkung in Verkehr gebracht, in Betrieb genommen oder verwendet werden, das Verhalten einer Person in einer Weise wesentlich zu beeinflussen, die dieser Person oder einer anderen Person oder Gruppen von Personen einen erheblichen Schaden zufügt oder mit hinreichender Wahrscheinlichkeit zufügen wird, einschließlich Schäden, die sich im Laufe der Zeit anhäufen können, und sollten daher verboten werden. Diese Absicht, das Verhalten zu beeinflussen, kann nicht vermutet werden, wenn die Beeinflussung auf Faktoren zurückzuführen ist, die nicht Teil des KI-Systems sind und außerhalb der Kontrolle des Anbieters oder Betreibers liegen, d. h. Faktoren, die vom Anbieter oder Betreiber des KI-Systems vernünftigerweise nicht vorhergesehen oder gemindert werden können. In jedem Fall ist es nicht erforderlich, dass der Anbieter oder der Betreiber die Absicht haben, erheblichen Schaden zuzufügen, wenn dieser Schaden aufgrund von manipulativen oder ausbeuterischen KI-gestützten Praktiken entsteht. Das Verbot solcher KI-Praktiken ergänzt die Bestimmungen der Richtlinie 2005/29/EG des Europäischen Parlaments und des Rates (17); insbesondere sind unlautere Geschäftspraktiken, durch die Verbraucher wirtschaftliche oder finanzielle Schäden erleiden, unter allen Umständen verboten, unabhängig davon, ob sie durch KI-Systeme oder anderweitig umgesetzt werden. Das Verbot manipulativer und ausbeuterischer Praktiken gemäß dieser Verordnung sollte sich nicht auf rechtmäßige Praktiken im Zusammenhang mit medizinischen Behandlungen, etwa der psychologischen Behandlung einer psychischen Krankheit oder der physischen Rehabilitation, auswirken, wenn diese Praktiken gemäß den geltenden Rechtsvorschriften und medizinischen Standards erfolgen, z. B mit der ausdrücklichen Zustimmung der Einzelpersonen oder ihrer gesetzlichen Vertreter. Darüber hinaus sollten übliche und rechtmäßige Geschäftspraktiken, beispielsweise im Bereich der Werbung, die im Einklang mit den geltenden Rechtsvorschriften stehen, als solche nicht als schädliche manipulative KI-gestützten Praktiken gelten.
(29)
Tehisintellektil põhinevaid manipuleerimistehnikaid saab kasutada selleks, et veenda inimesi käituma soovimatult ja neid petta, suunates neid tegema otsuseid, mis pärsivad ja kahjustavad nende sõltumatust, otsuste tegemist ja valikuvabadust. Teatavad tehisintellektisüsteemid, mille eesmärk või tagajärg on inimeste käitumise suurel määral moonutamine, mis võib tõenäoliselt tekitada olulist kahju, eelkõige sellist, millel on piisavalt oluline kahjulik mõju füüsilisele ja psühholoogilisele tervisele või finantshuvidele, on eriti ohtlikud ja seetõttu tuleks nende turule laskmine, kasutusele võtmine ja kasutamine keelata. Sellistes tehisintellektisüsteemides kasutatakse alalävisele tajule suunatud elemente, nagu audio-, pildi- ja videostiimuleid, mida inimesed ei suuda tajuda, sest need stiimulid jäävad inimese tajust väljapoole, või muid manipuleerivaid või petlikke võtteid, mis vähendavad või kahjustavad isiku sõltumatust, otsuste tegemist või vaba valikut viisil, mille puhul inimesed ei ole nendest võtetest teadlikud, või isegi kui nad on teadlikud, on võimalik nad ikka eksiteele viia või nad ei ole võimelised neid kontrollima või nendele vastu seisma. Selleks võidakse kasutada näiteks aju-arvuti liideseid või virtuaalreaalsust, kuna need võimaldavad suuremat kontrolli selle üle, milliseid stiimuleid inimestele esitatakse, kuivõrd need võivad oluliselt moonutada nende käitumist märkimisväärselt kahjulikul viisil. Lisaks võivad tehisintellektisüsteemid muul viisil kasutada ära konkreetse isiku või isikute rühma haavatavusi, mis tulenevad nende vanusest, puudest Euroopa Parlamendi ja nõukogu direktiivi (EL) 2019/882 (16) tähenduses või konkreetsest sotsiaalsest või majanduslikust olukorrast, mis tõenäoliselt muudab need isikud ärakasutamise suhtes kaitsetumaks, näiteks äärmises vaesuses elavad isikud, etnilised või usuvähemused. Selliseid süsteeme võidakse turule lasta, kasutusele võtta või kasutada selliselt, et nende eesmärk või tagajärg on isiku käitumise oluline moonutamine viisil, mis põhjustab või mõistliku tõenäosusega põhjustab olulist kahju sellele või mõnele teisele isikule või isikute rühmale, sealhulgas kahju, mis võib tekkida aja jooksul, ning seetõttu peaksid sellised süsteemid olema keelatud. Käitumise moonutamise kavatsust ei pruugi olla võimalik eeldada, kui moonutus tuleneb tehisintellektisüsteemi välistest teguritest, mis ei ole pakkuja või juurutaja kontrolli all, nimelt teguritest, mis ei pruugi olla mõistlikult prognoositavad ja seetõttu ei ole tehisintellektisüsteemi pakkujal või juurutajal võimalik neid leevendada. Igal juhul ei pruugi pakkujal või juurutajal olla kavatsust põhjustada olulist kahju, kui selline kahju tuleneb manipuleerivatest või ekspluateerivatest tehisintellektil põhinevatest kasutusviisidest. Selliseid tehisintellekti kasutusviise käsitlevad keelud täiendavad Euroopa Parlamendi ja nõukogu direktiivi 2005/29/EÜ (17) sätteid, eelkõige seda, et ebaausad kaubandustavad, mis põhjustavad tarbijatele majanduslikku või rahalist kahju, on igal juhul keelatud, olenemata sellest, kas need on võetud kasutusele tehisintellektisüsteemide abil või muul viisil. Käesolevas määruses sätestatud manipuleerivate ja ekspluateerivate kasutusviiside keeld ei tohiks mõjutada õiguspärast ravi, näiteks psüühikahäire psühholoogiline ravi või füüsiline rehabilitatsioon, kui see toimub kooskõlas kohaldatava õiguse ja meditsiinistandarditega, näiteks üksikisikute või nende seaduslike esindajate selgesõnalisel nõusolekul. Samuti ei tohiks tavapäraseid ja õiguspäraseid kaubandustavasid, näiteks reklaami valdkonnas, mis on kooskõlas kohaldatava õigusega, pidada iseenesest kahjulikeks manipuleerivateks tehisintellektil põhinevateks kasutusviisideks.
(30)
Systeme zur biometrischen Kategorisierung, die anhand der biometrischen Daten von natürlichen Personen, wie dem Gesicht oder dem Fingerabdruck einer Person, die politische Meinung, die Mitgliedschaft in einer Gewerkschaft, religiöse oder weltanschauliche Überzeugungen, die Rasse, das Sexualleben oder die sexuelle Ausrichtung einer Person erschließen oder ableiten, sollten verboten werden. Dieses Verbot sollte nicht für die rechtmäßige Kennzeichnung, Filterung oder Kategorisierung biometrischer Datensätze gelten, die im Einklang mit dem Unionsrecht oder dem nationalen Recht anhand biometrischer Daten erworben wurden, wie das Sortieren von Bildern nach Haar- oder Augenfarbe, was beispielsweise im Bereich der Strafverfolgung verwendet werden kann.
(30)
Biomeetrilise liigitamise süsteemid, mis põhinevad füüsiliste isikute biomeetrilistel andmetel, näiteks isiku näol või sõrmejälgedel, et tuletada või järeldada isikute poliitilisi vaateid, kuulumist ametiühingusse, usulisi või filosoofilisi veendumusi, rassi, seksuaalelu või seksuaalset sättumust, tuleks keelata. See keeld ei tohiks hõlmata selliste biomeetriliste andmestike seaduslikku märgistamist, filtreerimist või liigitamist vastavalt biomeetrilistele andmetele, mis on saadud kooskõlas liidu või liikmesriigi õigusega, nagu kujutiste sorteerimist vastavalt juuksevärvile või silmavärvile, mida saab kasutada näiteks õiguskaitse valdkonnas.
(31)
KI-Systeme, die eine soziale Bewertung natürlicher Personen durch öffentliche oder private Akteure bereitstellen, können zu diskriminierenden Ergebnissen und zur Ausgrenzung bestimmter Gruppen führen. Sie können die Menschenwürde und das Recht auf Nichtdiskriminierung sowie die Werte der Gleichheit und Gerechtigkeit verletzen. Solche KI-Systeme bewerten oder klassifizieren natürliche Personen oder Gruppen natürlicher Personen in einem bestimmten Zeitraum auf der Grundlage zahlreicher Datenpunkte in Bezug auf ihr soziales Verhalten in verschiedenen Zusammenhängen oder aufgrund bekannter, vermuteter oder vorhergesagter persönlicher Eigenschaften oder Persönlichkeitsmerkmale. Die aus solchen KI-Systemen erzielte soziale Bewertung kann zu einer Schlechterstellung oder Benachteiligung bestimmter natürlicher Personen oder ganzer Gruppen natürlicher Personen in sozialen Kontexten, die in keinem Zusammenhang mit den Umständen stehen, unter denen die Daten ursprünglich erzeugt oder erhoben wurden, oder zu einer Schlechterstellung führen, die im Hinblick auf die Tragweite ihres sozialen Verhaltens unverhältnismäßig oder ungerechtfertigt ist. KI-Systeme, die solche inakzeptablen Bewertungspraktiken mit sich bringen und zu einer solchen Schlechterstellung oder Benachteiligung führen, sollten daher verboten werden. Dieses Verbot sollte nicht die rechtmäßigen Praktiken zur Bewertung natürlicher Personen berühren, die im Einklang mit dem Unionsrecht und dem nationalen Recht zu einem bestimmten Zweck durchgeführt werden.
(31)
Tehisintellektisüsteemid, mida kasutatakse avaliku või erasektori osalejate poolt füüsilistele isikutele sotsiaalpunktide andmiseks, võivad tuua kaasa diskrimineerimise ja teatavate rühmade kõrvalejätmise. Need süsteemid võivad rikkuda õigust väärikusele ja mittediskrimineerimisele ning olla vastuolus võrdsuse ja õigluse väärtustega. Sellised tehisintellektisüsteemid hindavad või liigitavad füüsilisi isikuid või nende rühmi, tuginedes paljudele andmepunktidele, mis on seotud nende sotsiaalse käitumisega eri kontekstides, või teadaolevatele, tuletatavatele või prognoositavatele isiku- või iseloomuomadustele teatava aja jooksul. Selliste tehisintellektisüsteemide antud sotsiaalpunktid võivad tuua kaasa füüsilisi isikuid või terveid inimrühmi kahjustavat või nende ebasoodsat kohtlemist sotsiaalses kontekstis, mis ei ole seotud kontekstiga, kus andmed algselt loodi või koguti, või kahjustavat kohtlemist, mis ei ole nende sotsiaalse käitumise problemaatilisusega võrreldes proportsionaalne või põhjendatud. Tehisintellektisüsteemid, millega kaasnevad sellised vastuvõetamatud punktide andmise tavad ja mis viivad selliste kahjustavate või ebasoodsate tulemusteni, tuleks seetõttu keelata. See keeld ei tohiks mõjutada füüsiliste isikute seaduslikku hindamist, mida tehakse konkreetsel eesmärgil kooskõlas liidu või liikmesriigi õigusega.
(32)
Die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung natürlicher Personen in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken greift besonders in die Rechte und Freiheiten der betroffenen Personen ein, da sie die Privatsphäre eines großen Teils der Bevölkerung beeinträchtigt, ein Gefühl der ständigen Überwachung weckt und indirekt von der Ausübung der Versammlungsfreiheit und anderer Grundrechte abhalten kann. Technische Ungenauigkeiten von KI-Systemen, die für die biometrische Fernidentifizierung natürlicher Personen bestimmt sind, können zu verzerrten Ergebnissen führen und eine diskriminierende Wirkung haben. Solche möglichen verzerrten Ergebnisse und eine solche diskriminierende Wirkung sind von besonderer Bedeutung, wenn es um das Alter, die ethnische Herkunft, die Rasse, das Geschlecht oder Behinderungen geht. Darüber hinaus bergen die Unmittelbarkeit der Auswirkungen und die begrenzten Möglichkeiten weiterer Kontrollen oder Korrekturen im Zusammenhang mit der Verwendung solcher in Echtzeit betriebener Systeme erhöhte Risiken für die Rechte und Freiheiten der betreffenden Personen, die im Zusammenhang mit Strafverfolgungsmaßnahmen stehen oder davon betroffen sind.
(32)
Tehisintellektisüsteemide kasutamine avalikult juurdepääsetavas ruumis õiguskaitse eesmärgil reaalajas toimuva füüsiliste isikute biomeetrilise kaugtuvastamise jaoks on eriti tõsine sekkumine asjaomaste isikute õigustesse ja vabadustesse, sest see võib mõjutada suure osa elanikkonna eraelu, tekitada pideva jälgimise tunde ning kaudselt veenda loobuma kogunemisvabaduse ja muude põhiõiguste kasutamisest. Füüsiliste isikute biomeetrilise kaugtuvastamise jaoks mõeldud tehisintellektisüsteemide tehniline ebatäpsus võib kaasa tuua tulemuste kallutatuse ja põhjustada diskrimineerimist. Sellised võimalikud kallutatud tulemused ja diskrimineeriv mõju on eriti olulised vanuse, etnilise päritolu, rassi, soo või puuete puhul. Kuna selliste reaalajas töötavate süsteemide kasutamise mõju on vahetu ja täiendava kontrolli või parandamise võimalused piiratud, seab selliste süsteemide kasutamine suuremasse ohtu õiguskaitsetoimingute mõjuvälja jäävate isikute õigused ja vabadused.
(33)
Die Verwendung solcher Systeme zu Strafverfolgungszwecken sollte daher untersagt werden, außer in erschöpfend aufgeführten und eng abgegrenzten Fällen, in denen die Verwendung unbedingt erforderlich ist, um einem erheblichen öffentlichen Interesse zu dienen, dessen Bedeutung die Risiken überwiegt. Zu diesen Fällen gehört die Suche nach bestimmten Opfern von Straftaten, einschließlich vermisster Personen, bestimmte Gefahren für das Leben oder die körperliche Unversehrtheit natürlicher Personen oder die Gefahr eines Terroranschlags sowie das Aufspüren oder Identifizieren von Tätern oder Verdächtigen in Bezug auf die in einem Anhang zu dieser Verordnung genannten Straftaten, sofern diese Straftaten in dem betreffenden Mitgliedstaat im Sinne des Rechts dieses Mitgliedstaats mit einer Freiheitsstrafe oder einer freiheitsentziehenden Maßregel der Sicherung im Höchstmaß von mindestens vier Jahren bedroht sind. Eine solche Schwelle für eine Freiheitsstrafe oder eine freiheitsentziehende Maßregel der Sicherung nach nationalem Recht trägt dazu bei, sicherzustellen, dass die Straftat schwerwiegend genug ist, um den Einsatz biometrischer Echtzeit-Fernidentifizierungssysteme möglicherweise zu rechtfertigen. Darüber hinaus beruht die im Anhang dieser Verordnung aufgeführte Liste der Straftaten auf den 32 im Rahmenbeschluss 2002/584/JI des Rates (18) aufgeführten Straftaten, unter Berücksichtigung der Tatsache, dass einige der Straftaten in der Praxis eher relevant sein können als andere, da der Rückgriff auf die biometrische Echtzeit-Fernidentifizierung für die konkrete Aufspürung oder Identifizierung eines Täters oder Verdächtigen in Bezug auf eine der verschiedenen aufgeführten Straftaten voraussichtlich in äußerst unterschiedlichem Maße erforderlich und verhältnismäßig sein könnte und da dabei die wahrscheinlichen Unterschiede in Schwere, Wahrscheinlichkeit und Ausmaß des Schadens oder möglicher negativer Folgen zu berücksichtigen sind. Eine unmittelbare Gefahr für das Leben oder die körperliche Unversehrtheit natürlicher Personen kann auch durch die schwerwiegende Störung einer kritischen Infrastruktur im Sinne des Artikels 2 Nummer 4 der Richtlinie (EU) 2022/2557 des Europäischen Parlaments und des Rates (19) entstehen, wenn die Störung oder Zerstörung einer solchen kritischen Infrastruktur zu einer unmittelbaren Gefahr für das Leben oder die körperliche Unversehrtheit einer Person führen würde, auch durch die schwerwiegende Beeinträchtigung der Bereitstellung der Grundversorgung für die Bevölkerung oder der Wahrnehmung der Kernfunktion des Staates. Darüber hinaus sollte diese Verordnung die Fähigkeit der Strafverfolgungs-, Grenzschutz-, Einwanderungs- oder Asylbehörden erhalten, gemäß den im Unionsrecht und im nationalen Recht für diesen Zweck festgelegten Bedingungen die Identität der betreffenden Person in ihrer Anwesenheit festzustellen. Insbesondere sollten Strafverfolgungs-, Grenzschutz-, Einwanderungs- oder Asylbehörden gemäß dem Unionsrecht oder dem nationalen Recht Informationssysteme verwenden können, um eine Person zu identifizieren, die während einer Identitätsfeststellung entweder verweigert, identifiziert zu werden, oder nicht in der Lage ist, ihre Identität anzugeben oder zu belegen, wobei gemäß dieser Verordnung keine vorherige Genehmigung erlangt werden muss. Dabei könnte es sich beispielsweise um eine Person handeln, die in eine Straftat verwickelt ist und nicht gewillt oder aufgrund eines Unfalls oder des Gesundheitszustands nicht in der Lage ist, den Strafverfolgungsbehörden ihre Identität offenzulegen.
(33)
Seepärast peaks selliste süsteemide kasutamine õiguskaitse eesmärgil olema keelatud, välja arvatud ammendavalt loetletud ja kitsalt määratletud olukordades, kus nende süsteemide kasutamine on rangelt vajalik selleks, et saavutada olulise avaliku huvi eesmärk, mille tähtsus kaalub riskid üles. Selliste olukordade hulka kuuluvad teatavate kuriteoohvrite, kaasa arvatud kadunud isikute otsimine, teatavad füüsiliste isikute elu või füüsilist turvalisust ähvardavad ohud või terrorirünnaku oht ning käesoleva määruse lisas loetletud kuritegude toimepanijate või sellistes kuritegudes kahtlustatavate asukoha kindlaks tegemine või nende tuvastamine, kui sellise kuriteo eest karistatakse asjaomases liikmesriigis vabadusekaotuse või vabadust piirava julgeolekumeetmega, mille maksimaalne pikkus on vähemalt neli aastat ning vastavalt kõnealuse kuriteo määratlusele selle liikmesriigi õiguses. Sellise ajalise piiri seadmine riigisisese õiguse kohasele vabadusekaotusele või vabadust piiravale julgeolekumeetmele aitab tagada, et reaalajas toimuva biomeetrilise kaugtuvastamise süsteemide kasutamine oleks õigustatud vaid piisavalt raskete rikkumiste korral. Peale selle põhineb käesoleva määruse lisas esitatud kuritegude loetelu 32 kuriteoliigil, mis on loetletud nõukogu raamotsuses 2002/584/JSK, (18) võttes arvesse, et mõned neist kuritegudest on praktikas tõenäoliselt teistest asjakohasemad, sest reaalajas toimuva biomeetrilise kaugtuvastamise kasutamise eeldatav vajalikkus ja proportsionaalsus võivad märkimisväärselt varieeruda, kui tegemist on loetelus nimetatud kuriteo toimepanija või sellises kuriteos kahtlustatava asukoha kindlaks tegemise või tema tuvastamisega ja kui võetakse arvesse võimalike negatiivsete tagajärgede raskusastme, tõenäosuse ja ulatuse tõenäolisi erinevusi. Vahetu oht füüsiliste isikute elule või füüsilisele turvalisusele võib tuleneda ka Euroopa Parlamendi ja nõukogu direktiivi (EL) 2022/2557 (19) artikli 2 punktis 4 määratletud elutähtsa taristu tõsisest kahjustada saamisest, kui sellise elutähtsa taristu kahjustada saamine või hävimine ohustaks vahetult isiku elu või füüsilist turvalisust, sealhulgas elanikkonna esmatarbekaupadega varustamise või riigi põhiülesannete täitmise tõsise kahjustamise kaudu. Lisaks tuleks käesoleva määrusega säilitada õiguskaitse-, piirivalve-, rände- ja varjupaigaasutuste suutlikkus kontrollida isikusamasust asjaomase isiku juuresolekul vastavalt liidu ja liikmesriigi õiguses sellise kontrolli jaoks sätestatud tingimustele. Eelkõige peaks õiguskaitse-, piirivalve-, rände- ja varjupaigaasutustel olema võimalik kasutada liidu või liikmesriigi õiguse kohaselt infosüsteeme, et tuvastada isikud, kes isikusamasuse kontrolli käigus kas keelduvad isiku tuvastamisest või ei suuda oma isikut avaldada või tõendada, ilma et neilt nõutaks käesoleva määruse kohaselt eelneva loa saamist. Tegemist võib olla näiteks kuriteoga seotud isikuga, isikuga, kes ei soovi või kes õnnetuse või tervisliku seisundi tõttu ei suuda avaldada oma isikut õiguskaitseasutustele.
(34)
Um sicherzustellen, dass diese Systeme verantwortungsvoll und verhältnismäßig genutzt werden, ist es auch wichtig, festzulegen, dass in jedem dieser erschöpfend aufgeführten und eng abgegrenzten Fälle bestimmte Elemente berücksichtigt werden sollten, insbesondere in Bezug auf die Art des dem Antrag zugrunde liegenden Falls und die Auswirkungen der Verwendung auf die Rechte und Freiheiten aller betroffenen Personen sowie auf die für die Verwendung geltenden Schutzvorkehrungen und Bedingungen. Darüber hinaus sollte die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen für die Zwecke der Strafverfolgung nur eingesetzt werden, um die Identität der speziell betroffenen Person zu bestätigen und sollte sich hinsichtlich des Zeitraums und des geografischen und personenbezogenen Anwendungsbereichs auf das unbedingt Notwendige beschränken, wobei insbesondere den Beweisen oder Hinweisen in Bezug auf die Bedrohungen, die Opfer oder den Täter Rechnung zu tragen ist. Die Verwendung des biometrischen Echtzeit-Fernidentifizierungssystems in öffentlich zugänglichen Räumen sollte nur genehmigt werden, wenn die zuständige Strafverfolgungsbehörde eine Grundrechte-Folgenabschätzung durchgeführt und, sofern in dieser Verordnung nichts anderes bestimmt ist, das System gemäß dieser Verordnung in der Datenbank registriert hat. Die Personenreferenzdatenbank sollte für jeden Anwendungsfall in jedem der oben genannten Fälle geeignet sein.
(34)
Lisaks sellele on nende süsteemide vastutustundliku ja proportsionaalse kasutamise tagamiseks oluline panna paika, et igaühes neist ammendavalt loetletud ja kitsalt määratletud olukorrast tuleks arvesse võtta teatavaid elemente, eeskätt mis puudutab taotluse aluseks oleva olukorra olemust ja kasutamise tagajärgi kõigi asjaomaste isikute õigustele ja vabadustele ning kasutamise korral ettenähtud kaitsemeetmeid ja tingimusi. Peale selle tuleks reaalajas toimuva biomeetrilise kaugtuvastamise süsteeme kasutada avalikult juurdepääsetavas ruumis õiguskaitse eesmärgil üksnes selleks, et kinnitada konkreetselt sihtmärgiks oleva isiku isikusamasust, ning see peaks piirduma sellega, mis on rangelt vajalik seoses ajavahemiku ning geograafilise ja isikulise kohaldamisalaga, võttes eelkõige arvesse tõendeid või viiteid ohu, ohvrite või toimepanija kohta. Reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutamine avalikult juurdepääsetavas ruumis peaks olema lubatud üksnes juhul, kui asjaomane õiguskaitseasutus on viinud lõpule põhiõigustele avalduva mõju hindamise, ja kui käesolevas määruses ei ole sätestatud teisiti, on ta süsteemi andmebaasis registreerinud, nagu on sätestatud käesolevas määruses. Isikute võrdlusandmebaas peaks olema igas eespool nimetatud olukorras iga kasutusmalli jaoks sobiv.
(35)
Jede Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken sollte einer ausdrücklichen spezifischen Genehmigung durch eine Justizbehörde oder eine unabhängige Verwaltungsbehörde eines Mitgliedstaats, deren Entscheidung rechtsverbindlich ist, unterliegen. Eine solche Genehmigung sollte grundsätzlich vor der Verwendung des KI-Systems zur Identifizierung einer Person oder mehrerer Personen eingeholt werden. Ausnahmen von dieser Regel sollten in hinreichend begründeten dringenden Fällen erlaubt sein, d. h. in Situationen, in denen es wegen der Notwendigkeit der Verwendung der betreffenden Systeme tatsächlich und objektiv unmöglich ist, vor dem Beginn der Verwendung des KI-Systems eine Genehmigung einzuholen. In solchen dringenden Fällen sollte die Verwendung des KI-Systems auf das absolut notwendige Mindestmaß beschränkt werden und angemessenen Schutzvorkehrungen und Bedingungen unterliegen, die im nationalen Recht festgelegt sind und im Zusammenhang mit jedem einzelnen dringenden Anwendungsfall von der Strafverfolgungsbehörde selbst präzisiert werden. Darüber hinaus sollte die Strafverfolgungsbehörde in solchen Fällen eine solche Genehmigung beantragen und die Gründe dafür angeben, warum sie sie nicht früher, unverzüglich, spätestens jedoch innerhalb von 24 Stunden beantragen konnte. Wird eine solche Genehmigung abgelehnt, sollte die Verwendung biometrischer Echtzeit-Identifizierungssysteme, die mit dieser Genehmigung verbunden sind, mit sofortiger Wirkung eingestellt werden, und alle Daten im Zusammenhang mit dieser Verwendung sollten verworfen und gelöscht werden. Diese Daten umfassen Eingabedaten, die von einem KI-System während der Nutzung eines solchen Systems direkt erfasst werden, sowie die Ergebnisse und Ausgaben der mit dieser Genehmigung verbundenen Verwendung. Daten, die im Einklang mit anderem Unionsrecht oder nationalem Recht rechtmäßig erworben wurden, sollten davon nicht betroffen sein. In jedem Fall darf keine Entscheidung mit nachteiligen Rechtsfolgen für eine Person allein auf der Grundlage der Ausgaben des biometrischen Fernidentifizierungssystems getroffen werden.
(35)
Iga kord, kui reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutatakse avalikult juurdepääsetavas ruumis õiguskaitse eesmärgil, peaks liikmesriigi õigusasutus või sõltumatu haldusasutus, kelle otsus on siduv, andma selleks selge ja konkreetse loa. Põhimõtteliselt tuleks selline luba saada enne tehisintellektisüsteemi kasutamist isiku või isikute tuvastamiseks. Erandeid sellest reeglist tuleks lubada põhjendatud kiireloomulistes olukordades, see tähendab olukordades, kus vajadus asjaomaste süsteemide kasutamise järele on selline, et enne tehisintellektisüsteemi kasutamise algust ei ole reaalselt ega objektiivselt võimalik luba saada. Sellistes kiireloomulistes olukordades peaks tehisintellektisüsteemi kasutamine piirduma hädavajaliku miinimumiga ning selle suhtes peaksid kehtima asjakohased kaitsemeetmed ja tingimused, mis on kindlaks määratud riigisiseses õiguses ja mida õiguskaitseasutus iga individuaalse kiireloomulise kasutusjuhtumi korral täpsustab. Lisaks sellele peaks õiguskaitseasutus sellistel juhtudel kõnealust luba taotlema, põhjendades, miks ta ei saanud seda varem, põhjendamatu viivituseta ja hiljemalt 24 tunni jooksul taotleda. Kui selline luba lükatakse tagasi, tuleks selle loaga seotud reaalajas biomeetrilise tuvastamise süsteemide kasutamine viivitamata lõpetada ning kõik sellise kasutamisega seotud andmed tuleks kõrvale jätta ja kustutada. Sellised andmed hõlmavad sisendandmeid, mille tehisintellektisüsteem on sellise süsteemi kasutamise käigus vahetult saanud, ning selle loaga seotud kasutamise tulemusi ja väljundeid. See ei tohiks hõlmata sisendit, mis on saadud seaduslikult muu liidu või riigisisese õiguse kohaselt. Ühelgi juhul ei tohiks isiku suhtes kahjulikke õiguslikke tagajärgi põhjustavat otsust teha üksnes biomeetrilise kaugtuvastamise süsteemi tulemuste põhjal.
(36)
Damit sie ihre Aufgaben im Einklang mit den Anforderungen dieser Verordnung und der nationalen Vorschriften erfüllen können, sollte die zuständige Marktüberwachungsbehörde und die nationale Datenschutzbehörde über jede Verwendung des biometrischen Echtzeit-Identifizierungssystems unterrichtet werden. Die Marktüberwachungsbehörden und die nationalen Datenschutzbehörden, die unterrichtet wurden, sollten der Kommission jährlich einen Bericht über die Verwendung biometrischer Echtzeit-Identifizierungssysteme vorlegen.
(36)
Selleks et täita oma ülesandeid kooskõlas käesolevas määruses ja riigisiseses õigusnormides sätestatud nõuetega, tuleks asjaomast turujärelevalveasutust ja riiklikku andmekaitseasutust teavitada igast reaalajas toimuva biomeetrilise tuvastamise süsteemi kasutamisest. Teavitatud turujärelevalveasutused ja riiklikud andmekaitseasutused peaksid esitama komisjonile igal aastal aruande reaalajas toimunud biomeetrilise tuvastamise süsteemide kasutamise kohta.
(37)
Darüber hinaus ist es angezeigt, innerhalb des durch diese Verordnung vorgegebenen erschöpfenden Rahmens festzulegen, dass eine solche Verwendung im Hoheitsgebiet eines Mitgliedstaats gemäß dieser Verordnung nur möglich sein sollte, sofern der betreffende Mitgliedstaat in seinen detaillierten nationalen Rechtsvorschriften ausdrücklich vorgesehen hat, dass eine solche Verwendung genehmigt werden kann. Folglich steht es den Mitgliedstaaten im Rahmen dieser Verordnung frei, eine solche Möglichkeit generell oder nur in Bezug auf einige der in dieser Verordnung genannten Ziele, für die eine genehmigte Verwendung gerechtfertigt sein kann, vorzusehen. Solche nationalen Rechtsvorschriften sollten der Kommission spätestens 30 Tage nach ihrer Annahme mitgeteilt werden.
(37)
Ühtlasi on käesoleva määrusega kehtestatavas ammendavas raamistikus otstarbekas ette näha, et selline kasutamine liikmesriigi territooriumil kooskõlas käesoleva määrusega peaks olema võimalik üksnes siis ja niivõrd, kuivõrd asjaomane liikmesriik on otsustanud oma riigisisese õiguse üksikasjalikes õigusnormides selgelt sätestada võimaluse sellist kasutamist lubada. Seega jääb liikmesriikidele käesoleva määruse alusel vabadus sellist võimalust üldse mitte ette näha või näha selline võimalus ette üksnes mõne eesmärgi jaoks, mille puhul on käesolevas määruses kirjeldatud lubatud kasutamine õigustatud. Sellistest riigisisestest õigusnormidest tuleks komisjonile teatada 30 päeva jooksul pärast nende vastuvõtmist.
(38)
Die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung natürlicher Personen in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken erfordert zwangsläufig die Verarbeitung biometrischer Daten. Die Vorschriften dieser Verordnung, die vorbehaltlich bestimmter Ausnahmen eine solche Verwendung auf der Grundlage des Artikels 16 AEUV verbieten, sollten als Lex specialis in Bezug auf die in Artikel 10 der Richtlinie (EU) 2016/680 enthaltenen Vorschriften über die Verarbeitung biometrischer Daten gelten und somit die Verwendung und Verarbeitung der betreffenden biometrischen Daten umfassend regeln. Eine solche Verwendung und Verarbeitung sollte daher nur möglich sein, soweit sie mit dem in dieser Verordnung festgelegten Rahmen vereinbar ist, ohne dass es den zuständigen Behörden bei ihren Tätigkeiten zu Strafverfolgungszwecken Raum lässt, außerhalb dieses Rahmens solche Systeme zu verwenden und die damit verbundenen Daten aus den in Artikel 10 der Richtlinie (EU) 2016/680 aufgeführten Gründen zu verarbeiten. In diesem Zusammenhang soll diese Verordnung nicht als Rechtsgrundlage für die Verarbeitung personenbezogener Daten gemäß Artikel 8 der Richtlinie (EU) 2016/680 dienen. Die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu anderen Zwecken als der Strafverfolgung, auch durch zuständige Behörden, sollte jedoch nicht unter den in dieser Verordnung festgelegten spezifischen Rahmen für diese Verwendung zu Strafverfolgungszwecken fallen. Eine solche Verwendung zu anderen Zwecken als der Strafverfolgung sollte daher nicht der Genehmigungspflicht gemäß dieser Verordnung und den zu dieser Genehmigung anwendbaren detaillierten nationalen Rechtsvorschriften unterliegen.
(38)
Tehisintellektisüsteemide kasutamine avalikult juurdepääsetavas ruumis õiguskaitse eesmärgil reaalajas toimuva füüsiliste isikute biomeetrilise kaugtuvastamise jaoks eeldab igal juhul biomeetriliste andmete töötlemist. Käesoleva määruse kohaseid õigusnorme, millega keelatakse selline kasutamine teatavate eranditega ja mis põhinevad ELi toimimise lepingu artiklil 16, tuleks kohaldada direktiivi (EL) 2016/680 artiklis 10 sätestatud biomeetriliste andmete töötlemist käsitlevate õigusnormide suhtes erinormina (lex specialis), nii et selline kasutamine ja sellega kaasnev biomeetriliste andmete töötlemine oleksid ammendavalt reguleeritud. Seega peaks selline kasutamine ja töötlemine olema võimalik üksnes siis, kui see on kooskõlas käesoleva määrusega kehtestatud raamistikuga, ning väljaspool seda raamistikku ei tohiks pädevatel asutustel olla võimalik õiguskaitse eesmärgil tegutsedes kasutada selliseid süsteeme ja töödelda sellega seoses selliseid andmeid direktiivi (EL) 2016/680 artiklis 10 loetletud põhjustel. Seoses sellega ei ole käesoleva määruse eesmärk anda õiguslikku alust isikuandmete töötlemiseks direktiivi (EL) 2016/680 artikli 8 alusel. Käesolevas määruses sätestatud eriraamistik, mis käsitleb sellist kasutamist õiguskaitse eesmärgil, ei peaks siiski hõlmama reaalajas toimuva biomeetrilise kaugtuvastamise süsteemide kasutamist avalikult juurdepääsetavas ruumis muul otstarbel kui õiguskaitse eesmärgil, ka siis, kui seda teevad pädevad asutused. Seega ei peaks sellise muul otstarbel kui õiguskaitse eesmärgil kasutamise puhul nõudma käesoleva määruse kohast luba ega selle loa rakendamiseks sätestatud üksikasjalike riigisiseste õigusnormide kohaldamist.
(39)
Jede Verarbeitung biometrischer Daten und anderer personenbezogener Daten im Zusammenhang mit der Verwendung von KI-Systemen für die biometrische Identifizierung, ausgenommen im Zusammenhang mit der Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken im Sinne dieser Verordnung, sollte weiterhin allen Anforderungen genügen, die sich aus Artikel 10 der Richtlinie (EU) 2016/680 ergeben. Für andere Zwecke als die Strafverfolgung ist die Verarbeitung biometrischer Daten gemäß Artikel 9 Absatz 1 der Verordnung (EU) 2016/679 und Artikel 10 Absatz 1 der Verordnung (EU) 2018/1725, vorbehaltlich der in diesen Artikeln vorgesehenen begrenzten Ausnahmefällen, verboten. In Anwendung des Artikels 9 Absatz 1 der Verordnung (EU) 2016/679 war die Verwendung biometrischer Fernidentifizierung zu anderen Zwecken als der Strafverfolgung bereits Gegenstand von Verbotsentscheidungen der nationalen Datenschutzbehörden.
(39)
Igasugune biomeetriliste ja muude isikuandmete töötlemine, mis on seotud tehisintellektisüsteemide kasutamisega biomeetrilise tuvastamise jaoks, välja arvatud juhul, kui see toimub seoses käesoleva määrusega reguleeritud reaalajas toimuva biomeetrilise kaugtuvastamise süsteemide kasutamisega avalikult juurdepääsetavas ruumis õiguskaitse eesmärgil, peaks ka edaspidi vastama kõigile direktiivi (EL) 2016/680 artiklist 10 tulenevatele nõuetele. Muul otstarbel kui õiguskaitse eesmärgil kasutamise puhul on määruse (EL) 2016/679 artikli 9 lõike 1 ja määruse (EL) 2018/1725 artikli 10 lõikega 1 andmesubjekti biomeetriliste andmete töötlemine keelatud, välja arvatud nendes artiklites sätestatud piiratud eranditega. Määruse (EL) 2016/679 artikli 9 lõike 1 kohaldamisel on riiklikud andmekaitseasutused juba teinud keelava otsuse biomeetrilise kaugtuvastamise kasutamise kohta muudel kui õiguskaitse eesmärkidel.
(40)
Nach Artikel 6a des dem EUV und dem AEUV beigefügten Protokolls Nr. 21 über die Position des Vereinigten Königreichs und Irlands hinsichtlich des Raums der Freiheit, der Sicherheit und des Rechts sind die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften in Artikel 5 Absatz 1 Unterabsatz 1 Buchstabe g, soweit er auf die Verwendung von Systemen zur biometrischen Kategorisierung für Tätigkeiten im Bereich der polizeilichen Zusammenarbeit und der justiziellen Zusammenarbeit in Strafsachen Anwendung findet, Artikel 5 Absatz 1 Buchstabe d, soweit sie auf die Verwendung von KI-Systemen nach der darin festgelegten Bestimmung Anwendung finden, sowie Artikel 5 Absatz 1 Unterabsatz 1 Buchstabe h, Artikel 5 Absätze 2 bis 6 und Artikel 26 Absatz 10 dieser Verordnung in Bezug auf die Verarbeitung personenbezogener Daten durch die Mitgliedstaaten im Rahmen der Ausübung von Tätigkeiten, die in den Anwendungsbereich des Dritten Teils Titel V Kapitel 4 oder 5 AEUV fallen, für Irland nicht bindend, wenn Irland nicht durch die Vorschriften gebunden ist, die die Formen der justiziellen Zusammenarbeit in Strafsachen oder der polizeilichen Zusammenarbeit regeln, in deren Rahmen die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften eingehalten werden müssen.
(40)
ELi lepingule ja ELi toimimise lepingule lisatud protokolli nr 21 (Ühendkuningriigi ja Iirimaa seisukoha kohta vabadusel, turvalisusel ja õigusel rajaneva ala suhtes) artikli 6a kohaselt ei ole käesoleva määruse artikli 5 lõike 1 esimese lõigu punktis g sätestatud normid niivõrd, kuivõrd neid kohaldatakse biomeetrilise liigitamise süsteemide kasutamise suhtes politseikoostöö ja kriminaalasjades tehtava õigusalase koostöö valdkonna tegevustes, artikli 5 lõike 1 esimese lõigu punktis d sätestatud normid niivõrd, kuivõrd neid kohaldatakse selle sättega hõlmatud tehisintellektisüsteemide kasutamise suhtes, artikli 5 lõike 1 esimese lõigu punktis h ja lõigetes 2–6 ning artikli 26 lõikes 10 kehtestatud normid, mis võeti vastu ELi toimimise lepingu artikli 16 alusel, mis käsitlevad isikuandmete töötlemist liikmesriikide poolt ELi toimimise lepingu kolmanda osa V jaotise 4. või 5. peatüki kohaldamisalasse kuuluva tegevuse puhul, kui Iirimaa suhtes ei ole siduvad normid, mis käsitlevad õigusalast koostööd kriminaalasjades või politseikoostööd, mille raames tuleb järgida ELi toimimise lepingu artikli 16 alusel kehtestatud sätteid, Iirimaa suhtes siduvad.
(41)
Nach den Artikeln 2 und 2a des dem EUV und dem AEUV beigefügten Protokolls Nr. 22 über die Position Dänemarks ist Dänemark durch die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften in Artikel 5 Absatz 1 Unterabsatz 1 Buchstabe g soweit er auf die Verwendung von Systemen zur biometrischen Kategorisierung für Tätigkeiten im Bereich der polizeilichen Zusammenarbeit und der justiziellen Zusammenarbeit in Strafsachen Anwendung findet, Artikel 5 Absatz 1 Unterabsatz 1 Buchstaben d soweit sie auf die Verwendung von KI-Systemen nach der darin festgelegten Bestimmung Anwendung finden, sowie Artikel 5 Absatz 1 Unterabsatz 1 Buchstabe h, Artikel 5 Absätze 2 bis 6 und Artikel 26 Absatz 10 dieser Verordnung in Bezug auf die Verarbeitung personenbezogener Daten durch die Mitgliedstaaten im Rahmen der Ausübung von Tätigkeiten, die in den Anwendungsbereich des Dritten Teils Titel V Kapitel 4 oder 5 AEUV fallen, weder gebunden noch zu ihrer Anwendung verpflichtet.
(41)
ELi lepingule ja ELi toimimise lepingule lisatud protokolli nr 22 (Taani seisukoha kohta) artiklite 2 ja 2a kohaselt ei ole käesoleva määruse artikli 5 lõike 1 esimese lõigu punktis g sätestatud normid niivõrd, kuivõrd neid kohaldatakse biomeetrilise liigitamise süsteemide kasutamise suhtes politseikoostöö ja kriminaalasjades tehtava õigusalase koostöö valdkonna tegevustes, artikli 5 lõike 1 esimese lõigu punktis d sätestatud normid niivõrd, kuivõrd neid kohaldatakse selle sättega hõlmatud tehisintellektisüsteemide kasutamise suhtes, artikli 5 lõike 1 esimese lõigu punktis h ja lõigetes 2–6 ning artikli 26 lõikes 10 kehtestatud normid, mis võeti vastu ELi toimimise lepingu artikli 16 alusel ja mis käsitlevad isikuandmete töötlemist liikmesriikide poolt ELi toimimise lepingu kolmanda osa V jaotise 4. või 5. peatüki kohaldamisalasse kuuluva tegevuse puhul, Taani suhtes siduvad ega kohaldatavad.
(42)
Im Einklang mit der Unschuldsvermutung sollten natürliche Personen in der Union stets nach ihrem tatsächlichen Verhalten beurteilt werden. Natürliche Personen sollten niemals allein nach dem Verhalten beurteilt werden, das von einer KI auf der Grundlage ihres Profiling, ihrer Persönlichkeitsmerkmale oder -eigenschaften wie Staatsangehörigkeit, Geburtsort, Wohnort, Anzahl der Kinder, Schulden oder Art ihres Fahrzeugs vorhergesagt wird, ohne dass ein begründeter Verdacht besteht, dass diese Person an einer kriminellen Tätigkeit auf der Grundlage objektiver nachprüfbarer Tatsachen beteiligt ist, und ohne dass eine menschliche Überprüfung stattfindet. Daher sollten Risikobewertungen, die in Bezug auf natürliche Personen durchgeführt werden, um zu bewerten, ob sie straffällig werden oder um eine tatsächliche oder mögliche Straftat vorherzusagen, und dies ausschließlich auf dem Profiling dieser Personen oder der Bewertung ihrer Persönlichkeitsmerkmale und -eigenschaften beruht, verboten werden. In jedem Fall betrifft oder berührt dieses Verbot nicht Risikoanalysen, die nicht auf dem Profiling von Einzelpersonen oder auf Persönlichkeitsmerkmalen und -eigenschaften von Einzelpersonen beruhen, wie etwa KI-Systeme, die Risikoanalysen zur Bewertung der Wahrscheinlichkeit eines Finanzbetrugs durch Unternehmen auf der Grundlage verdächtiger Transaktionen durchführen, oder Risikoanalyseinstrumente einsetzen, um die Wahrscheinlichkeit vorherzusagen, dass Betäubungsmittel oder illegale Waren durch Zollbehörden, beispielsweise auf der Grundlage bekannter Schmuggelrouten, aufgespürt werden.
(42)
Kooskõlas süütuse presumptsiooniga tuleks füüsilisi isikuid liidus alati hinnata nende tegeliku käitumise põhjal. Füüsilisi isikuid ei tohiks kunagi hinnata tehisintellekti prognoosil põhineva käitumise alusel, tuginedes üksnes nende profiilianalüüsile, isikuomadustele või erijoontele, nagu rahvus, sünnikoht, elukoht, laste arv, võlatase või automark, ilma et oleks olemas põhjendatud kahtlus, et see isik on seotud kuritegeliku tegevusega, mis tugineb objektiivsetele kontrollitavatele faktidele, ja ilma inimhinnanguta. Seetõttu tuleks keelata sellised füüsiliste isikutega seotud riskihindamised, mille eesmärk on hinnata nende rikkumise tõenäosust või prognoosida tegelikku või potentsiaalset kuriteo toimepanemist üksnes nende profiilianalüüsi või tema isikuomaduste ja erijoonte hindamise alusel. Ühelgi juhul ei taheta nimetatud keeluga osutada sellisele riskianalüüsile või puudutada sellist riskianalüüsi, mis ei põhine üksikisikute profiilianalüüsil või üksikisikute isikuomadustel ja erijoontel, näiteks tehisintellektisüsteemide puhul, mis kasutavad riskianalüüsi, et hinnata ettevõtjate finantspettuse tõenäosust kahtlaste tehingute või riskianalüüsivahendite alusel, et prognoosida uimastite või ebaseaduslike kaupade tõenäolist asukohta tolli poolt, näiteks teadaolevatel salakaubaveo marsruutidel.
(43)
Das Inverkehrbringen, die Inbetriebnahme für diesen spezifischen Zweck oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Videoüberwachungsaufnahmen erstellen oder erweitern, sollte verboten werden, da dies das Gefühl der Massenüberwachung verstärkt und zu schweren Verstößen gegen die Grundrechte, einschließlich des Rechts auf Privatsphäre, führen kann.
(43)
Keelata tuleks selliste tehisintellektisüsteemide turule laskmine, kasutusele võtmine või kasutamine, mis loovad või laiendavad näotuvastuse andmebaase internetist või videovalve salvestistest näokujutiste kindla suunitluseta ekstraheerimise kaudu, kuna see kasutusviis suurendab massilise jälgimise tunnet ja võib kaasa tuua põhiõiguste, sealhulgas eraelu puutumatuse õiguse ränga rikkumise.
(44)
Im Hinblick auf die wissenschaftliche Grundlage von KI-Systemen, die darauf abzielen, Emotionen zu erkennen oder abzuleiten, bestehen ernsthafte Bedenken, insbesondere da sich Gefühlsausdrücke je nach Kultur oder Situation und selbst bei ein und derselben Person erheblich unterscheiden. Zu den größten Schwachstellen solcher Systeme gehört, dass sie beschränkt zuverlässig, nicht eindeutig und nur begrenzt verallgemeinerbar sind. Daher können KI-Systeme, die Emotionen oder Absichten natürlicher Personen auf der Grundlage ihrer biometrischen Daten erkennen oder ableiten, diskriminierende Ergebnisse hervorbringen und in die Rechte und Freiheiten der betroffenen Personen eingreifen. Angesichts des Machtungleichgewichts in den Bereichen Arbeit und Bildung in Verbindung mit dem intrusiven Charakter dieser Systeme können diese zu einer Schlechterstellung oder Benachteiligung bestimmter natürlicher Personen oder ganzer Gruppen führen. Daher sollte das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von KI-Systemen, die den emotionalen Zustand von Einzelpersonen in Situationen, ableiten sollen, die mit dem Arbeitsplatz oder dem Bildungsbereich in Zusammenhang stehen, verboten werden. Dieses Verbot sollte nicht für KI-Systeme gelten, die ausschließlich aus medizinischen oder sicherheitstechnischen Gründen in Verkehr gebracht werden, wie z. B. Systeme, die für therapeutische Zwecke bestimmt sind.
(44)
Tõsist muret tekitab selliste tehisintellektisüsteemide teaduslik alus, mille eesmärk on tuvastada või tuletada emotsioone, eelkõige seetõttu, et emotsioonide väljendamine on kultuuride ja olukordade lõikes ning isegi ühe inimese puhul väga erinev. Selliste süsteemide peamisteks puudusteks on piiratud usaldusväärsus, spetsiifilisuse puudumine ja piiratud üldistatavus. Seetõttu võivad tehisintellektisüsteemid, mis tuvastavad või tuletavad füüsiliste isikute emotsioone või kavatsusi nende biomeetriliste andmete põhjal, viia diskrimineerivate tulemusteni ning sekkuda asjaomaste isikute õigustesse ja vabadustesse. Võttes arvesse võimu ebavõrdsust töö või hariduse kontekstis koos nende süsteemide sekkuva olemusega, võivad sellised süsteemid kaasa tuua füüsiliste isikute või nende rühmade kahjustava või ebasoodsa kohtlemise. Seetõttu tuleks keelata selliste tehisintellektisüsteemide turule laskmine, kasutusele võtmine või kasutamine, mis on ette nähtud üksikisikute emotsionaalse seisundi tuvastamiseks töökoha ja haridusega seotud olukordades. See keeld ei tohiks hõlmata tehisintellektisüsteeme, mis lastakse turule üksnes meditsiinilistel või ohutusega seotud põhjustel, näiteks terapeutiliseks kasutuseks mõeldud süsteeme.
(45)
Praktiken, die nach Unionsrecht, einschließlich Datenschutzrecht, Nichtdiskriminierungsrecht, Verbraucherschutzrecht und Wettbewerbsrecht, verboten sind, sollten von dieser Verordnung nicht betroffen sein.
(45)
Käesolev määrus ei tohiks mõjutada kasutusviise, mis on keelatud liidu õigusega, sealhulgas andmekaitseõiguse, diskrimineerimisvastase õiguse, tarbijakaitseõiguse ja konkurentsiõiguse alusel.
(46)
Hochrisiko-KI-Systeme sollten nur dann auf dem Unionsmarkt in Verkehr gebracht, in Betrieb genommen oder verwendet werden, wenn sie bestimmte verbindliche Anforderungen erfüllen. Mit diesen Anforderungen sollte sichergestellt werden, dass Hochrisiko-KI-Systeme, die in der Union verfügbar sind oder deren Ausgabe anderweitig in der Union verwendet wird, keine unannehmbaren Risiken für wichtige öffentliche Interessen der Union bergen, wie sie im Unionsrecht anerkannt und geschützt sind. Auf der Grundlage des neuen Rechtsrahmens, wie in der Bekanntmachung der Kommission „Leitfaden für die Umsetzung der Produktvorschriften der EU 2022 (Blue Guide)“ (20) dargelegt, gilt als allgemeine Regel, dass mehr als ein Rechtsakt der Harmonisierungsrechtsvorschriften der Union wie die Verordnungen (EU) 2017/745 (21) und (EU) 2017/746 (22) des Europäischen Parlaments und des Rates oder die Richtlinie 2006/42/EG des Europäischen Parlaments und des Rates (23) auf ein Produkt anwendbar sein können, da die Bereitstellung oder Inbetriebnahme nur erfolgen kann, wenn das Produkt allen geltenden Harmonisierungsrechtsvorschriften der Union entspricht. Um Kohärenz zu gewährleisten und unnötigen Verwaltungsaufwand oder Kosten zu vermeiden, sollten die Anbieter eines Produkts, das ein oder mehrere Hochrisiko-KI-Systeme enthält, für die die Anforderungen dieser Verordnung und der in einem Anhang dieser Verordnung aufgeführten Harmonisierungsrechtsvorschriften der Union gelten, in Bezug auf operative Entscheidungen darüber flexibel sein, wie die Konformität eines Produkts, das ein oder mehrere Hochrisiko-KI-Systeme enthält, bestmöglich mit allen geltenden Anforderungen der Harmonisierungsrechtsvorschriften der Union sichergestellt werden kann. Als hochriskant sollten nur solche KI-Systeme eingestuft werden, die erhebliche schädliche Auswirkungen auf die Gesundheit, die Sicherheit und die Grundrechte von Personen in der Union haben, wodurch eine mögliche Beschränkung des internationalen Handels so gering wie möglich bleiben sollte.
(46)
Suure riskiga tehisintellektisüsteeme tohiks liidus turule lasta, kasutusele võtta või kasutada üksnes siis, kui see vastab teatavatele kohustuslikele nõuetele. Need nõuded peaksid tagama, et liidus kättesaadavad suure riskiga tehisintellektisüsteemid või tehisintellektisüsteemid, mille väljundit kasutatakse liidus muul viisil, ei kujuta endast vastuvõetamatut riski liidu õigusega tunnustatud ja kaitstud liidu oluliste avalike huvide suhtes. Uue õigusraamistiku alusel, mida on täpsustatud komisjoni 2022. aasta sinises raamatus ELi toote-eeskirjade rakendamise kohta, (20) on üldreegel, et ühe toote suhtes võib olla vaja kohaldada rohkem kui ühte liidu ühtlustamiõigusakti, näiteks Euroopa Parlamendi ja nõukogu määruseid (EL) 2017/745 (21) ja (EL) 2017/746 (22) või Euroopa Parlamendi ja nõukogu direktiivi 2006/42/EÜ, (23) kuna kättesaadavaks tegemine või kasutusele võtmine saab toimuda ainult siis, kui toode vastab kõigile kohaldatavatele liidu ühtlustamisõigusaktidele. Järjepidevuse tagamiseks ja tarbetu halduskoormuse või kulu ärahoidmiseks peaks üht või mitut suure riskiga tehisintellektisüsteemi sisaldava toote pakkujatel, mille suhtes kohaldatakse käesoleva määruse ja käesoleva määruse lisas loetletud liidu ühtlustamisõigusaktide nõudeid, olema paindlikkus operatiivsete otsuste tegemisel selle kohta, kuidas tagada üht või mitut tehisintellektisüsteemi sisaldava toote vastavus kõigile liidu ühtlustamisõigusaktidega kohaldatavatele nõuetele optimaalseimal viisil. Suure riskiga tehisintellektisüsteemideks tuleks pidada üksnes selliseid tehisintellektisüsteeme, millel on liidus oluline kahjulik mõju inimeste tervisele, turvalisusele ja põhiõigustele, ning selline piirang minimeeriks kõik võimalikud rahvusvahelise kaubanduse piirangud.
(47)
KI-Systeme könnten nachteilige Auswirkungen auf die Gesundheit und Sicherheit von Personen haben, insbesondere wenn solche Systeme als Sicherheitsbauteile von Produkten zum Einsatz kommen. Im Einklang mit den Zielen der Harmonisierungsrechtsvorschriften der Union, die den freien Verkehr von Produkten im Binnenmarkt erleichtern und gewährleisten sollen, dass nur sichere und anderweitig konforme Produkte auf den Markt gelangen, ist es wichtig, dass die Sicherheitsrisiken, die ein Produkt als Ganzes aufgrund seiner digitalen Komponenten, einschließlich KI-Systeme, mit sich bringen kann, angemessen vermieden und gemindert werden. So sollten beispielsweise zunehmend autonome Roboter — sei es in der Fertigung oder in der persönlichen Assistenz und Pflege — in der Lage sein, sicher zu arbeiten und ihre Funktionen in komplexen Umgebungen zu erfüllen. Desgleichen sollten die immer ausgefeilteren Diagnosesysteme und Systeme zur Unterstützung menschlicher Entscheidungen im Gesundheitssektor, in dem die Risiken für Leib und Leben besonders hoch sind, zuverlässig und genau sein.
(47)
Tehisintellektisüsteemid võivad kahjustada inimeste tervist ja ohutust, eriti juhul, kui sellised süsteemid on toodete turvakomponendid. Kooskõlas liidu ühtlustamisõigusaktide eesmärkidega hõlbustada toodete vaba liikumist siseturul ja tagada, et siseturule saabuvad ainult ohutud ja muul viisil nõuetele vastavad tooted, on oluline igakülgselt ära hoida ja leevendada ohutusriske, mille toode kui tervik võib põhjustada oma digitaalsete komponentide, sealhulgas tehisintellektisüsteemide tõttu. Näiteks üha autonoomsemad robotid peaksid suutma ohutult töötada ja täita oma ülesandeid keerukates keskkondades, seda nii tootmise kui ka isikliku abi ja hoolduse valdkonnas. Samamoodi peaksid usaldusväärsed ja täpsed olema üha keerulisemad diagnostikasüsteemid ja inimeste otsuseid toetavad süsteemid tervishoiusektoris, kus on tegemist elu ja tervise seisukohast eriti oluliste otsustega.
(48)
Das Ausmaß der nachteiligen Auswirkungen des KI-Systems auf die durch die Charta geschützten Grundrechte ist bei der Einstufung eines KI-Systems als hochriskant von besonderer Bedeutung. Zu diesen Rechten gehören die Würde des Menschen, die Achtung des Privat- und Familienlebens, der Schutz personenbezogener Daten, die Freiheit der Meinungsäußerung und die Informationsfreiheit, die Versammlungs- und Vereinigungsfreiheit, das Recht auf Nichtdiskriminierung, das Recht auf Bildung, der Verbraucherschutz, die Arbeitnehmerrechte, die Rechte von Menschen mit Behinderungen, die Gleichstellung der Geschlechter, Rechte des geistigen Eigentums, das Recht auf einen wirksamen Rechtsbehelf und ein faires Gerichtsverfahren, das Verteidigungsrecht, die Unschuldsvermutung sowie das Recht auf eine gute Verwaltung. Es muss betont werden, dass Kinder — zusätzlich zu diesen Rechten — über spezifische Rechte verfügen, wie sie in Artikel 24 der Charta und im Übereinkommen der Vereinten Nationen über die Rechte des Kindes (UNCRC) — im Hinblick auf das digitale Umfeld weiter ausgeführt in der Allgemeinen Bemerkung Nr. 25 des UNCRC — verankert sind; in beiden wird die Berücksichtigung der Schutzbedürftigkeit der Kinder gefordert und ihr Anspruch auf den Schutz und die Fürsorge festgelegt, die für ihr Wohlergehen notwendig sind. Darüber hinaus sollte dem Grundrecht auf ein hohes Umweltschutzniveau, das in der Charta verankert ist und mit der Unionspolitik umgesetzt wird, bei der Bewertung der Schwere des Schadens, den ein KI-System unter anderem in Bezug auf die Gesundheit und Sicherheit von Personen verursachen kann, ebenfalls Rechnung getragen werden.
(48)
Tehisintellektisüsteemi liigitamisel suure riskiga tehisintellektisüsteemiks on eriti oluline see, kui ulatuslik on tehisintellektisüsteemi kahjulik mõju põhiõiguste hartaga kaitstud põhiõigustele. Nende õiguste hulka kuuluvad õigus inimväärikusele, era- ja perekonnaelu austamine, isikuandmete kaitse, väljendus- ja teabevabadus, kogunemis- ja ühinemisvabadus, õigus mittediskrimineerimisele, õigus haridusele, tarbijakaitse, töötajate õigused, puuetega inimeste õigused, sooline võrdõiguslikkus, intellektuaalomandiõigus, õigus tõhusale õiguskaitsevahendile ja õiglasele kohtulikule arutamisele, õigus kaitsele, süütuse presumptsioon ja õigus heale haldusele. Lisaks nimetatud õigustele on oluline rõhutada asjaolu, et lastel on eriõigusi, mis on sätestatud põhiõiguste harta artiklis 24 ja ÜRO lapse õiguste konventsioonis, mida on põhjalikumalt käsitletud ÜRO lapse õiguste komitee üldises märkuses nr 25 digikeskkonna kohta, kusjuures mõlema dokumendi kohaselt tuleb arvesse võtta laste haavatavust ja näha ette nende heaoluks vajalik kaitse ja hoolitsus. Hinnates, kui tõsist kahju võib tehisintellektisüsteem põhjustada, muu hulgas inimeste tervise ja ohutuse vallas, tuleks kaaluda ka põhiõiguste hartas sätestatud ja liidu poliitikameetmetega rakendatud põhiõigust kõrgetasemelisele keskkonnakaitsele.
(49)
In Bezug auf Hochrisiko-KI-Systeme, die Sicherheitsbauteile von Produkten oder Systemen oder selbst Produkte oder Systeme sind, die in den Anwendungsbereich der Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates (24), der Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates (25), der Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates (26), der Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates (27), der Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates (28), der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates (29), der Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates (30) und der Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates (31) fallen, ist es angezeigt, diese Rechtsakte zu ändern, damit die Kommission — aufbauend auf den technischen und regulatorischen Besonderheiten des jeweiligen Sektors und ohne Beeinträchtigung bestehender Governance-, Konformitätsbewertungs- und Durchsetzungsmechanismen sowie der darin eingerichteten Behörden — beim Erlass von etwaigen delegierten Rechtsakten oder Durchführungsrechtsakten auf der Grundlage der genannten Rechtsakte die in der vorliegenden Verordnung festgelegten verbindlichen Anforderungen an Hochrisiko-KI-Systeme berücksichtigt.
(49)
Mis puudutab suure riskiga tehisintellektisüsteeme, mis on toodete või süsteemide turvakomponendid või mis on ise tooted või süsteemid, mis kuuluvad Euroopa Parlamendi ja nõukogu määruse (EÜ) nr 300/2008, (24) Euroopa Parlamendi ja nõukogu määruse (EL) nr 167/2013, (25) Euroopa Parlamendi ja nõukogu määruse (EL) nr 168/2013, (26) Euroopa Parlamendi ja nõukogu direktiivi 2014/90/EL, (27) Euroopa Parlamendi ja nõukogu direktiivi (EL) 2016/797 (28), Euroopa Parlamendi ja nõukogu määruse (EL) 2018/858, (29) Euroopa Parlamendi ja nõukogu määruse (EL) 2018/1139 (30) ja Euroopa Parlamendi ja nõukogu määruse (EL) 2019/2144 (31) kohaldamisalasse, siis on asjakohane muuta kõnealuseid õigusakte tagamaks, et kui komisjon võtab nimetatud õigusaktide alusel vastu asjaomaseid delegeeritud või rakendusakte, võtab ta arvesse käesolevas määruses suure riskiga tehisintellektisüsteemide kohta sätestatud kohustuslikke nõudeid, tuginedes iga sektori tehnilistele ja regulatiivsetele iseärasustele ja ilma, et ta sekkuks nende õigusaktidega kehtestatud olemasolevatesse juhtimis-, vastavushindamis- ja jõustamismehhanismidesse või -asutustesse.
(50)
In Bezug auf KI-Systeme, die Sicherheitsbauteile von Produkten oder selbst Produkte sind, die in den Anwendungsbereich bestimmter, im Anhang dieser Verordnung aufgeführter Harmonisierungsrechtsvorschriften der Union fallen, ist es angezeigt, sie im Rahmen dieser Verordnung als hochriskant einzustufen, wenn das betreffende Produkt gemäß den einschlägigen Harmonisierungsrechtsvorschriften der Union dem Konformitätsbewertungsverfahren durch eine als Dritte auftretende Konformitätsbewertungsstelle unterzogen wird. Dabei handelt es sich insbesondere um Produkte wie Maschinen, Spielzeuge, Aufzüge, Geräte und Schutzsysteme zur bestimmungsgemäßen Verwendung in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Sportbootausrüstung, Seilbahnen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika, Automobile und Flugzeuge.
(50)
Tehisintellektisüsteemid, mis on toodete turvakomponendid või mis on ise tooted, mis kuuluvad teatavate käesoleva määruse lisas loetletud liidu ühtlustamisõigusaktide kohaldamisalasse, on asjakohane liigitada käesoleva määruse alusel suure riskiga tehisintellektisüsteemideks, kui asjaomane toode läbib vastavushindamismenetluse kolmandast isikust vastavushindamisasutuses vastavalt asjaomastele liidu ühtlustamisõigusaktidele. Sellised tooted on eeskätt masinad, mänguasjad, liftid, plahvatusohtlikus keskkonnas kasutatavad seadmed ja kaitsesüsteemid, raadioseadmed, surveseadmed, lõbusõidulaevade varustus, köisteed, küttegaasiseadmed, meditsiiniseadmed, in vitro diagnostika meditsiiniseadmed, lennundus ja autotööstus.
(51)
Die Einstufung eines KI-Systems als hochriskant gemäß dieser Verordnung sollte nicht zwangsläufig bedeuten, dass von dem Produkt, dessen Sicherheitsbauteil das KI-System ist, oder von dem KI-System als eigenständigem Produkt nach den Kriterien der einschlägigen Harmonisierungsrechtsvorschriften der Union für das betreffende Produkt ein hohes Risiko ausgeht. Dies gilt insbesondere für die Verordnungen (EU) 2017/745 und (EU) 2017/746, wo für Produkte mit mittlerem und hohem Risiko eine Konformitätsbewertung durch Dritte vorgesehen ist.
(51)
See, kui tehisintellektisüsteem liigitatakse käesoleva määruse alusel suure riskiga tehisintellektisüsteemiks, ei peaks ilmtingimata tähendama, et toodet, mille turvakomponent see tehisintellektisüsteem on, või tehisintellektisüsteemi ennast kui toodet peetakse suure riskiga tooteks vastavalt selle toote suhtes kohaldatavate asjaomaste liidu ühtlustamisõigusaktidega kehtestatud kriteeriumidele. Esmajoones puudutab see määruseid (EL) 2017/745 ja (EL) 2017/746, kui keskmise ja suure riskiga toodete puhul on ette nähtud kolmanda isiku tehtav vastavushindamine.
(52)
Bei eigenständigen KI-Systemen, d. h. Hochrisiko-KI-Systemen, bei denen es sich um andere Systeme als Sicherheitsbauteile von Produkten handelt oder die selbst Produkte sind, ist es angezeigt, sie als hochriskant einzustufen, wenn sie aufgrund ihrer Zweckbestimmung ein hohes Risiko bergen, die Gesundheit und Sicherheit oder die Grundrechte von Personen zu schädigen, wobei sowohl die Schwere des möglichen Schadens als auch die Wahrscheinlichkeit seines Auftretens zu berücksichtigen sind, und sofern sie in einer Reihe von Bereichen verwendet werden, die in dieser Verordnung ausdrücklich festgelegt sind. Die Bestimmung dieser Systeme erfolgt nach derselben Methodik und denselben Kriterien, die auch für künftige Änderungen der Liste der Hochrisiko-KI-Systeme vorgesehen sind, zu deren Annahme die Kommission im Wege delegierter Rechtsakte ermächtigt werden sollte, um dem rasanten Tempo der technologischen Entwicklung sowie den möglichen Änderungen bei der Verwendung von KI-Systemen Rechnung zu tragen.
(52)
Autonoomsed tehisintellektisüsteemid, nimelt suure riskiga tehisintellektisüsteemid, mis ei ole toodete turvakomponendid või mis on ise tooted, on asjakohane liigitada suure riskiga tehisintellektisüsteemideks, kui need põhjustavad oma sihtotstarbe tõttu suure riski inimeste tervisele ja ohutusele või põhiõigustele, võttes arvesse nii võimaliku kahju raskusastet kui ka selle tekkimise tõenäosust, ja kui neid kasutatakse käesolevas määruses eelnevalt täpselt kindlaks määratud valdkondades. Nende süsteemide kindlakstegemine põhineb samadel meetoditel ja kriteeriumidel, mida on kavas kohaldada suure riskiga tehisintellektisüsteemide loetelu tulevaste võimalike muudatuste suhtes, mida komisjonil peaks olema õigus delegeeritud õigusaktidega vastu võtta, et arvestada tehnoloogia kiire arengu ja võimalikke muutustega tehisintellektisüsteemide kasutamises.
(53)
Ferner muss klargestellt werden, dass es bestimmte Fälle geben kann, in denen KI-Systeme für vordefinierte in dieser Verordnung festgelegte Bereiche nicht zu einem bedeutenden Risiko der Beeinträchtigung der in diesen Bereichen geschützten rechtlichen Interessen führen, da sie die Entscheidungsfindung nicht wesentlich beeinflussen oder diesen Interessen nicht erheblich schaden. Für die Zwecke dieser Verordnung sollte ein KI-System, das das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst, als ein KI-System verstanden werden, das keine Auswirkungen auf den Inhalt und damit das Ergebnis der Entscheidungsfindung hat, unabhängig davon, ob es sich um menschliche oder automatisierte Entscheidungen handelt. Ein KI-System, das das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst, könnte Situationen einschließen, in denen eine oder mehrere der folgenden Bedingungen erfüllt sind. Die erste dieser Bedingungen ist, dass das KI-System dazu bestimmt ist, in einem Verfahren eine eng gefasste Aufgabe zu erfüllen, wie etwa ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt, ein KI-System, das eingehende Dokumente in Kategorien einordnet, oder ein KI-System, das zur Erkennung von Duplikaten unter einer großen Zahl von Anwendungen eingesetzt wird. Diese Aufgaben sind so eng gefasst und begrenzt, dass sie nur beschränkte Risiken darstellen, die sich durch die Verwendung eines KI-Systems in einem Kontext, der in einem Anhang dieser Verordnung als Verwendung mit hohem Risiko aufgeführt ist, nicht erhöhen. Die zweite Bedingung sollte darin bestehen, dass die von einem KI-System ausgeführte Aufgabe das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit verbessert, die für die Zwecke der in einem Anhang dieser Verordnung aufgeführten Verwendungen mit hohem Risiko relevant sein kann. Unter Berücksichtigung dieser Merkmale wird eine menschliche Tätigkeit durch das KI-System lediglich durch eine zusätzliche Ebene ergänzt und stellt daher ein geringeres Risiko dar. Diese Bedingung würde beispielsweise für KI-Systeme gelten, deren Ziel es ist, die in zuvor verfassten Dokumenten verwendete Sprache zu verbessern, etwa den professionellen Ton, den wissenschaftlichen Sprachstil oder um den Text an einen bestimmten mit einer Marke verbundenen Stil anzupassen. Dritte Bedingung sollte sein, dass mit dem KI-System Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern erkannt werden sollen. Das Risiko wäre geringer, da die Verwendung des KI-Systems einer zuvor abgeschlossenen menschlichen Bewertung folgt, die das KI-System ohne angemessene menschliche Überprüfung nicht ersetzen oder beeinflussen soll. Zu solchen KI-Systemen gehören beispielsweise solche, die in Bezug auf ein bestimmtes Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um so auf mögliche Unstimmigkeiten oder Unregelmäßigkeiten aufmerksam zu machen. Die vierte Bedingung sollte darin bestehen, dass das KI-System dazu bestimmt ist, eine Aufgabe auszuführen, die eine Bewertung, die für die Zwecke der in einem Anhang dieser Verordnung aufgeführten KI-Systeme relevant ist, lediglich vorbereitet, wodurch die mögliche Wirkung der Ausgaben des Systems im Hinblick auf das Risiko für die folgende Bewertung sehr gering bleibt. Diese Bedingung umfasst u. a. intelligente Lösungen für die Bearbeitung von Dossiers, wozu verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen gehören, oder KI-Systeme, die für die Übersetzung von Erstdokumenten verwendet werden. In jedem Fall sollten KI-Systeme, die in den in einem Anhang dieser Verordnung aufgeführten Anwendungsfälle mit hohem Risiko verwendet werden, als erhebliche Risiken für die Gesundheit, Sicherheit oder Grundrechte gelten, wenn das KI-System Profiling im Sinne von Artikel 4 Nummer 4 der Verordnung (EU) 2016/679 oder Artikel 3 Nummer 4 der Richtlinie (EU) 2016/680 oder Artikel 3 Nummer 5 der Verordnung (EU) 2018/1725 beinhaltet. Um die Nachvollziehbarkeit und Transparenz zu gewährleisten, sollte ein Anbieter, der der Auffassung ist, dass ein KI-System auf der Grundlage der oben genannten Bedingungen kein hohes Risiko darstellt, eine Dokumentation der Bewertung erstellen, bevor dieses System in Verkehr gebracht oder in Betrieb genommen wird, und die genannte Dokumentation den zuständigen nationalen Behörden auf Anfrage zur Verfügung stellen. Ein solcher Anbieter sollte verpflichtet sein, das KI-System in der gemäß dieser Verordnung eingerichteten EU-Datenbank zu registrieren. Um eine weitere Anleitung für die praktische Umsetzung der Bedingungen zu geben, unter denen die in einem Anhang dieser Verordnung aufgeführten Systeme ausnahmsweise kein hohes Risiko darstellen, sollte die Kommission nach Konsultation des KI-Gremiums Leitlinien bereitstellen, in denen diese praktische Umsetzung detailliert aufgeführt ist und durch eine umfassende Liste praktischer Beispiele für Anwendungsfälle von KI-Systemen, die ein hohes Risiko und Anwendungsfälle, die kein hohes Risiko darstellen, ergänzt wird.
(53)
Samuti on oluline selgitada, et võib esineda konkreetseid juhtumeid, kus käesolevas määruses eelnevalt kindlaksmääratud valdkondades kasutatavad tehisintellektisüsteemid ei too kaasa olulist riski nendes valdkondades kaitstavatele õiguslikele huvidele, sest need ei mõjuta oluliselt otsuste tegemist ega kahjusta neid huve oluliselt. Käesoleva määruse kohaldamisel tuleks tehisintellektisüsteemi, mis ei mõjuta oluliselt otsuste tegemise tulemust, käsitada tehisintellektisüsteemina, mis ei mõjuta inim- ega automatiseeritud otsuste tegemise sisu ja seega ka tulemust. Tehisintellektisüsteem, mis ei mõjuta oluliselt otsuste tegemise tulemust, võib hõlmata olukordi, kus on täidetud üks või mitu järgmistest tingimustest. Esimene selline tingimus peaks olema see, et tehisintellektisüsteem on ette nähtud kitsa protseduurilise ülesande täitmiseks, näiteks selline tehisintellektisüsteem, mis muudab struktureerimata andmed struktureeritud andmeteks, tehisintellektisüsteem, mis liigitab sissetulevad dokumendid kategooriatesse, või tehisintellektisüsteem, mida kasutatakse duplikaatide avastamiseks paljude avalduste seas. Need ülesanded on nii kitsad ja piiratud iseloomuga, et nendega kaasnevad vaid piiratud riskid, mida ei suurenda tehisintellektisüsteemi kasutamine kontekstis, mis on loetletud käesoleva määruse lisas suure riskiga kasutusena. Teine tingimus peaks olema see, et tehisintellektisüsteemi täidetava ülesande eesmärk on parandada varem lõpule viidud inimtegevuse tulemusi, mis võivad olla käesoleva määruse lisas loetletud suure riskiga kasutuse seisukohalt asjakohased. Kui neid omadusi silmas pidada, siis lisab tehisintellektisüsteem inimtegevusele üksnes täiendava kihi, mistõttu on risk väiksem. Seda tingimust kohaldataks näiteks tehisintellektisüsteemide suhtes, mille eesmärk on parandada varem koostatud dokumentides kasutatavat keelt, näiteks seoses tooni ametlikkuse, akadeemilise keelestiiliga või teksti vastavusse viimisega teatava kaubamärgisõnumiga. Kolmas tingimus peaks olema see, et tehisintellektisüsteem on ette nähtud otsuste tegemise mustrite või varasematest otsustusmustritest kõrvalekallete tuvastamiseks. Risk väheneks, sest tehisintellektisüsteemi kasutamine järgneb varem lõpule viidud inimhindamisele, mida ei kavatseta asendada ega mõjutada ilma nõuetekohase inimkontrollita. Sellise tehisintellektisüsteemi alla käib näiteks see, kui õpetaja teatavat hindamismustrit arvesse võttes saab tagantjärele kontrollida, kas õpetaja võis hindamismustrist kõrvale kalduda, et võimalikele vastuoludele või kõrvalekalletele tähelepanu juhtida. Neljas tingimus peaks olema, et tehisintellektisüsteem on ette nähtud täitma ülesannet, mis üksnes valmistab ette käesoleva määruse lisas loetletud tehisintellektisüsteemidega seotud hindamist, mistõttu on süsteemi väljundi võimalik mõju seoses järgneva hindamisega seotud riskiga väga madal. See tingimus hõlmab muu hulgas arukaid lahendusi dokumentide käitlemiseks, mille seas on mitmesugused funktsioonid alates indekseerimisest, otsingust, teksti- ja kõnetöötlusest või andmete sidumisest muude andmeallikatega, või tehisintellektisüsteeme, mida kasutatakse algdokumentide tõlkimiseks. Igal juhul tuleb silmas pidada, et risk, et käesoleva määruse lisas loetletud suure riskiga kasutusega tehisintellektisüsteemid põhjustavad tervisele, turvalisusele või põhiõigustele kahju, on oluline, kui tehisintellektisüsteem hõlmab profiilianalüüsi määruse (EL) 2016/679 artikli 4 punkti 4 või direktiivi (EL) 2016/680 artikli 3 punkti 4 või määruse (EL) 2018/1725 artikli 3 punkti 5 tähenduses. Jälgitavuse ja läbipaistvuse tagamiseks peaks pakkuja, kes leiab, et tehisintellektisüsteem ei ole eespool osutatud tingimuste alusel suure riskiga, koostama enne süsteemi turule laskmist või kasutusele võtmist hindamise dokumentatsiooni ning esitama kõnealuse nõudmise korral riikide pädevatele asutustele. Selline pakkuja peaks olema kohustatud registreerima tehisintellektisüsteemi käesoleva määruse alusel loodud ELi andmebaasis. Selleks et anda täiendavaid suuniseid selliste tingimuste praktiliseks rakendamiseks, mille alusel käesoleva määruse lisas loetletud suure riskiga tehisintellektisüsteemid ei ole erandjuhul suure riskiga, peaks komisjon pärast nõukojaga konsulteerimist esitama suunised, milles täpsustatakse, et praktilisele rakendamisele lisatakse nii suure riskiga tehisintellektisüsteemide kasutusjuhtumite praktiliste näidete põhjalik loetelu kui ka selliste tehisintellektisüsteemide, mis ei ole suure riskiga, kasutusjuhtumite praktiliste näidete põhjalik loetelu.
(54)
Da biometrische Daten eine besondere Kategorie personenbezogener Daten darstellen, sollten einige kritische Anwendungsfälle biometrischer Systeme als hochriskant eingestuft werden, sofern ihre Verwendung nach den einschlägigen Rechtsvorschriften der Union und den nationalen Rechtsvorschriften zulässig ist. Technische Ungenauigkeiten von KI-Systemen, die für die biometrische Fernidentifizierung natürlicher Personen bestimmt sind, können zu verzerrten Ergebnissen führen und eine diskriminierende Wirkung haben. Das Risiko solcher verzerrter Ergebnisse und solcher diskriminierender Wirkungen ist von besonderer Bedeutung, wenn es um das Alter, die ethnische Herkunft, die Rasse, das Geschlecht oder Behinderungen geht. Biometrische Fernidentifizierungssysteme sollten daher angesichts der von ihnen ausgehenden Risiken als hochriskant eingestuft werden. Diese Einstufung umfasst keine KI-Systeme, die bestimmungsgemäß für die biometrische Verifizierung, wozu die Authentifizierung gehört, verwendet werden sollen, deren einziger Zweck darin besteht, zu bestätigen, dass eine bestimmte natürliche Person die Person ist, für die sie sich ausgibt, sowie zur Bestätigung der Identität einer natürlichen Person zu dem alleinigen Zweck Zugang zu einem Dienst zu erhalten, ein Gerät zu entriegeln oder sicheren Zugang zu Räumlichkeiten zu erhalten. Darüber hinaus sollten KI-Systeme, die bestimmungsgemäß für die biometrische Kategorisierung nach sensiblen Attributen oder Merkmalen, die gemäß Artikel 9 Absatz 1 der Verordnung (EU) 2016/679 auf der Grundlage biometrischer Daten geschützt sind, und sofern sie nicht nach der vorliegenden Verordnung verboten sind, sowie Emotionserkennungssysteme, die nach dieser Verordnung nicht verboten sind, als hochriskant eingestuft werden. Biometrische Systeme, die ausschließlich dazu bestimmt sind, um Maßnahmen zur Cybersicherheit und zum Schutz personenbezogener Daten durchführen zu können, sollten nicht als Hochrisiko-KI-Systeme gelten.
(54)
Kuna biomeetrilised andmed on isikuandmete eriliik, on asjakohane liigitada mitmed biomeetriliste süsteemide kriitilised kasutusjuhtumid kõrge riskiga kategooriateks, kui nende kasutamine on asjaomase liidu ja riigisisese õigusega lubatud. Füüsiliste isikute biomeetrilise kaugtuvastamise jaoks mõeldud tehisintellektisüsteemide tehniline ebatäpsus võib kaasa tuua tulemuste kallutatuse ja põhjustada diskrimineerimist. Kallutatud tulemuste ja diskrimineeriva mõju risk on eriti arvestatav seoses vanuse, etnilise päritolu, rassi, soo või puuetega. Võttes arvesse riske, mida biomeetrilise kaugtuvastamise süsteemid põhjustavad, tuleks need sellest lähtuvalt liigitada suure riskiga süsteemideks. Selline klassifikatsioon ei hõlma tehisintellektisüsteeme, mis on ette nähtud biomeetriliseks kontrolliks, kaasa arvatud autentimiseks, mille ainus eesmärk on kinnitada, et konkreetne füüsiline isik on isik, kes ta väidab end olevat, ning kinnitada füüsilise isiku isikusamasust üksnes selleks, et saada juurdepääs teenusele, avada seade või saada juurdepääsuluba ruumidesse sisenemiseks. Lisaks tuleks suure riskiga tehisintellektisüsteemideks liigitada tehisintellektisüsteemid, mis on ette nähtud biomeetriliseks liigitamiseks määruse (EL) 2016/679 artikli 9 lõikega 1 kaitstud tundlike atribuutide või erijoonte alusel, mis põhinevad biomeetrilistel andmetel, kui need ei ole käesoleva määrusega keelatud, ja emotsioonituvastussüsteemid, mis ei ole käesoleva määrusega keelatud. Biomeetrilisi süsteeme, mis on ette nähtud üksnes küberturvalisuse ja isikuandmete kaitse meetmete võimaldamiseks, ei tohiks pidada suure riskiga tehisintellektisüsteemideks.
(55)
Was die Verwaltung und den Betrieb kritischer Infrastruktur anbelangt, so ist es angezeigt, KI-Systeme, die als Sicherheitsbauteile für die Verwaltung und den Betrieb kritischer digitaler Infrastruktur gemäß Nummer 8 des Anhangs der Richtlinie (EU) 2022/2557, des Straßenverkehrs sowie für die Wasser-, Gas-, Wärme- und Stromversorgung verwendet werden sollen, als hochriskant einzustufen, da ihr Ausfall oder ihre Störung in großem Umfang ein Risiko für das Leben und die Gesundheit von Personen darstellen und zu erheblichen Störungen bei der normalen Durchführung sozialer und wirtschaftlicher Tätigkeiten führen kann. Sicherheitsbauteile kritischer Infrastruktur, einschließlich kritischer digitaler Infrastruktur, sind Systeme, die verwendet werden, um die physische Integrität kritischer Infrastruktur oder die Gesundheit und Sicherheit von Personen und Eigentum zu schützen, die aber nicht notwendig sind, damit das System funktioniert. Ausfälle oder Störungen solcher Komponenten können direkt zu Risiken für die physische Integrität kritischer Infrastruktur und somit zu Risiken für die Gesundheit und Sicherheit von Personen und Eigentum führen. Komponenten, die für die ausschließliche Verwendung zu Zwecken der Cybersicherheit vorgesehen sind, sollten nicht als Sicherheitsbauteile gelten. Zu Beispielen von Sicherheitsbauteilen solcher kritischen Infrastruktur zählen etwa Systeme für die Überwachung des Wasserdrucks oder Feuermelder-Kontrollsysteme in Cloud-Computing-Zentren.
(55)
Elutähtsa taristu juhtimise ja käitamise osas on otstarbekas liigitada suure riskiga tehisintellektisüsteemiks need tehisintellektisüsteemid, mis on mõeldud kasutamiseks direktiivi(EL) 2022/2557 lisa punktis 8 loetletud elutähtsa digitaristu, maanteeliikluse ning vee, gaasi, kütteenergia ja elektri tarnimise korraldamise ja käitamise turvakomponentidena, sest nende rike või talitlushäire võib seada ohtu paljude inimeste elu ja tervise ning põhjustada märgatavaid häireid tavapärases sotsiaalses ja majandustegevuses. Elutähtsa taristu, sealhulgas elutähtsa digitaristu turvakomponendid on süsteemid, mida kasutatakse elutähtsa taristu füüsilise puutumatuse või inimeste tervise ja ohutuse ning vara otseseks kaitsmiseks, kuid mis ei ole süsteemi toimimiseks vajalikud. Selliste komponentide rike või talitlushäire võib otseselt ohustada elutähtsa taristu füüsilist puutumatust ning võib seega kujutada ohtu inimeste tervisele ja ohutusele ning varale. Üksnes küberturvalisuse tagamiseks mõeldud komponente ei tohiks käsitada turvakomponentidena. Sellise elutähtsa taristu turvakomponendid on näiteks veesurve seiresüsteemid või tulekahjuhäire juhtimissüsteemid pilvandmetöötluse keskustes.
(56)
Der Einsatz von KI-Systemen in der Bildung ist wichtig, um eine hochwertige digitale allgemeine und berufliche Bildung zu fördern und es allen Lernenden und Lehrkräften zu ermöglichen, die erforderlichen digitalen Fähigkeiten und Kompetenzen, einschließlich Medienkompetenz und kritischem Denken, zu erwerben und auszutauschen, damit sie sich aktiv an Wirtschaft, Gesellschaft und demokratischen Prozessen beteiligen können. Allerdings sollten KI-Systeme, die in der allgemeinen oder beruflichen Bildung eingesetzt werden, um insbesondere den Zugang oder die Zulassung zum Zweck der Zuordnung von Personen zu Bildungs- und Berufsbildungseinrichtungen oder -programmen auf allen Ebenen zu bestimmen, die Lernergebnisse von Personen zu beurteilen, das angemessene Bildungsniveau einer Person zu bewerten und das Niveau der Bildung und Ausbildung, das die Person erhält oder zu dem sie Zugang erhält, wesentlich zu beeinflussen und verbotenes Verhalten von Schülern während Prüfungen zu überwachen und zu erkennen als hochriskante KI-Systeme eingestuft werden, da sie über den Verlauf der Bildung und des Berufslebens einer Person entscheiden und daher ihre Fähigkeit beeinträchtigen können, ihren Lebensunterhalt zu sichern. Bei unsachgemäßer Konzeption und Verwendung können solche Systeme sehr intrusiv sein und das Recht auf allgemeine und berufliche Bildung sowie das Recht auf Nichtdiskriminierung verletzen und historische Diskriminierungsmuster fortschreiben, beispielsweise gegenüber Frauen, bestimmten Altersgruppen und Menschen mit Behinderungen oder Personen mit einer bestimmten rassischen oder ethnischen Herkunft oder sexuellen Ausrichtung.
(56)
Tähtis on juurutada tehisintellektisüsteeme hariduses, et edendada kvaliteetset digiõpet ja -koolitust ning võimaldada kõigil õppijatel ja õpetajatel omandada ja jagada vajalikke digioskusi ja -pädevusi, sealhulgas meediapädevust ja kriitilist mõtlemist, et osaleda aktiivselt majanduses, ühiskonnas ja demokraatlikes protsessides. Kuid tehisintellektisüsteemid, mida kasutatakse hariduses või kutseõppes, eelkõige selleks, et otsustada juurdepääs või vastuvõtmine, isikute määramine haridus- ja kutseõppeasutustesse või -programmidesse kõikidel tasanditel, hinnata isikute õpitulemusi, hinnata üksikisiku asjakohast haridustaset ja oluliselt mõjutada haridus- ja koolitustaset, mida inimestele pakutakse või millele nad saavad juurde pääseda, või jälgida ja avastada õpilaste keelatud käitumist katsete ajal, tuleks liigitada suure riskiga tehisintellektisüsteemideks, sest need võivad otsustada inimese haridusliku ja kutsealase käekäigu ning mõjutada seega selle inimese toimetulekut. Kui sellised süsteemid ei ole korrektselt projekteeritud või kui neid ei kasutata korrektselt, võivad need olla eriti sekkuvad ja rikkuda õigust haridusele ja koolitusele, aga ka õigust mitte olla diskrimineeritud, ning põlistada aegade jooksul välja kujunenud diskrimineerimismustreid, näiteks naiste, teatavate vanuserühmade, puuetega inimeste või teatava rassilise või etnilise päritoluga või seksuaalse sättumusega inimeste vastu.
(57)
KI-Systeme, die in den Bereichen Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit eingesetzt werden, insbesondere für die Einstellung und Auswahl von Personen, für Entscheidungen über die Bedingungen des Arbeitsverhältnisses sowie die Beförderung und die Beendigung von Arbeitsvertragsverhältnissen, für die Zuweisung von Arbeitsaufgaben auf der Grundlage von individuellem Verhalten, persönlichen Eigenschaften oder Merkmalen sowie für die Überwachung oder Bewertung von Personen in Arbeitsvertragsverhältnissen sollten ebenfalls als hochriskant eingestuft werden, da diese Systeme die künftigen Karriereaussichten und die Lebensgrundlagen dieser Personen und die Arbeitnehmerrechte spürbar beeinflussen können. Einschlägige Arbeitsvertragsverhältnisse sollten in sinnvoller Weise Beschäftigte und Personen erfassen, die Dienstleistungen über Plattformen erbringen, auf die im Arbeitsprogramm der Kommission für 2021 Bezug genommen wird. Solche Systeme können während des gesamten Einstellungsverfahrens und bei der Bewertung, Beförderung oder Weiterbeschäftigung von Personen in Arbeitsvertragsverhältnissen historische Diskriminierungsmuster fortschreiben, beispielsweise gegenüber Frauen, bestimmten Altersgruppen und Menschen mit Behinderungen oder Personen mit einer bestimmten rassischen oder ethnischen Herkunft oder sexuellen Ausrichtung. KI-Systeme zur Überwachung der Leistung und des Verhaltens solcher Personen können auch deren Grundrechte auf Datenschutz und Privatsphäre untergraben.
(57)
Suure riskiga tehisintellektisüsteemideks tuleks liigitada ka tehisintellektisüsteemid, mida kasutatakse tööhõive, töötajate juhtimise ja iseenda tööandjana tegutsemise võimaluste valdkonnas, eeskätt inimeste töölevõtmiseks ja väljavalimiseks, tööalase suhte edendamise ja tööga seotud lepingulise suhte lõpetamise tingimusi mõjutavate otsuste tegemiseks, ülesannete jagamiseks isiku käitumise või isikuomaduste või erijoonte põhjal ning tööga seotud lepingulistes suhetes olevate isikute jälgimiseks või hindamiseks, sest need süsteemid võivad märkimisväärselt mõjutada nende isikute tulevasi karjääriväljavaateid, toimetulekut ja töötajate õigusi. Asjaomased tööga seotud lepingulised suhted peaksid sisuliselt käima ka selliste töötajate ja isikute kohta, kes osutavad teenuseid platvormide kaudu, nagu on nimetatud komisjoni 2021. aasta tööprogrammis. Töölevõtmisprotsessi käigus ning tööga seotud lepingulistes suhetes olevate isikute hindamisel, edutamisel või töösuhte jätkamisel võivad sellised süsteemid põlistada aegade jooksul välja kujunenud diskrimineerimismustreid, mis on suunatud näiteks naiste, teatavate vanuserühmade, puuetega inimeste või teatava rassilise või etnilise päritolu või seksuaalse sättumusega isikute vastu. Tehisintellektisüsteemid, mida kasutatakse selliste isikute töötulemuste ja käitumise jälgimiseks, võivad kahjustada ka nende põhiõigusi andmekaitsele ja privaatsusele.
(58)
Ein weiterer Bereich, in dem der Einsatz von KI-Systemen besondere Aufmerksamkeit verdient, ist der Zugang zu und die Nutzung von bestimmten grundlegenden privaten und öffentlichen Diensten und Leistungen, die erforderlich sind, damit Menschen uneingeschränkt an der Gesellschaft teilhaben oder ihren Lebensstandard verbessern können. Insbesondere natürliche Personen, die grundlegende staatliche Unterstützungsleistungen und -dienste von Behörden beantragen oder erhalten, wie etwa Gesundheitsdienste, Leistungen der sozialen Sicherheit, soziale Dienste, die Schutz in Fällen wie Mutterschaft, Krankheit, Arbeitsunfall, Pflegebedürftigkeit oder Alter und Arbeitsplatzverlust sowie Sozialhilfe und Wohngeld bieten, sind in der Regel von diesen Leistungen und Diensten abhängig und befinden sich gegenüber den zuständigen Behörden in einer prekären Lage. Wenn KI-Systeme eingesetzt werden, um zu bestimmen, ob solche Leistungen und Dienste von den Behörden gewährt, verweigert, gekürzt, widerrufen oder zurückgefordert werden sollten, einschließlich der Frage, ob Begünstigte rechtmäßig Anspruch auf solche Leistungen oder Dienste haben, können diese Systeme erhebliche Auswirkungen auf die Lebensgrundlage von Personen haben und ihre Grundrechte wie etwa das Recht auf sozialen Schutz, Nichtdiskriminierung, Menschenwürde oder einen wirksamen Rechtsbehelf verletzen und sollten daher als hochriskant eingestuft werden. Dennoch sollte diese Verordnung die Entwicklung und Verwendung innovativer Ansätze in der öffentlichen Verwaltung nicht behindern, die von einer breiteren Verwendung konformer und sicherer KI-Systeme profitieren würde, sofern diese Systeme kein hohes Risiko für juristische und natürliche Personen bergen. Darüber hinaus sollten KI-Systeme, die zur Bewertung der Bonität oder Kreditwürdigkeit natürlicher Personen verwendet werden, als Hochrisiko-KI-Systeme eingestuft werden, da sie den Zugang dieser Personen zu Finanzmitteln oder wesentlichen Dienstleistungen wie etwa Wohnraum, Elektrizität und Telekommunikationsdienstleistungen bestimmen. KI-Systeme, die für diese Zwecke eingesetzt werden, können zur Diskriminierung von Personen oder Gruppen führen und historische Diskriminierungsmuster, wie etwa aufgrund der rassischen oder ethnischen Herkunft, des Geschlechts, einer Behinderung, des Alters oder der sexuellen Ausrichtung, fortschreiben oder neue Formen von Diskriminierung mit sich bringen. Allerdings sollten KI-Systeme, die nach Unionsrecht zur Aufdeckung von Betrug beim Angebot von Finanzdienstleistungen oder für Aufsichtszwecke zur Berechnung der Eigenkapitalanforderungen von Kreditinstituten und Versicherungsunternehmen vorgesehen sind, nicht als Hochrisiko-Systeme gemäß dieser Verordnung angesehen werden. Darüber hinaus können KI-Systeme, die für die Risikobewertung und Preisbildung in Bezug auf natürliche Personen im Fall von Kranken- und Lebensversicherungen eingesetzt werden, auch erhebliche Auswirkungen auf die Existenzgrundlage der Menschen haben und bei nicht ordnungsgemäßer Konzeption, Entwicklung und Verwendung schwerwiegende Konsequenzen für das Leben und die Gesundheit von Menschen nach sich ziehen, einschließlich finanzieller Ausgrenzung und Diskriminierung. Schließlich sollten KI-Systeme, die bei der Bewertung und Einstufung von Notrufen durch natürliche Personen oder der Entsendung oder der Priorisierung der Entsendung von Not- und Rettungsdiensten wie Polizei, Feuerwehr und medizinischer Nothilfe sowie für die Triage von Patienten bei der Notfallversorgung eingesetzt werden, ebenfalls als hochriskant eingestuft werden, da sie in für das Leben und die Gesundheit von Personen und für ihr Eigentum sehr kritischen Situationen Entscheidungen treffen.
(58)
Veel üks valdkond, milles tuleks tehisintellektisüsteemide kasutamisele erilist tähelepanu pöörata, on teatavate selliste oluliste era- ja avalike teenuste ja hüvede kättesaadavus ja kasutamine, mida inimesed vajavad, et ühiskonnas täielikult osaleda või oma elatustaset parandada. Eelkõige sõltuvad kõnealustest hüvitistest ja teenustest tavaliselt füüsilised isikud, kes taotlevad või saavad ametiasutustelt esmatähtsaid avalikke hüvesid ja teenuseid, nimelt tervishoiuteenuseid, sotsiaalkindlustushüvitisi, sotsiaalteenuseid, mis pakuvad kaitset raseduse ja sünnituse, haiguse, tööõnnetuste, vanaduse ja töökaotuse korral, ning sotsiaal- ja eluasemetoetust, ning kes on vastutavate asutuste suhtes kaitsetus olukorras. Kui tehisintellektisüsteeme kasutatakse selleks, et teha kindlaks, kas ametiasutus peaks sellist toetust andma või sellist teenust osutama, sellest keelduma, seda vähendama, selle tühistama või tagasi nõudma, sealhulgas selleks, et teha kindlaks, kas abisaajatel on sellistele toetustele või teenustele seaduslik õigus, võib neil süsteemidel olla märkimisväärne mõju inimese toimetulekule ning need süsteemid võivad rikkuda inimeste põhiõigusi, näiteks õigust sotsiaalkaitsele, mittediskrimineerimisele, inimväärikusele või tõhusale õiguskaitsevahendile ning seetõttu tuleks need liigitada suure riskiga süsteemideks. Samas ei tohiks käesolev määrus takistada uuenduslike lähenemisviiside väljatöötamist ja kasutamist avalikus halduses, kus oleks nõuetekohaste ja ohutute tehisintellektisüsteemide laialdasemast kasutamisest kasu tingimusel, et need süsteemid ei põhjusta juriidilistele ja füüsilistele isikutele suuri riske. Lisaks tuleks suure riskiga tehisintellektisüsteemideks liigitada tehisintellektisüsteemid, mida kasutatakse füüsilistele isikutele krediidihinnangu andmiseks või nende krediidivõimelisuse hindamiseks, sest need määravad kindlaks inimese võimaluse saada finantsvahendeid või elutähtsaid teenuseid, nagu eluaseme-, elektri- ja telekommunikatsiooniteenused. Sel otstarbel kasutatavad tehisintellektisüsteemid võivad põhjustada inimeste või rühmade vahelist diskrimineerimist ja võivad põlistada aegade jooksul välja kujunenud diskrimineerimismustreid, mille aluseks on näiteks rassiline või etniline päritolu, sugu, puue, vanus või seksuaalne sättumus, või võivad luua uut liiki diskrimineerivat mõju. Liidu õigusega ette nähtud tehisintellektisüsteeme, mille eesmärk on avastada pettusi finantsteenuste pakkumisel või mida kasutatakse usaldatavusnõuete täitmiseks, et arvutada krediidiasutuste ja kindlustusandjate kapitalinõudeid, ei tohiks käesoleva määruse alusel siiski pidada suure riskiga süsteemideks. Lisaks võivad tehisintellektisüsteemid, mis on ette nähtud kasutamiseks füüsiliste isikutega seotud riskihindamiseks ja hinnakujunduseks tervise- ja elukindlustuses, avaldada märkimisväärset mõju inimeste toimetulekule ning see võib, kui nende projekteerimine, arendamine ja kasutamine ei ole nõuetekohane, rikkuda inimeste põhiõigusi ning põhjustada tõsiseid tagajärgi nende elule ja tervisele, sealhulgas majanduslikku tõrjutust ja diskrimineerimist. Lisaks tuleks suure riskiga tehisintellektisüsteemideks liigitada ka tehisintellektisüsteemid, mida kasutatakse füüsiliste isikute hädaabikõnede hindamiseks ja liigitamiseks või kiirabi ja päästeteenistuse, sealhulgas politsei, tuletõrje ja arstiabi väljasaatmiseks ja väljakutsete prioriseerimiseks, ning erakorralise arstiabi patsientide triaažiks, sest sellised süsteemid teevad otsuseid olukordades, mis on inimeste elu, tervise ja vara seisukohast väga kriitilised.
(59)
In Anbetracht der Rolle und Zuständigkeit von Strafverfolgungsbehörden sind deren Maßnahmen im Zusammenhang mit bestimmten Verwendungen von KI-Systemen durch ein erhebliches Machtungleichgewicht gekennzeichnet und können zur Überwachung, zur Festnahme oder zum Entzug der Freiheit einer natürlichen Person sowie zu anderen nachteiligen Auswirkungen auf die in der Charta verankerten Grundrechte führen. Insbesondere wenn das KI-System nicht mit hochwertigen Daten trainiert wird, die Anforderungen an seine Leistung, Genauigkeit oder Robustheit nicht erfüllt werden oder das System nicht ordnungsgemäß konzipiert und getestet wird, bevor es in Verkehr gebracht oder in anderer Weise in Betrieb genommen wird, kann es Personen in diskriminierender oder anderweitig falscher oder ungerechter Weise ausgrenzen. Darüber hinaus könnte die Ausübung wichtiger verfahrensrechtlicher Grundrechte wie etwa des Rechts auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht sowie das Verteidigungsrecht und die Unschuldsvermutung behindert werden, insbesondere wenn solche KI-Systeme nicht hinreichend transparent, erklärbar und dokumentiert sind. Daher ist es angezeigt, eine Reihe von KI-Systemen — sofern deren Einsatz nach einschlägigem Unions- oder nationalem Recht zugelassen ist —, die im Rahmen der Strafverfolgung eingesetzt werden sollen und bei denen Genauigkeit, Zuverlässigkeit und Transparenz besonders wichtig sind, als hochriskant einzustufen, um nachteilige Auswirkungen zu vermeiden, das Vertrauen der Öffentlichkeit zu erhalten und die Rechenschaftspflicht und einen wirksamen Rechtsschutz zu gewährleisten. Angesichts der Art der Tätigkeiten und der damit verbundenen Risiken sollten diese Hochrisiko-KI-Systeme insbesondere KI-Systeme umfassen, die von Strafverfolgungsbehörden oder in ihrem Auftrag oder von Organen, Einrichtungen und sonstigen Stellen der Union zur Unterstützung von Strafverfolgungsbehörden für folgende Zwecke eingesetzt werden: zur Bewertung des Risikos, dass eine natürliche Person Opfer von Straftaten wird, wie Lügendetektoren und ähnliche Instrumente, zur Bewertung der Zuverlässigkeit von Beweismitteln im Rahmen der Ermittlung oder Verfolgung von Straftaten und — soweit nach dieser Verordnung nicht untersagt — zur Bewertung des Risikos, dass eine natürliche Person eine Straftat begeht oder erneut begeht, nicht nur auf der Grundlage der Erstellung von Profilen natürlicher Personen oder zur Bewertung von Persönlichkeitsmerkmalen und Eigenschaften oder vergangenem kriminellen Verhalten von natürlichen Personen oder Gruppen, zur Erstellung von Profilen während der Aufdeckung, Untersuchung oder strafrechtlichen Verfolgung einer Straftat. KI-Systeme, die speziell für Verwaltungsverfahren in Steuer- und Zollbehörden sowie in Zentralstellen für Geldwäsche-Verdachtsanzeigen, die Verwaltungsaufgaben zur Analyse von Informationen gemäß dem Unionsrecht zur Bekämpfung der Geldwäsche durchführen, bestimmt sind, sollten nicht als Hochrisiko-KI-Systeme eingestuft werden, die von Strafverfolgungsbehörden zum Zweck der Verhütung, Aufdeckung, Untersuchung und strafrechtlichen Verfolgung von Straftaten eingesetzt werden. Der Einsatz von KI-Instrumenten durch Strafverfolgungsbehörden und anderen relevanten Behörden sollte nicht zu einem Faktor der Ungleichheit oder Ausgrenzung werden. Die Auswirkungen des Einsatzes von KI-Instrumenten auf die Verteidigungsrechte von Verdächtigen sollten nicht außer Acht gelassen werden, insbesondere nicht die Schwierigkeit, aussagekräftige Informationen über die Funktionsweise solcher Systeme zu erhalten, und die daraus resultierende Schwierigkeit einer gerichtlichen Anfechtung ihrer Ergebnisse, insbesondere durch natürliche Personen, gegen die ermittelt wird.
(59)
Võttes arvesse õiguskaitseasutuste rolli ja vastutust, iseloomustab nende toiminguid, millega kaasneb tehisintellektisüsteemide teatav kasutamine, võimu väga ebavõrdne jaotumine ja selle tulemuseks võib olla füüsilise isiku jälgimine, kinnipidamine või temalt vabaduse võtmine, aga ka muu kahjulik mõju põhiõiguste hartaga tagatud põhiõigustele. Tehisintellektisüsteem võib olla inimeste valikul diskrimineeriv või muul moel ebatäpne või ebaõiglane, eriti juhul, kui selle treenimiseks ei ole kasutatud kvaliteetseid andmeid, kui süsteemi toimimine, täpsus või stabiilsus ei ole piisav või kui seda ei ole enne turule laskmist või muul moel kasutusele võtmist korralikult projekteeritud ja testitud. Kahjustatud võib saada ka võimalus kasutada selliseid olulisi menetluslikke põhiõigusi, nagu õigus tõhusale õiguskaitsevahendile ja õiglasele kohtulikule arutamisele, õigus kaitsele ja süütuse presumptsioon, seda eriti juhul, kui sellised tehisintellektisüsteemid ei ole piisavalt läbipaistvad, selgitatavad ja dokumenteeritud. Seepärast on asjakohane liigitada suure riskiga tehisintellektisüsteemiks hulk tehisintellektisüsteeme, niivõrd, kuivõrd nende kasutamine on asjaomase liidu ja riigisisese õiguse kohaselt lubatud, mis on mõeldud kasutamiseks õiguskaitses, kus täpsus, usaldusväärsus ja läbipaistvus on eriti olulised, et hoida ära kahjulikku mõju, säilitada üldsuse usaldus ning tagada aruandekohustus ja tõhus õiguskaitse. Arvestades nende toimingute olemust ja nendega seotud riske, peaksid selliste suure riskiga tehisintellektisüsteemide hulka kuuluma eeskätt need tehisintellektisüsteemid, mis on ette nähtud kasutamiseks õiguskaitseasutuste või liidu institutsioonide, organite või asutuste poolt või nimel õiguskaitseasutuste toetamiseks, et hinnata füüsilise isiku kuriteo ohvriks langemise riski, valedetektorite ja sarnaste vahenditena tõendite usaldusväärsuse hindamiseks kuritegude uurimise või nende eest vastutusele võtmise käigus; ning kui see ei ole käesoleva määrusega keelatud, siis sellise rikkumise või korduva rikkumise riski hindamiseks, mis ei põhine üksnes füüsiliste isikute profiilianalüüsil ega füüsiliste isikute või rühmade isikuomaduste, erijoonte või varasema kuritegeliku käitumise hindamisel, kuritegude avastamise, uurimise või nende eest vastutusele võtmise käigus tehtaval profiilianalüüsil. Tehisintellektisüsteeme, mis on mõeldud kasutamiseks spetsiaalselt maksuametile ja tollile haldusmenetlustes ning rahapesu andmebüroodele, kes täidavad liidu rahapesuvastase õiguse kohaseid teabe analüüsimises seisnevaid haldusülesandeid, ei tuleks liigitada suure riskiga tehisintellektisüsteemideks, mida õiguskaitseasutused kasutavad kuritegude tõkestamise, avastamise, uurimise ja nende eest vastutusele võtmise eesmärgil. Tehisintellekti vahendite kasutamine õiguskaitseasutuste ja muude asjakohaste asutuste poolt ei tohiks muutuda ebavõrdsuse või tõrjutuse teguriks. Tehisintellekti vahendite kasutamise mõju kahtlusaluste kaitseõigustele ei tohiks eirata, eelkõige raskusi sisulise teabe saamisel nende süsteemide toimimise kohta ja sellest tulenevaid raskusi nende tulemuste vaidlustamisel kohtus, eriti uurimise all olevate füüsiliste isikute poolt.
(60)
KI-Systeme, die in den Bereichen Migration, Asyl und Grenzkontrolle eingesetzt werden, betreffen Personen, die sich häufig in einer besonders prekären Lage befinden und vom Ergebnis der Maßnahmen der zuständigen Behörden abhängig sind. Die Genauigkeit, der nichtdiskriminierende Charakter und die Transparenz der KI-Systeme, die in solchen Zusammenhängen eingesetzt werden, sind daher besonders wichtig, um die Achtung der Grundrechte der betroffenen Personen, insbesondere ihrer Rechte auf Freizügigkeit, Nichtdiskriminierung, Schutz des Privatlebens und personenbezogener Daten, internationalen Schutz und gute Verwaltung, zu gewährleisten. Daher ist es angezeigt, KI-Systeme — sofern deren Einsatz nach einschlägigem Unions- oder nationalem Recht zugelassen ist — als hochriskant einzustufen, die von den zuständigen mit Aufgaben in den Bereichen Migration, Asyl und Grenzkontrolle betrauten Behörden oder in deren Auftrag oder von Organen, Einrichtungen oder sonstigen Stellen der Union für Folgendes eingesetzt werden: als Lügendetektoren und ähnliche Instrumente; zur Bewertung bestimmter Risiken, die von natürlichen Personen ausgehen, die in das Hoheitsgebiet eines Mitgliedstaats einreisen oder ein Visum oder Asyl beantragen; zur Unterstützung der zuständigen Behörden bei der Prüfung — einschließlich der damit zusammenhängenden Bewertung der Zuverlässigkeit von Beweismitteln — von Asyl- und Visumanträgen sowie Aufenthaltstiteln und damit verbundenen Beschwerden im Hinblick darauf, die Berechtigung der den Antrag stellenden natürlichen Personen festzustellen; zum Zweck der Aufdeckung, Anerkennung oder Identifizierung natürlicher Personen im Zusammenhang mit Migration, Asyl und Grenzkontrolle, mit Ausnahme der Überprüfung von Reisedokumenten. KI-Systeme im Bereich Migration, Asyl und Grenzkontrolle, die unter diese Verordnung fallen, sollten den einschlägigen Verfahrensvorschriften der Verordnung (EG) Nr. 810/2009 des Europäischen Parlaments und des Rates (32), der Richtlinie 2013/32/EU des Europäischen Parlaments und des Rates (33) und anderem einschlägigen Unionsrecht entsprechen. Der Einsatz von KI-Systemen in den Bereichen Migration, Asyl und Grenzkontrolle sollte unter keinen Umständen von den Mitgliedstaaten oder Organen, Einrichtungen oder sonstigen Stellen der Union als Mittel zur Umgehung ihrer internationalen Verpflichtungen aus dem am 28. Juli 1951 in Genf unterzeichneten Abkommen der Vereinten Nationen über die Rechtsstellung der Flüchtlinge in der durch das Protokoll vom 31. Januar 1967 geänderten Fassung genutzt werden. Die Systeme sollten auch nicht dazu genutzt werden, in irgendeiner Weise gegen den Grundsatz der Nichtzurückweisung zu verstoßen oder sichere und wirksame legale Wege in das Gebiet der Union, einschließlich des Rechts auf internationalen Schutz, zu verweigern.
(60)
Rände- ja varjupaigavaldkonnas ning piirkontrollihalduses kasutatavad tehisintellektisüsteemid mõjutavad isikuid, kes on tihtipeale eriti kaitsetus olukorras ja sõltuvad pädevate ametiasutuste tegevuse tulemustest. Seepärast on sellises kontekstis kasutatavate tehisintellektisüsteemide täpsus, mittediskrimineeriv olemus ja läbipaistvus eriti oluline, et tagada mõjutatud isikute põhiõiguste austamine, eeskätt nende õigus vabale liikumisele, mittediskrimineerimisele, eraelu ja isikuandmete kaitsele, rahvusvahelisele kaitsele ja heale haldusele. Seepärast on otstarbekas liigitada suure riskiga tehisintellektisüsteemiks sellised tehisintellektisüsteemid, mis on ette nähtud kasutamiseks rände-, varjupaiga- ja piirikontrollihaldusega tegelevatele pädevatele asutustele või nende nimel, või liidu institutsioonidele, organitele või asutustele valedetektorite ja samalaadsete vahenditena, niivõrd, kuivõrd nende kasutamine on liidu ja liikmesriigi õiguse kohaselt lubatud, et hinnata teatavaid riske, mida kujutavad endast füüsilised isikud, kes sisenevad liikmesriigi territooriumile või taotlevad viisat või varjupaika; pädevate ametiasutuste abistamiseks varjupaiga-, viisa- ja elamisloataotluste ja nendega seotud kaebuste läbivaatamisel, sealhulgas tõendite usaldusväärsuse hindamisel seoses eesmärgiga teha kindlaks sellist staatust taotlevate füüsiliste isikute vastavus tingimustele; rände-, varjupaiga- ja piirikontrollihalduse kontekstis füüsiliste isikute avastamiseks, äratundmiseks või tuvastamiseks, välja arvatud reisidokumentide kontrollimine. Rände- ja varjupaigavaldkonna ning piirikontrollihalduse valdkonna tehisintellektisüsteemid, mis kuuluvad käesoleva määruse kohaldamisalasse, peaksid vastama Euroopa Parlamendi ja nõukogu määruses (EÜ) nr 810/2009, (32) Euroopa Parlamendi ja nõukogu direktiivis 2013/32/EL (33) ja muus liidu asjaomases õiguses sätestatud asjaomastele menetlusnõuetele. Liikmesriigid või liidu institutsioonid, organid ja asutused ei tohiks mingil juhul kasutada tehisintellektisüsteeme rände-, varjupaiga- ja piirikontrollihalduse valdkonnas selleks, et kõrvale hoida oma rahvusvahelistest kohustustest, mis nad on võtnud vastavalt 28. juulil 1951 Genfis alla kirjutatud ÜRO pagulasseisundi konventsioonile, mida on muudetud 31. jaanuari 1967. aasta protokolliga. Samuti ei tohi neid kasutada mingil viisil tagasi- ja väljasaatmise lubamatuse põhimõtte rikkumiseks ega liidu territooriumile sisenemise ohutute ja tõhusate seaduslike kanalite kasutamise, sealhulgas rahvusvahelise kaitse saamise õiguse keelamiseks.
(61)
Bestimmte KI-Systeme, die für die Rechtspflege und demokratische Prozesse bestimmt sind, sollten angesichts ihrer möglichen erheblichen Auswirkungen auf die Demokratie, die Rechtsstaatlichkeit, die individuellen Freiheiten sowie das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht als hochriskant eingestuft werden. Um insbesondere den Risiken möglicher Verzerrungen, Fehler und Undurchsichtigkeiten zu begegnen, sollten KI-Systeme, die von einer Justizbehörde oder in ihrem Auftrag dazu genutzt werden sollen, Justizbehörden bei der Ermittlung und Auslegung von Sachverhalten und Rechtsvorschriften und bei der Anwendung des Rechts auf konkrete Sachverhalte zu unterstützen, als hochriskant eingestuft werden. KI-Systeme, die von Stellen für die alternative Streitbeilegung für diese Zwecke genutzt werden sollen, sollten ebenfalls als hochriskant gelten, wenn die Ergebnisse der alternativen Streitbeilegung Rechtswirkung für die Parteien entfalten. Der Einsatz von KI-Instrumenten kann die Entscheidungsgewalt von Richtern oder die Unabhängigkeit der Justiz unterstützen, sollte sie aber nicht ersetzen; die endgültige Entscheidungsfindung muss eine von Menschen gesteuerte Tätigkeit bleiben. Die Einstufung von KI-Systemen als hochriskant sollte sich jedoch nicht auf KI-Systeme erstrecken, die für rein begleitende Verwaltungstätigkeiten bestimmt sind, die die tatsächliche Rechtspflege in Einzelfällen nicht beeinträchtigen, wie etwa die Anonymisierung oder Pseudonymisierung gerichtlicher Urteile, Dokumente oder Daten, die Kommunikation zwischen dem Personal oder Verwaltungsaufgaben.
(61)
Teatavad õigusemõistmise ja demokraatlike protsesside jaoks mõeldud tehisintellektisüsteemid tuleks liigitada suure riskiga tehisintellektisüsteemideks, arvestades nende võimalikku märkimisväärset mõju demokraatiale, õigusriigile, üksikisiku vabadustele ning õigusele tõhusale õiguskaitsevahendile ja õiglasele kohtulikule arutamisele. Eeskätt võimalikust kallutatusest, vigadest ja läbipaistmatusest tulenevate riskidega tegelemiseks on asjakohane liigitada suure riskiga tehisintellektisüsteemideks need tehisintellektisüsteemid, mis on ette nähtud kasutamiseks õigusasutusele või selle nimel, et abistada õigusasutusi faktide ja seadustega tutvumisel ja nende tõlgendamisel ning õiguse kohaldamisel konkreetse faktide kogumi suhtes. Tehisintellektisüsteeme, mis on ette nähtud kasutamiseks vaidluste kohtuvälise lahendamise üksustele kõnealuse menetluse jaoks, tuleks samuti pidada suure riskiga süsteemideks, kui vaidluste kohtuvälise lahendamise menetluse tulemustel on pooltele õiguslikud tagajärjed. Tehisintellekti vahendite kasutamine võib kohtunike otsustusõigust või kohtute sõltumatust toetada, kuid ei tohiks neid asendada, sest lõppotsuste tegemine peab jääma inimestele. Tehisintellektisüsteemi liigitamist suure riskiga süsteemiks ei tohiks siiski laiendada tehisintellektisüsteemidele, mis on mõeldud puhtalt halduslikeks abitegevusteks, mis ei mõjuta tegelikku õigusemõistmist konkreetsetel juhtudel, nagu kohtuotsuste, dokumentide või andmete anonüümimine või pseudonüümimine, töötajatevaheline suhtlus või haldusülesanded.
(62)
Unbeschadet der Vorschriften der Verordnung (EU) 2024/900 des Europäischen Parlaments und des Rates (34) und um den Risiken eines unzulässigen externen Eingriffs in das in Artikel 39 der Charta verankerte Wahlrecht und nachteiligen Auswirkungen auf die Demokratie und die Rechtsstaatlichkeit zu begegnen, sollten KI-Systeme, die verwendet werden sollen, um das Ergebnis einer Wahl oder eines Referendums oder das Wahlverhalten natürlicher Personen bei der Ausübung ihres Wahlrechts in einer Wahl oder in Referenden zu beeinflussen, als Hochrisiko-KI-Systeme eingestuft werden, mit Ausnahme von KI-Systemen, deren Ausgaben natürliche Personen nicht direkt ausgesetzt sind, wie Instrumente zur Organisation, Optimierung und Strukturierung politischer Kampagnen in administrativer und logistischer Hinsicht.
(62)
Ilma et see piiraks Euroopa Parlamendi ja nõukogu määruses (EL) 2024/900 (34) sätestatud õigusnormide kohaldamist ning selleks, et käsitleda riske, mis tulenevad põhjendamatust välisest sekkumisest põhiõiguste harta artiklis 39 sätestatud hääletamisõigusesse ning kahjulikust mõjust demokraatiale ja õigusriigile, tuleks tehisintellektisüsteemid, mis on mõeldud kasutamiseks selleks, et mõjutada valimiste või referendumite tulemusi või füüsiliste isikute hääletamiskäitumist nende hääletamisel valimistel või referendumitel, liigitada suure riskiga tehisintellektisüsteemideks, välja arvatud tehisintellektisüsteemid, mille väljundiga füüsilised isikud otseselt kokku ei puutu, näiteks vahendid, mida kasutatakse poliitiliste kampaaniate korraldamiseks, optimeerimiseks ja struktureerimiseks halduslikust ja logistilisest seisukohast.
(63)
Die Tatsache, dass ein KI-System gemäß dieser Verordnung als ein Hochrisiko-KI-System eingestuft wird, sollte nicht dahin gehend ausgelegt werden, dass die Verwendung des Systems nach anderen Rechtsakten der Union oder nach nationalen Rechtsvorschriften, die mit dem Unionsrecht vereinbar sind, rechtmäßig ist, beispielsweise in Bezug auf den Schutz personenbezogener Daten, die Verwendung von Lügendetektoren und ähnlichen Instrumenten oder anderen Systemen zur Ermittlung des emotionalen Zustands natürlicher Personen. Eine solche Verwendung sollte weiterhin ausschließlich gemäß den geltenden Anforderungen erfolgen, die sich aus der Charta, dem anwendbaren Sekundärrecht der Union und nationalen Recht ergeben. Diese Verordnung sollte nicht so verstanden werden, dass sie eine Rechtsgrundlage für die Verarbeitung personenbezogener Daten, gegebenenfalls einschließlich besonderer Kategorien personenbezogener Daten, bildet, es sei denn, in dieser Verordnung ist ausdrücklich etwas anderes vorgesehen.
(63)
Asjaolu, et tehisintellektisüsteem on käesoleva määruse alusel liigitatud suure riskiga tehisintellektisüsteemiks, ei tohiks tõlgendada nii, et selle kasutamine on seaduslik muude liidu õigusaktide või liidu õigusega kooskõlas oleva riigisisese õiguse alusel, mis käsitlevad näiteks isikuandmete kaitset, valedetektorite või samalaadsete vahendite kasutamist või muude süsteemide kasutamist füüsiliste isikute emotsionaalse seisundi tuvastamiseks. Edaspidi peaks igasugune selline kasutamine toimuma üksnes kooskõlas kohaldatavate nõuetega, mis tulenevad põhiõiguste hartast ja kohaldatavatest liidu teisese õiguse aktidest ja riigisisesest õigusest. Käesolevat määrust ei tohiks käsitada isikuandmete, sealhulgas asjakohasel juhul isikuandmete eriliikide töötlemise õigusliku alusena, kui käesolevas määruses ei ole sõnaselgelt ette nähtud teisiti.
(64)
Um die von in Verkehr gebrachten oder in Betrieb genommenen Hochrisiko-KI-Systemen ausgehenden Risiken zu mindern und ein hohes Maß an Vertrauenswürdigkeit zu gewährleisten, sollten für Hochrisiko-KI-Systeme bestimmte verbindliche Anforderungen gelten, wobei der Zweckbestimmung und dem Nutzungskontext des KI-Systems sowie dem vom Anbieter einzurichtenden Risikomanagementsystem Rechnung zu tragen ist. Die von den Anbietern zur Erfüllung der verbindlichen Anforderungen dieser Verordnung ergriffenen Maßnahmen sollten dem allgemein anerkannten Stand der KI Rechnung tragen, verhältnismäßig und wirksam sein, um die Ziele dieser Verordnung zu erreichen. Auf der Grundlage des neuen Rechtsrahmens, wie in der Bekanntmachung der Kommission „Leitfaden für die Umsetzung der Produktvorschriften der EU 2022 (Blue Guide)“ dargelegt, gilt als allgemeine Regel, dass mehr als ein Rechtsakt der Harmonisierungsrechtsvorschriften der Union auf ein Produkt anwendbar sein können, da die Bereitstellung oder Inbetriebnahme nur erfolgen kann, wenn das Produkt allen geltenden Harmonisierungsrechtsvorschriften der Union entspricht. Die Gefahren von KI-Systemen, die unter die Anforderungen dieser Verordnung fallen, decken andere Aspekte ab als die bestehenden Harmonisierungsrechtsvorschriften der Union, weshalb die Anforderungen dieser Verordnung das bestehende Regelwerk der Harmonisierungsrechtsvorschriften der Union ergänzen würden. So bergen etwa Maschinen oder Medizinprodukte mit einer KI-Komponente möglicherweise Risiken, die von den grundlegenden Gesundheits- und Sicherheitsanforderungen der einschlägigen harmonisierten Rechtsvorschriften der Union nicht erfasst werden, da diese sektoralen Rechtsvorschriften keine spezifischen KI-Risiken behandeln. Dies erfordert die gleichzeitige und ergänzende Anwendung mehrerer Rechtsakte. Um Kohärenz zu gewährleisten und unnötigen Verwaltungsaufwand sowie unnötige Kosten zu vermeiden, sollten die Anbieter eines Produkts, das ein oder mehrere Hochrisiko-KI-Systeme enthält, für die die Anforderungen dieser Verordnung und der in einem Anhang dieser Verordnung aufgeführten und auf dem neuen Rechtsrahmen beruhenden Harmonisierungsvorschriften der Union gelten, in Bezug auf betriebliche Entscheidungen darüber flexibel sein, wie die Konformität eines Produkts, das ein oder mehrere Hochrisiko-KI-Systeme enthält, bestmöglich mit allen geltenden Anforderungen dieser harmonisierten Rechtsvorschriften der Union sichergestellt werden kann. Diese Flexibilität könnte beispielsweise bedeuten, dass der Anbieter beschließt, einen Teil der gemäß dieser Verordnung erforderlichen Test- und Berichterstattungsverfahren, Informationen und Unterlagen in bereits bestehende Dokumentationen und Verfahren zu integrieren, die nach den auf dem neuen Rechtsrahmen beruhenden und in einem Anhang dieser Verordnung aufgeführten geltenden Harmonisierungsrechtsvorschriften der Union erforderlich sind. Dies sollte in keiner Weise die Verpflichtung des Anbieters untergraben, alle geltenden Anforderungen zu erfüllen.
(64)
Et maandada riske, mida põhjustavad turule lastud või kasutusele võetud suure riskiga tehisintellektisüsteemid, ning tagada kõrge usaldusväärsus, tuleks suure riskiga tehisintellektisüsteemide suhtes kohaldada teatavaid kohustuslikke nõudeid, võttes arvesse tehisintellektisüsteemi sihtotstarvet ja kasutuskonteksti ning järgides pakkuja kehtestatud riskijuhtimissüsteemi. Meetmed, mida pakkujad võtavad käesoleva määruse kohustuslike nõuete täitmiseks, peaksid võtma arvesse tehisintellekti valdkonna tehnika üldtunnustatud taset ning olema käesoleva määruse eesmärkide saavutamiseks proportsionaalsed ja tõhusad. Uue õigusraamistiku alusel, mida on täpsustatud komisjoni 2022. aasta sinises raamatus ELi toote-eeskirjade rakendamise kohta, on üldreegel, et üks või mitu liidu ühtlustamisõigusakti võivad olla kohaldatavad ühele tootele, kuna kättesaadavaks tegemine või kasutusele võtmine saab toimuda ainult siis, kui toode vastab kõigile kohaldatavatele liidu ühtlustamisõigusaktidele. Käesoleva määruse nõuete kohaldamisalasse kuuluvate tehisintellektisüsteemide ohud on seotud kehtivatest liidu ühtlustamisõigusaktidest erinevate aspektidega ning seetõttu täiendavad käesoleva määruse nõuded olemasolevaid liidu ühtlustamisõigusakte. Näiteks võivad tehisintellektisüsteemi sisaldavad masinad või meditsiiniseadmed kujutada endast riske, mida asjakohastes liidu ühtlustamisõigusaktides sätestatud olulistes tervisekaitse- ja ohutusnõuetes ei käsitleta, kuna see valdkondlik õigus ei puuduta tehisintellektisüsteemidele omaseid riske. Seega on korraga vaja kohaldada mitut ja üksteist täiendavat õigusakti. Järjepidevuse tagamiseks ning tarbetu halduskoormuse ja tarbetute kulude ärahoidmiseks peaks üht või mitut suure riskiga tehisintellektisüsteemi sisaldava toote pakkujatel, mille suhtes kohaldatakse käesoleva määruse ja uuel õigusraamistikul põhinevate ja käesoleva määruse lisas loetletud liidu ühtlustamisõigusaktide nõudeid, olema operatiivsete otsuste tegemisel paindlikkus selles osas, kuidas tagada üht või mitut tehisintellektisüsteemi sisaldava toote vastavus kõigile liidu ühtlustamisõigusaktide kohaldatavatele nõuetele optimaalseimal viisil. Selline paindlikkus võib tähendada näiteks pakkuja otsust integreerida osa käesoleva määruse kohaselt nõutavast testimis- ja aruandlusprotsessist, teabest ja dokumentatsioonist juba olemasolevatesse dokumentidesse ja menetlustesse, mida nõutakse käesoleva määruse lisas loetletud uuel õigusraamistikul põhinevate kehtivate liidu ühtlustamisõigusaktide alusel. See ei tohiks mingil viisil kahjustada pakkuja kohustust täita kõiki kohaldatavaid nõudeid.
(65)
Das Risikomanagementsystem sollte in einem kontinuierlichen iterativen Prozess bestehen, der während des gesamten Lebenszyklus eines Hochrisiko-KI-Systems geplant und durchgeführt wird. Ziel dieses Prozesses sollte es ein, die einschlägigen Risiken von KI-Systemen für Gesundheit, Sicherheit und Grundrechte zu ermitteln und zu mindern. Das Risikomanagementsystem sollte regelmäßig überprüft und aktualisiert werden, um seine dauerhafte Wirksamkeit sowie die Begründetheit und Dokumentierung aller gemäß dieser Verordnung getroffenen wesentlichen Entscheidungen und Maßnahmen zu gewährleisten. Mit diesem Prozess sollte sichergestellt werden, dass der Anbieter Risiken oder negative Auswirkungen ermittelt und Minderungsmaßnahmen ergreift in Bezug auf die bekannten und vernünftigerweise vorhersehbaren Risiken von KI-Systemen für die Gesundheit, die Sicherheit und die Grundrechte angesichts ihrer Zweckbestimmung und vernünftigerweise vorhersehbaren Fehlanwendung, einschließlich der möglichen Risiken, die sich aus der Interaktion zwischen dem KI-System und der Umgebung, in der es betrieben wird, ergeben könnten. Im Rahmen des Risikomanagementsystems sollten die vor dem Hintergrund des Stands der KI am besten geeigneten Risikomanagementmaßnahmen ergriffen werden. Bei der Ermittlung der am besten geeigneten Risikomanagementmaßnahmen sollte der Anbieter die getroffenen Entscheidungen dokumentieren und erläutern und gegebenenfalls Sachverständige und externe Interessenträger hinzuziehen. Bei der Ermittlung der vernünftigerweise vorhersehbaren Fehlanwendung von Hochrisiko-KI-Systemen sollte der Anbieter die Verwendungen von KI-Systemen erfassen, die zwar nicht unmittelbar der Zweckbestimmung entsprechen und in der Betriebsanleitung vorgesehen sind, jedoch nach vernünftigem Ermessen davon auszugehen ist, dass sie sich aus einem leicht absehbaren menschlichen Verhalten im Zusammenhang mit den spezifischen Merkmalen und der Verwendung eines bestimmten KI-Systems ergeben. Alle bekannten oder vorhersehbaren Umstände bezüglich der Verwendung des Hochrisiko-KI-Systems im Einklang mit seiner Zweckbestimmung oder einer vernünftigerweise vorhersehbaren Fehlanwendung, die zu Risiken für die Gesundheit und Sicherheit oder die Grundrechte führen können, sollten vom Anbieter in der Betriebsanleitung aufgeführt werden. Damit soll sichergestellt werden, dass der Betreiber diese Umstände bei der Nutzung des Hochrisiko-KI-Systems kennt und berücksichtigt. Die Ermittlung und Umsetzung von Risikominderungsmaßnahmen in Bezug auf vorhersehbare Fehlanwendungen im Rahmen dieser Verordnung sollte keine spezifische zusätzliche Schulung für das Hochrisiko-KI-System durch den Anbieter erfordern, um gegen vorhersehbare Fehlanwendungen vorzugehen. Die Anbieter sind jedoch gehalten, solche zusätzlichen Schulungsmaßnahmen in Erwägung zu ziehen, um einer vernünftigerweise vorhersehbare Fehlanwendung entgegenzuwirken, soweit dies erforderlich und angemessen ist.
(65)
Riskijuhtimissüsteem peaks seisnema pidevalt korduvas protsessis, mida kavandatakse ja käitatakse suure riskiga tehisintellektisüsteemi kogu elutsükli jooksul. Kõnealuse protsessi eesmärk peaks olema teha kindlaks ja maandada tehisintellektisüsteemide asjakohaseid riske tervisele, turvalisusele ja põhiõigustele. Riskijuhtimissüsteem tuleks korrapäraselt läbi vaadata ja seda ajakohastada, et tagada selle jätkuv tõhusus, samuti käesoleva määruse alusel tehtud oluliste otsuste ja võetud meetmete põhjendused ja dokumentatsioon. See protsess peaks tagama, et pakkuja teeb kindlaks riskid või kahjuliku mõju ning rakendab maandamismeetmeid tehisintellektisüsteemide teadaolevate ja mõistlikult prognoositavate riskide suhtes tervisele, turvalisusele ja põhiõigustele, võttes arvesse nende sihtotstarvet ja mõistlikult prognoositavat väärkasutust, sealhulgas võimalikke riske, mis tulenevad tehisintellektisüsteemi ja selle töökeskkonna vastasmõjust. Riskijuhtimissüsteemis tuleks võtta tehisintellekti valdkonna tehnika taset silmas pidades kõige asjakohasemaid riskijuhtimismeetmeid. Kõige asjakohasemate riskijuhtimismeetmete kindlaksmääramisel peaks pakkuja tehtud valikud dokumenteerima ja neid selgitama ning vajaduse korral kaasama eksperte ja väliseid sidusrühmi. Suure riskiga tehisintellektisüsteemide mõistlikult prognoositava väärkasutamise kindlakstegemisel peaks pakkuja hõlmama tehisintellektisüsteemide kasutusviise, mis ei ole küll otseselt hõlmatud sihtotstarbega ega ette nähtud kasutusjuhendis, kuid mille puhul võib siiski põhjendatult eeldada, et see tuleneb kergesti prognoositavast inimkäitumisest konkreetse tehisintellektisüsteemi erijoonte ja kasutamise kontekstis. Kõik teadaolevad või prognoositavad asjaolud, mis on seotud suure riskiga tehisintellektisüsteemi kasutamisega vastavalt selle sihtotstarbele või mõistlikult prognoositava väärkasutamise tingimustes, mis võib seada ohtu tervise ja ohutuse või põhiõigused, peaksid olema lisatud kasutusjuhendisse, mille pakkuja koostab. Selle eesmärk on tagada, et juurutaja on suure riskiga tehisintellektisüsteemi kasutamisel neist teadlik ja võtab neid arvesse. Käesoleva määruse kohaste prognoositava väärkasutusega seotud riskimaandamismeetmete kindlakstegemine ja rakendamine ei tohiks nõuda pakkujalt spetsiaalseid täiendavaid suure riskiga tehisintellektisüsteemi jaoks mõeldud prognoositava väärkasutuse teemalisi treeninguid. Pakkujaid julgustatakse siiski kaaluma selliseid täiendavaid treenimismeetmeid mõistlikult prognoositava väärkasutamise leevendamiseks, kui see peaks olema vajalik ja asjakohane.
(66)
Die Anforderungen sollten für Hochrisiko-KI-Systeme im Hinblick auf das Risikomanagement, die Qualität und Relevanz der verwendeten Datensätze, die technische Dokumentation und die Aufzeichnungspflichten, die Transparenz und die Bereitstellung von Informationen für die Betreiber, die menschliche Aufsicht sowie die Robustheit, Genauigkeit und Sicherheit gelten. Diese Anforderungen sind erforderlich, um die Risiken für Gesundheit, Sicherheit und Grundrechte wirksam zu mindern. Nachdem nach vernünftigem Ermessen keine anderen weniger handelsbeschränkenden Maßnahmen zur Verfügung stehen, stellen sie keine ungerechtfertigten Handelsbeschränkungen dar.
(66)
Suure riskiga tehisintellektisüsteemide suhtes tuleks kohaldada riskijuhtimisega seotud nõudeid, mis puudutavad kasutatavate andmestike kvaliteeti ja asjakohasust, tehnilist dokumentatsiooni ja andmete säilitamist, läbipaistvust ja juurutajate teavitamist, inimjärelevalvet, töökindlust, täpsust ja küberturvalisust. Sellised nõuded on vajalikud, et tulemuslikult maandada riske tervisele, turvalisusele ja põhiõigustele. Kuna muud kaubandust vähem piiravad meetmed ei ole mõistlikult kättesaadavad, ei ole need piirangud põhjendamatud kaubanduspiirangud.
(67)
Hochwertige Daten und der Zugang dazu spielen eine zentrale Rolle bei der Bereitstellung von Strukturen und für die Sicherstellung der Leistung vieler KI-Systeme, insbesondere wenn Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, um sicherzustellen, dass das Hochrisiko-KI-System bestimmungsgemäß und sicher funktioniert und nicht zur Ursache für Diskriminierung wird, die nach dem Unionsrecht verboten ist. Hochwertige Trainings-, Validierungs- und Testdatensätze erfordern geeignete Daten-Governance- und Datenverwaltungsverfahren. Die Trainings-, Validierungs- und Testdatensätze, einschließlich der Kennzeichnungen, sollten im Hinblick auf die Zweckbestimmung des Systems relevant, hinreichend repräsentativ und so weit wie möglich fehlerfrei und vollständig sein. Um die Einhaltung des Datenschutzrechts der Union, wie der Verordnung (EU) 2016/679, zu erleichtern, sollten Daten-Governance- und Datenverwaltungsverfahren bei personenbezogenen Daten Transparenz in Bezug auf den ursprünglichen Zweck der Datenerhebung umfassen. Die Datensätze sollten auch die geeigneten statistischen Merkmale haben, auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll, unter besonderer Berücksichtigung der Minderung möglicher Verzerrungen in den Datensätzen, die die Gesundheit und Sicherheit von Personen beeinträchtigen, sich negativ auf die Grundrechte auswirken oder zu einer nach dem Unionsrecht verbotenen Diskriminierung führen könnten, insbesondere wenn die Datenausgaben die Eingaben für künftige Operationen beeinflussen (Rückkopplungsschleifen). Verzerrungen können zum Beispiel — insbesondere bei Verwendung historischer Daten — den zugrunde liegenden Datensätzen innewohnen oder bei der Implementierung der Systeme in der realen Welt generiert werden. Die von einem KI-System ausgegebenen Ergebnisse könnten durch solche inhärenten Verzerrungen beeinflusst werden, die tendenziell allmählich zunehmen und dadurch bestehende Diskriminierungen fortschreiben und verstärken, insbesondere in Bezug auf Personen, die bestimmten schutzbedürftigen Gruppen wie aufgrund von Rassismus benachteiligten oder ethnischen Gruppen angehören. Die Anforderung, dass die Datensätze so weit wie möglich vollständig und fehlerfrei sein müssen, sollte sich nicht auf den Einsatz von Techniken zur Wahrung der Privatsphäre im Zusammenhang mit der Entwicklung und dem Testen von KI-Systemen auswirken. Insbesondere sollten die Datensätze, soweit dies für die Zweckbestimmung erforderlich ist, den Eigenschaften, Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, typisch sind. Die Anforderungen an die Daten-Governance können durch die Inanspruchnahme Dritter erfüllt werden, die zertifizierte Compliance-Dienste anbieten, einschließlich der Überprüfung der Daten-Governance, der Datensatzintegrität und der Datenschulungs-, Validierungs- und Testverfahren, sofern die Einhaltung der Datenanforderungen dieser Verordnung gewährleistet ist.
(67)
Kvaliteetsed andmed ja juurdepääs kvaliteetsetele andmetele on struktuuri pakkumiseks ja paljude tehisintellektisüsteemide toimimise tagamiseks hädavajalik, eriti kui kasutatakse mudelite treenimise meetodeid, et tagada suure riskiga tehisintellektisüsteemide sihipärane ja ohutu töö ja see, et neist ei saa liidu õigusega keelatud diskrimineerimise allikas. Kvaliteetsed treenimis-, valideerimis- ja testimisandmestikud eeldavad asjakohaste andmehaldus- ja juhtimistavade rakendamist. Treenimis-, valideerimis- ja testimisandmestikud, sealhulgas märgistus, peaksid olema asjakohased, piisavalt representatiivsed ning võimalikult suurel määral vigadeta ja täielikud, pidades silmas süsteemi sihtotstarvet. Selleks et hõlbustada liidu andmekaitseõiguse, näiteks määruse (EL) 2016/679 järgimist, peaksid andmehaldus- ja -juhtimistavad sisaldama isikuandmete puhul andmete kogumise algse eesmärgi läbipaistvust. Neil andmestikel peaksid olema asjakohased statistilised omadused, sealhulgas mis puudutab selliseid isikuid või isikute rühmi, kellega seoses kavatsetakse suure riskiga tehisintellektisüsteemi kasutada, pöörates erilist tähelepanu andmestike võimalike kallutatuste leevendamisele, kuna need võivad mõjutada inimeste tervist ja ohutust, avaldada negatiivset mõju põhiõigustele või põhjustada liidu õigusega keelatud diskrimineerimist, eriti kui andmeväljundid mõjutavad tulevaste toimingute sisendeid (tagasisideahelad). Kallutatus võib tuleneda näiteks aluseks olevatest andmestikest, eriti kui kasutatakse varasemaid andmeid, või see võib tekkida süsteemide rakendamisel tegelikus keskkonnas. Tehisintellektisüsteemide abil saavutatud tulemusi võib mõjutada selline loomupärane kallutatus, mis kaldub järk-järgult suurenema ning sel viisil põlistama ja võimendama olemasolevat diskrimineerimist, eriti teatud kaitsetutesse rühmadesse, sealhulgas rassilistesse või etnilistesse rühmadesse kuuluvate isikute puhul. Nõue, et andmestikud peavad olema võimalikult suurel määral täielikud ja vigadeta, ei tohiks mõjutada eraelu puutumatuse säilitamise meetodite kasutamist tehisintellektisüsteemide arendamise ja testimise kontekstis. Eeskätt tuleks andmestikes sihtotstarbe jaoks nõutavas ulatuses võtta arvesse funktsioone, omadusi või elemente, mis iseloomustavad konkreetset geograafilist, kontekstuaalset, käitumuslikku või funktsionaalset keskkonda, kus kavatsetakse suure riskiga tehisintellektisüsteemi kasutada. Andmehaldusega seotud nõudeid saab täita, kasutades kolmandaid isikuid, kes pakuvad sertifitseeritud vastavusteenuseid, sealhulgas andmehalduse, andmestiku tervikluse ning andmete treenimise, valideerimise ja testimise tavade kontrollimist, kui on tagatud vastavus käesoleva määruse andmenõuetele.
(68)
Für die Entwicklung und Bewertung von Hochrisiko-KI-Systemen sollten bestimmte Akteure wie etwa Anbieter, notifizierte Stellen und andere einschlägige Einrichtungen wie etwa Europäische Digitale Innovationszentren, Test- und Versuchseinrichtungen und Forscher in der Lage sein, in den Tätigkeitsbereichen, in denen diese Akteure tätig sind und die mit dieser Verordnung in Zusammenhang stehen, auf hochwertige Datensätze zuzugreifen und diese zu nutzen. Die von der Kommission eingerichteten gemeinsamen europäischen Datenräume und die Erleichterung des Datenaustauschs im öffentlichen Interesse zwischen Unternehmen und mit Behörden werden entscheidend dazu beitragen, einen vertrauensvollen, rechenschaftspflichtigen und diskriminierungsfreien Zugang zu hochwertigen Daten für das Training, die Validierung und das Testen von KI-Systemen zu gewährleisten. Im Gesundheitsbereich beispielsweise wird der europäische Raum für Gesundheitsdaten den diskriminierungsfreien Zugang zu Gesundheitsdaten und das Training von KI-Algorithmen mithilfe dieser Datensätze erleichtern, und zwar unter Wahrung der Privatsphäre, auf sichere, zeitnahe, transparente und vertrauenswürdige Weise und unter angemessener institutioneller Leitung. Die einschlägigen zuständigen Behörden, einschließlich sektoraler Behörden, die den Zugang zu Daten bereitstellen oder unterstützen, können auch die Bereitstellung hochwertiger Daten für das Training, die Validierung und das Testen von KI-Systemen unterstützen.
(68)
Suure riskiga tehisintellektisüsteemide arendamiseks ja hindamiseks peaks teatavatel osalejatel, näiteks pakkujatel, teada antud asutustel ja muudel asjaomastel üksustel, näiteks Euroopa digitaalse innovatsiooni keskustel, testimis- ja eksperimenteerimisrajatistel ja teadlastel, olema oma käesoleva määrusega seotud tegevusvaldkondades juurdepääs kvaliteetsetele andmestikele ja nad peaksid saama neid kasutada. Komisjoni loodud ühtsed Euroopa andmeruumid ning avaliku huvi nimel hõlpsam andmete jagamine ettevõtete vahel ja valitsusega on äärmiselt tähtis, et pakkuda tehisintellektisüsteemide treenimiseks, valideerimiseks ja testimiseks usaldusväärset, vastutustundlikku ja mittediskrimineerivat juurdepääsu kvaliteetsetele andmetele. Näiteks tervise valdkonnas hõlbustab Euroopa terviseandmeruum mittediskrimineerivat juurdepääsu terviseandmetele ja tehisintellekti algoritmide treenimist selliste andmestikega privaatsust tagaval, turvalisel, õigeaegsel, läbipaistval ja usaldusväärsel viisil ning asjakohase institutsioonilise juhtimise all. Asjaomased pädevad asutused, sealhulgas valdkondlikud asutused, kes pakuvad või toetavad juurdepääsu andmetele, võivad toetada ka kvaliteetsete andmete pakkumist tehisintellektisüsteemide treenimiseks, valideerimiseks ja testimiseks.
(69)
Das Recht auf Privatsphäre und den Schutz personenbezogener Daten muss während des gesamten Lebenszyklus des KI-Systems sichergestellt sein. In dieser Hinsicht gelten die Grundsätze der Datenminimierung und des Datenschutzes durch Technikgestaltung und Voreinstellungen, wie sie im Datenschutzrecht der Union festgelegt sind, wenn personenbezogene Daten verarbeitet werden. Unbeschadet der in dieser Verordnung festgelegten Anforderungen an die Daten-Governance können zu den Maßnahmen, mit denen die Anbieter die Einhaltung dieser Grundsätze sicherstellen, nicht nur Anonymisierung und Verschlüsselung gehören, sondern auch der Einsatz von Technik, die es ermöglicht, Algorithmen direkt am Ort der Datenerzeugung einzusetzen und KI-Systeme zu trainieren, ohne dass Daten zwischen Parteien übertragen oder die Rohdaten oder strukturierten Daten selbst kopiert werden.
(69)
Õigus eraelu puutumatusele ja isikuandmete kaitsele peab olema tagatud kogu tehisintellektisüsteemi elutsükli jooksul. Sellega seoses kohaldatakse isikuandmete töötlemisel võimalikult väheste andmete kogumise ning lõimitud ja vaikimisi andmekaitse põhimõtteid, mis on sätestatud liidu andmekaitseõiguses. Meetmed, mida pakkujad võtavad nende põhimõtete järgimise tagamiseks, võivad hõlmata mitte üksnes anonüümimist ja krüpteerimist, vaid ka sellise tehnoloogia kasutamist, mis võimaldab tuua andmetesse algoritme ja treenida tehisintellektisüsteeme ilma toor- või struktureeritud andmete pooltevahelise edastamise või kopeerimiseta, ilma et see piiraks käesolevas määruses sätestatud andmehalduse nõuete kohaldamist.
(70)
Um das Recht anderer auf Schutz vor Diskriminierung, die sich aus Verzerrungen in KI-Systemen ergeben könnte, zu wahren, sollten die Anbieter ausnahmsweise und in dem unbedingt erforderlichen Ausmaß, um die Erkennung und Korrektur von Verzerrungen im Zusammenhang mit Hochrisiko-KI-Systemen sicherzustellen, vorbehaltlich angemessener Vorkehrungen für den Schutz der Grundrechte und Grundfreiheiten natürlicher Personen und nach Anwendung aller in dieser Verordnung festgelegten geltenden Bedingungen zusätzlich zu den in den Verordnungen (EU) 2016/679 und (EU) 2018/1725 sowie der Richtlinie (EU) 2016/680 festgelegten Bedingungen besondere Kategorien personenbezogener Daten als Angelegenheit von erheblichem öffentlichen Interesse im Sinne des Artikels 9 Absatz 2 Buchstabe g der Verordnung (EU) 2016/679 und des Artikels 10 Absatz 2 Buchstabe g der Verordnung (EU) 2018/1725 verarbeiten können.
(70)
Et kaitsta teiste õigust tehisintellektisüsteemide kallutatusest tuleneda võiva diskrimineerimise eest, peaksid pakkujad erandkorras ja ulatuses, mis on rangelt vajalik selleks, et tagada kallutatuse avastamine ja korrigeerimine seoses suure riskiga tehisintellektisüsteemidega, tingimusel et kohaldatakse asjakohaseid kaitsemeetmeid füüsiliste isikute põhiõiguste ja -vabaduste tagamiseks ning järgitakse kõiki käesolevas määruses sätestatud kohaldatavaid tingimusi lisaks määrustes (EL) 2016/679 ja (EL) 2018/1725 ning direktiivis (EL) 2016/680 sätestatud tingimustele, olema võimelised töötlema ka isikuandmete eriliike, mis pakuvad märkimisväärset avalikku huvi määruse (EL) 2016/679 artikli 9 lõike 2 punkti g ja määruse (EL) 2018/1725 artikli 10 lõike 2 punkti g tähenduses.
(71)
Umfassende Informationen darüber, wie Hochrisiko-KI-Systeme entwickelt wurden und wie sie während ihrer gesamten Lebensdauer funktionieren, sind unerlässlich, um die Nachvollziehbarkeit dieser Systeme, die Überprüfung der Einhaltung der Anforderungen dieser Verordnung sowie die Beobachtung ihres Betriebs und ihre Beobachtung nach dem Inverkehrbringen zu ermöglichen. Dies erfordert die Führung von Aufzeichnungen und die Verfügbarkeit einer technischen Dokumentation, die alle erforderlichen Informationen enthält, um die Einhaltung der einschlägigen Anforderungen durch das KI-System zu beurteilen und die Beobachtung nach dem Inverkehrbringen zu erleichtern. Diese Informationen sollten die allgemeinen Merkmale, Fähigkeiten und Grenzen des Systems, die verwendeten Algorithmen, Daten und Trainings-, Test- und Validierungsverfahren sowie die Dokumentation des einschlägigen Risikomanagementsystems umfassen und in klarer und umfassender Form abgefasst sein. Die technische Dokumentation sollte während der gesamten Lebensdauer des KI-Systems angemessen auf dem neuesten Stand gehalten werden. Darüber hinaus sollten die Hochrisiko-KI-Systeme technisch die automatische Aufzeichnung von Ereignissen mittels Protokollierung während der Lebensdauer des Systems ermöglichen.
(71)
Arusaadav teave selle kohta, kuidas suure riskiga tehisintellektisüsteemid on välja töötatud ja kuidas need kogu oma eluea jooksul töötavad, on äärmiselt oluline, et võimaldada nende süsteemide jälgitavust, kontrollida vastavust käesoleva määruse kohastele nõuetele ning jälgida nende toiminguid ja teha turustamisjärgset seiret. Selleks on vaja säilitada andmeid ja tagada sellise tehnilise dokumentatsiooni kättesaadavus, mis sisaldab teavet, mida on vaja, et hinnata, kas tehisintellektisüsteem vastab asjakohastele nõuetele, ja hõlbustada turustamisjärgset seiret. Sellise teabe hulka peaksid kuuluma süsteemi üldised omadused, võimed ja piirid, algoritmid, andmed, kasutatud treenimis-, testimis- ja valideerimisprotsessid ning dokumentatsioon asjaomase riskijuhtimissüsteemi kohta ning see peaks olema koostatud selgel ja ammendaval viisil. Tehniline dokumentatsioon peaks olema nõuetekohaselt ajakohane kogu tehisintellektisüsteemi eluea jooksul. Lisaks peaksid suure riskiga tehisintellektisüsteemid võimaldama tehniliselt sündmuste automaatset registreerimist, kasutades selleks logisid, süsteemi kogu eluea jooksul.
(72)
Um Bedenken hinsichtlich der Undurchsichtigkeit und Komplexität bestimmter KI-Systeme auszuräumen und die Betreiber bei der Erfüllung ihrer Pflichten gemäß dieser Verordnung zu unterstützen, sollte für Hochrisiko-KI-Systeme Transparenz vorgeschrieben werden, bevor sie in Verkehr gebracht oder in Betrieb genommen werden. Hochrisiko-KI-Systeme sollten so gestaltet sein, dass die Betreiber in der Lage sind, zu verstehen, wie das KI-System funktioniert, seine Funktionalität zu bewerten und seine Stärken und Grenzen zu erfassen. Hochrisiko-KI-Systemen sollten angemessene Informationen in Form von Betriebsanleitungen beigefügt sein. Zu diesen Informationen sollten die Merkmale, Fähigkeiten und Leistungsbeschränkungen des KI-Systems gehören. Diese würden Informationen über mögliche bekannte und vorhersehbare Umstände im Zusammenhang mit der Nutzung des Hochrisiko-KI-Systems, einschließlich Handlungen des Betreibers, die das Verhalten und die Leistung des Systems beeinflussen können, unter denen das KI-System zu Risiken in Bezug auf die Gesundheit, die Sicherheit und die Grundrechte führen kann, über die Änderungen, die vom Anbieter vorab festgelegt und auf Konformität geprüft wurden, und über die einschlägigen Maßnahmen der menschlichen Aufsicht, einschließlich der Maßnahmen, um den Betreibern die Interpretation der Ausgaben von KI-Systemen zu erleichtern, umfassen. Transparenz, einschließlich der begleitenden Betriebsanleitungen, sollte den Betreibern bei der Nutzung des Systems helfen und ihre fundierte Entscheidungsfindung unterstützen. Unter anderem sollten Betreiber besser in der Lage sein, das richtige System auszuwählen, das sie angesichts der für sie geltenden Pflichten verwenden wollen, über die beabsichtigten und ausgeschlossenen Verwendungszwecke informiert sein und das KI-System korrekt und angemessen verwenden. Um die Lesbarkeit und Zugänglichkeit der in der Betriebsanleitung enthaltenen Informationen zu verbessern, sollten diese gegebenenfalls anschauliche Beispiele enthalten, zum Beispiel zu den Beschränkungen sowie zu den beabsichtigten und ausgeschlossenen Verwendungen des KI-Systems. Die Anbieter sollten dafür sorgen, dass in der gesamten Dokumentation, einschließlich der Betriebsanleitungen, aussagekräftige, umfassende, zugängliche und verständliche Informationen enthalten sind, wobei die Bedürfnisse und vorhersehbaren Kenntnisse der Zielbetreiber zu berücksichtigen sind. Die Betriebsanleitungen sollten in einer vom betreffenden Mitgliedstaat festgelegten Sprache zur Verfügung gestellt werden, die von den Zielbetreibern leicht verstanden werden kann.
(72)
Selleks et lahendada probleeme, mis on seotud teatavate tehisintellektisüsteemide läbipaistmatuse ja keerukusega, ning aidata juurutajatel täita käesolevast määrusest tulenevaid kohustusi, tuleks suure riskiga tehisintellektisüsteemide puhul enne nende turule laskmist või kasutusele võtmist nõuda nende läbipaistvust. Suure riskiga tehisintellektisüsteemid tuleks projekteerida viisil, mis võimaldab juurutajatel mõista, kuidas tehisintellektisüsteem toimib, hinnata selle funktsionaalsust ning mõista selle tugevaid külgi ja piire. Suure riskiga tehisintellektisüsteemidega peaks kaasnema asjakohane teave kasutusjuhendi kujul. Selline teave peaks hõlmama tehisintellektisüsteemi omadusi, võimeid ja toimimispiire. Need peaksid hõlmama teavet suure riskiga tehisintellektisüsteemi kasutamisega seotud võimalike teadaolevate ja prognoositavate asjaolude kohta, sealhulgas juurutaja tegevuse kohta, mis võib mõjutada süsteemi käitumist ja toimimist, mille puhul tehisintellektisüsteem võib põhjustada riske tervisele, turvalisusele ja põhiõigustele, muutuste kohta, mille pakkuja on eelnevalt kindlaks määranud ja mille vastavust hinnanud, ning asjakohaste inimjärelevalve meetmete kohta, sealhulgas meetmete kohta, millega hõlbustatakse tehisintellektisüsteemi väljundite tõlgendamist juurutajate poolt. Läbipaistvus, sealhulgas lisatud kasutusjuhendid, peaks aitama juurutajaid süsteemi kasutamisel ja toetama nende teadlike otsuste tegemist. Juurutajad peaksid muu hulgas olema paremas olukorras, et teha õige valik süsteemi osas, mida nad kavatsevad kasutada, võttes arvesse nende suhtes kohaldatavaid kohustusi, olema teadlikud kavandatud ja välistatud kasutusviisidest ning kasutama tehisintellektisüsteemi õigesti ja vastavalt vajadusele. Selleks et parandada kasutusjuhendis sisalduva teabe loetavust ja kättesaadavust, tuleks vajaduse korral lisada selgitavad näited, näiteks tehisintellektisüsteemi piiride ning kavandatud ja välistatud kasutusviiside kohta. Pakkujad peaksid tagama, et kogu dokumentatsioon, sealhulgas kasutusjuhendid, sisaldab sisukat, põhjalikku, kättesaadavat ja arusaadavat teavet, võttes arvesse sihtjuurutajate vajadusi ja prognoositavaid teadmisi. Kasutusjuhendid tuleks teha kättesaadavaks asjaomase liikmesriigi poolt kindlaks määratud keeles, mis on sihtjuurutajatele kergesti arusaadav.
(73)
Hochrisiko-KI-Systeme sollten so gestaltet und entwickelt werden, dass natürliche Personen ihre Funktionsweise überwachen und sicherstellen können, dass sie bestimmungsgemäß verwendet werden und dass ihre Auswirkungen während des Lebenszyklus des Systems berücksichtigt werden. Zu diesem Zweck sollte der Anbieter des Systems vor dem Inverkehrbringen oder der Inbetriebnahme geeignete Maßnahmen zur Gewährleistung der menschlichen Aufsicht festlegen. Insbesondere sollten solche Maßnahmen gegebenenfalls gewährleisten, dass das System integrierten Betriebseinschränkungen unterliegt, über die sich das System selbst nicht hinwegsetzen kann, dass es auf den menschlichen Bediener reagiert und dass die natürlichen Personen, denen die menschliche Aufsicht übertragen wurde, über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen, um diese Aufgabe wahrzunehmen. Es ist außerdem unerlässlich, gegebenenfalls dafür zu sorgen, dass in Hochrisiko-KI-Systemen Mechanismen enthalten sind, um eine natürliche Person, der die menschliche Aufsicht übertragen wurde, zu beraten und zu informieren, damit sie fundierte Entscheidungen darüber trifft, ob, wann und wie einzugreifen ist, um negative Folgen oder Risiken zu vermeiden, oder das System anzuhalten, wenn es nicht wie beabsichtigt funktioniert. Angesichts der bedeutenden Konsequenzen für Personen im Falle eines falschen Treffers durch bestimmte biometrische Identifizierungssysteme ist es angezeigt, für diese Systeme eine verstärkte Anforderung im Hinblick auf die menschliche Aufsicht vorzusehen, sodass der Betreiber keine Maßnahmen oder Entscheidungen aufgrund des vom System hervorgebrachten Identifizierungsergebnisses treffen kann, solange dies nicht von mindestens zwei natürlichen Personen getrennt überprüft und bestätigt wurde. Diese Personen könnten von einer oder mehreren Einrichtungen stammen und die Person umfassen, die das System bedient oder verwendet. Diese Anforderung sollte keine unnötigen Belastungen oder Verzögerungen mit sich bringen, und es könnte ausreichen, dass die getrennten Überprüfungen durch die verschiedenen Personen automatisch in die vom System erzeugten Protokolle aufgenommen werden. Angesichts der Besonderheiten der Bereiche Strafverfolgung, Migration, Grenzkontrolle und Asyl sollte diese Anforderung nicht gelten, wenn die Geltung dieser Anforderung nach Unionsrecht oder nationalem Recht unverhältnismäßig ist.
(73)
Suure riskiga tehisintellektisüsteeme tuleks projekteerida ja arendada nii, et füüsilised isikud saaksid jälgida nende toimimist, tagada, et neid kasutatakse ettenähtud viisil ja et nende mõju käsitletakse süsteemi elutsükli jooksul. Selleks peaks süsteemi pakkuja tegema enne süsteemi turule laskmist või kasutusele võtmist kindlaks asjakohased inimjärelevalve meetmed. Kui see on asjakohane, tuleks selliste meetmetega eeskätt tagada, et süsteemi on sisse ehitatud tegevuspiirangud, mida süsteem ise ei saa eirata, et süsteem reageerib inimoperaatori käskudele ning et järelevalvega tegelema määratud füüsilistel isiktel on selle ülesande täitmiseks vajalik pädevus, väljaõpe ja volitused. Samuti on hädavajalik tagada, kui see on asjakohane, et suure riskiga tehisintellektisüsteemid sisaldavad mehhanisme, mille abil suunata ja teavitada füüsilist isikut, kellele on määratud inimjärelevalve ülesanne, tegema teadlikke otsuseid, kas, millal ja kuidas sekkuda, et hoida ära negatiivseid tagajärgi või riske või süsteem peatada, kui see ei toimi ettenähtud viisil. Võttes arvesse märkimisväärseid tagajärgi isikutele, kui teatavad biomeetrilise tuvastamise süsteemid annavad valesid tulemusi, on asjakohane näha nende süsteemide puhul ette tõhusama inimjärelevalve nõue, et juurutaja ei saaks süsteemist tuleneva tuvastamise põhjal midagi ette võtta ega otsust teha, kui tuvastamist ei ole eraldi kontrollinud ja kinnitanud vähemalt kaks füüsilist isikut. Need isikud võivad olla pärit ühest või mitmest üksusest ning nende hulka võib kuuluda süsteemi käitav või kasutav isik. See nõue ei tohiks põhjustada tarbetut koormust ega tarbetuid viivitusi ning piisata võib sellest, kui eri isikute tehtud eraldi kontrollid registreeritakse automaatselt süsteemi loodud logides. Võttes arvesse õiguskaitse, rände, piirikontrolli ja varjupaiga valdkonna eripära, ei tohiks seda nõuet kohaldada, kui liidu või liikmesriigi õiguses peetakse selle nõude kohaldamist ebaproportsionaalseks.
(74)
Hochrisiko-KI-Systeme sollten während ihres gesamten Lebenszyklus beständig funktionieren und ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit angesichts ihrer Zweckbestimmung und entsprechend dem allgemein anerkannten Stand der Technik aufweisen. Die Kommission sowie einschlägige Interessenträger und Organisationen sind aufgefordert, der Minderung der Risiken und negativen Auswirkungen des KI-Systems gebührend Rechnung zu tragen. Das erwartete Leistungskennzahlenniveau sollte in der beigefügten Betriebsanleitung angegeben werden. Die Anbieter werden nachdrücklich aufgefordert, diese Informationen den Betreibern in klarer und leicht verständlicher Weise ohne Missverständnisse oder irreführende Aussagen zu übermitteln. Die Rechtsvorschriften der Union zum gesetzlichen Messwesen, einschließlich der Richtlinien 2014/31/EU (35) und 2014/32/EU des Europäischen Parlaments und des Rates (36), zielt darauf ab, die Genauigkeit von Messungen sicherzustellen und die Transparenz und Fairness im Geschäftsverkehr zu fördern. In diesem Zusammenhang sollte die Kommission in Zusammenarbeit mit einschlägigen Interessenträgern und Organisationen, wie Metrologie- und Benchmarking-Behörden, gegebenenfalls die Entwicklung von Benchmarks und Messmethoden für KI-Systeme fördern. Dabei sollte die Kommission internationale Partner, die an Metrologie und einschlägigen Messindikatoren für KI arbeiten, beachten und mit ihnen zusammenarbeiten.
(74)
Suure riskiga tehisintellektisüsteemid peaksid toimima kogu oma elutsükli jooksul järjepidevalt ning nende täpsus, stabiilsus ja küberturvalisus peaks nende sihtotstarvet arvesse võttes olema asjakohasel tasemel vastavalt tehnika üldtunnustatud tasemele. Komisjoni ning asjaomaseid organisatsioone ja sidusrühmi julgustatakse võtma nõuetekohaselt arvesse tehisintellektisüsteemi riskide maandamist ja nende negatiivset mõju. Toimimise parameetrite eeldatav tase tuleks deklareerida süsteemiga kaasas olevas kasutusjuhendis. Pakkujaid kutsutakse üles edastama see teave juurutajatele selgel ja kergesti arusadaval viisil, hoidudes vääritimõistmistest ja eksitavatest väidetest. Legaalmetroloogiat käsitleva liidu õiguse, sealhulgas Euroopa Parlamendi ja nõukogu direktiivide 2014/31/EL (35) ja 2014/32/EL (36) eesmärk on tagada mõõtmiste täpsus ning aidata kaasa äritehingute läbipaistvusele ja aususele. Sellega seoses peaks komisjon koostöös asjaomaste sidusrühmade ja organisatsioonidega, nagu metroloogia- ja võrdlusuuringuasutused, soodustama, kui see on asjakohane, tehisintellektisüsteemide võrdlusaluste ja mõõtmismeetodite väljatöötamist. Seda tehes peaks komisjon võtma teadmiseks rahvusvahelised partnerid, kes tegelevad metroloogia ja tehisintellektiga seotud asjakohaste mõõtmisnäitajatega, ja tegema nendega koostööd.
(75)
Die technische Robustheit ist eine wesentliche Voraussetzung für Hochrisiko-KI-Systeme. Sie sollten widerstandsfähig in Bezug auf schädliches oder anderweitig unerwünschtes Verhalten sein, das sich aus Einschränkungen innerhalb der Systeme oder der Umgebung, in der die Systeme betrieben werden, ergeben kann (z. B. Fehler, Störungen, Unstimmigkeiten, unerwartete Situationen). Daher sollten technische und organisatorische Maßnahmen ergriffen werden, um die Robustheit von Hochrisiko-KI-Systemen sicherzustellen, indem beispielsweise geeignete technische Lösungen konzipiert und entwickelt werden, um schädliches oder anderweitig unerwünschtes Verhalten zu verhindern oder zu minimieren. Zu diesen technischen Lösungen können beispielsweise Mechanismen gehören, die es dem System ermöglichen, seinen Betrieb bei bestimmten Anomalien oder beim Betrieb außerhalb bestimmter vorab festgelegter Grenzen sicher zu unterbrechen (Störungssicherheitspläne). Ein fehlender Schutz vor diesen Risiken könnte die Sicherheit beeinträchtigen oder sich negativ auf die Grundrechte auswirken, wenn das KI-System beispielsweise falsche Entscheidungen trifft oder falsche oder verzerrte Ausgaben hervorbringt.
(75)
Suure riskiga tehisintellektisüsteemide üks peamisi nõudeid on tehniline stabiilsus. Sellised süsteemid peaksid olema vastupidavad kahjuliku või muul viisil soovimatu käitumise suhtes, mis võib tuleneda süsteemide või nende töökeskkonna piirangutest (näiteks vead, rikked, ebakõlad, ootamatud olukorrad). Seepärast tuleks võtta tehnilisi ja korralduslikke meetmeid, et tagada suure riskiga tehisintellektisüsteemide stabiilsus, näiteks projekteerides ja arendades asjakohaseid tehnilisi lahendusi kahjuliku või muul viisil soovimatu käitumise ennetamiseks või minimeerimiseks. Nende tehniliste lahenduste seas võivad näiteks olla mehhanismid, mis võimaldavad süsteemil oma töö ohutult katkestada (tõrkekindluse plaanid) teatavate kõrvalekallete esinemisel või juhul, kui käitamine toimub väljaspool teatavaid eelnevalt kindlaks määratud piire. Nende riskide eest kaitsmata jätmine võib mõjutada ohutust või kahjustada põhiõigusi näiteks ekslike otsuste või tehisintellektisüsteemi loodud ekslike või kallutatud väljundite tõttu.
(76)
Die Cybersicherheit spielt eine entscheidende Rolle, wenn es darum geht, sicherzustellen, dass KI-Systeme widerstandsfähig gegenüber Versuchen böswilliger Dritter sind, unter Ausnutzung der Schwachstellen der Systeme deren Verwendung, Verhalten, Leistung zu verändern oder ihre Sicherheitsmerkmale zu beeinträchtigen. Cyberangriffe auf KI-Systeme können KI-spezifische Ressourcen wie Trainingsdatensätze (z. B. Datenvergiftung) oder trainierte Modelle (z. B. feindliche Angriffe oder Inferenzangriffe auf Mitgliederdaten) nutzen oder Schwachstellen in den digitalen Ressourcen des KI-Systems oder der zugrunde liegenden IKT-Infrastruktur ausnutzen. Um ein den Risiken angemessenes Cybersicherheitsniveau zu gewährleisten, sollten die Anbieter von Hochrisiko-KI-Systemen daher geeignete Maßnahmen, etwa Sicherheitskontrollen, ergreifen, wobei gegebenenfalls auch die zugrunde liegende IKT-Infrastruktur zu berücksichtigen ist.
(76)
Küberturvalisusel on oluline roll, et tagada tehisintellektisüsteemide vastupanuvõime pahatahtlike kolmandate isikute katsetele muuta süsteemi nõrku kohti ära kasutades süsteemi kasutust, käitumist või toimimist või kahjustada selle turvaomadusi. Tehisintellektisüsteemide vastu suunatud küberrünnetes võidakse ära kasutada tehisintellektispetsiifilisi ressursse, näiteks treeningandmestikke (näiteks andmemürgitus) või treenitud mudeleid (näiteks vastandründed (adversarial attacks) või liikmesuse järeldamine), või tehisintellektisüsteemi digivarade või IKT alustaristu nõrkusi. Seega peaksid suure riskiga tehisintellektisüsteemide pakkujad võtma riskidele vastava küberturvalisuse taseme tagamiseks sobivaid meetmeid, näiteks kehtestama turvakontrollid, võttes samuti asjakohasel juhul arvesse IKT alustaristut.
(77)
Unbeschadet der in dieser Verordnung festgelegten Anforderungen an Robustheit und Genauigkeit können Hochrisiko-AI-Systeme, die in den Geltungsbereich einer Verordnung des Europäischen Parlaments und des Rates über horizontale Cybersicherheitsanforderungen für Produkte mit digitalen Elementen gemäß der genannten Verordnung fallen, die Erfüllung der Cybersicherheitsanforderungen der vorliegenden Verordnung nachweisen, indem sie die in der genannten Verordnung festgelegten grundlegenden Cybersicherheitsanforderungen erfüllen. Wenn Hochrisiko-KI-Systeme die grundlegenden Anforderungen einer Verordnung des Europäischen Parlaments und des Rates über horizontale Cybersicherheitsanforderungen für Produkte mit digitalen Elementen erfüllen, sollten sie als die in der vorliegenden Verordnung festgelegten Cybersicherheitsanforderungen erfüllend gelten, soweit die Erfüllung der genannten Anforderungen in der gemäß der genannten Verordnung ausgestellten EU-Konformitätserklärung oder in Teilen davon nachgewiesen wird. Zu diesem Zweck sollten bei der im Rahmen einer Verordnung des Europäischen Parlaments und des Rates über horizontale Cybersicherheitsanforderungen für Produkte mit digitalen Elementen durchgeführten Bewertung der Cybersicherheitsrisiken, die mit einem gemäß der vorliegenden Verordnung als Hochrisiko-KI-System eingestuften Produkt mit digitalen Elementen verbunden sind, Risiken für die Cyberabwehrfähigkeit eines KI-Systems in Bezug auf Versuche unbefugter Dritter, seine Verwendung, sein Verhalten oder seine Leistung zu verändern, einschließlich KI-spezifischer Schwachstellen wie Datenvergiftung oder feindlicher Angriffe, sowie gegebenenfalls Risiken für die Grundrechte gemäß der vorliegenden Verordnung berücksichtigt werden.
(77)
Ilma et see piiraks käesolevas määruses sätestatud stabiilsuse ja täpsuse nõuete kohaldamist, võivad suure riskiga tehisintellektisüsteemid, mis kuuluvad Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid kohaldamisalasse, tõendada kooskõlas kõnealuse määrusega vastavust käesoleva määruse küberturvalisuse nõuetele, täites kõnealuses määruses sätestatud olulisi küberturvalisuse nõudeid. Kui suure riskiga tehisintellektisüsteemid vastavad Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid olulistele nõuetele, tuleks neid käsitada käesolevas määruses sätestatud küberturvalisuse nõuetele vastavana, kui nende nõuete täitmist tõendatakse kõnealuse määruse alusel väljastatud ELi vastavusdeklaratsioonis või selle osades. Sel eesmärgil tuleks küberturvalisuse riskide hindamisel, mis on seotud digielemente sisaldava tootega, mis on käesoleva määruse kohaselt liigitatud suure riskiga tehisintellektisüsteemiks, ja mis viiakse läbi Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid alusel, võtta arvesse riske tehisintellektisüsteemi kübervastupidavusvõimele seoses volitamata kolmandate isikute katsetega muuta selle kasutust, käitumist või toimimist, sealhulgas tehisintellektile iseloomulikku nõrkusi, nagu andmemürgitus või vastandründed, ning kui see on asjakohane, riske põhiõigustele, nagu on käesolevas määruses nõutud.
(78)
Das in dieser Verordnung vorgesehene Konformitätsbewertungsverfahren sollte in Bezug auf die grundlegenden Cybersicherheitsanforderungen an ein Produkt mit digitalen Elementen, das unter eine Verordnung des Europäischen Parlaments und des Rates über horizontale Cybersicherheitsanforderungen für Produkte mit digitalen Elementen fällt und gemäß der vorliegenden Verordnung als Hochrisiko-KI-System eingestuft ist, gelten. Diese Regel sollte jedoch nicht dazu führen, dass die erforderliche Vertrauenswürdigkeit für unter eine Verordnung des Europäischen Parlaments und des Rates über horizontale Cybersicherheitsanforderungen für Produkte mit digitalen Elementen fallende kritische Produkte mit digitalen Elementen verringert wird. Daher unterliegen abweichend von dieser Regel Hochrisiko-KI-Systeme, die in den Anwendungsbereich der vorliegenden Verordnung fallen und gemäß einer Verordnung des Europäischen Parlaments und des Rates über horizontale Cybersicherheitsanforderungen für Produkte mit digitalen Elementen als wichtige und kritische Produkte mit digitalen Elementen eingestuft werden und für die das Konformitätsbewertungsverfahren auf der Grundlage der internen Kontrolle gemäß einem Anhang der vorliegenden Verordnung gilt, den Konformitätsbewertungsbestimmungen einer Verordnung des Europäischen Parlaments und des Rates über horizontale Cybersicherheitsanforderungen für Produkte mit digitalen Elementen, soweit die wesentlichen Cybersicherheitsanforderungen der genannten Verordnung betroffen sind. In diesem Fall sollten für alle anderen Aspekte, die unter die vorliegende Verordnung fallen, die entsprechenden Bestimmungen über die Konformitätsbewertung auf der Grundlage der internen Kontrolle gelten, die in einem Anhang der vorliegenden Verordnung festgelegt sind. Aufbauend auf den Kenntnissen und dem Fachwissen der ENISA in Bezug auf die Cybersicherheitspolitik und die der ENISA gemäß der Verordnung (EU) 2019/881 des Europäischen Parlaments und des Rates (37) übertragenen Aufgaben sollte die Kommission in Fragen im Zusammenhang mit der Cybersicherheit von KI-Systemen mit der ENISA zusammenarbeiten.
(78)
Käesolevas määruses sätestatud vastavushindamismenetlust tuleks kohaldada Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid, kohaldamisalasse kuuluva ja käesoleva määruse alusel suure riskiga tehisintellektisüsteemiks liigitatud digielemente sisaldava toote oluliste küberturvalisuse nõuete suhtes. Sellise normi tagajärjel ei tohiks siiski väheneda Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid, kohaldamisalasse kuuluvate digielemente sisaldavate kriitilise tähtsusega toodete usaldusväärsuse vajalik tase. Seepärast, erandina sellest normist, kohaldatakse suure riskiga tehisintellektisüsteemide suhtes, mis kuuluvad käesoleva määruse kohaldamisalasse ning mis on ühtlasi liigitatud Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid, kohaselt olulisteks ja kriitilise tähtsusega digielemente sisaldavateks toodeteks ning mille suhtes kohaldatakse käesoleva määruse lisas sätestatud sisekontrollil põhinevat vastavushindamismenetlust, Euroopa Parlamendi ja nõukogu määruse, mis käsitleb digielemente sisaldavate toodete küberturvalisuse horisontaalseid nõudeid, vastavushindamist käsitlevaid sätteid niivõrd, kuivõrd see on seotud kõnealuse määruse oluliste küberturvalisuse nõuetega. Sellisel juhul tuleks kõigis muudes käesoleva määrusega hõlmatud aspektides kohaldada käesoleva määruse lisas sätestatud sisekontrollil põhineva vastavushindamismenetluse vastavaid sätteid. Tuginedes Euroopa Liidu Küberturvalisuse Ameti (ENISA) küberturvalisuse poliitikaga seotud teadmistele ja oskusteabele ning ENISA-le Euroopa Parlamendi ja nõukogu määrusega (EL) 2019/881 (37) antud ülesannetele, peaks komisjon tehisintellektisüsteemide küberturvalisusega seotud küsimustes ENISAga koostööd tegema.
(79)
Es ist angezeigt, dass eine bestimmte als Anbieter definierte natürliche oder juristische Person die Verantwortung für das Inverkehrbringen oder die Inbetriebnahme eines Hochrisiko-KI-Systems übernimmt, unabhängig davon, ob es sich bei dieser natürlichen oder juristischen Person um die Person handelt, die das System konzipiert oder entwickelt hat.
(79)
On asjakohane, et suure riskiga tehisintellektisüsteemi turule laskmise või kasutusele võtmise eest võtab vastutuse konkreetne füüsiline või juriidiline isik, kes on määratletud kui pakkuja, olenemata sellest, kas see füüsiline või juriidiline isik on süsteemi projekteerija või arendaja.
(80)
Als Unterzeichner des Übereinkommens über die Rechte von Menschen mit Behinderungen der Vereinten Nationen sind die Union und alle Mitgliedstaaten rechtlich verpflichtet, Menschen mit Behinderungen vor Diskriminierung zu schützen und ihre Gleichstellung zu fördern, sicherzustellen, dass Menschen mit Behinderungen gleichberechtigt Zugang zu Informations- und Kommunikationstechnologien und -systemen haben, und die Achtung der Privatsphäre von Menschen mit Behinderungen sicherzustellen. Angesichts der zunehmenden Bedeutung und Nutzung von KI-Systemen sollte die strikte Anwendung der Grundsätze des universellen Designs auf alle neuen Technologien und Dienste einen vollständigen und gleichberechtigten Zugang für alle Menschen sicherstellen, die potenziell von KI-Technologien betroffen sind oder diese nutzen, einschließlich Menschen mit Behinderungen, und zwar in einer Weise, die ihrer Würde und Vielfalt in vollem Umfang Rechnung trägt. Es ist daher von wesentlicher Bedeutung, dass die Anbieter die uneingeschränkte Einhaltung der Barrierefreiheitsanforderungen sicherstellen, einschließlich der in der Richtlinie (EU) 2016/2102 des Europäischen Parlaments und des Rates (38) und in der Richtlinie (EU) 2019/882 festgelegten Anforderungen. Die Anbieter sollten die Einhaltung dieser Anforderungen durch Voreinstellungen sicherstellen. Die erforderlichen Maßnahmen sollten daher so weit wie möglich in die Konzeption von Hochrisiko-KI-Systemen integriert werden.
(80)
ÜRO puuetega inimeste õiguste konventsiooni allkirjastajatena on liit ja liikmesriigid seadusega kohustatud kaitsma puuetega inimesi diskrimineerimise eest ja edendama nende võrdõiguslikkust, tagama puuetega inimestele teistega võrdsetel alustel juurdepääsu info- ja kommunikatsioonitehnoloogiale ja -süsteemidele ning tagama puuetega inimeste eraelu puutumatuse austamise. Arvestades tehisintellektisüsteemide kasvavat tähtsust ja kasutamist, peaks universaaldisaini põhimõtete kohaldamine kõigi uute tehnoloogiate ja teenuste suhtes tagama täieliku ja võrdse juurdepääsu kõigile, keda tehisintellekti tehnoloogiad potentsiaalselt mõjutavad või kes neid kasutavad, sealhulgas puuetega inimestele, võttes täielikult arvesse nende loomupärast väärikust ja mitmekesisust. Seepärast on oluline, et pakkujad järgiksid täielikult ligipääsetavusnõudeid, sealhulgas Euroopa Parlamendi ja nõukogu direktiivi (EL) 2016/2102 (38) ja direktiivi (EL) 2019/882. Pakkujad peaksid tagama, et need nõuetelevastavuse kohustused on integreeritud. Seepärast tuleks vajalikud meetmed integreerida võimalikult suures ulatuses suure riskiga tehisintellektisüsteemi projekteerimisse.
(81)
Der Anbieter sollte ein solides Qualitätsmanagementsystem einrichten, die Durchführung des vorgeschriebenen Konformitätsbewertungsverfahrens sicherstellen, die einschlägige Dokumentation erstellen und ein robustes System zur Beobachtung nach dem Inverkehrbringen einrichten. Anbieter von Hochrisiko-KI-Systemen, die Pflichten in Bezug auf Qualitätsmanagementsysteme gemäß den einschlägigen sektorspezifischen Rechtsvorschriften der Union unterliegen, sollten die Möglichkeit haben, die Elemente des in dieser Verordnung vorgesehenen Qualitätsmanagementsystems als Teil des bestehenden, in diesen anderen sektoralen Rechtsvorschriften der Union vorgesehen Qualitätsmanagementsystems aufzunehmen. Auch bei künftigen Normungstätigkeiten oder Leitlinien, die von der Kommission angenommen werden, sollte der Komplementarität zwischen dieser Verordnung und den bestehenden sektorspezifischen Rechtsvorschriften der Union Rechnung getragen werden. Behörden, die Hochrisiko-KI-Systeme für den Eigengebrauch in Betrieb nehmen, können unter Berücksichtigung der Besonderheiten des Bereichs sowie der Zuständigkeiten und der Organisation der besagten Behörde die Vorschriften für das Qualitätsmanagementsystem als Teil des auf nationaler oder regionaler Ebene eingesetzten Qualitätsmanagementsystems annehmen und umsetzen.
(81)
Pakkuja peaks kehtestama usaldusväärse kvaliteedijuhtimissüsteemi, tagama nõutava vastavushindamismenetluse teostamise, koostama asjakohase dokumentatsiooni ja kehtestama stabiilse turustamisjärgse seire süsteemi. Suure riskiga tehisintellektisüsteemide pakkujatel, kelle suhtes kohaldatakse asjaomase valdkondliku liidu õiguse alusel kvaliteedijuhtimissüsteeme käsitlevaid kohustusi, peaks olema võimalus lisada käesoleva määrusega ette nähtud kvaliteedijuhtimissüsteemi elemendid juba kehtivasse kvaliteedijuhtimissüsteemi, mis oli ette nähtud kõnealuse muu valdkondliku liidu õigusega. Käesoleva määruse ja kehtiva liidu valdkondliku õiguse vastastikust täiendavust tuleks arvesse võtta ka tulevases standardimistegevuses või komisjoni vastuvõetavates suunistes. Ametiasutused, kes võtavad suure riskiga tehisintellektisüsteemi kasutusele oma tarbeks, võivad võtta vastu kvaliteedijuhtimissüsteemi reeglid ja neid rakendada olenevalt asjaoludest riigi või piirkonna tasemel vastuvõetud kvaliteedijuhtimissüsteemi osana, võttes arvesse sektori iseärasusi ning asjaomase ametiasutuse pädevust ja töökorraldust.
(82)
Um die Durchsetzung dieser Verordnung zu ermöglichen und gleiche Wettbewerbsbedingungen für die Akteure zu schaffen, muss unter Berücksichtigung der verschiedenen Formen der Bereitstellung digitaler Produkte sichergestellt sein, dass unter allen Umständen eine in der Union niedergelassene Person den Behörden alle erforderlichen Informationen über die Konformität eines KI-Systems zur Verfügung stellen kann. Daher sollten Anbieter, die in Drittländern niedergelassen sind, vor der Bereitstellung ihrer KI-Systeme in der Union schriftlich einen in der Union niedergelassenen Bevollmächtigten benennen. Dieser Bevollmächtigte spielt eine zentrale Rolle bei der Gewährleistung der Konformität der von den betreffenden Anbietern, die nicht in der Union niedergelassen sind, in der Union in Verkehr gebrachten oder in Betrieb genommenen Hochrisiko-KI-Systeme und indem er als ihr in der Union niedergelassener Ansprechpartner dient.
(82)
Et võimaldada käesoleva määruse täitmine ja luua operaatoritele võrdsed tingimused, võttes sealjuures arvesse digitoodete kättesaadavaks tegemise eri vorme, on oluline tagada, et liidus asutatud isik saab igas olukorras esitada ametiasutustele kogu vajaliku teabe tehisintellektisüsteemi nõuetele vastavuse kohta. Seepärast peaks kolmandas riigis asutatud pakkuja enne oma süsteemide liidu turul kättesaadavaks tegemist määrama kirjaliku volitusega liidus asutatud volitatud esindaja. Pakkujate puhul, kes ei ole asutatud liidus, on sellel volitatud esindajal esmatähtis roll selliste pakkujate poolt liidus turule lastud või kasutusele võetud suure riskiga tehisintellektisüsteemide nõuetele vastavuse tagamisel ja nende liidus asutatud kontaktisikuna tegutsemisel.
(83)
Angesichts des Wesens und der Komplexität der Wertschöpfungskette für KI-Systeme und im Einklang mit dem neuen Rechtsrahmen ist es von wesentlicher Bedeutung, Rechtssicherheit zu gewährleisten und die Einhaltung dieser Verordnung zu erleichtern. Daher müssen die Rolle und die spezifischen Pflichten der relevanten Akteure entlang dieser Wertschöpfungskette, wie Einführer und Händler, die zur Entwicklung von KI-Systemen beitragen können, präzisiert werden. In bestimmten Situationen könnten diese Akteure mehr als eine Rolle gleichzeitig wahrnehmen und sollten daher alle einschlägigen Pflichten, die mit diesen Rollen verbunden sind, kumulativ erfüllen. So könnte ein Akteur beispielsweise gleichzeitig als Händler und als Einführer auftreten.
(83)
Võttes arvesse tehisintellektisüsteemide väärtusahela laadi ja keerukust ning kooskõlas uue õigusraamistikuga, on oluline tagada õiguskindlus ja hõlbustada käesoleva määruse järgimist. Seepärast on vaja selgitada asjaomaste ettevõtjate, näiteks importijate ja turustajate, kes võivad aidata kaasa tehisintellektisüsteemide arendamisele, rolli ja konkreetseid kohustusi kogu selles väärtusahelas. Teatavates olukordades võivad need operaatorid tegutseda samal ajal rohkem kui ühes rollis ja peaksid seetõttu kumulatiivselt täitma kõik nende rollidega seotud asjakohased kohustused. Näiteks võib operaator tegutseda samal ajal turustaja ja importijana.
(84)
Um Rechtssicherheit zu gewährleisten, muss präzisiert werden, dass unter bestimmten spezifischen Bedingungen jeder Händler, Einführer, Betreiber oder andere Dritte als Anbieter eines Hochrisiko-KI-Systems betrachtet werden und daher alle einschlägigen Pflichten erfüllen sollte. Dies wäre auch der Fall, wenn diese Partei ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System mit ihrem Namen oder ihrer Handelsmarke versieht, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen, oder wenn sie eine wesentliche Veränderung des Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder bereits in Betrieb genommen wurde, so vornimmt, dass es ein Hochrisiko-KI-System im Sinne dieser Verordnung bleibt, oder wenn sie die Zweckbestimmung eines KI-Systems, einschließlich eines KI-Systems mit allgemeinem Verwendungszweck, das nicht als Hochrisiko-KI-System eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so verändert, dass das KI-System zu einem Hochrisiko-KI-System im Sinne dieser Verordnung wird. Diese Bestimmungen sollten unbeschadet spezifischerer Bestimmungen in bestimmten Harmonisierungsrechtsvorschriften der Union auf Grundlage des neuen Rechtsrahmens gelten, mit denen diese Verordnung zusammen gelten sollte. So sollte beispielsweise Artikel 16 Absatz 2 der Verordnung (EU) 2017/745, wonach bestimmte Änderungen nicht als eine Änderung des Produkts, die Auswirkungen auf seine Konformität mit den geltenden Anforderungen haben könnte, gelten sollten, weiterhin auf Hochrisiko-KI-Systeme angewandt werden, bei denen es sich um Medizinprodukte im Sinne der genannten Verordnung handelt.
(84)
Õiguskindluse tagamiseks on oluline selgitada, et teatavatel konkreetsetel tingimustel tuleks iga turustajat, importijat, juurutajat või muud kolmandat isikut käsitada suure riskiga tehisintellektisüsteemi pakkujana ning tal peaksid seega olema kõik asjaomased kohustused. See hõlmaks selliseid juhtumeid, kui nimetatud isik lisab oma nime või kaubamärgi juba turule lastud või kasutusele võetud suure riskiga tehisintellektisüsteemile, ilma et see piiraks selliste lepinguliste kokkulepete kohaldamist, milles sätestatakse, et kohustused jaotatakse muul viisil. See hõlmaks ka selliseid juhtumeid, kui see isik muudab oluliselt suure riskiga tehisintellektisüsteemi, mis on juba turule lastud või juba kasutusele võetud, ja nii, et see jääb suure riskiga tehisintellektisüsteemiks kooskõlas käesoleva määrusega, või kui ta muudab sellise tehisintellektisüsteemi, sealhulgas üldotstarbelise tehisintellektisüsteemi sihtotstarvet, mida ei ole liigitatud suure riskiga süsteemiks ja mis on juba turule lastud või kasutusele võetud, viisil, mis muudab selle tehisintellektisüsteemi käesoleva määruse kohaselt suure riskiga tehisintellektisüsteemiks. Neid sätteid tuleks kohaldada, ilma et see piiraks selliste konkreetsemate sätete kohaldamist, mis on kehtestatud teatavates uuel õigusraamistikul põhinevates liidu ühtlustamisõigusaktides, millega koos tuleks käesolevat määrust kohaldada. Näiteks määruse (EL) 2017/745 artikli 16 lõiget 2, milles on sätestatud, et teatavaid muudatusi ei tohiks käsitada seadme muutmisena viisil, mis võib mõjutada selle vastavust kohaldatavatele nõuetele, tuleks jätkuvalt kohaldada suure riskiga tehisintellektisüsteemide suhtes, mis on kõnealuse määruse tähenduses meditsiiniseadmed.
(85)
KI-Systeme mit allgemeinem Verwendungszweck können als eigenständige Hochrisiko-KI-Systeme eingesetzt werden oder Komponenten anderer Hochrisiko-KI-Systemen sein. Daher sollten, aufgrund der besonderen Merkmale dieser KI-Systeme und um für eine gerechte Verteilung der Verantwortlichkeiten entlang der KI-Wertschöpfungskette zu sorgen, Anbieter solcher Systeme, unabhängig davon, ob sie von anderen Anbietern als eigenständige Hochrisiko-KI-Systeme oder als Komponenten von Hochrisiko-KI-Systemen verwendet werden können, und sofern in dieser Verordnung nichts anderes bestimmt ist, eng mit den Anbietern der relevanten Hochrisiko-KI-Systeme, um ihnen die Einhaltung der entsprechenden Pflichten aus dieser Verordnung zu ermöglichen, und mit den gemäß dieser Verordnung eingerichteten zuständigen Behörden zusammenarbeiten.
(85)
Üldotstarbelisi tehisintellektisüsteeme võib kasutada eraldi suure riskiga tehisintellektisüsteemidena või muude suure riskiga tehisintellektisüsteemide komponentidena. Seepärast peaksid selliste süsteemide pakkujad nende eripära tõttu ja selleks, et tagada vastutuse õiglane jagamine kogu tehisintellekti väärtusahelas, olenemata sellest, kas teised pakkujad võivad neid kasutada eraldi suure riskiga tehisintellektisüsteemidena või suure riskiga tehisintellektisüsteemide komponentidena, ning kui käesolevas määruses ei ole sätestatud teisiti, tegema asjakohasel juhul tihedat koostööd asjaomaste suure riskiga tehisintellektisüsteemide pakkujatega, et võimaldada neil täita käesolevast määrusest tulenevaid asjakohaseid kohustusi, ja käesoleva määruse alusel loodud pädevate asutustega.
(86)
Sollte der Anbieter, der das KI-System ursprünglich in Verkehr gebracht oder in Betrieb genommen hat, unter den in dieser Verordnung festgelegten Bedingungen nicht mehr als Anbieter im Sinne dieser Verordnung gelten und hat jener Anbieter die Änderung des KI-Systems in ein Hochrisiko-KI-System nicht ausdrücklich ausgeschlossen, so sollte der erstgenannte Anbieter dennoch eng zusammenarbeiten, die erforderlichen Informationen zur Verfügung stellen und den vernünftigerweise erwarteten technischen Zugang und sonstige Unterstützung leisten, die für die Erfüllung der in dieser Verordnung festgelegten Pflichten, insbesondere in Bezug auf die Konformitätsbewertung von Hochrisiko-KI-Systemen, erforderlich sind.
(86)
Kui pakkujat, kes tehisintellektisüsteemi algselt turule laskis või kasutusele võttis, ei tuleks käesolevas määruses sätestatud tingimustel enam käsitada pakkujana käesoleva määruse tähenduses ja kui see pakkuja ei ole sõnaselgelt välistanud tehisintellektisüsteemi muutmise suure riskiga tehisintellektisüsteemiks, peaks see endine pakkuja siiski tegema tihedat koostööd ja tegema kättesaadavaks vajaliku teabe ning pakkuma mõistlikult eeldatavat tehnilist juurdepääsu ja muud abi, mida on vaja käesolevas määruses sätestatud kohustuste täitmiseks, eelkõige seoses suure riskiga tehisintellektisüsteemide vastavushindamise järgimisega.
(87)
Zusätzlich sollte, wenn ein Hochrisiko-KI-System, bei dem es sich um ein Sicherheitsbauteil eines Produkts handelt, das in den Geltungsbereich von Harmonisierungsrechtsvorschriften der Union auf Grundlage des neuen Rechtsrahmens fällt, nicht unabhängig von dem Produkt in Verkehr gebracht oder in Betrieb genommen wird, der Produkthersteller im Sinne der genannten Rechtsvorschriften die in der vorliegenden Verordnung festgelegten Anbieterpflichten erfüllen und sollte insbesondere sicherstellen, dass das in das Endprodukt eingebettete KI-System den Anforderungen dieser Verordnung entspricht.
(87)
Lisaks, kui suure riskiga tehisintellektisüsteemi, mis on toote turvakomponent, mis kuulub uuel õigusraamistikul põhinevate liidu ühtlustamisõigusaktide kohaldamisalasse, ei lasta turule ega võeta kasutusele tootest eraldi, peaks nendes õigusaktides määratletud toote valmistaja täitma käesolevas määruses pakkujale kehtestatud kohustusi ja eeskätt tagama selle, et lõpptootesse sisse ehitatud tehisintellektisüsteem vastab käesoleva määruse nõuetele.
(88)
Entlang der KI-Wertschöpfungskette liefern häufig mehrere Parteien KI-Systeme, Instrumente und Dienstleistungen, aber auch Komponenten oder Prozesse, die vom Anbieter zu diversen Zwecken in das KI-System integriert werden; dazu gehören das Trainieren, Neutrainieren, Testen und Bewerten von Modellen, die Integration in Software oder andere Aspekte der Modellentwicklung. Diese Parteien haben eine wichtige Rolle in der Wertschöpfungskette gegenüber dem Anbieter des Hochrisiko-KI-Systems, in das ihre KI-Systeme, Instrumente, Dienste, Komponenten oder Verfahren integriert werden, und sollten in einer schriftlichen Vereinbarung die Informationen, die Fähigkeiten, den technischen Zugang und die sonstige Unterstützung nach dem allgemein anerkannten Stand der Technik bereitstellen, die erforderlich sind, damit der Anbieter die in dieser Verordnung festgelegten Pflichten vollständig erfüllen kann, ohne seine eigenen Rechte des geistigen Eigentums oder Geschäftsgeheimnisse zu gefährden.
(88)
Tehisintellekti väärtusahelas pakuvad mitmed osalejad sageli tehisintellektisüsteeme, vahendeid ja teenuseid, aga ka komponente või protsesse, mille pakkuja inkorporeerib tehisintellektisüsteemi erinevatel eesmärkidel, sealhulgas mudelite treenimine ja ümbertreenimine, mudelite testimine ja hindamine, integreerimine tarkvarasse või muud mudeliarenduse aspektid. Nendel osalejatel on väärtusahelas oluline roll seoses pakkujaga, kes pakub suure riskiga tehisintellektisüsteemi, millesse nende tehisintellektisüsteemid, vahendid, teenused, komponendid või protsessid on integreeritud, ning nad peaksid kirjalikul kokkuleppel andma sellele pakkujale vajalikku teavet, võimeid, tehnilist juurdepääsu ja muud abi, tuginedes tehnika üldtunnustatud tasemele, et võimaldada pakkujal täielikult täita käesolevas määruses sätestatud kohustusi, ilma et see kahjustaks nende endi intellektuaalomandi õigusi või ärisaladusi.
(89)
Dritte, die Instrumente, Dienste, Verfahren oder Komponenten, bei denen es sich nicht um KI-Modelle mit allgemeinem Verwendungszweck handelt, öffentlich zugänglich machen, sollten nicht dazu verpflichtet werden, Anforderungen zu erfüllen, die auf die Verantwortlichkeiten entlang der KI-Wertschöpfungskette ausgerichtet sind, insbesondere gegenüber dem Anbieter, der sie genutzt oder integriert hat, wenn diese Instrumente, Dienste, Verfahren oder KI-Komponenten im Rahmen einer freien und quelloffenen Lizenz zugänglich gemacht werden. Die Entwickler von freien und quelloffenen Instrumenten, Diensten, Verfahren oder KI-Komponenten, bei denen es sich nicht um KI-Modelle mit allgemeinem Verwendungszweck handelt, sollten dazu ermutigt werden, weit verbreitete Dokumentationsverfahren, wie z. B. Modellkarten und Datenblätter, als Mittel dazu einzusetzen, den Informationsaustausch entlang der KI-Wertschöpfungskette zu beschleunigen, sodass vertrauenswürdige KI-Systeme in der Union gefördert werden können.
(89)
Kolmandaid isikuid, kes teevad üldsusele kättesaadavaks vahendeid, teenuseid, protsesse või tehisintellektikomponente, mis on muud kui üldotstarbelised tehisintellektimudelid, ei peaks kohustama täitma kogu tehisintellekti väärtusahelat katvate kohustustega seotud nõudeid, eelkõige neid kasutanud või need integreerinud pakkuja puhul, kui need vahendid, teenused, protsessid või tehisintellekti komponendid tehakse kättesaadavaks vaba ja avatud lähtekoodi litsentsi alusel. Vaba ja avatud lähtekoodiga vahendite, teenuste, protsesside või tehisintellekti komponentide, mis ei ole üldotstarbelised tehisintellektimudelid, arendajaid tuleks julgustada rakendama laialdaselt kasutatavaid dokumenteerimistavasid, nagu mudeli- ja andmelehed, et kiirendada teabe jagamist tehisintellekti väärtusahelas, võimaldades liidus edendada usaldusväärseid tehisintellektisüsteeme.
(90)
Die Kommission könnte freiwillige Mustervertragsbedingungen für Verträge zwischen Anbietern von Hochrisiko-KI-Systemen und Dritten ausarbeiten und empfehlen, in deren Rahmen Instrumente, Dienste, Komponenten oder Verfahren bereitgestellt werden, die für Hochrisiko-KI-Systeme verwendet oder in diese integriert werden, um die Zusammenarbeit entlang der Wertschöpfungskette zu erleichtern. Bei der Ausarbeitung dieser freiwilligen Mustervertragsbedingungen sollte die Kommission auch mögliche vertragliche Anforderungen berücksichtigen, die in bestimmten Sektoren oder Geschäftsfällen gelten.
(90)
Komisjon võiks välja töötada ja soovitada vabatahtlikke näidis-lepingutingimusi kasutamiseks suure riskiga tehisintellektisüsteemide pakkujate ja kolmandate isikute vahel, kes pakuvad suure riskiga tehisintellektisüsteemides kasutatavaid või integreeritud vahendeid, teenuseid, komponente või protsesse, et hõlbustada koostööd kogu väärtusahelas. Vabatahtlike näidis-lepingutingimuste väljatöötamisel peaks komisjon arvesse võtma konkreetsetes sektorites või ärimudelites kohaldatavaid võimalikke lepingulisi nõudeid.
(91)
Angesichts des Charakters von KI-Systemen und der Risiken für die Sicherheit und die Grundrechte, die mit ihrer Verwendung verbunden sein können, ist es angezeigt, besondere Zuständigkeiten für die Betreiber festzulegen, auch im Hinblick darauf, dass eine angemessene Beobachtung der Leistung eines KI-Systems unter Realbedingungen sichergestellt werden muss. Die Betreiber sollten insbesondere geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie Hochrisiko-KI-Systeme gemäß den Betriebsanleitungen verwenden, und es sollten bestimmte andere Pflichten in Bezug auf die Überwachung der Funktionsweise der KI-Systeme und gegebenenfalls auch Aufzeichnungspflichten festgelegt werden. Darüber hinaus sollten die Betreiber sicherstellen, dass die Personen, denen die Umsetzung der Betriebsanleitungen und die menschliche Aufsicht gemäß dieser Verordnung übertragen wurde, über die erforderliche Kompetenz verfügen, insbesondere über ein angemessenes Niveau an KI-Kompetenz, Schulung und Befugnis, um diese Aufgaben ordnungsgemäß zu erfüllen. Diese Pflichten sollten sonstige Pflichten des Betreibers in Bezug auf Hochrisiko-KI-Systeme nach Unionsrecht oder nationalem Recht unberührt lassen.
(91)
Arvestades tehisintellektisüsteemide olemust ning nende kasutamisega potentsiaalselt seotud riske ohutusele ja põhiõigustele, muu hulgas vajadust tagada reaalsetes oludes tehisintellektisüsteemi toimimise nõuetekohane seire, on otstarbekas näha juurutajatele ette konkreetsed kohustused. Esmajoones peaksid juurutajad võtma asjakohaseid tehnilisi ja organisatsioonilisi meetmeid tagamaks, et nad kasutavad suure riskiga tehisintellektisüsteeme kasutusjuhendi kohaselt, ning asjakohasel juhul tuleks kehtestada teatavad muud kohustused seoses tehisintellektisüsteemide töö seire ja andmete säilitamisega. Lisaks peaksid juurutajad tagama, et isikutel, kellele on antud ülesanne rakendada käesolevas määruses sätestatud kasutusjuhendeid ja inimjärelevalvet, on vajalik pädevus, eelkõige piisav tehisintellektipädevus, ning et neid on koolitatud ja neil on volitused nende ülesannete nõuetekohaseks täitmiseks. Nimetatud kohustused ei tohiks piirata juurutajate jaoks liidu või liikmesriikide õigusest tulenevaid muid suure riskiga tehisintellektisüsteemidega seotud kohustusi.
(92)
Diese Verordnung lässt Pflichten der Arbeitgeber unberührt, Arbeitnehmer oder ihre Vertreter nach dem Unionsrecht oder nationalem Recht und nationaler Praxis, einschließlich der Richtlinie 2002/14/EG des Europäischen Parlaments und des Rates (39) über Entscheidungen zur Inbetriebnahme oder Nutzung von KI-Systemen zu unterrichten oder zu unterrichten und anzuhören. Es muss nach wie vor sichergestellt werden, dass Arbeitnehmer und ihre Vertreter über die geplante Einführung von Hochrisiko-KI-Systemen am Arbeitsplatz unterrichtet werden, wenn die Bedingungen für diese Pflichten zur Unterrichtung oder zur Unterrichtung und Anhörung gemäß anderen Rechtsinstrumenten nicht erfüllt sind. Darüber hinaus ist dieses Recht, unterrichtet zu werden, ein Nebenrecht und für das Ziel des Schutzes der Grundrechte, das dieser Verordnung zugrunde liegt, erforderlich. Daher sollte in dieser Verordnung eine entsprechende Unterrichtungsanforderung festgelegt werden, ohne bestehende Arbeitnehmerrechte zu beeinträchtigen.
(92)
Käesolev määrus ei piira tööandjate kohustusi, mis tulenevad liidu või liikmesriigi õigusest ja tavast, sealhulgas Euroopa Parlamendi ja nõukogu direktiivist 2002/14/EÜ (39), teavitada töötajaid või nende esindajaid tehisintellektisüsteemide kasutusele võtmise või kasutamise otsustest või neid teavitada ja ära kuulata. Endiselt on vaja tagada töötajate ja nende esindajate teavitamine suure riskiga tehisintellektisüsteemide kavandatavast kasutusele võtmisest töökohal, kui ei ole täidetud muude õigusaktidega ette nähtud teavitamis- või teavitamis- ja ärakuulamiskohustuste tingimused. Lisaks on selline teabe saamise õigus täiendav ja vajalik selleks, et saavutada käesoleva määruse aluseks olev põhiõiguste kaitse eesmärk. Seepärast tuleks käesolevas määruses sätestada sellekohane teabe esitamise nõue, ilma et see mõjutaks töötajate kehtivaid õigusi.
(93)
Während Risiken im Zusammenhang mit KI-Systemen einerseits aus der Art und Weise entstehen können, in der solche Systeme konzipiert sind, können sie sich andererseits auch aus der Art und Weise ergeben, in der diese Systeme verwendet werden. Betreiber von Hochrisiko-KI-Systemen spielen daher eine entscheidende Rolle bei der Gewährleistung des Schutzes der Grundrechte in Ergänzung der Pflichten der Anbieter bei der Entwicklung der KI-Systeme. Betreiber können am besten verstehen, wie das Hochrisiko-KI-System konkret eingesetzt wird, und können somit dank einer genaueren Kenntnis des Verwendungskontextes sowie der wahrscheinlich betroffenen Personen oder Personengruppen, einschließlich schutzbedürftiger Gruppen, erhebliche potenzielle Risiken erkennen, die in der Entwicklungsphase nicht vorausgesehen wurden. Betreiber der in einem Anhang dieser Verordnung aufgeführten Hochrisiko-KI-Systeme spielen ebenfalls eine entscheidende Rolle bei der Unterrichtung natürlicher Personen und sollten, wenn sie natürliche Personen betreffende Entscheidungen treffen oder bei solchen Entscheidungen Unterstützung leisten, gegebenenfalls die natürlichen Personen darüber unterrichten, dass sie Gegenstand des Einsatzes des Hochrisiko-KI-Systems sind. Diese Unterrichtung sollte die Zweckbestimmung und die Art der getroffenen Entscheidungen umfassen. Der Betreiber sollte die natürlichen Personen auch über ihr Recht auf eine Erklärung gemäß dieser Verordnung unterrichten. Bei Hochrisiko-KI-Systemen, die zu Strafverfolgungszwecken eingesetzt werden, sollte diese Pflicht im Einklang mit Artikel 13 der Richtlinie (EU) 2016/680 umgesetzt werden.
(93)
Kuigi tehisintellektisüsteemidega seotud riskid võivad tuleneda sellest, kuidas need süsteemid on projekteeritud, võivad riskid tuleneda ka sellest, kuidas selliseid tehisintellektisüsteeme kasutatakse. Suure riskiga tehisintellektisüsteemi juurutajatel on seega oluline roll põhiõiguste kaitse tagamisel, täiendades tehisintellektisüsteemi arendamisel pakkuja kohustusi. Juurutajad saavad kõige paremini aru, kuidas suure riskiga tehisintellektisüsteemi konkreetselt kasutatakse, ja suudavad seetõttu tuvastada võimalikke olulisi riske, mida ei olnud arendusetapis ette nähtud, tehes seda tänu täpsematele teadmistele kasutamise konteksti ning tõenäoliselt mõjutatud isikute või nende rühmade kohta, kelle hulka kuuluvad kaitsetud rühmad. Käesoleva määruse lisas loetletud suure riskiga tehisintellektisüsteemide juurutajatel on samuti oluline roll füüsiliste isikute teavitamisel ning nad peaksid, kui nad teevad füüsiliste isikutega seotud otsuseid või aitavad neid otsuseid teha, kohaldataval juhul teavitama füüsilisi isikuid sellest, et nende suhtes kasutatakse suure riskiga tehisintellektisüsteemi. See teave peaks sisaldama süsteemi sihtotstarvet ja selle tehtavate otsuste liiki. Juurutaja peaks teavitama ka füüsilisi isikuid nende käesoleva määrusega sätestatud õigusest saada selgitusi. Õiguskaitse eesmärkidel kasutatavate suure riskiga tehisintellektisüsteemide puhul tuleks seda kohustust rakendada kooskõlas direktiivi (EL) 2016/680 artikliga 13.
(94)
Jede Verarbeitung biometrischer Daten im Zusammenhang mit der Verwendung von KI-Systemen für die biometrische Identifizierung zu Strafverfolgungszwecken muss im Einklang mit Artikel 10 der Richtlinie (EU) 2016/680, demzufolge eine solche Verarbeitung nur dann erlaubt ist, wenn sie unbedingt erforderlich ist, vorbehaltlich angemessener Vorkehrungen für den Schutz der Rechte und Freiheiten der betroffenen Person, und sofern sie nach dem Unionsrecht oder dem Recht der Mitgliedstaaten zulässig ist, erfolgen. Bei einer solchen Nutzung, sofern sie zulässig ist, müssen auch die in Artikel 4 Absatz 1 der Richtlinie (EU) 2016/680 festgelegten Grundsätze geachtet werden, einschließlich Rechtmäßigkeit, Fairness und Transparenz, Zweckbindung, sachliche Richtigkeit und Speicherbegrenzung.
(94)
Igasugune biomeetriliste andmete töötlemine, mis on seotud tehisintellektisüsteemide kasutamisega biomeetriliseks tuvastamiseks õiguskaitse eesmärgil, peab olema kooskõlas direktiivi (EL) 2016/680 artikliga 10, mis võimaldab sellist töötlemist üksnes siis, kui see on rangelt vajalik, kui andmesubjekti õiguste ja vabaduste kaitsmiseks võetakse asjakohaseid kaitsemeetmeid, ning kui see on lubatud liidu või liikmesriigi õigusega. Sellisel kasutamisel, kui see on lubatud, tuleb järgida ka direktiivi (EL) 2016/680 artikli 4 lõikes 1 sätestatud põhimõtteid, sealhulgas seaduslikkust, õiglust ja läbipaistvust, eesmärgi piiritlemist, täpsust ja säilitamise piiranguid.
(95)
Unbeschadet des geltenden Unionsrechts, insbesondere der Verordnung (EU) 2016/679 und der Richtlinie (EU) 2016/680, sollte die Verwendung von Systemen zur nachträglichen biometrischen Fernidentifizierung in Anbetracht des intrusiven Charakters von Systemen zur nachträglichen biometrischen Fernidentifizierung Schutzvorkehrungen unterliegen. Systeme zur nachträglichen biometrischen Fernidentifizierung sollten stets auf verhältnismäßige, legitime und unbedingt erforderliche Weise eingesetzt werden und somit zielgerichtet sein, was die zu identifizierenden Personen, den Ort und den zeitlichen Anwendungsbereich betrifft, und auf einem geschlossenen Datensatz rechtmäßig erworbener Videoaufnahmen basieren. In jedem Fall sollten Systeme zur nachträglichen biometrischen Fernidentifizierung im Rahmen der Strafverfolgung nicht so verwendet werden, dass sie zu willkürlicher Überwachung führen. Die Bedingungen für die nachträgliche biometrische Fernidentifizierung sollten keinesfalls eine Grundlage dafür bieten, die Bedingungen des Verbots und der strengen Ausnahmen für biometrische Echtzeit-Fernidentifizierung zu umgehen.
(95)
Võttes arvesse tagantjärele toimuva biomeetrilise kaugtuvastamise süsteemide sekkuvat iseloomu, siis ilma et see piiraks kohaldatava liidu õiguse, eelkõige määruse (EL) 2016/679 ja direktiivi (EL) 2016/680 kohaldamist, tuleks tagantjärele toimuva biomeetrilise kaugtuvastamise süsteemide kasutamise suhtes kohaldada kaitsemeetmeid. Tagantjärele toimuva biomeetrilise tuvastamise süsteeme tuleks alati kasutada viisil, mis on proportsionaalne, õiguspärane ja rangelt vajalik ning seega sihipärane tuvastatavate isikute, asukoha ja ajalise ulatuse poolest ning põhinema seaduslikult omandatud videosalvestistest koosneval suletud andmestikul. Ühelgi juhul ei tohiks tagantjärele toimuvat biomeetrilise kaugtuvastamise süsteemi kasutada õiguskaitse raames, mis toob kaasa valimatu jälgimise. Tingimused tagantjärele toimuva biomeetrilise kaugtuvastamise läbiviimiseks ei tohiks mingil juhul olla põhjus hoiduda kõrvale reaalajas toimuva biomeetrilise kaugtuvastamise keelamise ja rangete eranditega seotud tingimustest.
(96)
Um wirksam sicherzustellen, dass die Grundrechte geschützt werden, sollten Betreiber von Hochrisiko-KI-Systemen, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber, die bestimmte Hochrisiko-KI-Systemen gemäß einem Anhang dieser Verordnung betreiben, wie Bank- oder Versicherungsunternehmen, vor der Inbetriebnahme eine Grundrechte-Folgenabschätzung durchführen. Für Einzelpersonen wichtige Dienstleistungen öffentlicher Art können auch von privaten Einrichtungen erbracht werden. Private Einrichtungen, die solche öffentliche Dienstleistungen erbringen, sind mit Aufgaben im öffentlichen Interesse verknüpft, etwa in den Bereichen Bildung, Gesundheitsversorgung, Sozialdienste, Wohnungswesen und Justizverwaltung. Ziel der Grundrechte-Folgenabschätzung ist es, dass der Betreiber die spezifischen Risiken für die Rechte von Einzelpersonen oder Gruppen von Einzelpersonen, die wahrscheinlich betroffen sein werden, ermittelt und Maßnahmen ermittelt, die im Falle eines Eintretens dieser Risiken zu ergreifen sind. Die Folgenabschätzung sollte vor dem erstmaligen Einsatz des Hochrisiko-KI-Systems durchgeführt werden, und sie sollte aktualisiert werden, wenn der Betreiber der Auffassung ist, dass sich einer der relevanten Faktoren geändert hat. In der Folgenabschätzung sollten die einschlägigen Verfahren des Betreibers, bei denen das Hochrisiko-KI-System im Einklang mit seiner Zweckbestimmung verwendet wird, genannt werden, und sie sollte eine Beschreibung des Zeitraums und der Häufigkeit, innerhalb dessen bzw. mit der das Hochrisiko-KI-System verwendet werden soll, sowie der Kategorien der natürlichen Personen und Gruppen, die im spezifischen Verwendungskontext betroffen sein könnten, enthalten. Die Abschätzung sollte außerdem die spezifischen Schadensrisiken enthalten, die sich auf die Grundrechte dieser Personen oder Gruppen auswirken können. Bei der Durchführung dieser Bewertung sollte der Betreiber Informationen Rechnung tragen, die für eine ordnungsgemäße Abschätzung der Folgen relevant sind, unter anderem die vom Anbieter des Hochrisiko-KI-Systems in der Betriebsanleitung angegebenen Informationen. Angesichts der ermittelten Risiken sollten die Betreiber Maßnahmen festlegen, die im Falle eines Eintretens dieser Risiken zu ergreifen sind, einschließlich beispielsweise Unternehmensführungsregelungen in diesem spezifischen Verwendungskontext, etwa Regelungen für die menschliche Aufsicht gemäß den Betriebsanleitungen oder Verfahren für die Bearbeitung von Beschwerden und Rechtsbehelfsverfahren, da sie dazu beitragen könnten, Risiken für die Grundrechte in konkreten Anwendungsfällen zu mindern. Nach Durchführung dieser Folgenabschätzung sollte der Betreiber die zuständige Marktüberwachungsbehörde unterrichten. Um einschlägige Informationen einzuholen, die für die Durchführung der Folgenabschätzung erforderlich sind, könnten die Betreiber von Hochrisiko-KI-Systemen, insbesondere wenn KI-Systeme im öffentlichen Sektor verwendet werden, relevante Interessenträger, unter anderem Vertreter von Personengruppen, die von dem KI-System betroffen sein könnten, unabhängige Sachverständige und Organisationen der Zivilgesellschaft, in die Durchführung solcher Folgenabschätzungen und die Gestaltung von Maßnahmen, die im Falle des Eintretens der Risiken zu ergreifen sind, einbeziehen. Das Europäische Büro für Künstliche Intelligenz (im Folgenden „Büro für Künstliche Intelligenz“) sollte ein Muster für einen Fragebogen ausarbeiten, um den Betreibern die Einhaltung der Vorschriften zu erleichtern und den Verwaltungsaufwand für sie zu verringern.
(96)
Selleks et tõhusalt tagada põhiõiguste kaitse, peaksid suure riskiga tehisintellektisüsteemide juurutajad, kes on avalik-õiguslikud asutused, või avalikke teenuseid osutavad eraõiguslikud üksused ja teatavaid käesoleva määruse lisas loetletud suure riskiga tehisintellektisüsteemide juurutajad, nagu pangandus- või kindlustusüksused, viima enne nende süsteemide kasutusele võtmist läbi põhiõigustele avalduva mõju hindamise. Üksikisikutele olulisi avalikke teenuseid võivad osutada ka eraõiguslikud üksused. Selliseid avalikke teenuseid osutavad eraõiguslikud üksused on seotud avalikku huvi pakkuvate ülesannetega sellistes valdkondades nagu haridus, tervishoid, sotsiaalteenused, eluase, õigusemõistmine. Põhiõigustele avalduva mõju hindamise eesmärk on, et juurutaja teeks kindlaks konkreetsed riskid nende isikute või isikute rühmade õigustele, keda need tõenäoliselt mõjutavad, ning teeb kindlaks meetmed, mida tuleb võtta nende riskide realiseerumise korral. Mõju hindamine tuleks läbi viia enne suure riskiga tehisintellektisüsteemi juurutamist ja seda tuleks ajakohastada, kui juurutaja leiab, et mõni asjakohastest teguritest on muutunud. Mõju hindamisel tuleks kindlaks teha juurutaja asjakohased protsessid, milles suure riskiga tehisintellektisüsteemi kooskõlas selle sihtotstarbega kasutatakse, ning selles tuleks kirjeldada ajavahemikku ja sagedust, mil süsteemi kavatsetakse kasutada, ning selliste füüsiliste isikute ja rühmade konkreetseid kategooriaid, keda konkreetne kasutusolukord tõenäoliselt mõjutab. Hindamise käigus tuleks kindlaks teha ka konkreetsed nende isikute või rühmade põhiõigusi mõjutada võiva kahju riskid. Selle hindamise käigus peaks juurutaja mõju nõuetekohaseks hindamiseks võtma arvesse vajalikku teavet, sealhulgas, kuid mitte ainult, suure riskiga tehisintellektisüsteemi pakkuja kasutusjuhendis esitatud teavet. Kindlakstehtud riske silmas pidades peaksid juurutajad määrama kindlaks meetmed, mida tuleb võtta nende riskide realiseerumise korral, sealhulgas näiteks juhtimiskorra selles konkreetses kasutuskontekstis, nagu inimjärelevalve kord vastavalt kasutusjuhendile või kaebuste käsitlemise ja kahju hüvitamise menetlused, kuna need võivad konkreetsetel kasutusjuhtudel olla olulised põhiõigustega seotud riskide maandamisel. Pärast selle mõju hindamist peaks juurutaja teavitama asjaomast turujärelevalveasutust. Selleks et koguda mõju hindamiseks vajalikku asjakohast teavet, võivad suure riskiga tehisintellektisüsteemi juurutajad, eelkõige juhul, kui tehisintellektisüsteeme kasutatakse avalikus sektoris, kaasata asjaomaseid sidusrühmi, sealhulgas tehisintellektisüsteemist tõenäoliselt mõjutatud isikute rühmade esindajaid, sõltumatuid eksperte ja kodanikuühiskonna organisatsioone selliste mõju hindamiste läbiviimisesse ja riskide realiseerumise korral võetavate meetmete kavandamisse. Euroopa tehisintellektiamet (edaspidi „tehisintellektiamet“) peaks välja töötama küsimustiku vormi, et hõlbustada nõuetele vastavust ja vähendada juurutajate halduskoormust.
(97)
Der Begriff „KI-Modelle mit allgemeinem Verwendungszweck“ sollte klar bestimmt und vom Begriff der KI-Systeme abgegrenzt werden, um Rechtssicherheit zu schaffen. Die Begriffsbestimmung sollte auf den wesentlichen funktionalen Merkmalen eines KI-Modells mit allgemeinem Verwendungszweck beruhen, insbesondere auf der allgemeinen Verwendbarkeit und der Fähigkeit, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Diese Modelle werden in der Regel mit großen Datenmengen durch verschiedene Methoden, etwa überwachtes, unüberwachtes und bestärkendes Lernen, trainiert. KI-Modelle mit allgemeinem Verwendungszweck können auf verschiedene Weise in Verkehr gebracht werden, unter anderem über Bibliotheken, Anwendungsprogrammierschnittstellen (API), durch direktes Herunterladen oder als physische Kopie. Diese Modelle können weiter geändert oder zu neuen Modellen verfeinert werden. Obwohl KI-Modelle wesentliche Komponenten von KI-Systemen sind, stellen sie für sich genommen keine KI-Systeme dar. Damit KI-Modelle zu KI-Systemen werden, ist die Hinzufügung weiterer Komponenten, zum Beispiel einer Nutzerschnittstelle, erforderlich. KI-Modelle sind in der Regel in KI-Systeme integriert und Teil davon. Diese Verordnung enthält spezifische Vorschriften für KI-Modelle mit allgemeinem Verwendungszweck und für KI-Modelle mit allgemeinem Verwendungszweck, die systemische Risiken bergen; diese sollten auch gelten, wenn diese Modelle in ein KI-System integriert oder Teil davon sind. Es sollte klar sein, dass die Pflichten für die Anbieter von KI-Modellen mit allgemeinem Verwendungszweck gelten sollten, sobald die KI-Modelle mit allgemeinem Verwendungszweck in Verkehr gebracht werden. Wenn der Anbieter eines KI-Modells mit allgemeinem Verwendungszweck ein eigenes Modell in sein eigenes KI-System integriert, das auf dem Markt bereitgestellt oder in Betrieb genommen wird, sollte jenes Modell als in Verkehr gebracht gelten und sollten daher die Pflichten aus dieser Verordnung für Modelle weiterhin zusätzlich zu den Pflichten für KI-Systeme gelten. Die für Modelle festgelegten Pflichten sollten in jedem Fall nicht gelten, wenn ein eigenes Modell für rein interne Verfahren verwendet wird, die für die Bereitstellung eines Produkts oder einer Dienstleistung an Dritte nicht wesentlich sind, und die Rechte natürlicher Personen nicht beeinträchtigt werden. Angesichts ihrer potenziellen in erheblichem Ausmaße negativen Auswirkungen sollten KI-Modelle mit allgemeinem Verwendungszweck mit systemischem Risiko stets den einschlägigen Pflichten gemäß dieser Verordnung unterliegen. Die Begriffsbestimmung sollte nicht für KI-Modelle gelten, die vor ihrem Inverkehrbringen ausschließlich für Forschungs- und Entwicklungstätigkeiten oder die Konzipierung von Prototypen verwendet werden. Dies gilt unbeschadet der Pflicht, dieser Verordnung nachzukommen, wenn ein Modell nach solchen Tätigkeiten in Verkehr gebracht wird.
(97)
Õiguskindluse tagamiseks tuleks üldotstarbeliste tehisintellektimudelite mõiste selgelt määratleda ja eristada tehisintellektisüsteemide mõistest. See määratlus peaks põhinema üldotstarbelise tehisintellektimudeli peamistel funktsionaalsetel omadustel, eelkõige üldisusel ja võimel täita pädevalt mitmesuguseid eri ülesandeid. Neid mudeleid treenitakse tavaliselt suurte andmehulkadega mitmesuguste meetodite abil, näiteks enesejärelevalve all toimuv õpe, juhendamata õpe ja stiimulõpe. Üldotstarbelisi tehisintellektimudeleid võib turule lasta mitmel viisil, sealhulgas raamatukogude, rakendusliideste (API), otse allalaadimise kaudu või füüsilise koopiana. Neid mudeleid võib omakorda muuta või peenhäälestada uuteks mudeliteks. Kuigi tehisintellektimudelid on tehisintellektisüsteemide olulised komponendid, ei ole need eraldiseisvad tehisintellektisüsteemid. Tehisintellektisüsteemideks saamiseks on tehisintellektimudelitele vaja lisada täiendavaid komponente, näiteks kasutajaliides. Tehisintellektimudelid on tavaliselt integreeritud tehisintellektisüsteemidesse ja moodustavad osa tehisintellektisüsteemist. Käesolevas määruses sätestatakse erinormid üldotstarbeliste tehisintellektimudelite ja süsteemseid riske kujutavate üldotstarbeliste tehisintellektimudelite kohta, mida tuleks kohaldada ka siis, kui need mudelid on integreeritud tehisintellektisüsteemi või moodustavad osa tehisintellektisüsteemist. Seda tuleks mõista nii, et üldotstarbeliste tehisintellektimudelite pakkujate kohustusi tuleks kohaldada siis, kui üldotstarbelised tehisintellektimudelid on turule lastud. Kui üldotstarbelise tehisintellektimudeli pakkuja integreerib oma mudeli oma tehisintellektisüsteemi, mis on turul kättesaadavaks tehtud või kasutusele võetud, tuleks seda mudelit käsitada turule lastuna ja seetõttu tuleks lisaks tehisintellektisüsteemidega seotud kohustustele kohaldada jätkuvalt käesolevas määruses mudelite suhtes sätestatud kohustusi. Mudelitele kehtestatud kohustusi ei peaks olema vaja kohaldada juhul, kui oma mudelit kasutatakse üksnes siseprotsessides, mis ei ole olulised toote või teenuse pakkumiseks kolmandatele isikutele, ja kui see ei mõjuta füüsiliste isikute õigusi. Võttes arvesse süsteemse riskiga üldotstarbeliste tehisintellektimudelite võimalikku märkimisväärset negatiivset mõju, tuleks nende suhtes alati kohaldada käesolevast määrusest tulenevaid asjakohaseid kohustusi. Määratlus ei tohiks hõlmata tehisintellektimudeleid, mida kasutatakse enne nende turule laskmist üksnes teadus-, arendus- ja prototüüpide loomise eesmärgil. See ei piira käesoleva määruse järgimise kohustust, kui mudel pärast sellist tegevust turule lastakse.
(98)
Die allgemeine Verwendbarkeit eines Modells könnte zwar unter anderem auch durch eine bestimmte Anzahl von Parametern bestimmt werden, doch sollten Modelle mit mindestens einer Milliarde Parametern, die mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert werden, als Modelle gelten, die eine erhebliche allgemeine Verwendbarkeit aufweisen und ein breites Spektrum unterschiedlicher Aufgaben kompetent erfüllen.
(98)
Kui mudeli üldisust võiks muu hulgas kindlaks määrata ka parameetrite arvu alusel, siis mudeleid, millel on vähemalt miljard parameetrit ja mida on treenitud suure hulga andmetega, kasutades mastaapset enesejärelevalvet, tuleks pidada märkimisväärselt üldiseks ja pädevaks täitma mitmesuguseid erilisi ülesandeid.
(99)
Große generative KI-Modelle sind ein typisches Beispiel für ein KI-Modell mit allgemeinem Verwendungszweck, da sie eine flexible Erzeugung von Inhalten ermöglichen, etwa in Form von Text- Audio-, Bild- oder Videoinhalten, die leicht ein breites Spektrum unterschiedlicher Aufgaben umfassen können.
(99)
Suured generatiivsed tehisintellektimudelid on tüüpiline näide üldotstarbelisest tehisintellektimudelist, kuna need võimaldavad paindlikult genereerida sisu, näiteks teksti, audio, piltide või video kujul, mis suudab hõlpsasti täita mitmesuguseid eristatavaid ülesandeid.
(100)
Wenn ein KI-Modell mit allgemeinem Verwendungszweck in ein KI-System integriert oder Teil davon ist, sollte dieses System als KI-System mit allgemeinem Verwendungszweck gelten, wenn dieses System aufgrund dieser Integration in der Lage ist, einer Vielzahl von Zwecken zu dienen. Ein KI-System mit allgemeinem Verwendungszweck kann direkt eingesetzt oder in andere KI-Systeme integriert werden.
(100)
Kui üldotstarbeline tehisintellektimudel on integreeritud tehisintellektisüsteemi või on selle osa, tuleks seda süsteemi käsitada üldotstarbelise tehisintellektisüsteemina, kui see süsteem suudab tänu sellele integreerimisele täita mitmesuguseid eesmärke. Üldotstarbelist tehisintellektisüsteemi saab kasutada olemasoleval kujul või integreerida teistesse tehisintellektisüsteemidesse.
(101)
Anbieter von KI-Modellen mit allgemeinem Verwendungszweck nehmen entlang der KI-Wertschöpfungskette eine besondere Rolle und Verantwortung wahr, da die von ihnen bereitgestellten Modelle die Grundlage für eine Reihe nachgelagerter Systeme bilden können, die häufig von nachgelagerten Anbietern bereitgestellt werden und ein gutes Verständnis der Modelle und ihrer Fähigkeiten erfordern, sowohl um die Integration solcher Modelle in ihre Produkte zu ermöglichen als auch ihre Pflichten im Rahmen dieser oder anderer Verordnungen zu erfüllen. Daher sollten verhältnismäßige Transparenzmaßnahmen festgelegt werden, einschließlich der Erstellung und Aktualisierung von Dokumentation und der Bereitstellung von Informationen über das KI-Modell mit allgemeinem Verwendungszweck für dessen Nutzung durch die nachgelagerten Anbieter. Der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck sollte technische Dokumentation erarbeiten und aktualisieren, damit sie dem Büro für Künstliche Intelligenz und den zuständigen nationalen Behörden auf Anfrage zur Verfügung gestellt werden kann. Welche Elemente mindestens in eine solche Dokumentation aufzunehmen sind, sollte in bestimmten Anhängen dieser Verordnung festgelegt werden. Der Kommission sollte die Befugnis übertragen werden, diese Anhänge im Wege delegierter Rechtsakte vor dem Hintergrund sich wandelnder technologischer Entwicklungen zu ändern.
(101)
Üldotstarbeliste tehisintellektimudelite pakkujatel on tehisintellekti väärtusahelas eriline roll ja vastutus, kuna nende pakutavad mudelid võivad olla aluseks mitmesugustele järgmise etapi süsteemidele, mida sageli pakuvad tootmisahela järgmise etapi pakkujad, kes vajavad mudelite ja nende võimete head mõistmist, et võimaldada selliste mudelite integreerimist oma toodetesse ning täita oma käesolevast või muudest määrustest tulenevaid kohustusi. Seepärast tuleks kehtestada proportsionaalsed läbipaistvusmeetmed, sealhulgas dokumentatsiooni koostamine ja ajakohastamine ning teabe esitamine üldotstarbelise tehisintellektimudeli kohta selle kasutamiseks järgmise etapi pakkujate poolt. Üldotstarbelise tehisintellektimudeli pakkuja peaks koostama tehnilise dokumentatsiooni ja seda ajakohastama, et teha see taotluse korral kättesaadavaks tehisintellektiametile ja riikide pädevatele asutustele. Nimetatud dokumentatsiooni lisatavad miinimumelemendid tuleks sätestada käesoleva määruse konkreetsetes lisades. Komisjonil peaks tehnoloogia arengut arvesse võttes olema õigus kõnealuseid lisasid delegeeritud õigusaktidega muuta.
(102)
Software und Daten, einschließlich Modellen, die im Rahmen einer freien und quelloffenen Lizenz freigegeben werden, die ihre offene Weitergabe erlaubt und die Nutzer kostenlos abrufen, nutzen, verändern und weiter verteilen können, auch in veränderter Form, können zu Forschung und Innovation auf dem Markt beitragen und der Wirtschaft der Union erhebliche Wachstumschancen eröffnen. KI-Modelle mit allgemeinem Verwendungszweck, die im Rahmen freier und quelloffener Lizenzen freigegeben werden, sollten als ein hohes Maß an Transparenz und Offenheit sicherstellend gelten, wenn ihre Parameter, einschließlich Gewichte, Informationen über die Modellarchitektur und Informationen über die Modellnutzung, öffentlich zugänglich gemacht werden. Die Lizenz sollte auch als freie quelloffene Lizenz gelten, wenn sie es den Nutzern ermöglicht, Software und Daten zu betreiben, zu kopieren, zu verbreiten, zu untersuchen, zu ändern und zu verbessern, einschließlich Modelle, sofern der ursprüngliche Anbieter des Modells genannt und identische oder vergleichbare Vertriebsbedingungen eingehalten werden.
(102)
Tarkvara ja andmed, sealhulgas mudelid, mis on tarbimisse lubatud vaba ja avatud lähtekoodiga litsentsi alusel, mis võimaldab neid avalikult jagada ning mille puhul kasutajad saavad neile või nende muudetud versioonidele vabalt juurde pääseda, neid kasutada, muuta ja ümber jagada, võivad aidata kaasa teadusuuringutele ja innovatsioonile turul ning pakkuda liidu majandusele märkimisväärseid kasvuvõimalusi. Vaba ja avatud lähtekoodiga litsentside alusel tarbimisse lubatud üldotstarbeliste tehisintellektimudelite puhul tuleks läbipaistvuse ja avatuse kõrge tase lugeda tagatuks, kui nende parameetrid, sealhulgas kaalud, teave mudeliarhitektuuri kohta ja teave mudelite kasutamise kohta, tehakse üldsusele kättesaadavaks. Litsentsi tuleks käsitada vaba ja avatud lähtekoodiga litsentsina ka siis, kui see võimaldab kasutajatel kasutada, kopeerida, levitada, uurida, muuta ja täiustada tarkvara ja andmeid, sealhulgas mudeleid, tingimusel et mudeli algne pakkuja on nimetatud ning järgitakse identseid või võrreldavaid levitamistingimusi.
(103)
Zu freien und quelloffenen KI-Komponenten zählen Software und Daten, einschließlich Modelle und KI-Modelle mit allgemeinem Verwendungszweck, Instrumente, Dienste oder Verfahren eines KI-Systems. Freie und quelloffene KI-Komponenten können über verschiedene Kanäle bereitgestellt werden, einschließlich ihrer Entwicklung auf offenen Speichern. Für die Zwecke dieser Verordnung sollten KI-Komponenten, die gegen einen Preis bereitgestellt oder anderweitig monetarisiert werden, einschließlich durch die Bereitstellung technischer Unterstützung oder anderer Dienste — einschließlich über eine Softwareplattform — im Zusammenhang mit der KI-Komponente oder durch die Verwendung personenbezogener Daten aus anderen Gründen als der alleinigen Verbesserung der Sicherheit, Kompatibilität oder Interoperabilität der Software, mit Ausnahme von Transaktionen zwischen Kleinstunternehmen, nicht unter die Ausnahmen für freie und quelloffene KI-Komponenten fallen. Die Bereitstellung von KI-Komponenten über offene Speicher sollte für sich genommen keine Monetarisierung darstellen.
(103)
Vaba ja avatud lähtekoodiga tehisintellekti komponendid hõlmavad tehisintellektisüsteemi tarkvara ja andmeid, sealhulgas mudeleid ja üldotstarbelisi tehisintellektimudeleid, vahendeid, teenuseid ja protsesse. Vaba ja avatud lähtekoodiga tehisintellekti komponente saab pakkuda eri kanalite kaudu, sealhulgas arendades neid avatud hoidlates. Käesoleva määruse kohaldamisel ei tohiks tehisintellekti komponentide suhtes, mida pakutakse tasu eest või millega teenitakse muul viisil raha, sealhulgas tehisintellekti komponendiga seotud tehnilise toe või muude teenuste pakkumise, sealhulgas tarkvaraplatvormi kaudu, või isikuandmete kasutamise kaudu muudel põhjustel kui üksnes tarkvara turvalisuse, ühilduvuse või koostalitlusvõime parandamiseks, välja arvatud mikroettevõtjate vahelised tehingud, kohaldada vaba ja avatud lähtekoodiga tehisintellekti komponentidele ette nähtud erandeid. Tehisintellekti komponentide kättesaadavaks tegemine avatud hoidlate kaudu ei tohiks iseenesest kujutada endast raha teenimist.
(104)
Für die Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, die im Rahmen einer freien und quelloffenen Lizenz freigegeben werden und deren Parameter, einschließlich Gewichte, Informationen über die Modellarchitektur und Informationen über die Modellnutzung, öffentlich zugänglich gemacht werden, sollten Ausnahmen in Bezug auf die Transparenzanforderungen für KI-Modelle mit allgemeinem Verwendungszweck gelten, es sei denn, sie können als Modelle gelten, die ein systemisches Risiko bergen; in diesem Fall sollte der Umstand, dass das Modell transparent ist und mit einer quelloffenen Lizenz einhergeht, nicht als ausreichender Grund gelten, um sie von der Einhaltung der Pflichten aus dieser Verordnung auszunehmen. Da die Freigabe von KI-Modellen mit allgemeinem Verwendungszweck im Rahmen einer freien und quelloffenen Lizenz nicht unbedingt wesentliche Informationen über den für das Trainieren oder die Feinabstimmung des Modells verwendeten Datensatz und die Art und Weise, wie damit die Einhaltung des Urheberrechts sichergestellt wurde, offenbart, sollte die für KI-Modelle mit allgemeinem Verwendungszweck vorgesehene Ausnahme von der Einhaltung der Transparenzanforderungen in jedem Fall nicht die Pflicht zur Erstellung einer Zusammenfassung der für das Training des Modells verwendeten Inhalte und die Pflicht, eine Strategie zur Einhaltung des Urheberrechts der Union, insbesondere zur Ermittlung und Einhaltung der gemäß Artikel 4 Absatz 3 der Richtlinie (EU) 2019/790 des Europäischen Parlaments und des Rates (40) geltend gemachten Rechtsvorbehalte, auf den Weg zu bringen, betreffen.
(104)
Selliste üldotstarbeliste tehisintellektimudelite pakkujate suhtes, mis lubatakse tarbimisse vaba ja avatud lähtekoodiga litsentsi alusel ja mille parameetrid, sealhulgas kaalud, teave mudeliarhitektuuri kohta ja teave mudeli kasutamise kohta, tehakse üldsusele kättesaadavaks, tuleks kohaldada erandeid seoses läbipaistvusega seotud nõuetega, mis on kehtestatud üldotstarbelistele tehisintellektimudelitele, välja arvatud juhul, kui neid võib pidada süsteemseks riskiks, millisel juhul ei tohiks asjaolu, et mudel on läbipaistev ja sellega kaasneb avatud lähtekoodiga litsents, pidada piisavaks põhjuseks, et välistada käesolevast määrusest tulenevate kohustuste täitmine. Võttes arvesse, et üldotstarbeliste tehisintellektimudelite tarbimisse lubamine vaba ja avatud lähtekoodiga litsentsi alusel ei pruugi ilmtingimata avaldada olulist teavet mudeli treenimiseks või peenhäälestamiseks kasutatud andmestiku ega selle kohta, kuidas seeläbi tagati autoriõiguse normide järgimine, ei tohiks üldotstarbeliste tehisintellektimudelite suhtes ette nähtud erand läbipaistvusega seotud nõuete täitmisest mingil juhul puudutada kohustust koostada kokkuvõte mudeli treenimises kasutatud sisu kohta ega kohustust kehtestada liidu autoriõiguse normide järgimise põhimõtted, eelkõige selleks, et teha kindlaks Euroopa Parlamendi ja nõukogu direktiivi (EL) 2019/790 (40) artikli 4 lõike 3 kohane õiguste piiramine ja seda järgida.
(105)
KI-Modelle mit allgemeinem Verwendungszweck, insbesondere große generative KI-Modelle, die Text, Bilder und andere Inhalte erzeugen können, bedeuten einzigartige Innovationsmöglichkeiten, aber auch Herausforderungen für Künstler, Autoren und andere Kreative sowie die Art und Weise, wie ihre kreativen Inhalte geschaffen, verbreitet, genutzt und konsumiert werden. Für die Entwicklung und das Training solcher Modelle ist der Zugang zu riesigen Mengen an Text, Bildern, Videos und anderen Daten erforderlich. In diesem Zusammenhang können Text-und-Data-Mining-Techniken in großem Umfang für das Abrufen und die Analyse solcher Inhalte, die urheberrechtlich und durch verwandte Schutzrechte geschützt sein können, eingesetzt werden. Für jede Nutzung urheberrechtlich geschützter Inhalte ist die Zustimmung des betreffenden Rechteinhabers erforderlich, es sei denn, es gelten einschlägige Ausnahmen und Beschränkungen des Urheberrechts. Mit der Richtlinie (EU) 2019/790 wurden Ausnahmen und Beschränkungen eingeführt, um unter bestimmten Bedingungen Vervielfältigungen und Entnahmen von Werken oder sonstigen Schutzgegenständen für die Zwecke des Text und Data Mining zu erlauben. Nach diesen Vorschriften können Rechteinhaber beschließen, ihre Rechte an ihren Werken oder sonstigen Schutzgegenständen vorzubehalten, um Text und Data Mining zu verhindern, es sei denn, es erfolgt zum Zwecke der wissenschaftlichen Forschung. Wenn die Vorbehaltsrechte ausdrücklich und in geeigneter Weise vorbehalten wurden, müssen Anbieter von KI-Modellen mit allgemeinem Verwendungszweck eine Genehmigung von den Rechteinhabern einholen, wenn sie Text und Data Mining bei solchen Werken durchführen wollen.
(105)
Üldotstarbelised tehisintellektimudelid, eelkõige suured generatiivsed tehisintellektimudelid, mis on võimelised looma teksti, pilte ja muud sisu, pakuvad ainulaadseid innovatsioonivõimalusi, aga ka väljakutseid kunstnikele, autoritele ja teistele loovisikutele ning seoses sellega, kuidas nende loomingulist sisu luuakse, levitatakse, kasutatakse ja tarbitakse. Selliste mudelite arendamine ja treenimine nõuab juurdepääsu suurele hulgale tekstidele, piltidele, videotele ja muudele andmetele. Selles kontekstis võib sellise sisu otsimiseks ja analüüsimiseks, mis võib olla kaitstud autoriõiguse ja sellega kaasnevate õigustega, kasutada laialdaselt teksti- ja andmekaevemeetodeid. Autoriõigusega kaitstud sisu kasutamiseks on vaja asjaomase õiguste omaja luba, välja arvatud juhul, kui kohaldatakse autoriõigusega seotud erandeid ja piiranguid. Direktiiviga (EL) 2019/790 kehtestati erandid ja piirangud, millega lubatakse teatavatel tingimustel teha teksti- ja andmekaeve eesmärgil teoste või muu materjali reproduktsioone ja väljavõtteid. Nende õigusnormide kohaselt võivad õiguste omajad piirata õigusi oma teostele või muule materjalile, et hoida ära teksti- ja andmekaevet, välja arvatud juhul, kui seda tehakse teadusuuringute eesmärgil. Kui õigus loobuda on sõnaselgelt ja asjakohasel viisil väljendatud, peavad üldotstarbeliste tehisintellekti mudelite pakkujad hankima õiguste omajatelt loa, kui nad soovivad selliste teoste puhul teksti- ja andmekaevet teostada.
(106)
Anbieter, die KI-Modelle mit allgemeinem Verwendungszweck in der Union in Verkehr bringen, sollten die Erfüllung der einschlägigen Pflichten aus dieser Verordnung gewährleisten. Zu diesem Zweck sollten Anbieter von KI-Modellen mit allgemeinem Verwendungszweck eine Strategie zur Einhaltung des Urheberrechts der Union und der verwandten Schutzrechte einführen, insbesondere zur Ermittlung und Einhaltung des gemäß Artikel 4 Absatz 3 der Richtlinie (EU) 2019/790 durch die Rechteinhaber geltend gemachten Rechtsvorbehalts. Jeder Anbieter, der ein KI-Modell mit allgemeinem Verwendungszweck in der Union in Verkehr bringt, sollte diese Pflicht erfüllen, unabhängig davon, in welchem Hoheitsgebiet die urheberrechtlich relevanten Handlungen, die dem Training dieser KI-Modelle mit allgemeinem Verwendungszweck zugrunde liegen, stattfinden. Dies ist erforderlich, um gleiche Wettbewerbsbedingungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck sicherzustellen, unter denen kein Anbieter in der Lage sein sollte, durch die Anwendung niedrigerer Urheberrechtsstandards als in der Union einen Wettbewerbsvorteil auf dem Unionsmarkt zu erlangen.
(106)
Pakkujad, kes lasevad liidu turule üldotstarbelisi tehisintellektimudeleid, peaksid tagama käesolevas määruses sätestatud asjakohaste kohustuste täitmise. Selleks peaksid üldotstarbeliste tehisintellektimudelite pakkujad kehtestama põhimõtted autoriõigust ja sellega kaasnevaid õigusi käsitleva liidu õiguse järgimiseks, eelkõige õiguste omajate poolt direktiivi (EL) 2019/790 artikli 4 lõike 3 kohaselt sõnaselgelt väljendatud õiguste piiramise kindlakstegemiseks ja järgimiseks. Iga pakkuja, kes laseb üldotstarbelise tehisintellektimudeli liidu turule, peaks seda kohustust täitma, olenemata jurisdiktsioonist, kus nende üldotstarbeliste tehisintellektimudelite treenimise aluseks olevad autoriõigusega seotud toimingud aset leiavad. See on vajalik, et tagada üldotstarbeliste tehisintellektimudelite pakkujatele võrdsed tingimused, mille puhul ükski pakkuja ei tohiks saada liidu turul konkurentsieelist, kohaldades liidus sätestatud standarditest madalamaid autoriõiguse standardeid.
(107)
Um die Transparenz in Bezug auf die beim Vortraining und Training von KI-Modellen mit allgemeinem Verwendungszweck verwendeten Daten, einschließlich urheberrechtlich geschützter Texte und Daten, zu erhöhen, ist es angemessen, dass die Anbieter solcher Modelle eine hinreichend detaillierte Zusammenfassung der für das Training des KI-Modells mit allgemeinem Verwendungszweck verwendeten Inhalte erstellen und veröffentlichen. Unter gebührender Berücksichtigung der Notwendigkeit, Geschäftsgeheimnisse und vertrauliche Geschäftsinformationen zu schützen, sollte der Umfang dieser Zusammenfassung allgemein weitreichend und nicht technisch detailliert sein, um Parteien mit berechtigtem Interesse, einschließlich der Inhaber von Urheberrechten, die Ausübung und Durchsetzung ihrer Rechte nach dem Unionsrecht zu erleichtern, beispielsweise indem die wichtigsten Datenerhebungen oder Datensätze aufgeführt werden, die beim Training des Modells verwendet wurden, etwa große private oder öffentliche Datenbanken oder Datenarchive, und indem eine beschreibende Erläuterung anderer verwendeter Datenquellen bereitgestellt wird. Es ist angebracht, dass das Büro für Künstliche Intelligenz eine Vorlage für die Zusammenfassung bereitstellt, die einfach und wirksam sein sollte und es dem Anbieter ermöglichen sollte, die erforderliche Zusammenfassung in beschreibender Form bereitzustellen.
(107)
Selleks et suurendada üldotstarbeliste tehisintellektimudelite, sealhulgas autoriõigusega kaitstud teksti ja andmete eeltreenimisel ja treenimisel kasutatavate andmete läbipaistvust, on asjakohane, et selliste mudelite pakkujad koostavad ja teevad üldsusele kättesaadavaks piisavalt üksikasjaliku kokkuvõtte üldotstarbelise tehisintellekti mudeli treenimiseks kasutatud sisust. Võttes nõuetekohaselt arvesse vajadust kaitsta ärisaladusi ja konfidentsiaalset äriteavet, peaks see kokkuvõte olema oma ulatuselt üldiselt terviklik, mitte tehniliselt üksikasjalik, et hõlbustada õigustatud huvidega isikutel, sealhulgas autoriõiguse omajatel, kasutada ja jõustada oma liidu õigusest tulenevaid õigusi, näiteks loetledes peamised mudelit treeninud andmekogud või andmestikud, nagu suured era- või avalikud andmebaasid või andmearhiivid, ning esitades kirjeldava selgituse muude kasutatud andmeallikate kohta. On asjakohane, et tehisintellektiamet koostaks kokkuvõtte vormi, mis peaks olema lihtne, tõhus ja võimaldama pakkujal esitada nõutava kokkuvõtte kirjeldaval kujul.
(108)
In Bezug auf die den Anbietern von KI-Modellen mit allgemeinem Verwendungszweck auferlegten Pflichten, eine Strategie zur Einhaltung des Urheberrechts der Union einzuführen und eine Zusammenfassung der für das Training verwendeten Inhalte zu veröffentlichen, sollte das Büro für Künstliche Intelligenz überwachen, ob der Anbieter diese Pflichten erfüllt hat, ohne dies zu überprüfen oder die Trainingsdaten im Hinblick auf die Einhaltung des Urheberrechts Werk für Werk zu bewerten. Diese Verordnung berührt nicht die Durchsetzung der Urheberrechtsvorschriften des Unionsrechts.
(108)
Seoses üldotstarbeliste tehisintellekti mudelite pakkujatele pandud kohustusega kehtestada liidu autoriõiguse normide järgimise põhimõtted ja teha avalikult kättesaadavaks treenimiseks kasutatud sisu kokkuvõte, peaks tehisintellektiamet jälgima, kas pakkuja on need kohustused täitnud, ilma et ta kontrolliks või jätkaks treeningandmete tööpõhist hindamist seoses autoriõigusele vastavusega. Käesolev määrus ei mõjuta liidu õiguses sätestatud autoriõiguse normide täitmise tagamist.
(109)
Die Einhaltung der für die Anbieter von KI-Modellen mit allgemeinem Verwendungszweck geltenden Pflichten sollte der Art des Anbieters von Modellen angemessen und verhältnismäßig sein, wobei Personen, die Modelle für nicht berufliche oder wissenschaftliche Forschungszwecke entwickeln oder verwenden, ausgenommen sind, jedoch ermutigt werden sollten, diese Anforderungen freiwillig zu erfüllen. Unbeschadet des Urheberrechts der Union sollte bei der Einhaltung dieser Pflichten der Größe des Anbieters gebührend Rechnung getragen und für KMU, einschließlich Start-up-Unternehmen, vereinfachte Verfahren zur Einhaltung ermöglicht werden, die keine übermäßigen Kosten verursachen und nicht von der Verwendung solcher Modelle abhalten sollten. Im Falle einer Änderung oder Feinabstimmung eines Modells sollten die Pflichten der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck auf diese Änderung oder Feinabstimmung beschränkt sein, indem beispielsweise die bereits vorhandene technische Dokumentation um Informationen über die Änderungen, einschließlich neuer Trainingsdatenquellen, ergänzt wird, um die in dieser Verordnung festgelegten Pflichten in der Wertschöpfungskette zu erfüllen.
(109)
Üldotstarbeliste tehisintellekti mudelite pakkujate suhtes kohaldatavate kohustuste täitmine peaks olema vastav ja proportsionaalne mudeli pakkuja liigiga, välistades nõuete täitmise vajaduse isikute puhul, kes arendavad või kasutavad mudeleid mitteprofessionaalsel või teaduslikul eesmärgil, kuid keda tuleks siiski julgustada neid nõudeid vabatahtlikult täitma. Ilma et see piiraks liidu autoriõiguse normide kohaldamist, tuleks nimetatud kohustuste täitmisel võtta nõuetekohaselt arvesse pakkuja suurust ja võimaldada VKEdel, sealhulgas idufirmadel nõuete täitmiseks lihtsustatud viise, mis ei tohiks põhjustada ülemääraseid kulusid ega pärssida selliste mudelite kasutamist. Mudeli muutmise või peenhäälestamise korral peaksid üldotstarbeliste tehisintellektimudelite pakkuja kohustused piirduma selle muutmise või peenhäälestamisega, näiteks täiendades juba olemasolevat tehnilist dokumentatsiooni teabega muudatuste kohta, sealhulgas uute treenimisandmete allikatega, et täita käesolevas määruses sätestatud väärtusahelaga seotud kohustusi.
(110)
KI-Modelle mit allgemeinem Verwendungszweck könnten systemische Risiken bergen, unter anderem tatsächliche oder vernünftigerweise vorhersehbare negative Auswirkungen im Zusammenhang mit schweren Unfällen, Störungen kritischer Sektoren und schwerwiegende Folgen für die öffentliche Gesundheit und Sicherheit; alle tatsächlichen oder vernünftigerweise vorhersehbaren negativen Auswirkungen auf die demokratischen Prozesse und die öffentliche und wirtschaftliche Sicherheit; die Verbreitung illegaler, falscher oder diskriminierender Inhalte. Bei systemischen Risiken sollte davon ausgegangen werden, dass sie mit den Fähigkeiten und der Reichweite des Modells zunehmen, während des gesamten Lebenszyklus des Modells auftreten können und von Bedingungen einer Fehlanwendung, der Zuverlässigkeit des Modells, der Modellgerechtigkeit und der Modellsicherheit, dem Grad der Autonomie des Modells, seinem Zugang zu Instrumenten, neuartigen oder kombinierten Modalitäten, Freigabe- und Vertriebsstrategien, dem Potenzial zur Beseitigung von Leitplanken und anderen Faktoren beeinflusst werden. Insbesondere bei internationalen Ansätzen wurde bisher festgestellt, dass folgenden Risiken Rechnung getragen werden muss: den Risiken einer möglichen vorsätzlichen Fehlanwendung oder unbeabsichtigter Kontrollprobleme im Zusammenhang mit der Ausrichtung auf menschliche Absicht; chemischen, biologischen, radiologischen und nuklearen Risiken, zum Beispiel Möglichkeiten zur Verringerung der Zutrittsschranken, einschließlich für Entwicklung, Gestaltung, Erwerb oder Nutzung von Waffen; offensiven Cyberfähigkeiten, zum Beispiel die Art und Weise, wie Entdeckung, Ausbeutung oder operative Nutzung von Schwachstellen ermöglicht werden können; den Auswirkungen der Interaktion und des Einsatzes von Instrumenten, einschließlich zum Beispiel der Fähigkeit, physische Systeme zu steuern und in kritische Infrastrukturen einzugreifen; Risiken, dass Modelle sich selbst vervielfältigen, oder der „Selbstreplikation“ oder des Trainings anderer Modelle; der Art und Weise, wie Modelle zu schädlichen Verzerrungen und Diskriminierung mit Risiken für Einzelpersonen, Gemeinschaften oder Gesellschaften führen können; der Erleichterung von Desinformation oder der Verletzung der Privatsphäre mit Gefahren für demokratische Werte und Menschenrechte; dem Risiko, dass ein bestimmtes Ereignis zu einer Kettenreaktion mit erheblichen negativen Auswirkungen führen könnte, die sich auf eine ganze Stadt, eine ganze Tätigkeit in einem Bereich oder eine ganze Gemeinschaft auswirken könnten.
(110)
Üldotstarbeliste tehisintellektimudelitega võivad kaasneda süsteemsed riskid, mis hõlmavad muu hulgas mis tahes tegelikku või mõistlikult prognoositavat negatiivset mõju seoses suurõnnetuste, elutähtsate sektorite häirete ning tõsiste tagajärgedega rahvatervisele ja ohutusele. mis tahes tegelikku või mõistlikult prognoositavat negatiivset mõju demokraatlikele protsessidele, avalikule ja majanduslikule julgeolekule ning ebaseadusliku, vale või diskrimineeriva sisu levitamist. Süsteemseid riske tuleks mõista nii, et need suurenevad mudeli võimete ja ulatusega, võivad tekkida mudeli kogu elutsükli jooksul ning neid mõjutavad väärkasutuse tingimused, mudeli usaldusväärsus, mudeli õiglus ja turvalisus, mudeli autonoomsuse tase, selle juurdepääs vahenditele, uudsed või kombineeritud modaalsused, tarbimisse lubamise ja levitamise strateegiad, kaitsemeetmete eemaldamise potentsiaal ja muud tegurid. Eelkõige on rahvusvahelised lähenemisviisid seni tuvastanud vajaduse pöörata tähelepanu järgmistele riskidele: riskid, mis tulenevad võimalikust tahtlikust väärkasutamisest või tahtmatutest kontrolliprobleemidest, mis tulenevad inimese tahte järgmisest; keemilised, bioloogilised, radioloogilised ja tuumaohud, näiteks viisid, kuidas vähendada sisenemise tõkkeid, sealhulgas relvade väljatöötamiseks, projekteerimiseks või kasutamiseks; küberründevõime, näiteks viisid, kuidas võimaldada haavatavuse avastamist, ärakasutamist või operatiivset kasutamist; koostoime ja vahendite kasutamise mõju, sealhulgas näiteks võime juhtida füüsilisi süsteeme ja häirida elutähtsat taristut; riskid, mis tulenevad sellest, et mudelid teevad endast koopiaid või on „isepaljunevad“ või treenivad teisi mudeleid; viisid, kuidas mudelid võivad põhjustada kahjuliku mõjuga kallutatust ja diskrimineerimist, mis võib ohustada üksikisikuid, kogukondi või ühiskonda; desinformatsiooni leviku soodustamine või eraelu puutumatuse kahjustamine, mis ohustab demokraatlikke väärtusi ja inimõigusi; risk, et konkreetne sündmus võib kaasa tuua ahelreaktsiooni, millel on märkimisväärne negatiivne mõju, mis võib mõjutada kogu linna, kogu valdkonna tegevust või tervet kogukonda.
(111)
Es ist angezeigt, eine Methodik für die Einstufung von KI-Modellen mit allgemeinem Verwendungszweck als KI-Modelle mit allgemeinem Verwendungszweck mit systemischen Risiken festzulegen. Da sich systemische Risiken aus besonders hohen Fähigkeiten ergeben, sollte ein KI-Modell mit allgemeinem Verwendungszweck als Modell mit systemischen Risiken gelten, wenn es über auf der Grundlage geeigneter technischer Instrumente und Methoden bewertete Fähigkeiten mit hoher Wirkkraft verfügt oder aufgrund seiner Reichweite erhebliche Auswirkungen auf den Binnenmarkt hat. „Fähigkeiten mit hoher Wirkkraft“ bei KI-Modellen mit allgemeinem Verwendungszweck bezeichnet Fähigkeiten, die den bei den fortschrittlichsten KI-Modellen mit allgemeinem Verwendungszweck festgestellten Fähigkeiten entsprechen oder diese übersteigen. Das gesamte Spektrum der Fähigkeiten eines Modells könnte besser verstanden werden, nachdem es in Verkehr gebracht wurde oder wenn die Betreiber mit dem Modell interagieren. Nach dem Stand der Technik zum Zeitpunkt des Inkrafttretens dieser Verordnung ist die kumulierte Menge der für das Training des KI-Modells mit allgemeinem Verwendungszweck verwendeten Berechnungen, gemessen in Gleitkommaoperationen, einer der einschlägigen Näherungswerte für Modellfähigkeiten. Die kumulierte Menge der für das Training verwendeten Berechnungen umfasst die kumulierte Menge der für die Tätigkeiten und Methoden, mit denen die Fähigkeiten des Modells vor der Einführung verbessert werden sollen, wie zum Beispiel Vortraining, Generierung synthetischer Daten und Feinabstimmung, verwendeten Berechnungen. Daher sollte ein erster Schwellenwert der Gleitkommaoperationen festgelegt werden, dessen Erreichen durch ein KI-Modell mit allgemeinem Verwendungszweck zu der Annahme führt, dass es sich bei dem Modell um ein KI-Modell mit allgemeinem Verwendungszweck mit systemischen Risiken handelt. Dieser Schwellenwert sollte im Laufe der Zeit angepasst werden, um technologischen und industriellen Veränderungen, wie zum Beispiel algorithmischen Verbesserungen oder erhöhter Hardwareeffizienz, Rechnung zu tragen, und um Benchmarks und Indikatoren für die Modellfähigkeit ergänzt werden. Um die Grundlage dafür zu schaffen, sollte das Büro für Künstliche Intelligenz mit der Wissenschaftsgemeinschaft, der Industrie, der Zivilgesellschaft und anderen Sachverständigen zusammenarbeiten. Schwellenwerte sowie Instrumente und Benchmarks für die Bewertung von Fähigkeiten mit hoher Wirkkraft sollten zuverlässig die allgemeine Verwendbarkeit, die Fähigkeiten und die mit ihnen verbundenen systemischen Risikos von KI-Modellen mit allgemeinem Verwendungszweck vorhersagen können und könnten die Art und Weise, wie das Modell in Verkehr gebracht wird, oder die Zahl der Nutzer, auf die es sich auswirken könnte, berücksichtigen. Ergänzend zu diesem System sollte die Kommission Einzelentscheidungen treffen können, mit denen ein KI-Modell mit allgemeinem Verwendungszweck als KI-Modell mit allgemeinem Verwendungszweck mit systemischem Risiko eingestuft wird, wenn festgestellt wurde, dass dieses Modell Fähigkeiten oder Auswirkungen hat, die den von dem festgelegten Schwellenwert erfassten entsprechen. Die genannte Entscheidung sollte auf der Grundlage einer Gesamtbewertung der in einem Anhang dieser Verordnung festgelegten Kriterien für die Benennung von KI-Modellen mit allgemeinem Verwendungszweck mit systemischem Risiko getroffen werden, etwa Qualität oder Größe des Trainingsdatensatzes, Anzahl der gewerblichen Nutzer und Endnutzer, seine Ein- und Ausgabemodalitäten, sein Grad an Autonomie und Skalierbarkeit oder die Instrumente, zu denen es Zugang hat. Stellt der Anbieter, dessen Modell als KI-Modell mit allgemeinem Verwendungszweck mit systemischem Risiko benannt wurde, einen entsprechenden Antrag, sollte die Kommission den Antrag berücksichtigen, und sie kann entscheiden, erneut zu prüfen, ob beim KI-Modell mit allgemeinem Verwendungszweck immer noch davon ausgegangen werden kann, dass es systemische Risiken aufweist.
(111)
On asjakohane kehtestada metoodika üldotstarbeliste tehisintellektimudelite liigitamiseks süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks. Kuna süsteemseid riske põhjustavad eriti suured võimed, tuleks üldotstarbelist tehisintellektimudelit käsitada süsteemset riski kujutavana, kui sellel on suure mõjuga võimed, mida hinnatakse asjakohaste tehniliste vahendite ja meetodite abil, või kui sellel on märkimisväärne mõju siseturule oma ulatuse tõttu. Üldotstarbelise tehisintellektimudeli suure mõjuga võimed on võimed, mis vastavad kõige arenenumates üldotstarbelistes tehisintellektimudelites registreeritud võimetele või ületavad neid. Mudeli kõiki võimeid saaks paremini mõista pärast selle turule laskmist või siis, kui juurutajad mudeliga kokku puutuvad. Vastavalt käesoleva määruse jõustumise ajal olemasolevale tehnika tasemele on üldotstarbelise tehisintellektimudeli treenimiseks kasutatud andmetöötluse kohtumaht, mida mõõdetakse ujukomatehtega, üks oluline mudeli võimete lähisväärtus. Treenimiseks kasutatud andmetöötluse kogumaht hõlmab andmetöötlust selliste tegevuste ja meetodite lõikes, mille eesmärk on mudeli võimete suurendamine enne juurutamist, näiteks eeltreenimine, sünteesitud andmete genereerimine ja peenhäälestamine. Seepärast tuleks kehtestada ujukomatehete esialgne künnis, mis juhul, kui üldotstarbeline tehisintellektimudel selle saavutab, annab alust eeldada, et mudel on süsteemse riskiga üldotstarbeline tehisintellektimudel. Seda künnist tuleks aja jooksul kohandada, et kajastada tehnoloogia ja tööstuse muutusi, nagu algoritmide paranemine või tõhusam riistvara, ning seda tuleks täiendada mudelite võimete võrdlusaluste ja näitajatega. Sellise teabe saamiseks peaks tehisintellektiamet tegema koostööd teadusringkondade, tööstuse, kodanikuühiskonna ja muude ekspertidega. Künnised ning suure mõjuga võimete hindamise vahendid ja võrdlusalused peaksid olema üldotstarbelise tehisintellektimudeli üldisuse, selle võimete ja sellega seotud süsteemse riski kindlad prognoosijad ning need võiks võtta arvesse mudeli turule laskmise viisi või kasutajate arvu, keda see süsteem võib mõjutada. Selle süsteemi täiendamiseks peaks komisjonil olema võimalus teha üksikotsuseid, millega liigitatakse üldotstarbeline tehisintellektimudel süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks, kui leitakse, et selle mudeli võimed või mõju on samaväärne sellega, mis on kehtestatud künnisega. Kõnealune otsus tuleks teha käesoleva määruse lisas sätestatud süsteemse riskiga üldotstarbeliste tehisintellektimudeli liigitamise kriteeriumide üldise hindamise alusel, milleks on näiteks treenimisandmestiku kvaliteet või maht, äri- ja lõppkasutajate arv, nende sisend- ja väljundmodaalsused, autonoomia tase ja mastabeeritavus või vahendid, millele tal on juurdepääs. Pakkuja, kelle mudel on liigitatud süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks, põhjendatud taotluse korral peaks komisjon taotlust arvesse võtma ja võib otsustada uuesti hinnata, kas seda üldotstarbelist tehisintellektimudelit saab siiski pidada süsteemseid riske kujutavaks mudeliks.
(112)
Außerdem muss das Verfahren für die Einstufung eines KI-Modell mit allgemeinem Verwendungszweck mit systemischem Risiko präzisiert werden. Bei einem KI-Modell mit allgemeinem Verwendungszweck, das den geltenden Schwellenwert für Fähigkeiten mit hoher Wirkkraft erreicht, sollte angenommen werden, dass es sich um ein KI-Modell mit allgemeinem Verwendungszweck mit systemischem Risiko handelt. Der Anbieter sollte spätestens zwei Wochen, nachdem die Bedingungen erfüllt sind oder bekannt wird, dass ein KI-Modell mit allgemeinem Verwendungszweck die Bedingungen, die die Annahme bewirken, erfüllen wird, dies dem Büro für Künstliche Intelligenz mitteilen. Dies ist insbesondere im Zusammenhang mit dem Schwellenwert der Gleitkommaoperationen relevant, da das Training von KI-Modellen mit allgemeinem Verwendungszweck eine erhebliche Planung erfordert, die die vorab durchgeführte Zuweisung von Rechenressourcen umfasst, sodass die Anbieter von KI-Modellen mit allgemeinem Verwendungszweck vor Abschluss des Trainings erfahren können, ob ihr Modell den Schwellenwert erreichen wird. Im Rahmen dieser Mitteilung sollte der Anbieter nachweisen können, dass ein KI-Modell mit allgemeinem Verwendungszweck aufgrund seiner besonderen Merkmale außerordentlicherweise keine systemischen Risiken birgt und daher nicht als KI-Modell mit allgemeinem Verwendungszweck mit systemischem Risiko eingestuft werden sollte. Diese Informationen sind für das Büro für Künstliche Intelligenz wertvoll, um das Inverkehrbringen von KI-Modellen mit allgemeinem Verwendungszweck mit systemischem Risiko zu antizipieren, und die Anbieter können frühzeitig mit der Zusammenarbeit mit dem Büro für Künstliche Intelligenz beginnen. Diese Informationen sind besonders wichtig im Hinblick auf KI-Modell mit allgemeinem Verwendungszweck, die als quelloffene Modelle bereitgestellt werden sollen, da nach der Bereitstellung von quelloffenen Modellen die erforderlichen Maßnahmen zur Gewährleistung der Einhaltung der Pflichten gemäß dieser Verordnung möglicherweise schwieriger umzusetzen sind.
(112)
Samuti on vaja selgitada süsteemsete riskidega üldotstarbelise tehisintellektimudeli liigitamise menetlust. Üldotstarbelist tehisintellektimudelit, mis vastab suure mõjuga võimete suhtes kohaldatavale künnisele, tuleks käsitada süsteemse riskiga üldotstarbelise tehisintellektimudelina. Pakkuja peaks teavitama tehisintellektiametit hiljemalt kaks nädalat pärast nõuete täitmist või siis, kui on teada saadud, et üldotstarbeline tehisintellektimudel vastab eelduste aluseks olevatele nõuetele. See on eriti oluline seoses ujukomatehte künnisega, sest üldotstarbeliste tehisintellektimudelite treenimine nõuab märkimisväärset planeerimist, mis hõlmab arvutusressursside eelnevat jaotamist, ning seetõttu teavad üldotstarbeliste tehisintellektimudelite pakkujad juba enne treeningu lõppemist, kas nende mudel vastab künnisele. Seoses nimetatud teavitamisega peaks pakkuja suutma tõendada, et üldotstarbeline tehisintellektimudel ei kujuta erandkorras oma erijoonte tõttu süsteemseid riske ning seega ei tuleks seda liigitada süsteemsete riskidega üldotstarbeliseks tehisintellektimudeliks. See teave on tehisintellektiameti jaoks väärtuslik, et prognoosida süsteemsete riskidega üldotstarbeliste tehisintellektimudelite turule laskmist, ning pakkujad saavad juba varakult alustada tehisintellektiametiga suhtlemist. Kõnealune teave on eriti oluline seoses üldotstarbeliste tehisintellektimudelitega, mida kavatsetakse tarbimisse lubada avatud lähtekoodiga, arvestades et pärast avatud lähtekoodiga mudeli tarbimisse lubamist võib olla keerulisem rakendada vajalikke meetmeid, et tagada käesolevast määrusest tulenevate kohustuste täitmine.
(113)
Erhält die Kommission Kenntnis davon, dass ein KI-Modell mit allgemeinem Verwendungszweck die Anforderungen für die Einstufung als KI-Modell mit allgemeinem Verwendungszweck mit systemischem Risiko erfüllt, das zuvor nicht bekannt war oder das der betreffende Anbieter nicht der Kommission gemeldet hat, sollte die Kommission befugt sein, es als solches auszuweisen. Zusätzlich zu den Überwachungstätigkeiten des Büros für Künstliche Intelligenz sollte ein System qualifizierter Warnungen sicherstellen, dass das Büro für Künstliche Intelligenz von dem wissenschaftlichen Gremium von KI-Modelle mit allgemeinem Verwendungszweck in Kenntnis gesetzt wird, die möglicherweise als KI-Modelle mit allgemeinem Verwendungszweck mit systemischem Risiko eingestuft werden sollten, was zu den hinzukommt.
(113)
Kui komisjon saab teada, et üldotstarbeline tehisintellektimudel vastab nõuetele liigitada see süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks, mida varem sellisena ei tuntud või millest asjaomane pakkuja ei olnud komisjoni teavitanud, peaks komisjonil olema õigus see nii liigitada. Kvalifitseeritud hoiatusteadete süsteem peaks tagama, et tehisintellektiamet saab lisaks oma järelevalvetegevusele ka teaduskomisjonilt teavet selliste üldotstarbeliste tehisintellektimudelite kohta, mis tuleks potentsiaalselt liigitada süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks.
(114)
Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, die systemische Risiken bergen, sollten zusätzlich zu den Pflichten für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck Pflichten unterliegen, die darauf abzielen, diese Risiken zu ermitteln und zu mindern und ein angemessenes Maß an Cybersicherheit zu gewährleisten, unabhängig davon, ob es als eigenständiges Modell bereitgestellt wird oder in ein KI-System oder ein Produkt eingebettet ist. Um diese Ziele zu erreichen, sollten die Anbieter in dieser Verordnung verpflichtet werden, die erforderlichen Bewertungen des Modells — insbesondere vor seinem ersten Inverkehrbringen — durchzuführen, wozu auch die Durchführung und Dokumentation von Angriffstests bei Modellen gehören, gegebenenfalls auch im Rahmen interner oder unabhängiger externer Tests. Darüber hinaus sollten KI-Modellen mit allgemeinem Verwendungszweck mit systemischem Risiko fortlaufend systemische Risiken bewerten und mindern, unter anderem durch die Einführung von Risikomanagementstrategien wie Verfahren der Rechenschaftspflicht und Governance-Verfahren, die Umsetzung der Beobachtung nach dem Inverkehrbringen, die Ergreifung geeigneter Maßnahmen während des gesamten Lebenszyklus des Modells und die Zusammenarbeit mit einschlägigen Akteuren entlang der KI-Wertschöpfungskette.
(114)
Süsteemseid riske kujutavate üldotstarbeliste tehisintellektimudelite pakkujate suhtes tuleks lisaks üldotstarbeliste tehisintellektimudelite pakkujatele kehtestatud kohustustele kohaldada kohustusi, mille eesmärk on need riskid kindlaks teha ja neid maandada ning tagada piisav küberturvalisuse kaitse tase, olenemata sellest, kas seda mudelit pakutakse autonoomse mudelina või integreerituna tehisintellektisüsteemi või tootesse. Nende eesmärkide saavutamiseks tuleks käesoleva määrusega nõuda, et pakkujad viiksid läbi vajalikud mudelite hindamised, eelkõige enne selle esmakordset turule laskmist, sealhulgas mudelite vastandtestide läbiviimine ja nende dokumenteerimine, vajaduse korral ka sisemiste või sõltumatute välistestide abil. Lisaks peaksid süsteemse riskiga üldotstarbeliste tehisintellektimudelite pakkujad süsteemseid riske pidevalt hindama ja maandama, sealhulgas kehtestades näiteks riskijuhtimispõhimõtted, nagu vastutus- ja juhtimisprotsessid, rakendades turustamisjärgset seiret, võttes asjakohaseid meetmeid kogu mudeli elutsükli jooksul ja tehes koostööd tehisintellekti väärtusahela asjaomaste osalejatega.
(115)
Anbieter von KI-Modellen mit allgemeinem Verwendungszweck mit systemischem Risiko sollten mögliche systemische Risiken bewerten und mindern. Wenn trotz der Bemühungen um Ermittlung und Vermeidung von Risiken im Zusammenhang mit einem KI-Modell mit allgemeinem Verwendungszweck, das systemische Risiken bergen könnte, die Entwicklung oder Verwendung des Modells einen schwerwiegenden Vorfall verursacht, so sollte der Anbieter des KI-Modells mit allgemeinem Verwendungszweck unverzüglich dem Vorfall nachgehen und der Kommission und den zuständigen nationalen Behörden alle einschlägigen Informationen und mögliche Korrekturmaßnahmen mitteilen. Zudem sollten die Anbieter während des gesamten Lebenszyklus des Modells ein angemessenes Maß an Cybersicherheit für das Modell und seine physische Infrastruktur gewährleisten. Beim Schutz der Cybersicherheit im Zusammenhang mit systemischen Risiken, die mit böswilliger Nutzung oder böswilligen Angriffen verbunden sind, sollte der unbeabsichtigte Modelldatenverlust, die unerlaubte Bereitstellung, die Umgehung von Sicherheitsmaßnahmen und der Schutz vor Cyberangriffen, unbefugtem Zugriff oder Modelldiebstahl gebührend beachtet werden. Dieser Schutz könnte durch die Sicherung von Modellgewichten, Algorithmen, Servern und Datensätzen erleichtert werden, z. B. durch Betriebssicherheitsmaßnahmen für die Informationssicherheit, spezifische Cybersicherheitsstrategien, geeignete technische und etablierte Lösungen sowie Kontrollen des physischen Zugangs und des Cyberzugangs, die den jeweiligen Umständen und den damit verbundenen Risiken angemessen sind.
(115)
Süsteemse riskiga üldotstarbeliste tehisintellektimudelite pakkujad peaksid võimalikke süsteemseid riske hindama ja maandama. Kui hoolimata jõupingutustest teha kindlaks ja ennetada sellise üldotstarbelise tehisintellektimudeliga seotud riske, mis võib kujutada süsteemseid riske, põhjustab mudeli arendamine või kasutamine tõsise intsidendi, peaks üldotstarbelise tehisintellektimudeli pakkuja põhjendamatu viivituseta end intsidendiga kurssi viima ning edastama komisjonile ja riikide pädevatele asutustele kogu asjakohase teabe ja võimalikud parandusmeetmed. Lisaks peaksid pakkujad tagama mudeli ja selle füüsilise taristu piisava küberturvalisuse kaitse, kui see on asjakohane, kogu mudeli elutsükli jooksul. Pahatahtliku kasutamise või rünnetega seotud süsteemsete riskidega seotud küberturvalisuse kaitse puhul tuleks igakülgselt arvesse võtta mudeli juhuslikku leket, loata tarbimisse lubamist, turvameetmetest kõrvalehoidmist ning kaitset küberrünnete, loata juurdepääsu või mudelivarguste vastu. Seda kaitset saaks hõlbustada mudeli kaalude, algoritmide, serverite ja andmestike turvalisuse tagamisega, näiteks infoturbe talitluskindluse meetmete, konkreetsete küberturvalisuse põhimõtete, piisavate tehniliste ja väljakujunenud lahenduste ning küber- ja füüsilise juurdepääsu kontrolli kaudu, mis vastavad asjakohastele asjaoludele ja kaasnevatele riskidele.
(116)
Das Büro für Künstliche Intelligenz sollte die Ausarbeitung, Überprüfung und Anpassung von Praxisleitfäden unter Berücksichtigung internationaler Ansätze fördern und erleichtern. Alle Anbieter von KI-Modellen mit allgemeinem Verwendungszweck könnten ersucht werden, sich daran zu beteiligen. Um sicherzustellen, dass die Praxisleitfäden dem Stand der Technik entsprechen und unterschiedlichen Perspektiven gebührend Rechnung tragen, sollte das Büro für Künstliche Intelligenz bei der Ausarbeitung solcher Leitfäden mit den einschlägigen zuständigen nationalen Behörden zusammenarbeiten und könnte dabei gegebenenfalls Organisationen der Zivilgesellschaft und andere einschlägige Interessenträger und Sachverständige, einschließlich des wissenschaftlichen Gremiums, konsultieren. Die Praxisleitfäden sollten die Pflichten für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck und von KI-Modellen mit allgemeinem Verwendungszweck, die systemische Risiken bergen, abdecken. Ferner sollten Praxisleitfäden im Zusammenhang mit systemischen Risiken dazu beitragen, dass eine Risikotaxonomie für Art und Wesen der systemischen Risiken auf Unionsebene, einschließlich ihrer Ursachen, festgelegt wird. Bei den Praxisleitfäden sollten auch auf spezifische Maßnahmen zur Risikobewertung und -minderung im Mittelpunkt stehen.
(116)
Tehisintellektiamet peaks julgustama ja hõlbustama tegevusjuhendite koostamist, läbivaatamist ja kohandamist, võttes arvesse rahvusvahelisi lähenemisviise. Osalema võiks kutsuda kõiki üldotstarbeliste tehisintellektimudelite pakkujaid. Tagamaks, et tegevusjuhendid kajastavad tehnika taset ja võtavad igakülgselt arvesse erinevaid vaatenurki, peaks tehisintellektiamet selliste juhendite koostamisel tegema koostööd asjaomaste riigi pädevate asutustega ning ta võiks vajaduse korral konsulteerida kodanikuühiskonna organisatsioonide ning muude asjaomaste sidusrühmade ja ekspertidega, sealhulgas teaduskomisjoniga. Tegevusjuhendid peaksid hõlmama üldotstarbeliste tehisintellektimudelite ja süsteemseid riske kujutavate üldotstarbeliste tehisintellektimudelite pakkujate kohustusi. Lisaks peaksid tegevusjuhendid süsteemsete riskide puhul aitama liidu tasandil kehtestada süsteemsete riskide liigi ja olemuse järgi riskitaksonoomia, mis hõlmab ka riskide allikaid. Tegevusjuhendites tuleks keskenduda ka konkreetsetele riskihindamis- ja maandamismeetmetele.
(117)
Die Verhaltenskodizes sollten ein zentrales Instrument für die ordnungsgemäße Einhaltung der in dieser Verordnung für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck vorgesehenen Pflichten darstellen. Die Anbieter sollten sich auf Verhaltenskodizes stützen können, um die Einhaltung der Pflichten nachzuweisen. Die Kommission kann im Wege von Durchführungsrechtsakten beschließen, einen Praxisleitfaden zu genehmigen und ihm eine allgemeine Gültigkeit in der Union zu verleihen oder alternativ gemeinsame Vorschriften für die Umsetzung der einschlägigen Pflichten festzulegen, wenn ein Verhaltenskodex bis zum Zeitpunkt der Anwendbarkeit dieser Verordnung nicht fertiggestellt werden kann oder dies vom Büro für Künstliche Intelligenz für nicht angemessen erachtet wird. Sobald eine harmonisierte Norm veröffentlicht und als geeignet bewertet wurde, um die einschlägigen Pflichten des Büros für Künstliche Intelligenz abzudecken, sollte die Einhaltung einer harmonisierten europäischen Norm den Anbietern die Konformitätsvermutung begründen. Anbieter von KI-Modellen mit allgemeinem Verwendungszweck sollten darüber hinaus in der Lage sein, die Konformität mit angemessenen alternativen Mitteln nachzuweisen, wenn Praxisleitfäden oder harmonisierte Normen nicht verfügbar sind oder sie sich dafür entscheiden, sich nicht auf diese zu stützen.
(117)
Tegevusjuhendid peaksid olema keskne vahend, mis aitavad üldotstarbeliste tehisintellektimudelite pakkujatel nõuetekohaselt täita käesolevas määruses sätestatud kohustusi. Pakkujatel peaks olema võimalik tugineda tegevusjuhendile, et tõendada kohustuste täitmist. Komisjon võib rakendusaktidega otsustada kiita tegevusjuhendi heaks ja anda sellele üldise kehtivuse kogu liidus või kehtestada ühised õigusnormid asjaomaste kohustuste täitmiseks, kui käesoleva määruse kohaldamise ajaks ei saa tegevusjuhendit lõplikult vormistada või tehisintellektiamet ei pea seda piisavaks. Kui harmoneeritud standard on avaldatud ja see on hinnatud tehisintellektiameti kehtestatud asjakohaste kohustuste täitmiseks sobivaks, peaks Euroopa harmoneeritud standardi järgimine andma eelduse, et pakkujad vastavad nõuetele. Üldotstarbeliste tehisintellektimudelite pakkujad peaksid lisaks suutma tõendada nõuetele vastavust alternatiivsete asjakohaste vahendite alusel, kui tegevusjuhendid või harmoneeritud standardid ei ole kättesaadavad või kui nad otsustavad neile mitte tugineda.
(118)
Mit dieser Verordnung werden KI-Systeme und KI-Modelle reguliert, indem einschlägigen Marktteilnehmern, die sie in der Union in Verkehr bringen, in Betrieb nehmen oder verwenden, bestimmte Anforderungen und Pflichten auferlegt werden, wodurch die Pflichten für Anbieter von Vermittlungsdiensten ergänzt werden, die solche Systeme oder Modelle in ihre unter die Verordnung (EU) 2022/2065 fallenden Dienste integrieren. Soweit solche Systeme oder Modelle in als sehr groß eingestufte Online-Plattformen oder als sehr groß eingestufte Online-Suchmaschinen eingebettet sind, unterliegen sie dem in der Verordnung (EU) 2022/2065 vorgesehenen Rahmen für das Risikomanagement. Folglich sollte angenommen werden, dass die entsprechenden Verpflichtungen dieser Verordnung erfüllt sind, es sei denn, in solchen Modellen treten erhebliche systemische Risiken auf, die nicht unter die Verordnung (EU) 2022/2065 fallen, und werden dort ermittelt. Im vorliegenden Rahmen sind Anbieter sehr großer Online-Plattformen und sehr großer Online-Suchmaschinen verpflichtet, potenzielle systemische Risiken, die sich aus dem Entwurf, dem Funktionieren und der Nutzung ihrer Dienste ergeben, einschließlich der Frage, wie der Entwurf der in dem Dienst verwendeten algorithmischen Systeme zu solchen Risiken beitragen kann, sowie systemische Risiken, die sich aus potenziellen Fehlanwendungen ergeben, zu bewerten. Diese Anbieter sind zudem verpflichtet, unter Wahrung der Grundrechte geeignete Risikominderungsmaßnahmen zu ergreifen.
(118)
Käesoleva määrusega reguleeritakse tehisintellektisüsteeme ja -mudeleid, kehtestades teatavad nõuded ja kohustused asjaomastele turuosalistele, kes lasevad neid süsteeme või mudeleid liidus turule, võtavad kasutusele või kasutavad, täiendades seeläbi selliste vahendusteenuste osutajate kohustusi, kes integreerivad sellised süsteemid või mudelid oma teenustesse, mida reguleeritakse määrusega (EL) 2022/2065. Kui sellised süsteemid või mudelid on integreeritud väga suurtesse digiplatvormidesse või väga suurtesse internetipõhistesse otsingumootoritesse, kohaldatakse nende suhtes määruses (EL) 2022/2065 sätestatud riskijuhtimisraamistikku. Sellest tulenevalt tuleks eeldada, et käesoleva määruse vastavad kohustused on täidetud, välja arvatud juhul, kui tekivad märkimisväärsed süsteemsed riskid, mis ei ole hõlmatud määrusega (EL) 2022/2065, ja kui need on sellistes mudelites kindlaks tehtud. Selles raamistikus on väga suurte digiplatvormide ja väga suurte internetipõhiste otsingumootorite pakkujad kohustatud hindama võimalikke süsteemseid riske, mis tulenevad nende teenuste disainimisest, toimimisest ja kasutamisest, sealhulgas seda, kuidas teenuses kasutatavate algoritmiliste süsteemide kavandamine võib selliseid riske suurendada, samuti süsteemseid riske, mis tulenevad võimalikust väärkasutamisest. Need pakkujad on samuti kohustatud võtma asjakohaseid maandamismeetmeid, järgides põhiõigusi.
(119)
Angesichts des raschen Innovationstempos und der technologischen Entwicklung digitaler Dienste, die in den Anwendungsbereich verschiedener Instrumente des Unionsrechts fallen, können insbesondere unter Berücksichtigung der Verwendung durch ihre Nutzer und deren Wahrnehmung die dieser Verordnung unterliegenden KI-Systeme als Vermittlungsdienste oder Teile davon im Sinne der Verordnung (EU) 2022/2065 bereitgestellt werden, was technologieneutral ausgelegt werden sollte. Beispielsweise können KI-Systeme als Online-Suchmaschinen verwendet werden, insbesondere wenn ein KI-System wie ein Online-Chatbot grundsätzlich alle Websites durchsucht, die Ergebnisse anschließend in sein vorhandenes Wissen integriert und das aktualisierte Wissen nutzt, um eine einzige Ausgabe zu generieren, bei der verschiedene Informationsquellen zusammengeführt wurden.
(119)
Võttes arvesse liidu õiguse eri õigusaktide kohaldamisalasse jäävate digiteenuste innovatsiooni kiiret tempot ja tehnoloogilist arengut, pidades eelkõige silmas nende kasutamist ja tajumist kasutajate poolt, võib käesoleva määruse kohaldamisalasse kuuluvaid tehisintellektisüsteeme pakkuda vahendusteenustena või nende teenuste osadena määruse (EL) 2022/2065 tähenduses, mida tuleks tõlgendada tehnoloogianeutraalsel viisil. Näiteks võib tehisintellektisüsteeme kasutada internetipõhiste otsingumootorite pakkumiseks, eelkõige niivõrd, kuivõrd selline tehisintellektisüsteem nagu internetipõhine juturobot teeb otsinguid põhimõtteliselt kõigil veebisaitidel, lisab seejärel tulemused oma olemasolevatesse teadmistesse ja kasutab ajakohastatud teadmisi, et luua ühtne väljund, mis ühendab erinevaid teabeallikaid.
(120)
Zudem sind die Pflichten, die Anbietern und Betreibern bestimmter KI-Systeme mit dieser Verordnung auferlegt werden, um die Feststellung und Offenlegung zu ermöglichen, dass die Ausgaben dieser Systeme künstlich erzeugt oder manipuliert werden, von besonderer Bedeutung für die Erleichterung der wirksamen Umsetzung der Verordnung (EU) 2022/2065. Dies gilt insbesondere für die Pflichten der Anbieter sehr großer Online-Plattformen oder sehr großer Online-Suchmaschinen, systemische Risiken zu ermitteln und zu mindern, die aus der Verbreitung von künstlich erzeugten oder manipulierten Inhalten entstehen können, insbesondere das Risiko tatsächlicher oder vorhersehbarer negativer Auswirkungen auf demokratische Prozesse, den gesellschaftlichen Diskurs und Wahlprozesse, unter anderem durch Desinformation.
(120)
Lisaks on määruse (EL) 2022/2065 tõhusa rakendamise hõlbustamiseks eriti asjakohased kohustused, mis on käesoleva määrusega kehtestatud teatavate tehisintellektisüsteemide pakkujatele ja juurutajatele, et võimaldada avastada ja avalikustada seda, et nende süsteemide väljundid on kunstlikult loodud või neid on manipuleeritud. See kehtib eelkõige seoses väga suurte digiplatvormide või väga suurte internetipõhiste otsingumootorite pakkujate kohustusega teha kindlaks ja maandada süsteemseid riske, mis võivad tuleneda kunstlikult loodud või manipuleeritud sisu levitamisest, eelkõige risk, et see põhjustab tegelikku või prognoositavat negatiivset mõju demokraatlikele protsessidele, ühiskondlikule arutelule ja valimisprotsessidele, sealhulgas desinformatsiooni kaudu.
(121)
Die Normung sollte eine Schlüsselrolle dabei spielen, den Anbietern technische Lösungen zur Verfügung zu stellen, um im Einklang mit dem Stand der Technik die Einhaltung dieser Verordnung zu gewährleisten und Innovation sowie Wettbewerbsfähigkeit und Wachstum im Binnenmarkt zu fördern. Die Einhaltung harmonisierter Normen im Sinne von Artikel 2 Nummer 1 Buchstabe c der Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates (41), die normalerweise den Stand der Technik widerspiegeln sollten, sollte den Anbietern den Nachweis der Konformität mit den Anforderungen der vorliegenden Verordnung ermöglichen. Daher sollte eine ausgewogene Interessenvertretung unter Einbeziehung aller relevanten Interessenträger, insbesondere KMU, Verbraucherorganisationen sowie ökologischer und sozialer Interessenträger, bei der Entwicklung von Normen gemäß den Artikeln 5 und 6 der Verordnung (EU) Nr. 1025/2012, gefördert werden. Um die Einhaltung der Vorschriften zu erleichtern, sollten die Normungsaufträge von der Kommission unverzüglich erteilt werden. Bei der Ausarbeitung des Normungsauftrags sollte die Kommission das Beratungsforum und das KI-Gremium konsultieren, um einschlägiges Fachwissen einzuholen. In Ermangelung einschlägiger Fundstellen zu harmonisierten Normen sollte die Kommission jedoch im Wege von Durchführungsrechtsakten und nach Konsultation des Beratungsforums gemeinsame Spezifikationen für bestimmte Anforderungen im Rahmen dieser Verordnung festlegen können. Die gemeinsame Spezifikation sollte eine außergewöhnliche Ausweichlösung sein, um die Pflicht des Anbieters zur Einhaltung der Anforderungen dieser Verordnung zu erleichtern, wenn der Normungsauftrag von keiner der europäischen Normungsorganisationen angenommen wurde oder die einschlägigen harmonisierten Normen den Bedenken im Bereich der Grundrechte nicht ausreichend Rechnung tragen oder die harmonisierten Normen dem Auftrag nicht entsprechen oder es Verzögerungen bei der Annahme einer geeigneten harmonisierten Norm gibt. Ist eine solche Verzögerung bei der Annahme einer harmonisierten Norm auf die technische Komplexität dieser Norm zurückzuführen, so sollte die Kommission dies prüfen, bevor sie die Festlegung gemeinsamer Spezifikationen in Erwägung zieht. Die Kommission wird ermutigt, bei der Entwicklung gemeinsamer Spezifikationen mit internationalen Partnern und internationalen Normungsgremien zusammenzuarbeiten.
(121)
Oluline roll peaks olema standardimisel, et anda pakkujatele tehnilised lahendused, millega tagatakse käesoleva määruse järgimine kooskõlas tehnika tasemega, et edendada innovatsiooni ning konkurentsivõimet ja majanduskasvu ühtsel turul. Euroopa Parlamendi ja nõukogu määruse (EL) nr 1025/2012 (41) artikli 2 punkti 1 alapunktis c määratletud harmoneeritud standardite – mis üldiselt peaksid kajastama tehnika taset – järgimine peaks olema pakkujate jaoks vahend, millega tõendada käesoleva määruse nõuete täitmist. Seepärast tuleks soodustada huvide tasakaalustatud esindatust, kaasates standardite väljatöötamisse kõik asjaomased sidusrühmad, eelkõige VKEd, tarbijaorganisatsioonid ning keskkonna- ja sotsiaalvaldkonna sidusrühmad, kooskõlas määruse (EL) nr 1025/2012 artiklitega 5 ja 6. Nõuete täitmise hõlbustamiseks peaks komisjon esitama standardimistaotlused põhjendamatu viivituseta. Standardimistaotluse koostamisel peaks komisjon konsulteerima nõuandva kogu ja nõukojaga, et koguda asjaomast oskusteavet. Kui aga asjakohased viited harmoneeritud standarditele puuduvad, peaks komisjonil olema võimalik rakendusaktidega ja pärast nõuandva koguga konsulteerimist kehtestada teatavate käesoleva määruse kohaste nõuete ühtsed kirjeldused. Ühtne kirjeldus peaks olema erakorraline varulahendus, mis hõlbustab pakkujal täita käesoleva määruse nõudeid, kui ükski Euroopa standardiorganisatsioon ei ole standardimistaotlust heaks kiitnud või kui asjakohastes harmoneeritud standardites ei ole piisavalt käsitletud põhiõigustega seotud probleeme või kui harmoneeritud standardid ei vasta taotlusele või kui asjakohase harmoneeritud standardi vastuvõtmisel esineb viivitusi. Kui harmoneeritud standardi vastuvõtmine viibib standardi tehnilise keerukuse tõttu, peaks komisjon seda enne ühtsete kirjelduste kehtestamist arvesse võtma. Ühtsete kirjelduste väljatöötamisel julgustatakse komisjoni tegema koostööd rahvusvaheliste partnerite ja rahvusvaheliste standardiorganisatsioonidega.
(122)
Unbeschadet der Anwendung harmonisierter Normen und gemeinsamer Spezifikationen ist es angezeigt, dass für Anbieter von Hochrisiko-KI-Systemen, die mit Daten, in denen sich die besonderen geografischen, verhaltensbezogenen, kontextuellen oder funktionalen Rahmenbedingungen niederschlagen, unter denen sie verwendet werden sollen, trainiert und getestet wurden, die Vermutung der Konformität mit der einschlägigen Maßnahme gilt, die im Rahmen der in dieser Verordnung festgelegten Anforderungen an die Daten-Governance vorgesehen ist. Unbeschadet der in dieser Verordnung festgelegten Anforderungen an Robustheit und Genauigkeit sollte gemäß Artikel 54 Absatz 3 der Verordnung (EU) 2019/881 bei Hochrisiko-KI-Systemen, die im Rahmen eines Schemas für die Cybersicherheit gemäß der genannten Verordnung zertifiziert wurden oder für die eine Konformitätserklärung ausgestellt wurde und deren Fundstellen im Amtsblatt der Europäischen Union veröffentlicht wurden, vermutet werden, dass eine Übereinstimmung mit den Cybersicherheitsanforderungen der vorliegenden Verordnung gegeben ist, sofern das Cybersicherheitszertifikat oder die Konformitätserklärung oder Teile davon die Cybersicherheitsanforderungen dieser Verordnung abdecken. Dies gilt unbeschadet des freiwilligen Charakters dieses Schemas für die Cybersicherheit.
(122)
Ilma et see piiraks harmoneeritud standardite ja ühtsete kirjelduste kasutamist, tuleks eeldada, et pakkujad, kes pakuvad suure riskiga tehisintellektisüsteemi, mida on treenitud ja testitud andmetega, mis kajastavad konkreetset geograafilist, käitumuslikku, kontekstipõhist või funktsionaalset keskkonda, milles tehisintellektisüsteemi kavatsetakse kasutada, järgivad asjakohaseid meetmeid, mis on ette nähtud käesolevas määruses sätestatud andmehalduse nõude raames. Ilma et see piiraks käesolevas määruses sätestatud stabiilsuse ja täpsuse nõuete kohaldamist, tuleks kooskõlas määruse (EL) 2019/881 artikli 54 lõikega 3 eeldada, et suure riskiga tehisintellektisüsteemid, mis on sertifitseeritud või mille kohta on välja antud vastavusdeklaratsioon kõnealuse määruse kohase küberturvalisuse sertifitseerimise kava alusel ja mille viited on avaldatud Euroopa Liidu Teatajas, vastavad käesoleva määruse küberturvalisuse nõudele, kui küberturvalisuse sertifikaat või vastavusdeklaratsioon või nende osad hõlmavad käesoleva määruse küberturvalisuse nõuet. See ei piira kõnealuse küberturvalisuse sertifitseerimise kava vabatahtlikku laadi.
(123)
Um ein hohes Maß an Vertrauenswürdigkeit von Hochrisiko-KI-Systemen zu gewährleisten, sollten diese Systeme einer Konformitätsbewertung unterzogen werden, bevor sie in Verkehr gebracht oder in Betrieb genommen werden.
(123)
Selleks et tagada suure riskiga tehisintellektisüsteemide kõrge usaldusväärsus, peaksid need süsteemid enne nende turule laskmist või kasutuselevõtmist läbima vastavushindamise.
(124)
Damit für Akteure möglichst wenig Aufwand entsteht und etwaige Doppelarbeit vermieden wird, ist es angezeigt, dass bei Hochrisiko-KI-Systemen im Zusammenhang mit Produkten, die auf der Grundlage des neuen Rechtsrahmens unter bestehende Harmonisierungsrechtsvorschriften der Union fallen, im Rahmen der bereits in den genannten Rechtsvorschriften vorgesehenen Konformitätsbewertung bewertet wird, ob diese KI-Systeme den Anforderungen dieser Verordnung genügen. Die Anwendbarkeit der Anforderungen dieser Verordnung sollte daher die besondere Logik, Methodik oder allgemeine Struktur der Konformitätsbewertung gemäß den einschlägigen Harmonisierungsrechtsvorschriften der Union unberührt lassen.
(124)
Operaatorite koormuse vähendamiseks ja võimaliku dubleerimise vältimiseks on asjakohane hinnata uue õigusraamistiku alusel olemasolevate liidu ühtlustamisõigusaktide kohaldamisalasse kuuluvate toodetega seotud suure riskiga tehisintellektisüsteemide vastavust käesoleva määruse nõuetele osana kõnealuse õigusega juba ette nähtud vastavushindamisest. Seega ei tohiks käesoleva määruse nõuete kohaldatavus mõjutada uue liidu ühtlustamisõigusaktide kohaselt tehtava vastavushindamise eriomast loogikat, metoodikat või üldist ülesehitust.
(125)
Angesichts der Komplexität von Hochrisiko-KI-Systemen und der damit verbundenen Risiken ist es wichtig, ein angemessenes Konformitätsbewertungsverfahren für Hochrisiko-KI-Systeme, an denen notifizierte Stellen beteiligt sind, — die sogenannte Konformitätsbewertung durch Dritte — zu entwickeln. In Anbetracht der derzeitigen Erfahrung professioneller dem Inverkehrbringen vorgeschalteter Zertifizierer im Bereich der Produktsicherheit und der unterschiedlichen Art der damit verbundenen Risiken empfiehlt es sich jedoch, zumindest während der anfänglichen Anwendung dieser Verordnung für Hochrisiko-KI-Systeme, die nicht mit Produkten in Verbindung stehen, den Anwendungsbereich der Konformitätsbewertung durch Dritte einzuschränken. Daher sollte die Konformitätsbewertung solcher Systeme in der Regel vom Anbieter in eigener Verantwortung durchgeführt werden, mit Ausnahme von KI-Systemen, die für die Biometrie verwendet werden sollen.
(125)
Arvestades suure riskiga tehisintellektisüsteemide keerukust ja nendega seotud riske, on oluline töötada suure riskiga tehisintellektisüsteemide jaoks välja asjakohane vastavushindamismenetlus, mis hõlmab teada antud asutusi, nn kolmanda isiku tehtavat vastavushindamist. Kuid võttes arvesse kutseliste turustamiseelsete sertifitseerijate praeguseid kogemusi tooteohutuse valdkonnas ja kaasnevate riskide erinevat olemust, on asjakohane vähemalt käesoleva määruse kohaldamise algjärgus piirata kolmanda isiku tehtava vastavushindamise kohaldamise ulatust muude kui toodetega seotud suure riskiga tehisintellektisüsteemide puhul. Seepärast peaks selliste süsteemide vastavushindamise üldjuhul läbi viima pakkuja omal vastutusel, välja arvatud biomeetria jaoks ette nähtud tehisintellektisüsteemide puhul.
(126)
Damit KI-Systeme, falls vorgeschrieben, Konformitätsbewertungen durch Dritte unterzogen werden können, sollten die notifizierten Stellen gemäß dieser Verordnung von den zuständigen nationalen Behörden notifiziert werden, sofern sie eine Reihe von Anforderungen erfüllen, insbesondere in Bezug auf Unabhängigkeit, Kompetenz, Nichtvorliegen von Interessenkonflikten und geeignete Anforderungen an die Cybersicherheit. Die Notifizierung dieser Stellen sollte von den zuständigen nationalen Behörden der Kommission und den anderen Mitgliedstaaten mittels des von der Kommission entwickelten und verwalteten elektronischen Notifizierungsinstruments gemäß Anhang I Artikel R23 des Beschlusses Nr. 768/2008/EG übermittelt werden.
(126)
Selleks et vajaduse korral viidaks läbi kolmanda isiku tehtavad vastavushindamised, peaksid riikide pädevad asutused käesoleva määruse alusel teavitama teada antud asutusi, tingimusel et need vastavad teatavatele nõuetele eeskätt sõltumatuse, pädevuse, huvide konflikti puudumise ja küberturvalisuse asjakohaste nõuete vallas. Riikide pädevad asutused peaksid saatma teavituse kõnealuste asutuste kohta komisjonile ja teistele liikmesriikidele komisjoni poolt otsuse nr 768/2008/EÜ I lisa artikli R23 alusel väljaarendatud ja hallatava elektroonilise teavitamise vahendi kaudu.
(127)
Im Einklang mit den Verpflichtungen der Union im Rahmen des Übereinkommens der Welthandelsorganisation über technische Handelshemmnisse ist es angemessen, die gegenseitige Anerkennung von Konformitätsbewertungsergebnissen zu erleichtern, die von den zuständigen Konformitätsbewertungsstellen unabhängig von dem Gebiet, in dem sie niedergelassen sind, generiert wurden, sofern diese nach dem Recht eines Drittlandes errichteten Konformitätsbewertungsstellen die geltenden Anforderungen dieser Verordnung erfüllen und die Union ein entsprechendes Abkommen geschlossen hat. In diesem Zusammenhang sollte die Kommission aktiv mögliche internationale Instrumente zu diesem Zweck prüfen und insbesondere den Abschluss von Abkommen über die gegenseitige Anerkennung mit Drittländern anstreben.
(127)
Kooskõlas Maailma Kaubandusorganisatsiooni tehniliste kaubandustõkete lepingust tulenevate liidu kohustustega on asjakohane hõlbustada selliste vastavushindamistulemuste vastastikust tunnustamist, mille on saanud pädevad vastavushindamisasutused sõltumata territooriumist, kus nad on asutatud, tingimusel et kolmanda riigi õiguse alusel asutatud vastavushindamisasutused vastavad käesoleva määruse kohaldatavatele nõuetele ja liit on sõlminud sellekohase lepingu. Sellega seoses peaks komisjon aktiivselt uurima võimalike rahvusvaheliste õigusaktide koostamist sel eesmärgil ja eelkõige püüdma sõlmida vastastikuse tunnustamise lepinguid kolmandate riikidega.
(128)
Im Einklang mit dem allgemein anerkannten Begriff der wesentlichen Änderung von Produkten, für die Harmonisierungsvorschriften der Union gelten, ist es angezeigt, dass das KI-System bei jeder Änderung, die die Einhaltung dieser Verordnung durch das Hochrisiko-KI-System beeinträchtigen könnte (z. B. Änderung des Betriebssystems oder der Softwarearchitektur), oder wenn sich die Zweckbestimmung des Systems ändert, als neues KI-System betrachtet werden sollte, das einer neuen Konformitätsbewertung unterzogen werden sollte. Änderungen, die den Algorithmus und die Leistung von KI-Systemen betreffen, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen — d. h., sie passen automatisch an, wie die Funktionen ausgeführt werden —, sollten jedoch keine wesentliche Veränderung darstellen, sofern diese Änderungen vom Anbieter vorab festgelegt und zum Zeitpunkt der Konformitätsbewertung bewertet wurden.
(128)
Liidu ühtlustamisõigusaktidega reguleeritud toodete olulise muudatuse laialdaselt juurdunud mõiste kohaselt on asjakohane, et kui tehakse muudatus, mis võib mõjutada suure riskiga tehisintellektisüsteemi vastavust käesolevale määrusele (näiteks operatsioonisüsteemi või tarkvaraarhitektuuri muudatus), või kui muutub süsteemi sihtotstarve, tuleks kõnealust tehisintellektisüsteemi käsitada uue tehisintellektisüsteemina, mis peaks läbima uue vastavushindamise. Siiski ei peaks muudatuste puhul, mis tehakse selliste tehisintellektisüsteemide algoritmis või toimimises, mis n-ö õpivad edasi ka pärast turule laskmist või kasutusele võtmist, nimelt kohandavad automaatselt funktsioonide täitmise viisi, olema tegemist olulise muudatusega, tingimusel et pakkuja on kõnealused muudatused eelnevalt kindlaks määranud ja neid on vastavushindamise ajal hinnatud.
(129)
Hochrisiko-KI-Systeme sollten grundsätzlich mit der CE-Kennzeichnung versehen sein, aus der ihre Konformität mit dieser Verordnung hervorgeht, sodass sie frei im Binnenmarkt verkehren können. Bei in ein Produkt integrierten Hochrisiko-KI-Systemen sollte eine physische CE-Kennzeichnung angebracht werden, die durch eine digitale CE-Kennzeichnung ergänzt werden kann. Bei Hochrisiko-KI-Systemen, die nur digital bereitgestellt werden, sollte eine digitale CE-Kennzeichnung verwendet werden. Die Mitgliedstaaten sollten keine ungerechtfertigten Hindernisse für das Inverkehrbringen oder die Inbetriebnahme von Hochrisiko-KI-Systemen schaffen, die die in dieser Verordnung festgelegten Anforderungen erfüllen und mit der CE-Kennzeichnung versehen sind.
(129)
Suure riskiga tehisintellektisüsteemidel peaks olema CE-märgis, mis näitab nende vastavust käesolevale määrusele, et nad saaksid siseturul vabalt liikuda. Tootesse sisseehitatud suure riskiga tehisintellektisüsteemide puhul tuleks kinnitada füüsiline CE-märgis ja seda võib täiendada digitaalse CE-märgisega. Suure riskiga tehisintellektisüsteemide puhul, mida pakutakse ainult digitaalselt, tuleks kasutada digitaalset CE-märgist. Liikmesriigid ei tohiks luua põhjendamatuid tõkkeid käesolevas määruses sätestatud nõuetele vastavate ja CE-märgisega suure riskiga tehisintellektisüsteemide turule laskmisele või kasutusele võtmisele.
(130)
Unter bestimmten Bedingungen kann die rasche Verfügbarkeit innovativer Technik für die Gesundheit und Sicherheit von Menschen, den Schutz der Umwelt und vor dem Klimawandel und die Gesellschaft insgesamt von entscheidender Bedeutung sein. Es ist daher angezeigt, dass die Aufsichtsbehörden aus außergewöhnlichen Gründen der öffentlichen Sicherheit, des Schutzes des Lebens und der Gesundheit natürlicher Personen, des Umweltschutzes und des Schutzes wichtiger Industrie- und Infrastrukturanlagen das Inverkehrbringen oder die Inbetriebnahme von KI-Systemen, die keiner Konformitätsbewertung unterzogen wurden, genehmigen könnten. In hinreichend begründeten Fällen gemäß dieser Verordnung können Strafverfolgungs- oder Katastrophenschutzbehörden ein bestimmtes Hochrisiko-KI-System ohne Genehmigung der Marktüberwachungsbehörde in Betrieb nehmen, sofern diese Genehmigung während der Verwendung oder im Anschluss daran unverzüglich beantragt wird.
(130)
Teatavatel tingimustel võib uuenduslike tehnoloogiate kiire kättesaadavus olla inimeste tervise ja turvalisuse, keskkonnakaitse ja kliimamuutuste ning ühiskonna kui terviku jaoks olla äärmiselt tähtis. Seepärast on asjakohane, et teatavatel erandlikel põhjustel, mis on seotud avaliku julgeoleku või füüsiliste isikute elu ja tervise kaitse, keskkonnakaitse ning oluliste tööstus- ja taristuvarade kaitsega, võiksid turujärelevalveasutused lubada selliste tehisintellektisüsteemide turule laskmist või kasutusele võtmist, millele ei ole vastavushindamist tehtud. Käesolevas määruses sätestatud põhjendatud olukordades võivad õiguskaitseasutused või elanikkonnakaitseasutused võtta konkreetse suure riskiga tehisintellektisüsteemi kasutusele ilma turujärelevalveasutuse loata, tingimusel et sellist luba taotletakse põhjendamatu viivituseta kasutamise ajal või pärast seda.
(131)
Um die Arbeit der Kommission und der Mitgliedstaaten im KI-Bereich zu erleichtern und die Transparenz gegenüber der Öffentlichkeit zu erhöhen, sollten Anbieter von Hochrisiko-KI-Systemen, die nicht im Zusammenhang mit Produkten stehen, welche in den Anwendungsbereich einschlägiger Harmonisierungsrechtsvorschriften der Union fallen, und Anbieter, die der Auffassung sind, dass ein KI-System, das in den in einem Anhang dieser Verordnung aufgeführten Anwendungsfällen mit hohem Risiko aufgeführt ist, auf der Grundlage einer Ausnahme nicht hochriskant ist, dazu verpflichtet werden, sich und Informationen über ihr KI-System in einer von der Kommission einzurichtenden und zu verwaltenden EU-Datenbank zu registrieren. Vor der Verwendung eines KI-Systems, das in den in einem Anhang dieser Verordnung aufgeführten Anwendungsfällen mit hohem Risiko aufgeführt ist, sollten sich Betreiber von Hochrisiko-KI-Systemen, die Behörden, Einrichtungen oder sonstige Stellen sind, in dieser Datenbank registrieren und das System auswählen, dessen Verwendung sie planen. Andere Betreiber sollten berechtigt sein, dies freiwillig zu tun. Dieser Teil der EU-Datenbank sollte öffentlich und kostenlos zugänglich sein, und die Informationen sollten leicht zu navigieren, verständlich und maschinenlesbar sein. Die EU-Datenbank sollte außerdem benutzerfreundlich sein und beispielsweise die Suche, auch mit Stichwörtern, vorsehen, damit die breite Öffentlichkeit die einschlägigen Informationen finden kann, die bei der Registrierung von Hochrisiko-KI-Systemen einzureichen sind und die sich auf einen in einem Anhang dieser Verordnung aufgeführten Anwendungsfall der Hochrisiko-KI-Systeme, denen die betreffenden Hochrisiko-KI-Systeme entsprechen, beziehen. Jede wesentliche Veränderung von Hochrisiko-KI-Systemen sollte ebenfalls in der EU-Datenbank registriert werden. Bei Hochrisiko-KI-Systemen, die in den Bereichen Strafverfolgung, Migration, Asyl und Grenzkontrolle eingesetzt werden, sollten die Registrierungspflichten in einem sicheren nicht öffentlichen Teil der EU-Datenbank erfüllt werden. Der Zugang zu dem gesicherten nicht öffentlichen Teil sollte sich strikt auf die Kommission sowie auf die Marktüberwachungsbehörden und bei diesen auf ihren nationalen Teil dieser Datenbank beschränken. Hochrisiko-KI-Systeme im Bereich kritischer Infrastrukturen sollten nur auf nationaler Ebene registriert werden. Die Kommission sollte gemäß der Verordnung (EU) 2018/1725 als für die EU-Datenbank Verantwortlicher gelten. Um die volle Funktionsfähigkeit der EU-Datenbank zu gewährleisten, sollte das Verfahren für die Einrichtung der Datenbank auch die Entwicklung von funktionalen Spezifikationen durch die Kommission und einen unabhängigen Prüfbericht umfassen. Die Kommission sollte bei der Wahrnehmung ihrer Aufgaben als Verantwortliche für die EU-Datenbank die Risiken im Zusammenhang mit Cybersicherheit berücksichtigen. Um für ein Höchstmaß an Verfügbarkeit und Nutzung der EU-Datenbank durch die Öffentlichkeit zu sorgen, sollte die EU-Datenbank, einschließlich der über sie zur Verfügung gestellten Informationen, den Anforderungen der Richtlinie (EU) 2019/882 entsprechen.
(131)
Et hõlbustada tööd, mida komisjon ja liikmesriigid tehisintellekti vallas teevad, ning suurendada avalikkuse jaoks läbipaistvust, peaksid muude kui asjaomaste olemasolevate liidu ühtlustamisõigusaktide kohaldamisalasse kuuluvate toodetega seotud suure riskiga tehisintellektisüsteemide pakkujad, samuti pakkujad, kes leiavad, et käesoleva määruse lisas suure riski kasutusena loetletud tehisintellektisüsteem ei ole kohaldatava erandi alusel suure riskiga, olema kohustatud registreerima iseenda ja teabe oma tehisintellektisüsteemi kohta ELi andmebaasis, mille loob ja mida haldab komisjon. Enne käesoleva määruse lisas suure riski kasutusena loetletud tehisintellektisüsteemi kasutamist peaksid suure riskiga tehisintellektisüsteemide juurutajad, kes on avaliku sektori asutused, ametid või organid, end selles ELi andmebaasis registreerima ja valima välja süsteemi, mida nad kavatsevad kasutada. Teistel juurutajatel peaks olema õigus teha seda vabatahtlikult. See ELi andmebaasi osa peaks olema avalik ja tasuta kättesaadav, teave peaks olema kergesti kasutatav, arusaadav ja masinloetav. ELi andmebaas peaks olema ka kasutajasõbralik, näiteks pakkudes otsingufunktsioone, sealhulgas märksõnade kaudu, võimaldades üldsusel leida asjakohast teavet, mis peab olema edastatud kõrge riskitasemega tehisintellektisüsteemide registreerimisel, ja teavet selliste kõrge riskiga tehisintellektisüsteemide kasutusmalli kohta, mis on suure riskiga tehisintellektisüsteemid vastavalt käesoleva määruse lisas sätestatule. ELi andmebaasis tuleks registreerida ka kõik suure riskiga tehisintellektisüsteemide olulised muudatused. Õiguskaitse, rände, varjupaiga ja piirikontrollihalduse valdkonna suure riskiga tehisintellektisüsteemide puhul tuleks registreerimiskohustusi täita ELi andmebaasi turvalises mitteavalikus osas. Turvalisele mitteavalikule osale peaks juurdepääs olema rangelt üksnes komisjonil ja turujärelevalveasutustel nende andmebaasi riikliku osa piires. Elutähtsa taristu valdkonna suure riskiga tehisintellektisüsteeme tuleks registreerida üksnes riiklikul tasandil. Kooskõlas määrusega (EL) 2018/1725 peaks ELi andmebaasi vastutav töötleja olema komisjon. Et ELi andmebaas oleks kasutuselevõtmisel täielikult toimiv, peaks andmebaasi loomise menetlus hõlmama funktsionaalsete kirjelduste väljatöötamist komisjoni poolt ja sõltumatut auditiaruannet. Komisjon peaks ELi andmebaasi vastutava töötlejana oma ülesannete täitmisel võtma arvesse küberturvalisuse riske. Et maksimeerida ELi andmebaasi kättesaadavust ja kasutamist avalikkuse poolt, peaks ELi andmebaas, sealhulgas selle kaudu kättesaadavaks tehtud teave, vastama direktiivi (EL) 2019/882 nõuetele.
(132)
Bestimmte KI-Systeme, die mit natürlichen Personen interagieren oder Inhalte erzeugen sollen, können unabhängig davon, ob sie als hochriskant eingestuft werden, ein besonderes Risiko in Bezug auf Identitätsbetrug oder Täuschung bergen. Unter bestimmten Umständen sollte die Verwendung solcher Systeme daher — unbeschadet der Anforderungen an und Pflichten für Hochrisiko-KI-Systeme und vorbehaltlich punktueller Ausnahmen, um den besonderen Erfordernissen der Strafverfolgung Rechnung zu tragen — besonderen Transparenzpflichten unterliegen. Insbesondere sollte natürlichen Personen mitgeteilt werden, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Bei der Umsetzung dieser Pflicht sollten die Merkmale von natürlichen Personen, die aufgrund ihres Alters oder einer Behinderung schutzbedürftigen Gruppen angehören, berücksichtigt werden, soweit das KI-System auch mit diesen Gruppen interagieren soll. Darüber hinaus sollte natürlichen Personen mitgeteilt werden, wenn sie KI-Systemen ausgesetzt sind, die durch die Verarbeitung ihrer biometrischen Daten die Gefühle oder Absichten dieser Personen identifizieren oder ableiten oder sie bestimmten Kategorien zuordnen können. Solche spezifischen Kategorien können Aspekte wie etwa Geschlecht, Alter, Haarfarbe, Augenfarbe, Tätowierungen, persönliche Merkmale, ethnische Herkunft sowie persönliche Vorlieben und Interessen betreffen. Diese Informationen und Mitteilungen sollten für Menschen mit Behinderungen in entsprechend barrierefrei zugänglicher Form bereitgestellt werden.
(132)
Teatavad tehisintellektisüsteemid, mis on mõeldud suhtlema füüsiliste isikutega või sisu looma, võivad põhjustada spetsiifilisi kellegi teisena esinemise või pettuse riske olenemata sellest, kas süsteemid on liigitatud suure riskiga süsteemideks või mitte. Seepärast peaks nende süsteemide kasutamise suhtes teatavates olukordades kehtima spetsiifilised läbipaistvuskohustused, ilma et see piiraks suure riskiga tehisintellektisüsteemide suhtes kehtivate nõuete ja kohustuste ning sihipäraste erandite kohaldamist, et võtta arvesse õiguskaitse erivajadusi. Eelkõige tuleks füüsilistele isikutele anda teada, et nad suhtlevad tehisintellektisüsteemiga, välja arvatud juhul, kui see on mõistlikult informeeritud, tähelepaneliku ja aruka füüsilise isiku jaoks ilmne, võttes arvesse asjaolusid ja kasutamise konteksti. Kõnealuse kohustuse rakendamisel tuleks arvesse võtta nende füüsiliste isikute omadusi, kes kuuluvad oma vanuse või puude tõttu kaitsetutesse rühmadesse, niivõrd kui tehisintellektisüsteem on mõeldud ka nende rühmadega suhtlemiseks. Peale selle tuleks füüsilisi isikuid teavitada, kui nad puutuvad kokku tehisintellektisüsteemidega, mis suudavad nende biomeetrilisi andmeid töödeldes tuvastada või tuletada nende emotsioone või kavatsusi või liigitada kõnealused isikud konkreetsesse kategooriasse. Kõnealused konkreetsed kategooriad võivad olla seotud selliste aspektidega nagu sugu, vanus, juuksevärv, silmade värv, tätoveeringud, isikuomadused, etniline päritolu, isiklikud eelistused ja huvid. Selline teave ja teavitused tuleks edastada puuetega inimestele juurdepääsetavas vormingus.
(133)
Eine Vielzahl von KI-Systemen kann große Mengen synthetischer Inhalte erzeugen, bei denen es für Menschen immer schwieriger wird, sie vom Menschen erzeugten und authentischen Inhalten zu unterscheiden. Die breite Verfügbarkeit und die zunehmenden Fähigkeiten dieser Systeme wirken sich erheblich auf die Integrität des Informationsökosystems und das ihm entgegengebrachte Vertrauen aus, weil neue Risiken in Bezug auf Fehlinformation und Manipulation in großem Maßstab, Betrug, Identitätsbetrug und Täuschung der Verbraucher entstehen. Angesichts dieser Auswirkungen, des raschen Tempos im Technologiebereich und der Notwendigkeit neuer Methoden und Techniken zur Rückverfolgung der Herkunft von Informationen sollten die Anbieter dieser Systeme verpflichtet werden, technische Lösungen zu integrieren, die die Kennzeichnung in einem maschinenlesbaren Format und die Feststellung ermöglichen, dass die Ausgabe von einem KI-System und nicht von einem Menschen erzeugt oder manipuliert wurde. Diese Techniken und Methoden sollten — soweit technisch möglich — hinreichend zuverlässig, interoperabel, wirksam und belastbar sein, wobei verfügbare Techniken, wie Wasserzeichen, Metadatenidentifizierungen, kryptografische Methoden zum Nachweis der Herkunft und Authentizität des Inhalts, Protokollierungsmethoden, Fingerabdrücke oder andere Techniken, oder eine Kombination solcher Techniken je nach Sachlage zu berücksichtigen sind. Bei der Umsetzung dieser Pflicht sollten die Anbieter auch die Besonderheiten und Einschränkungen der verschiedenen Arten von Inhalten und die einschlägigen technologischen Entwicklungen und Marktentwicklungen in diesem Bereich, die dem allgemein anerkannten Stand der Technik entsprechen, berücksichtigen. Solche Techniken und Methoden können auf der Ebene des KI-Systems oder der Ebene des KI-Modells, darunter KI-Modelle mit allgemeinem Verwendungszweck zur Erzeugung von Inhalten, angewandt werden, wodurch dem nachgelagerten Anbieter des KI-Systems die Erfüllung dieser Pflicht erleichtert wird. Um die Verhältnismäßigkeit zu wahren, sollte vorgesehen werden, dass diese Kennzeichnungspflicht weder für KI-Systeme, die in erster Linie eine unterstützende Funktion für die Standardbearbeitung ausführen, noch für KI-Systeme, die die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern, gilt.
(133)
Mitmesugused tehisintellektisüsteemid võivad luua suures koguses sünteesitud sisu, mida inimestel on üha raskem eristada inimeste loodud ja ehtsast sisust. Nende süsteemide laialdasel kättesaadavusel ja üha paranevatel võimetel on märkimisväärne mõju teabe ökosüsteemi terviklusele ja usaldusväärsusele, põhjustades uusi mastaapse väärinformatsiooni ja manipuleerimise, pettuse, kellegi teisena esinemise ja tarbijate eksitamise riske. Seda mõju, tehnoloogia arengu kiiret tempot ning vajadust uute meetodite ja tehnikate järele teabe päritolu jälgimiseks arvesse võttes on asjakohane nõuda, et nende süsteemide pakkujad integreeriksid süsteemi tehnilised lahendused, mis võimaldavad masinloetavas vormingus märgistada ja tuvastada selle, et väljundi on loonud või seda on manipuleerinud tehisintellektisüsteem, mitte inimene. Sellised tehnikad ja meetodid peaksid olema nii usaldusväärsed, koostalitlusvõimelised, tõhusad ja töökindlad, kui see on olemasolevaid tehnikaid või nende kombinatsioone arvesse võttes tehniliselt võimalik, ning nendeks on näiteks vesimärgid, metaandmete identifitseerimine, krüptograafilised meetodid sisu päritolu ja autentsuse tõendamiseks, logimismeetodid, sõrmejäljed või muud asjakohased meetodid. Selle kohustuse rakendamisel peaksid pakkujad võtma arvesse ka eri liiki sisu eripärasid ja piire ning valdkonna asjakohaseid tehnoloogilisi ja turusuundumusi, nagu on kajastatud tehnika üldtunnustatud tasemes. Selliseid tehnikaid ja meetodeid saab rakendada tehisintellektisüsteemi või tehisintellektimudeli tasandil, sealhulgas sisu loovate üldotstarbeliste tehisintellektimudelite tasandil, hõlbustades seeläbi tehisintellektisüsteemi järgmise etapi pakkujal selle kohustuse täitmist. Proportsionaalsuse säilitamiseks on asjakohane ette näha, et see märgistamiskohustus ei peaks hõlmama tehisintellektisüsteeme, mis täidavad peamiselt standardse redigeerimise abifunktsiooni, ega tehisintellektisüsteeme, mis ei muuda oluliselt juurutaja esitatud sisendandmeid või nende semantikat.
(134)
Neben den technischen Lösungen, die von den Anbietern von KI-Systemen eingesetzt werden, sollten Betreiber, die ein KI-System zum Erzeugen oder Manipulieren von Bild-, Audio- oder Videoinhalte verwenden, die wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise echt oder wahr erscheinen würden (Deepfakes), auch klar und deutlich offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden, indem sie die Ausgaben von KI entsprechend kennzeichnen und auf ihren künstlichen Ursprung hinweisen. Die Einhaltung dieser Transparenzpflicht sollte nicht so ausgelegt werden, dass sie darauf hindeutet, dass die Verwendung des KI-Systems oder seiner Ausgabe das Recht auf freie Meinungsäußerung und das Recht auf Freiheit der Kunst und Wissenschaft, die in der Charta garantiert sind, behindern, insbesondere wenn der Inhalt Teil eines offensichtlich kreativen, satirischen, künstlerischen, fiktionalen oder analogen Werks oder Programms ist und geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen. In diesen Fällen beschränkt sich die in dieser Verordnung festgelegte Transparenzpflicht für Deepfakes darauf, das Vorhandenseins solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks, einschließlich seiner normalen Nutzung und Verwendung, nicht beeinträchtigt und gleichzeitig den Nutzen und die Qualität des Werks aufrechterhält. Darüber hinaus ist es angezeigt, eine ähnliche Offenlegungspflicht in Bezug auf durch KI erzeugte oder manipulierte Texte anzustreben, soweit diese veröffentlicht werden, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, es sei denn, die durch KI erzeugten Inhalte wurden einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen und eine natürliche oder juristische Person trägt die redaktionelle Verantwortung für die Veröffentlichung der Inhalte.
(134)
Lisaks tehisintellektisüsteemi pakkujate kasutatavatele tehnilistele lahendustele peaksid juurutajad, kes kasutavad tehisintellektisüsteemi, et luua või manipuleerida pildi-, audio- või videosisu, mis sarnaneb märgatavalt olemasolevate isikute, objektide, kohtade, üksuste või sündmustega ja võib inimesele ekslikult ehtne ja tõene näida (süvavõltsingud), ka selgel ja eristataval viisil avalikustama, et see sisu on kunstlikult loodud või seda on manipuleeritud, märgistades tehisintellekti väljundi vastavalt ja avalikustades selle tehisliku päritolu. Seda läbipaistvusnõude järgmist ei tohiks tõlgendada nii, et tehisintellektisüsteemi või selle väljundi kasutamine takistab põhiõiguste hartaga tagatud väljendusvabaduse ning kunsti ja teaduse vabaduse õiguse teostamist, eelkõige kui sisu moodustab osa ilmselgelt loomingulisest, satiirilisest, kunstilisest, väljamõeldud või samalaadsest teosest või programmist, tingimusel et kolmandate isikute õiguste ja vabaduste kaitseks kohaldatakse asjakohaseid kaitsemeetmeid. Sellistel juhtudel piirdub käesolevas määruses sätestatud süvavõltsingute läbipaistvuskohustus sellise loodud või manipuleeritud sisu olemasolu avalikustamisega asjakohasel viisil, mis ei takista teose kuvamist või vaatamist, sealhulgas selle tavapärast tarbimist ja kasutamist, säilitades samal ajal teose kasutatavuse ja kvaliteedi. Lisaks on asjakohane näha ette sarnane avalikustamiskohustus ka tehisintellekti loodud või manipuleeritud teksti puhul, kui see on avaldatud eesmärgiga teavitada avalikkust avalikku huvi pakkuvatest küsimustest, välja arvatud juhul, kui tehisintellekti loodud sisu on läbinud inimkontrolli või toimetusliku kontrolli ning füüsiline või juriidiline isik kannab sisu avaldamise eest toimetuslikku vastutust.
(135)
Unbeschadet des verbindlichen Charakters und der uneingeschränkten Anwendbarkeit der Transparenzpflichten kann die Kommission zudem die Ausarbeitung von Praxisleitfäden auf Unionsebene im Hinblick auf die Ermöglichung der wirksamen Umsetzung der Pflichten in Bezug auf die Feststellung und Kennzeichnung künstlich erzeugter oder manipulierter Inhalte erleichtern und fördern, auch um praktische Vorkehrungen zu unterstützen, mit denen gegebenenfalls die Feststellungsmechanismen zugänglich gemacht werden, die Zusammenarbeit mit anderen Akteuren entlang der Wertschöpfungskette erleichtert wird und Inhalte verbreitet oder ihre Echtheit und Herkunft überprüft werden, damit die Öffentlichkeit durch KI erzeugte Inhalte wirksam erkennen kann.
(135)
Ilma et see piiraks läbipaistvuskohustuste kohustuslikkust ja täielikku kohaldatavust, võib komisjon samuti julgustada ja hõlbustada tegevusjuhendite koostamist liidu tasandil, et hõlbustada kunstlikult loodud või manipuleeritud sisu avastamise ja märgistamisega seotud kohustuste tõhusat rakendamist, sealhulgas toetada praktilist korda, mille abil teha vajaduse korral avastamismehhanismid juurdepääsetavaks ja hõlbustada koostööd teiste väärtusahelas osalejatega, levitada sisu või kontrollida selle ehtsust ja päritolu, et võimaldada üldsusel tehisintellekti loodud sisu tõhusalt eristada.
(136)
Die Pflichten, die Anbietern und Betreibern bestimmter KI-Systeme mit dieser Verordnung auferlegt werden, die Feststellung und Offenlegung zu ermöglichen, dass die Ausgaben dieser Systeme künstlich erzeugt oder manipuliert werden, sind von besonderer Bedeutung für die Erleichterung der wirksamen Umsetzung der Verordnung (EU) 2022/2065. Dies gilt insbesondere für die Pflicht der Anbieter sehr großer Online-Plattformen oder sehr großer Online-Suchmaschinen, systemische Risiken zu ermitteln und zu mindern, die aus der Verbreitung von künstlich erzeugten oder manipulierten Inhalten entstehen können, insbesondere das Risiko tatsächlicher oder vorhersehbarer negativer Auswirkungen auf demokratische Prozesse, den gesellschaftlichen Diskurs und Wahlprozesse, unter anderem durch Desinformation. Die Anforderung gemäß dieser Verordnung, durch KI-Systeme erzeugte Inhalte zu kennzeichnen, berührt nicht die Pflicht in Artikel 16 Absatz 6 der Verordnung (EU) 2022/2065 für Anbieter von Hostingdiensten, gemäß Artikel 16 Absatz 1 der genannten Verordnung eingegangene Meldungen über illegale Inhalte zu bearbeiten, und sollte nicht die Beurteilung der Rechtswidrigkeit der betreffenden Inhalte und die Entscheidung darüber beeinflussen. Diese Beurteilung sollte ausschließlich anhand der Vorschriften für die Rechtmäßigkeit der Inhalte vorgenommen werden.
(136)
Määruse (EL) 2022/2065 tõhusa rakendamise hõlbustamiseks on eriti asjakohased kohustused, mis on käesoleva määrusega kehtestatud teatavate tehisintellektisüsteemide pakkujatele ja juurutajatele, et võimaldada avastada ja avalikustada seda, et nende süsteemide väljundid on kunstlikult loodud või manipuleeritud. See kehtib eelkõige seoses väga suurte digiplatvormide või väga suurte internetipõhiste otsingumootorite pakkujate kohustusega teha kindlaks ja maandada süsteemseid riske, mis võivad tuleneda kunstlikult loodud või manipuleeritud sisu levitamisest, eelkõige oht, et see avaldab tegelikku või prognoositavat negatiivset mõju demokraatlikele protsessidele, ühiskondlikule arutelule ja valimisprotsessidele, sealhulgas desinformatsiooni kaudu. Käesoleva määruse kohane nõue märgistada tehisintellektisüsteemide loodud sisu ei piira määruse (EL) 2022/2065 artikli 16 lõikes 6 sätestatud teabe talletamise teenuse pakkujate kohustust töödelda kõnealuse määruse artikli 16 lõike 1 kohaselt saadud teateid ebaseadusliku sisu kohta ning see ei tohiks mõjutada konkreetse sisu hindamist ja selle ebaseaduslikkust käsitlevat otsust. Hindamisel tuleks lähtuda üksnes sisu õiguspärasust reguleerivatest õigusnormidest.
(137)
Die Einhaltung der Transparenzpflichten für die von dieser Verordnung erfassten KI-Systeme sollte nicht als Hinweis darauf ausgelegt werden, dass die Verwendung des KI-Systems oder seiner Ausgabe nach dieser Verordnung oder anderen Rechtsvorschriften der Union und der Mitgliedstaaten rechtmäßig ist, und sollte andere Transparenzpflichten für Betreiber von KI-Systemen, die im Unionsrecht oder im nationalen Recht festgelegt sind, unberührt lassen.
(137)
Käesoleva määrusega hõlmatud tehisintellektisüsteemide läbipaistvuskohustuste täitmist ei tohiks tõlgendada nii, et tehisintellektisüsteemi või selle väljundi kasutamine on seaduslik käesoleva määruse või liidu ja liikmesriikide muu õiguse alusel, ning see ei tohiks piirata tehisintellektisüsteemide juurutajate muid läbipaistvuskohustusi, mis on sätestatud liidu või riigisiseses õiguses.
(138)
KI bezeichnet eine Reihe sich rasch entwickelnder Technologien, die eine Regulierungsaufsicht und einen sicheren und kontrollierten Raum für die Erprobung erfordern, wobei gleichzeitig eine verantwortungsvolle Innovation und die Integration geeigneter Schutzvorkehrungen und Risikominderungsmaßnahmen gewährleistet werden müssen. Um einen innovationsfördernden, zukunftssicheren und gegenüber Störungen widerstandsfähigen Rechtsrahmen sicherzustellen, sollten die Mitgliedstaaten sicherstellen, dass ihre zuständigen nationalen Behörden mindestens ein KI-Reallabor auf nationaler Ebene einrichten, um die Entwicklung und die Erprobung innovativer KI-Systeme vor deren Inverkehrbringen oder anderweitiger Inbetriebnahme unter strenger Regulierungsaufsicht zu erleichtern. Die Mitgliedstaaten könnten diese Pflicht auch erfüllen, indem sie sich an bereits bestehenden Reallaboren beteiligen oder ein Reallabor mit den zuständigen Behörden eines oder mehrerer Mitgliedstaaten gemeinsam einrichten, insoweit diese Beteiligung eine gleichwertige nationale Abdeckung für die teilnehmenden Mitgliedstaaten bietet. KI-Reallabore könnten in physischer, digitaler oder Hybrid-Form eingerichtet werden, und sie können physische sowie digitale Produkte umfassen. Die einrichtenden Behörden sollten ferner sicherstellen, dass die KI-Reallabore über angemessene Ressourcen für ihre Aufgaben, einschließlich finanzieller und personeller Ressourcen, verfügen.
(138)
Tehisintellekt on kiirelt arenev tehnoloogiaharu, mis eeldab regulatiivset järelevalvet ning turvalist ja kontrollitud eksperimenteerimisruumi, aga ka seda, et tagatud oleks vastutustundlik innovatsioon ning asjakohaste kaitsemeetmete ja riskimaandamismeetmete integreerimine. Et tagada õigusraamistik, mis edendab innovatsiooni, on tulevikukindel ja häirete suhtes vastupanuvõimeline, peaksid liikmesriigid tagama, et nende pädevad asutused loovad riiklikul tasandil vähemalt ühe tehisintellekti regulatiivliivakasti, mis hõlbustaks innovatiivsete tehisintellektisüsteemide arendamist ja testimist range regulatiivse järelevalve all, enne kui need süsteemid turule lastakse või muul moel kasutusele võetakse. Liikmesriigid võiksid seda kohustust täita, osaledes juba olemasolevates regulatiivliivakastides või luues regulatiivliivakasti koos ühe või mitme liikmesriigi pädeva asutusega, kui selline osalemine tagab osalevatele liikmesriikidele samaväärse riikliku katvuse. Tehisintellekti regulatiivliivakaste võiks luua füüsilisel, digitaalsel või hübriidkujul ning need võivad hõlmata nii füüsilisi kui ka digitaalseid tooteid. Samuti peaksid tehisintellekti regulatiivliivakastide loomise eest vastutavad asutused tagama, et regulatiivliivakastidel on nende toimimiseks piisavad vahendid, sealhulgas rahalised ja inimressursid.
(139)
Die Ziele der KI-Reallabore sollten in Folgendem bestehen: Innovationen im Bereich KI zu fördern, indem eine kontrollierte Versuchs- und Testumgebung für die Entwicklungsphase und die dem Inverkehrbringen vorgelagerte Phase geschaffen wird, um sicherzustellen, dass die innovativen KI-Systeme mit dieser Verordnung und anderem einschlägigen Unionsrecht und dem nationalen Recht in Einklang stehen. Darüber hinaus sollten die KI-Reallabore darauf abzielen, die Rechtssicherheit für Innovatoren sowie die Aufsicht und das Verständnis der zuständigen Behörden in Bezug auf die Möglichkeiten, neu auftretenden Risiken und Auswirkungen der KI-Nutzung zu verbessern, das regulatorische Lernen für Behörden und Unternehmen zu erleichtern, unter anderem im Hinblick auf künftige Anpassungen des Rechtsrahmens, die Zusammenarbeit und den Austausch bewährter Praktiken mit den an dem KI-Reallabor beteiligten Behörden zu unterstützen und den Marktzugang zu beschleunigen, unter anderem indem Hindernisse für KMU, einschließlich Start-up-Unternehmen, abgebaut werden. KI-Reallabore sollten in der gesamten Union weithin verfügbar sein, und ein besonderes Augenmerk sollte auf ihre Zugänglichkeit für KMU, einschließlich Start-up-Unternehmen, gelegt werden. Die Beteiligung am KI-Reallabor sollte sich auf Fragen konzentrieren, die zu Rechtsunsicherheit für Anbieter und zukünftige Anbieter führen, damit sie Innovationen vornehmen, mit KI in der Union experimentieren und zu evidenzbasiertem regulatorischen Lernen beitragen. Die Beaufsichtigung der KI-Systeme im KI-Reallabor sollte sich daher auf deren Entwicklung, Training, Testen und Validierung vor dem Inverkehrbringen oder der Inbetriebnahme der Systeme sowie auf das Konzept und das Auftreten wesentlicher Änderungen erstrecken, die möglicherweise ein neues Konformitätsbewertungsverfahren erfordern. Alle erheblichen Risiken, die bei der Entwicklung und Erprobung solcher KI-Systeme festgestellt werden, sollten eine angemessene Risikominderung und, in Ermangelung dessen, die Aussetzung des Entwicklungs- und Erprobungsprozesses nach sich ziehen. Gegebenenfalls sollten die zuständigen nationalen Behörden, die KI-Reallabore einrichten, mit anderen einschlägigen Behörden zusammenarbeiten, einschließlich derjenigen, die den Schutz der Grundrechte überwachen, und könnten die Einbeziehung anderer Akteure innerhalb des KI-Ökosystems gestatten, wie etwa nationaler oder europäischer Normungsorganisationen, notifizierter Stellen, Test- und Versuchseinrichtungen, Forschungs- und Versuchslabore, Europäischer Digitaler Innovationszentren und einschlägiger Interessenträger und Organisationen der Zivilgesellschaft. Im Interesse einer unionsweit einheitlichen Umsetzung und der Erzielung von Größenvorteilen ist es angezeigt, dass gemeinsame Vorschriften für die Umsetzung von KI-Reallaboren und ein Rahmen für die Zusammenarbeit zwischen den an der Beaufsichtigung der Reallabore beteiligten Behörden festgelegt werden. KI-Reallabore, die im Rahmen dieser Verordnung eingerichtet werden, sollten anderes Recht, das die Einrichtung anderer Reallabore ermöglicht, unberührt lassen, um die Einhaltung anderen Rechts als dieser Verordnung sicherzustellen. Gegebenenfalls sollten die für diese anderen Reallabore zuständigen Behörden die Vorteile der Nutzung dieser Reallabore auch zum Zweck der Gewährleistung der Konformität der KI-Systeme mit dieser Verordnung berücksichtigen. Im Einvernehmen zwischen den zuständigen nationalen Behörden und den am KI-Reallabor Beteiligten können Tests unter Realbedingungen auch im Rahmen des KI-Reallabors durchgeführt und beaufsichtigt werden.
(139)
Tehisintellekti regulatiivliivakastide eesmärk peaks olema edendada tehisintellekti innovatsiooni, luues arendus- ja turustamiseelses etapis kontrollitud eksperimenteerimis- ja testimiskeskkonna, et tagada innovatiivsete tehisintellektisüsteemide vastavus käesolevale määrusele ning muule asjakohasele liidu ja liikmesriigi õigusele. Lisaks peaks tehisintellekti regulatiivliivakastide eesmärk olema suurendada innovaatorite õiguskindlust ning pädevate asutuste järelevalvet ja arusaamist tehisintellekti kasutamise võimalustest, tekkivatest riskidest ja mõjust, hõlbustada asutuste ja ettevõtjate regulatiivset õppimist, sealhulgas pidades silmas õigusraamistiku tulevast kohandamist, toetada koostööd ja parimate tavade jagamist tehisintellekti regulatiivliivakasti kaasatud asutustega ning kiirendada juurdepääsu turgudele, sealhulgas kõrvaldades tõkked VKEde, sealhulgas idufirmade jaoks. Tehisintellekti regulatiivliivakastid peaksid olema laialdaselt kättesaadavad kogu liidus ning erilist tähelepanu tuleks pöörata nende kättesaadavusele VKEde, sealhulgas idufirmade jaoks. Tehisintellekti regulatiivliivakastis osalemisel tuleks keskenduda küsimustele, mis tekitavad pakkujatele ja võimalikele pakkujatele õiguskindlusetust seoses innovatsiooni, liidus tehisintellektiga eksperimenteerimise ja tõenduspõhisele regulatiivsele õppimisele kaasaaitamisega. Tehisintellektisüsteemide järelevalve tehisintellekti regulatiivliivakastis peaks seega hõlmama süsteemide arendamist, treenimist, testimist ja valideerimist enne nende turule laskmist või kasutusele võtmist, samuti sellise olulise muudatuse määratlust ja tegemist, mis võib nõuda uut vastavushindamismenetlust. Kui selliste tehisintellektisüsteemide arendamise ja testimise käigus tuvastatakse oluline risk, tuleb selle põhjal võtta piisavaid maandamismeetmeid ja kui see ei ole võimalik, tuleb arendamine ja testimine peatada. Kui see on asjakohane, peaksid tehisintellekti regulatiivliivakaste loovad riikide pädevad asutused tegema koostööd teiste asjaomaste asutustega, sealhulgas nendega, kes teevad järelevalvet põhiõiguste kaitse üle, ning võiksid lubada kaasata muid tehisintellekti ökosüsteemis osalejaid, nagu riiklikud või Euroopa standardiorganisatsioonid, teada antud asutused, testimis- ja eksperimenteerimisrajatised, teadus- ja eksperimenteerimislaborid, Euroopa digitaalse innovatsiooni keskused ning asjaomased sidusrühmad ja kodanikuühiskonna organisatsioonid. Selleks, et tagada ühetaoline rakendamine kogu liidus ja mastaabisääst, on asjakohane kehtestada tehisintellekti regulatiivliivakastide rakendamise ühised õigusnormid ja regulatiivliivakastide järelevalvega tegelevate asjaomaste ametiasutusete vahelise koostöö raamistik. Käesoleva määruse alusel loodud tehisintellekti regulatiivliivakastid ei tohiks piirata sellise muu õiguse kohaldamist, mis võimaldab luua muid regulatiivliivakaste, mille eesmärk on tagada kooskõla muu õigusega kui käesolev määrus. Kui see on asjakohane, peaksid nende muude regulatiivliivakastide eest vastutavad asjaomased pädevad asutused kaaluma, millised eelised on sellel, kui neid regulatiivliivakaste kasutatakse ka eesmärgiga tagada tehisintellektisüsteemide vastavus käesolevale määrusele. Riikide pädevate asutuste ja tehisintellekti regulatiivliivakastides osalejate vahelisel kokkuleppel võib tehisintellekti regulatiivliivakastide raames korraldada ja kontrollida ka testimist tegelikes tingimustes.
(140)
Die vorliegende Verordnung sollte im Einklang mit Artikel 6 Absatz 4 und Artikel 9 Absatz 2 Buchstabe g der Verordnung (EU) 2016/679 und den Artikeln 5, 6 und 10 der Verordnung (EU) 2018/1725 sowie unbeschadet des Artikels 4 Absatz 2 und des Artikels 10 der Richtlinie (EU) 2016/680 die Rechtsgrundlage für die Verwendung — ausschließlich unter bestimmten Bedingungen — personenbezogener Daten, die für andere Zwecke erhoben wurden, zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse innerhalb des KI-Reallabors durch die Anbieter und zukünftigen Anbieter im KI-Reallabor bilden. Alle anderen Pflichten von Verantwortlichen und Rechte betroffener Personen im Rahmen der Verordnungen (EU) 2016/679 und (EU) 2018/1725 und der Richtlinie (EU) 2016/680 gelten weiterhin. Insbesondere sollte diese Verordnung keine Rechtsgrundlage im Sinne des Artikels 22 Absatz 2 Buchstabe b der Verordnung (EU) 2016/679 und des Artikels 24 Absatz 2 Buchstabe b der Verordnung (EU) 2018/1725 bilden. Anbieter und zukünftige Anbieter im KI-Reallabor sollten angemessene Schutzvorkehrungen treffen und mit den zuständigen Behörden zusammenarbeiten, unter anderem indem sie deren Anleitung folgen und zügig und nach Treu und Glauben handeln, um etwaige erhebliche Risiken für die Sicherheit, die Gesundheit und die Grundrechte, die bei der Entwicklung, bei der Erprobung und bei Versuchen in diesem Reallabor auftreten können, zu mindern.
(140)
Käesoleva määrusega tuleks tehisintellekti regulatiivliivakastis tegutsevatele pakkujatele ja võimalikele pakkujatele ette näha õiguslik alus muul otstarbel kogutud isikuandmete kasutamiseks, et arendada tehisintellekti regulatiivliivakastis avalikes huvides teatavaid tehisintellektisüsteeme, ainult konkreetsetel tingimustel kooskõlas määruse (EL) 2016/679 artikli 6 lõikega 4 ja artikli 9 lõike 2 punktiga g ning määruse (EL) 2018/1725 artiklitega 5, 6 ja 10 ning ilma, et see piiraks direktiivi (EL) 2016/680 artikli 4 lõike 2 ja artikli 10 kohaldamist. Kõik muud vastutavate töötlejate kohustused ja andmesubjektide õigused, mis tulenevad määrustest (EL) 2016/679 ja (EL) 2018/1725 ning direktiivist (EL) 2016/680, jäävad kehtima. Eelkõige ei tohiks käesolev määrus olla õiguslik alus määruse (EL) 2016/679 artikli 22 lõike 2 punkti b ja määruse (EL) 2018/1725 artikli 24 lõike 2 punkti b tähenduses. Tehisintellekti regulatiivliivakastis tegutsevad pakkujad ja võimalikud pakkujad peaksid tagama asjakohased kaitsemeetmed ja tegema koostööd pädevate asutustega, järgides muu hulgas nende juhendeid ning tegutsedes viivitusteta ja heas usus, et vajalikul määral maandada turvalisust, tervist ja põhiõigusi ähvardavaid tuvastatud olulisi riske, mis võivad selles regulatiivliivakastis arendustegevuse, testimise ja eksperimenteerimise käigus tekkida.
(141)
Um den Prozess der Entwicklung und des Inverkehrbringens der in einem Anhang dieser Verordnung aufgeführten Hochrisiko-KI-Systeme zu beschleunigen, ist es wichtig, dass Anbieter oder zukünftige Anbieter solcher Systeme auch von einer spezifischen Regelung für das Testen dieser Systeme unter Realbedingungen profitieren können, ohne sich an einem KI-Reallabor zu beteiligen. In solchen Fällen, unter Berücksichtigung der möglichen Folgen solcher Tests für Einzelpersonen, sollte jedoch sichergestellt werden, dass mit dieser Verordnung angemessene und ausreichende Garantien und Bedingungen für Anbieter oder zukünftige Anbieter eingeführt werden. Diese Garantien sollten unter anderem die Einholung der informierten Einwilligung natürlicher Personen in die Beteiligung an Tests unter Realbedingungen umfassen, mit Ausnahme der Strafverfolgung, wenn die Einholung der informierten Einwilligung verhindern würde, dass das KI-System getestet wird. Die Einwilligung der Testteilnehmer zur Teilnahme an solchen Tests im Rahmen dieser Verordnung unterscheidet sich von der Einwilligung betroffener Personen in die Verarbeitung ihrer personenbezogenen Daten nach den einschlägigen Datenschutzvorschriften und greift dieser nicht vor. Ferner ist es wichtig, die Risiken zu minimieren und die Aufsicht durch die zuständigen Behörden zu ermöglichen und daher von zukünftigen Anbietern zu verlangen, dass sie der zuständigen Marktüberwachungsbehörde einen Plan für einen Test unter Realbedingungen vorgelegt haben, die Tests — vorbehaltlich einiger begrenzter Ausnahmen — in den dafür vorgesehenen Abschnitten der EU-Datenbank zu registrieren, den Zeitraum zu begrenzen, in dem die Tests durchgeführt werden können, und zusätzliche Schutzmaßnahmen für Personen, die schutzbedürftigen Gruppen angehören, sowie eine schriftliche Einwilligung mit der Festlegung der Aufgaben und Zuständigkeiten der zukünftigen Anbieter und der Betreiber und eine wirksame Aufsicht durch zuständiges Personal, das an den Tests unter Realbedingungen beteiligt ist, zu verlangen. Darüber hinaus ist es angezeigt, zusätzliche Schutzmaßnahmen vorzusehen, um sicherzustellen, dass die Vorhersagen, Empfehlungen oder Entscheidungen des KI-Systems effektiv rückgängig gemacht und missachtet werden können, und dass personenbezogene Daten geschützt sind und gelöscht werden, wenn die Testteilnehmer ihre Einwilligung zur Teilnahme an den Tests widerrufen haben, und zwar unbeschadet ihrer Rechte als betroffene Personen nach dem Datenschutzrecht der Union. Was die Datenübermittlung betrifft, so ist es angezeigt vorzusehen, dass Daten, die zum Zweck von Tests unter Realbedingungen erhoben und verarbeitet wurden, nur dann an Drittstaaten übermittelt werden sollten, wenn angemessene und anwendbare Schutzmaßnahmen nach dem Unionsrecht umgesetzt wurden, insbesondere im Einklang mit den Grundlagen für die Übermittlung personenbezogener Daten nach dem Datenschutzrecht der Union, während für nicht personenbezogene Daten angemessene Schutzmaßnahmen im Einklang mit dem Unionsrecht, z. B. den Verordnungen (EU) 2022/868 (42) und (EU) 2023/2854 (43) des Europäischen Parlaments und des Rates eingerichtet wurden.
(141)
Selleks et kiirendada käesoleva määruse lisas loetletud suure riskiga tehisintellektisüsteemide arendamist ja turule laskmist, on oluline, et selliste süsteemide pakkujad või võimalikud pakkujad saaksid kasutada ka erikorda nende süsteemide testimiseks tegelikes tingimustes, ilma et nad osaleksid tehisintellekti regulatiivliivakastis. Sellistel juhtudel, võttes arvesse sellise testimise võimalikke tagajärgi üksikisikutele, tuleks siiski tagada, et käesoleva määrusega kehtestatakse pakkujatele ja võimalikele pakkujatele asjakohased ja piisavad tagatised ja tingimused. Sellised tagatised peaksid muu hulgas hõlmama füüsilistelt isikutelt teadva nõusoleku taotlemist tegelikes tingimustes testimises osalemiseks, välja arvatud õiguskaitse puhul, kus teadva nõusoleku taotlemine takistaks tehisintellektisüsteemi testimist. Subjektide nõusolek sellises käesoleva määruse alusel toimuvas testimises osalemiseks erineb andmesubjektide nõusolekust oma isikuandmete töötlemiseks asjakohase andmekaitseõiguse alusel ega piira kõnealuse õiguse kohaldamist. Samuti on oluline minimeerida riske ja võimaldada pädevatel asutustel teostada järelevalvet ning nõuda seetõttu, et võimalikud pakkujad esitaksid pädevale turujärelevalveasutusele tegelikes tingimustes testimise kava, registreeriksid testimise ELi andmebaasi vastavates osades, välja arvatud mõned piiratud erandid, kehtestada piirangud ajavahemikule, mille jooksul testimine saab toimuda, ning nõuda täiendavaid kaitsemeetmeid kaitsetusse rühma kuuluvatele isikutele, ning kirjalikku kokkulepet, milles määratakse kindlaks võimalike pakkujate ja juurutajate ülesanded ja kohustused ning tegelikes tingimustes testimises osalevate pädevate töötajate tõhus järelevalve. Lisaks on asjakohane näha ette täiendavad kaitsemeetmed tagamaks, et tehisintellektisüsteemi prognoose, soovitusi ja otsuseid saab tulemuslikult tagasi võtta ja jätta need tähelepanuta ning et isikuandmed on kaitstud ja kustutatakse, kui uuringus osalejad on oma nõusoleku testimises osalemiseks tagasi võtnud, ilma et see piiraks nende kui andmesubjektide õigusi, mis tulenevad liidu andmekaitseõigusest. Seoses andmete edastamisega on samuti asjakohane näha ette, et tegelikes tingimustes testimiseks kogutud ja töödeldud andmeid tuleks kolmandatele riikidele edastada üksnes siis, kui rakendatakse liidu õiguse kohaseid asjakohaseid ja kohaldatavaid kaitsemeetmeid, eelkõige kooskõlas liidu andmekaitseõiguse kohaste isikuandmete edastamise alustega, samas kui isikustamata andmete puhul kehtestatakse asjakohased kaitsemeetmed kooskõlas liidu õigusega, näiteks Euroopa Parlamendi ja nõukogu määrustega (EL) 2022/868 (42) ja (EL) 2023/2854 (43).
(142)
Um sicherzustellen, dass KI zu sozial und ökologisch vorteilhaften Ergebnissen führt, werden die Mitgliedstaaten ermutigt, Forschung und Entwicklung zu KI-Lösungen, die zu sozial und ökologisch vorteilhaften Ergebnissen beitragen, zu unterstützen und zu fördern, wie KI-gestützte Lösungen für mehr Barrierefreiheit für Personen mit Behinderungen, zur Bekämpfung sozioökonomischer Ungleichheiten oder zur Erreichung von Umweltzielen, indem ausreichend Ressourcen — einschließlich öffentlicher Mittel und Unionsmittel — bereitgestellt werden, und — soweit angebracht und sofern die Voraussetzungen und Zulassungskriterien erfüllt sind — insbesondere unter Berücksichtigung von Projekten, mit denen diese Ziele verfolgt werden. Diese Projekte sollten auf dem Grundsatz der interdisziplinären Zusammenarbeit zwischen KI-Entwicklern, Sachverständigen in den Bereichen Gleichstellung und Nichtdiskriminierung, Barrierefreiheit und Verbraucher-, Umwelt- und digitale Rechte sowie Wissenschaftlern beruhen.
(142)
Tagamaks, et tehisintellekt toob ühiskonna ja keskkonna jaoks kaasa soodsad tulemused, julgustatakse liikmesriike toetama ja edendama tehisintellektilahenduste teadus- ja arendustegevust, et toetada ühiskonna ja keskkonna jaoks soodsate tulemuste saavutamist, näiteks tehisintellektipõhiseid lahendusi, et suurendada puuetega inimeste juurdepääsu, vähendada sotsiaal-majanduslikku ebavõrdsust või täita keskkonnaalaseid eesmärke, eraldades piisavalt vahendeid, sealhulgas avaliku sektori ja liidu rahalisi vahendeid, ning kui see on asjakohane ja tingimusel, et rahastamiskõlblikkuse ja valikukriteeriumid on täidetud, võttes eelkõige arvesse selliseid eesmärke taotlevaid projekte. Sellised projektid peaksid põhinema valdkondadevahelise koostöö põhimõttel tehisintellekti arendajate, ebavõrdsuse ja mittediskrimineerimise, juurdepääsetavuse, tarbija-, keskkonna- ja digitaalõiguste valdkonna ekspertide ning akadeemilise ringkonna vahel.
(143)
Um Innovationen zu fördern und zu schützen, ist es wichtig, die Interessen von KMU, einschließlich Start-up-Unternehmen, die Anbieter und Betreiber von KI-Systemen sind, besonders zu berücksichtigen. Zu diesem Zweck sollten die Mitgliedstaaten Initiativen ergreifen, die sich an diese Akteure richten, darunter auch Sensibilisierungs- und Informationsmaßnahmen. Die Mitgliedstaaten sollten KMU, einschließlich Start-up-Unternehmen, die ihren Sitz oder eine Zweigniederlassung in der Union haben, vorrangigen Zugang zu den KI-Reallaboren gewähren, soweit sie die Voraussetzungen und Zulassungskriterien erfüllen und ohne andere Anbieter und zukünftige Anbieter am Zugang zu den Reallaboren zu hindern, sofern die gleichen Voraussetzungen und Kriterien erfüllt sind. Die Mitgliedstaaten sollten bestehende Kanäle nutzen und gegebenenfalls neue Kanäle für die Kommunikation mit KMU, einschließlich Start-up-Unternehmen, Betreibern, anderen Innovatoren und gegebenenfalls Behörden einrichten, um KMU auf ihrem gesamten Entwicklungsweg zu unterstützen, indem sie ihnen Orientierungshilfe bieten und Fragen zur Durchführung dieser Verordnung beantworten. Diese Kanäle sollten gegebenenfalls zusammenarbeiten, um Synergien zu schaffen und eine Homogenität ihrer Leitlinien für KMU, einschließlich Start-up-Unternehmen, und Betreiber sicherzustellen. Darüber hinaus sollten die Mitgliedstaaten die Beteiligung von KMU und anderen einschlägigen Interessenträgern an der Entwicklung von Normen fördern. Außerdem sollten die besonderen Interessen und Bedürfnisse von Anbietern, die KMU, einschließlich Start-up-Unternehmen, sind, bei der Festlegung der Gebühren für die Konformitätsbewertung durch die notifizierten Stellen berücksichtigt werden. Die Kommission sollte regelmäßig die Zertifizierungs- und Befolgungskosten für KMU, einschließlich Start-up-Unternehmen, durch transparente Konsultationen bewerten, und sie sollte mit den Mitgliedstaaten zusammenarbeiten, um diese Kosten zu senken. So können beispielsweise Übersetzungen im Zusammenhang mit der verpflichtenden Dokumentation und Kommunikation mit Behörden für Anbieter und andere Akteure, insbesondere die kleineren unter ihnen, erhebliche Kosten verursachen. Die Mitgliedstaaten sollten möglichst dafür sorgen, dass eine der Sprachen, die sie für die einschlägige Dokumentation der Anbieter und für die Kommunikation mit den Akteuren bestimmen und akzeptieren, eine Sprache ist, die von der größtmöglichen Zahl grenzüberschreitender Betreiber weitgehend verstanden wird. Um den besonderen Bedürfnissen von KMU, einschließlich Start-up-Unternehmen, gerecht zu werden, sollte die Kommission auf Ersuchen des KI-Gremiums standardisierte Vorlagen für die unter diese Verordnung fallenden Bereiche bereitstellen. Ferner sollte die Kommission die Bemühungen der Mitgliedstaaten ergänzen, indem sie eine zentrale Informationsplattform mit leicht nutzbaren Informationen über diese Verordnung für alle Anbieter und Betreiber bereitstellt, indem sie angemessene Informationskampagnen durchführt, um für die aus dieser Verordnung erwachsenden Pflichten zu sensibilisieren, und indem sie die Konvergenz bewährter Praktiken bei Vergabeverfahren im Zusammenhang mit KI-Systemen bewertet und fördert. Mittlere Unternehmen, die bis vor kurzem als kleine Unternehmen im Sinne des Anhangs der Empfehlung 2003/361/EG der Kommission (44) galten, sollten Zugang zu diesen Unterstützungsmaßnahmen haben, da diese neuen mittleren Unternehmen mitunter nicht über die erforderlichen rechtlichen Ressourcen und Ausbildung verfügen, um ein ordnungsgemäßes Verständnis und eine entsprechende Einhaltung dieser Verordnung zu gewährleisten.
(143)
Innovatsiooni edendamiseks ja kaitsmiseks on oluline pöörata erilist tähelepanu VKEde, sealhulgas idufirmade, mis on tehisintellektisüsteemide pakkujad või juurutajad, huvidele. Liikmesriigid peaksid seda silmas pidades välja töötama nimetatud operaatoritele suunatud algatusi, muu hulgas teadlikkuse suurendamise ja teabe edastamise teemal. Liikmesriigid peaksid andma VKEdele, sealhulgas idufirmadele, kelle registrijärgne asukoht või filiaal on liidus, eelisjuurdepääsu tehisintellekti regulatiivliivakastidele, tingimusel et nad vastavad kõlblikkustingimustele ja valikukriteeriumidele, ilma et see välistaks teiste pakkujate ja võimalike pakkujate juurdepääsu regulatiivliivakastidele eeldusel, et nad on täitnud samad tingimused ja kriteeriumid. Liikmesriigid peaksid kasutama olemasolevaid kanaleid, ja kui see on asjakohane, siis looma uusi spetsiaalseid kanaleid suhtlemiseks VKEde, sealhulgas idufirmade, juurutajate, muude innovaatorite ja vajaduse korral kohalike ametiasutustega, et toetada VKEsid kogu nende arendustegevuse jooksul, et anda juhiseid ja vastata päringutele käesoleva määruse rakendamise kohta. Kui see on asjakohane, peaksid need kanalid tegema koostööd, et luua sünergiat ja tagada ühtsus VKEdele, sealhulgas idufirmadele, ja juurutajatele antavates suunistes. Lisaks peaksid liikmesriigid lihtsustama VKEde ja muude asjaomaste sidusrühmade osalemist standardimise arendamise protsessis. Ühtlasi tuleks pakkujatest VKEde, sealhulgas idufirmade, konkreetsete huvide ja vajadustega arvestada siis, kui teada antud asutused määravad kindlaks vastavushindamise tasud. Komisjon peaks korrapäraselt hindama VKEde, sealhulgas idufirmade sertifitseerimis- ja nõuete täitmisega seotud kulusid, kasutades selleks läbipaistvaid konsultatsioone, ning peaks tegema liikmesriikidega koostööd selliste kulude vähendamiseks. Näiteks kohustusliku dokumentatsiooni ja ametiasutustega suhtlemisega seotud tõlkekulud võivad osutuda pakkujate ja muude operaatorite jaoks märkimisväärseks, eriti juhul, kui tegemist on väiksemate ettevõtjatega. Liikmesriigid peaksid võimaluse korral tagama, et üks nende poolt asjaomaste pakkujate dokumentatsiooni ja operaatoritega suhtlemise jaoks kindlaks määratud ja neile vastuvõetavatest keeltest on keel, mis on üldjoontes arusaadav võimalikult suurele arvule piiriülestele juurutajatele. VKEde, sealhulgas idufirmade erivajadustega arvestamiseks peaks komisjon esitama nõukoja taotlusel standardvormid käesoleva määrusega hõlmatud valdkondade jaoks. Lisaks peaks komisjon täiendama liikmesriikide jõupingutusi, luues kõigile pakkujatele ja juurutajatele ühtse teabeplatvormi, mis sisaldab käesoleva määrusega seotud hõlpsasti kasutatavat teavet, korraldades asjakohaseid teavituskampaaniaid, et suurendada teadlikkust käesolevast määrusest tulenevatest kohustustest, ning hinnates ja edendades tehisintellektisüsteemidega seotud riigihankemenetluste parimate tavade lähendamist. Keskmise suurusega ettevõtjatel, kes kvalifitseerusid hiljuti väikeettevõtjateks komisjoni soovituse 2003/361/EÜ (44) lisa tähenduses, peaks olema kõnealustele toetusmeetmetele juurdepääs, kuna neil uutel keskmise suurusega ettevõtjatel võivad mõnikord puududa vajalikud õiguslikud vahendid ja koolitus, et tagada käesoleva määruse nõuetekohane mõistmine ja järgimine.
(144)
Um Innovationen zu fördern und zu schützen, sollten die Plattform für KI auf Abruf, alle einschlägigen Finanzierungsprogramme und -projekte der Union, wie etwa das Programm „Digitales Europa“ und Horizont Europa, die von der Kommission und den Mitgliedstaaten auf Unionsebene bzw. auf nationaler Ebene durchgeführt werden, zur Verwirklichung der Ziele dieser Verordnung beitragen.
(144)
Innovatsiooni edendamiseks ja kaitsmiseks peaksid tehisintellekti nõudeteenuste platvorm, kõik asjakohased liidu rahastamisprogrammid ja -projektid, nagu programm „Digitaalne Euroopa“ ja programm „Euroopa horisont“, mida rakendavad komisjon ja liikmesriigid vastavalt kas liidu või riiklikul tasandil, aitama kaasa käesoleva määruse eesmärkide saavutamisele.
(145)
Um die Risiken bei der Umsetzung, die sich aus mangelndem Wissen und fehlenden Fachkenntnissen auf dem Markt ergeben, zu minimieren und den Anbietern, insbesondere KMU, einschließlich Start-up-Unternehmen, und notifizierten Stellen die Einhaltung ihrer Pflichten aus dieser Verordnung zu erleichtern, sollten insbesondere die Plattform für KI auf Abruf, die europäischen Zentren für digitale Innovation und die Test- und Versuchseinrichtungen, die von der Kommission und den Mitgliedstaaten auf Unionsebene bzw. auf nationaler Ebene eingerichtet werden, zur Durchführung dieser Verordnung beitragen. Die Plattform für KI auf Abruf, die europäischen Zentren für digitale Innovation und die Test- und Versuchseinrichtungen können Anbieter und notifizierte Stellen im Rahmen ihres jeweiligen Auftrags und ihrer jeweiligen Kompetenzbereiche insbesondere technisch und wissenschaftlich unterstützen.
(145)
Et minimeerida rakendamisega seotud riske, mis tulenevad teadmiste ja oskusteabe puudumisest turul, ja muuta käesolevast määrusest tulenevate kohustuste täitmine pakkujate, eelkõige VKEde, sealhulgas idufirmade, ja teada antud asutuste jaoks hõlpsamaks, peaksid tehisintellekti nõudeteenuste platvorm, Euroopa digitaalse innovatsiooni keskused ning komisjoni ja liikmesriikide poolt liidu või riigi tasandil loodud testimis- ja eksperimenteerimisrajatised võimaluse korral aitama kaasa käesoleva määruse rakendamisele. Oma ülesannete ja pädevusvaldkondade piires on tehisintellekti nõudeteenuste platvorm, Euroopa digitaalse innovatsiooni keskused ning testimis- ja eksperimenteerimisrajatised võimelised andma pakkujatele ja teada antud asutustele eelkõige tehnilist ja teaduslikku tuge.
(146)
Angesichts der sehr geringen Größe einiger Akteure und um die Verhältnismäßigkeit in Bezug auf die Innovationskosten sicherzustellen, ist es darüber hinaus angezeigt, Kleinstunternehmen zu erlauben, eine der kostspieligsten Pflichten, nämlich die Einführung eines Qualitätsmanagementsystems, in vereinfachter Weise zu erfüllen, was den Verwaltungsaufwand und die Kosten für diese Unternehmen verringern würde, ohne das Schutzniveau und die Notwendigkeit der Einhaltung der Anforderungen für Hochrisiko-KI-Systeme zu beeinträchtigen. Die Kommission sollte Leitlinien ausarbeiten, um die Elemente des Qualitätsmanagementsystems zu bestimmen, die von Kleinstunternehmen auf diese vereinfachte Weise zu erfüllen sind.
(146)
Võttes arvesse mõne operaatori väga väikest suurust ja et tagada proportsionaalsus seoses innovatsioonikuludega, on asjakohane võimaldada mikroettevõtjatel täita ühte kõige kulukamat kohustust, näiteks kohustust kehtestada kvaliteedijuhtimise süsteem, lihtsustatud viisil, kuna see vähendaks nende ettevõtjate halduskoormust ja kulusid, ilma et see mõjutaks kaitse taset ja vajadust täita suure riskiga tehisintellektisüsteemidele kehtestatud nõudeid. Komisjon peaks välja töötama suunised, et täpsustada neid kvaliteedijuhtimise süsteemi elemente, mida mikroettevõtjad saavad lihtsustatud viisil täita.
(147)
Es ist angezeigt, dass die Kommission den Stellen, Gruppen oder Laboratorien, die gemäß den einschlägigen Harmonisierungsrechtsvorschriften der Union eingerichtet oder akkreditiert sind und Aufgaben im Zusammenhang mit der Konformitätsbewertung von Produkten oder Geräten wahrnehmen, die unter diese Harmonisierungsrechtsvorschriften der Union fallen, so weit wie möglich den Zugang zu Test- und Versuchseinrichtungen erleichtert. Dies gilt insbesondere für Expertengremien, Fachlaboratorien und Referenzlaboratorien im Bereich Medizinprodukte gemäß den Verordnungen (EU) 2017/745 und (EU) 2017/746.
(147)
On asjakohane, et komisjon hõlbustab võimaluste piires asjaomaste liidu ühtlustamisõigusaktide kohaselt loodud või akrediteeritud ning nende liidu ühtlustamisõigusaktide kohaldamisalasse kuuluvate toodete või seadmete vastavushindamise raames ülesandeid täitvate organite, rühmade või laborite juurdepääsu testimis- ja eksperimenteerimisrajatistele. Eeskätt kehtib see meditsiiniseadmete valdkonna eksperdirühmade, eksperdilaborite ja referentlaborite kohta vastavalt määrustele (EL) 2017/745 ja (EL) 2017/746.
(148)
Mit dieser Verordnung sollte ein Governance-Rahmen geschaffen werden, der sowohl die Koordinierung und Unterstützung der Anwendung dieser Verordnung auf nationaler Ebene als auch den Aufbau von Kapazitäten auf Unionsebene und die Integration von Interessenträgern im Bereich der KI ermöglicht. Für die wirksame Umsetzung und Durchsetzung dieser Verordnung ist ein Governance-Rahmen erforderlich, der es ermöglicht, zentrales Fachwissen auf Unionsebene zu koordinieren und aufzubauen. Per Kommissionbeschluss (45) wurde das Büro für Künstliche Intelligenz errichtet, dessen Aufgabe es ist, Fachwissen und Kapazitäten der Union im Bereich der KI zu entwickeln und zur Umsetzung des Unionsrechts im KI-Bereich beizutragen. Die Mitgliedstaaten sollten die Aufgaben des Büros für Künstliche Intelligenz erleichtern, um die Entwicklung von Fachwissen und Kapazitäten auf Unionsebene zu unterstützen und die Funktionsweise des digitalen Binnenmarkts zu stärken. Darüber hinaus sollten ein aus Vertretern der Mitgliedstaaten zusammengesetztes KI-Gremium, ein wissenschaftliches Gremium zur Integration der Wissenschaftsgemeinschaft und ein Beratungsforum für Beiträge von Interessenträgern zur Durchführung dieser Verordnung auf Unionsebene und auf nationaler Ebene eingerichtet werden. Die Entwicklung von Fachwissen und Kapazitäten der Union sollte auch die Nutzung bestehender Ressourcen und Fachkenntnisse umfassen, insbesondere durch Synergien mit Strukturen, die im Rahmen der Durchsetzung anderen Rechts auf Unionsebene aufgebaut wurden, und Synergien mit einschlägigen Initiativen auf Unionsebene, wie dem Gemeinsamen Unternehmen EuroHPC und den KI-Test- und Versuchseinrichtungen im Rahmen des Programms „Digitales Europa“.
(148)
Käesoleva määrusega tuleks kehtestada juhtimisraamistik, mis võimaldab koordineerida ja toetada käesoleva määruse kohaldamist riiklikul tasandil ning suurendada suutlikkust liidu tasandil ja lõimida tehisintellekti valdkonna sidusrühmi. Käesoleva määruse tõhusaks rakendamiseks ja jõustamiseks on vaja juhtimisraamistikku, mis võimaldab liidu tasandil keskset oskusteavet koordineerida ja koguda. Tehisintellektiamet loodi komisjoni otsusega (45) ja selle ülesanne on arendada liidus oskusteavet ja suutlikkust tehisintellekti valdkonnas ning aidata kaasa tehisintellekti käsitleva liidu õiguse rakendamisele. Liikmesriigid peaksid hõlbustama tehisintellektiameti ülesannete täitmist, et toetada liidu oskusteabe ja liidu tasandil suutlikkuse arendamist ning tugevdada digitaalse ühtse turu toimimist. Lisaks tuleks luua liikmesriikide esindajatest koosnev nõukoda, teaduskomisjon teadusringkondade integreerimiseks ja nõuandev kogu, et saada sidusrühmadelt panus käesoleva määruse rakendamisse liidu ja riiklikul tasandil. Liidu oskusteabe ja suutlikkuse arendamine peaks hõlmama ka olemasolevate ressursside ja oskusteabe kasutamist, eelkõige koostoime kaudu struktuuridega, mis on loodud liidu tasandil muu õiguse täitmise tagamise kontekstis, ning koostoime kaudu seotud algatustega liidu tasandil, nagu Euroopa kõrgjõudlusega andmetöötluse ühisettevõte ning programmi „Digitaalne Euroopa“ tehisintellekti testimis- ja eksperimenteerimisrajatistega.
(149)
Um eine reibungslose, wirksame und harmonisierte Durchführung dieser Verordnung zu erleichtern, sollte ein KI-Gremium eingerichtet werden. Das KI-Gremium sollte die verschiedenen Interessen des KI-Ökosystems widerspiegeln und sich aus Vertretern der Mitgliedstaaten zusammensetzen. Das KI-Gremium sollte für eine Reihe von Beratungsaufgaben zuständig sein, einschließlich der Abgabe von Stellungnahmen, Empfehlungen, Ratschlägen oder Beiträgen zu Leitlinien zu Fragen im Zusammenhang mit der Durchführung dieser Verordnung — darunter zu Durchsetzungsfragen, technischen Spezifikationen oder bestehenden Normen in Bezug auf die in dieser Verordnung festgelegten Anforderungen — sowie der Beratung der Kommission und der Mitgliedstaaten und ihrer zuständigen nationalen Behörden in spezifischen Fragen im Zusammenhang mit KI. Um den Mitgliedstaaten eine gewisse Flexibilität bei der Benennung ihrer Vertreter im KI-Gremium zu geben, können diese Vertreter alle Personen sein, die öffentlichen Einrichtungen angehören, die über einschlägige Zuständigkeiten und Befugnisse verfügen sollten, um die Koordinierung auf nationaler Ebene zu erleichtern und zur Erfüllung der Aufgaben des KI-Gremiums beizutragen. Das KI-Gremium sollte zwei ständige Untergruppen einrichten, um Marktüberwachungsbehörden und notifizierenden Behörden für die Zusammenarbeit und den Austausch in Fragen, die die Marktüberwachung bzw. notifizierende Stellen betreffen, eine Plattform zu bieten. Die ständige Untergruppe für Marktüberwachung sollte für diese Verordnung als Gruppe für die Verwaltungszusammenarbeit (ADCO-Gruppe) im Sinne des Artikels 30 der Verordnung (EU) 2019/1020 fungieren. Im Einklang mit Artikel 33 der genannten Verordnung sollte die Kommission die Tätigkeiten der ständigen Untergruppe für Marktüberwachung durch die Durchführung von Marktbewertungen oder -untersuchungen unterstützen, insbesondere im Hinblick auf die Ermittlung von Aspekten dieser Verordnung, die eine spezifische und dringende Koordinierung zwischen den Marktüberwachungsbehörden erfordern. Das KI-Gremium kann weitere ständige oder nichtständige Untergruppen einrichten, falls das für die Prüfung bestimmter Fragen zweckmäßig sein sollte. Das KI-Gremium sollte gegebenenfalls auch mit einschlägigen Einrichtungen, Sachverständigengruppen und Netzwerken der Union zusammenarbeiten, die im Zusammenhang mit dem einschlägigen Unionsrecht tätig sind, einschließlich insbesondere derjenigen, die im Rahmen des einschlägigen Unionsrechts über Daten, digitale Produkte und Dienstleistungen tätig sind.
(149)
Et hõlbustada käesoleva määruse sujuvat, tulemuslikku ja ühtset rakendamist, tuleks luua nõukoda. Nõukoda peaks kajastama tehisintellekti ökosüsteemi erinevaid huve ja koosnema liikmesriikide esindajatest. Nõukoda peaks vastutama mitmesuguste nõustamisalaste ülesannete eest, sealhulgas arvamuste, soovituste ja nõuannete andmine või osalemine suuniste andmises käesoleva määruse rakendamisega seotud küsimustes, muu hulgas jõustamise, tehniliste kirjelduste või kehtivate standardite kohta, mis puudutavad käesoleva määrusega kehtestatud nõudeid, ning komisjonile ja liikmesriikidele ning nende pädevatele asutustele nõu andmine konkreetsetes tehisintellektiga seotud küsimustes. Selleks et anda liikmesriikidele teatav paindlikkus oma esindajate nimetamisel nõukotta, võivad sellised esindajad olla avaliku sektori üksustesse kuuluvad mis tahes isikud, kellel peaksid olema asjakohased pädevused ja volitused, et hõlbustada koordineerimist riiklikul tasandil ja aidata kaasa nõukoja ülesannete täitmisele. Nõukoda peaks looma kaks alalist allrühma, et luua platvorm turujärelevalveasutuste ja teavitavate asutuste vaheliseks koostööks ja teabevahetuseks vastavalt turujärelevalve ja teada antud asutustega seotud küsimustes. Turujärelevalve alaline allrühm peaks tegutsema käesoleva määruse kohaldamisel halduskoostöörühmana määruse (EL) 2019/1020 artikli 30 tähenduses. Vastavalt kõnealuse määruse artiklile 33 peaks komisjon toetama turujärelevalve alalise allrühma tegevust, viies läbi turuhindamisi või -uuringuid, eelkõige selleks, et teha kindlaks käesoleva määruse aspektid, mis nõuavad turujärelevalveasutuste vahelist konkreetset ja kiiret koordineerimist. Nõukoda võib vastavalt vajadusele moodustada konkreetsete küsimuste uurimiseks muid alalisi või ajutisi allrühmi. Nõukoda peaks tegema vajaduse korral koostööd ka asjakohase liidu õiguse kontekstis tegutsevate asjaomaste liidu asutuste, eksperdirühmade ja võrgustikega, sealhulgas eelkõige nendega, kes tegutsevad andmeid, digitooteid ja -teenuseid käsitleva asjakohase liidu õiguse alusel.
(150)
Im Hinblick auf die Einbeziehung von Interessenträgern in die Umsetzung und Anwendung dieser Verordnung sollte ein Beratungsforum eingerichtet werden, um das KI-Gremium und die Kommission zu beraten und ihnen technisches Fachwissen bereitzustellen. Um eine vielfältige und ausgewogene Vertretung der Interessenträger mit gewerblichen und nicht gewerblichen Interessen und — innerhalb der Kategorie mit gewerblichen Interessen — in Bezug auf KMU und andere Unternehmen zu gewährleisten, sollten in dem Beratungsforum unter anderem die Industrie, Start-up-Unternehmen, KMU, die Wissenschaft, die Zivilgesellschaft, einschließlich der Sozialpartner, sowie die Agentur für Grundrechte, die ENISA, das Europäische Komitee für Normung (CEN), das Europäische Komitee für elektrotechnische Normung (CENELEC) und das Europäische Institut für Telekommunikationsnormen (ETSI) vertreten sein.
(150)
Selleks et tagada sidusrühmade kaasamine käesoleva määruse rakendamisse ja kohaldamisse, tuleks luua nõuandev kogu, et nõustada nõukoda ja komisjoni ning anda neile tehnilist oskusteavet. Selleks et sidusrühmade puhul oleks tagatud mitmekülgne ja tasakaalustatud esindatus ärihuvide ja mitteäriliste huvide vahel ning ärihuvide kategoorias VKEde ja muude ettevõtjate vahel, peaks nõuandev kogu muu hulgas hõlmama tööstust, idufirmasid, VKEsid, akadeemilisi ringkondi, kodanikuühiskonda, sealhulgas sotsiaalpartnereid, samuti Euroopa Liidu Põhiõiguste Ametit, ENISAt, Euroopa Standardikomiteed (CEN), Euroopa Elektrotehnika Standardikomiteed (CENELEC) ja Euroopa Telekommunikatsioonistandardite Instituuti (ETSI).
(151)
Zur Unterstützung der Umsetzung und Durchsetzung dieser Verordnung, insbesondere der Beobachtungstätigkeiten des Büros für Künstliche Intelligenz in Bezug auf KI-Modelle mit allgemeinem Verwendungszweck, sollte ein wissenschaftliches Gremium mit unabhängigen Sachverständigen eingerichtet werden. Die unabhängigen Sachverständigen, aus denen sich das wissenschaftliche Gremium zusammensetzt, sollten auf der Grundlage des aktuellen wissenschaftlichen oder technischen Fachwissens im KI-Bereich ausgewählt werden und ihre Aufgaben unparteiisch, objektiv und unter Achtung der Vertraulichkeit der bei der Durchführung ihrer Aufgaben und Tätigkeiten erhaltenen Informationen und Daten ausüben. Um eine Aufstockung der nationalen Kapazitäten, die für die wirksame Durchsetzung dieser Verordnung erforderlich sind, zu ermöglichen, sollten die Mitgliedstaaten für ihre Durchsetzungstätigkeiten Unterstützung aus dem Pool von Sachverständigen anfordern können, der das wissenschaftliche Gremium bildet.
(151)
Selleks et toetada käesoleva määruse rakendamist ja jõustamist, eelkõige tehisintellektiameti järelevalvetegevust seoses üldotstarbeliste tehisintellektimudelitega, tuleks luua sõltumatutest ekspertidest koosnev teaduskomisjon. Teaduskomisjoni kuuluvad sõltumatud eksperdid tuleks valida tehisintellekti valdkonna ajakohase teadusliku või tehnilise oskusteabe põhjal ning nad peaksid täitma oma ülesandeid erapooletult ja objektiivselt ning tagama oma ülesannete ja tegevuse käigus saadud teabe ja andmete konfidentsiaalsuse. Selleks et suurendada käesoleva määruse tõhusaks jõustamiseks vajalikku riiklikku suutlikkust, peaks liikmesriikidel olema võimalik taotleda oma jõustamistegevuseks toetust teaduskomisjoni ekspertide reservist.
(152)
Um eine angemessene Durchsetzung in Bezug auf KI-Systeme zu unterstützen und die Kapazitäten der Mitgliedstaaten zu stärken, sollten Unionsstrukturen zur Unterstützung der Prüfung von KI eingerichtet und den Mitgliedstaaten zur Verfügung gestellt werden.
(152)
Selleks et toetada tehisintellektisüsteemidega seotud nõuetekohast jõustamist ja tugevdada liikmesriikide suutlikkust, tuleks luua liidu tehisintellekti testimise toetusstruktuurid ja teha need liikmesriikidele kättesaadavaks.
(153)
Den Mitgliedstaaten kommt bei der Anwendung und Durchsetzung dieser Verordnung eine Schlüsselrolle zu. Dazu sollte jeder Mitgliedstaat mindestens eine notifizierende Behörde und mindestens eine Marktüberwachungsbehörde als zuständige nationale Behörden benennen, die die Anwendung und Durchführung dieser Verordnung beaufsichtigen. Die Mitgliedstaaten können beschließen, öffentliche Einrichtungen jeder Art zu benennen, die die Aufgaben der zuständigen nationalen Behörden im Sinne dieser Verordnung gemäß ihren spezifischen nationalen organisatorischen Merkmalen und Bedürfnissen wahrnehmen. Um die Effizienz der Organisation aufseiten der Mitgliedstaaten zu steigern und eine zentrale Anlaufstelle gegenüber der Öffentlichkeit und anderen Ansprechpartnern auf Ebene der Mitgliedstaaten und der Union einzurichten, sollte jeder Mitgliedstaat eine Marktüberwachungsbehörde als zentrale Anlaufstelle benennen.
(153)
Käesoleva määruse kohaldamisel ja täitmise tagamisel on keskne roll liikmesriikidel. Seoses sellega peaks iga liikmesriik määrama vähemalt ühe teavitava asutuse ja vähemalt ühe turujärelevalveasutuse riigi pädevateks asutusteks, eesmärgiga teha järelevalvet käesoleva määruse kohaldamise ja rakendamise üle. Liikmesriigid võivad otsustada määrata vastavalt oma riiklikele organisatsioonilistele iseärasustele ja vajadustele mis tahes avalik-õigusliku üksuse täitma käesoleva määruse tähenduses riigi pädeva asutuse ülesandeid. Selleks et suurendada liikmesriikide töökorralduse tõhusust ja luua ühtne kontaktpunkt suhtlemiseks üldsuse ja muude vastaspooltega liikmesriigi ja liidu tasandil, peaks iga liikmesriik määrama turujärelevalveasutuse, mis toimiks ühtse kontaktpunktina.
(154)
Die zuständigen nationalen Behörden sollten ihre Befugnisse unabhängig, unparteiisch und unvoreingenommen ausüben, um die Grundsätze der Objektivität ihrer Tätigkeiten und Aufgaben zu wahren und die Anwendung und Durchführung dieser Verordnung sicherzustellen. Die Mitglieder dieser Behörden sollten sich jeder Handlung enthalten, die mit ihren Aufgaben unvereinbar wäre, und sie sollten den Vertraulichkeitsvorschriften gemäß dieser Verordnung unterliegen.
(154)
Riigi pädevad asutused peaksid kasutama oma volitusi sõltumatult, erapooletult ja eelarvamusteta, et järgida oma tegevuse ja ülesannete täitmisel objektiivsuse ja erapooletuse põhimõtteid ning tagada käesoleva määruse kohaldamine ja rakendamine. Nende asutuste liikmed peaksid hoiduma igasugusest tegevusest, mis on vastuolus nende kohustustega, ning nende suhtes tuleks kohaldada käesoleva määruse kohaseid konfidentsiaalsusnõudeid.
(155)
Damit Anbieter von Hochrisiko-KI-Systemen die Erfahrungen mit der Verwendung von Hochrisiko-KI-Systemen bei der Verbesserung ihrer Systeme und im Konzeptions- und Entwicklungsprozess berücksichtigen oder rechtzeitig etwaige Korrekturmaßnahmen ergreifen können, sollten alle Anbieter über ein System zur Beobachtung nach dem Inverkehrbringen verfügen. Gegebenenfalls sollte die Beobachtung nach dem Inverkehrbringen eine Analyse der Interaktion mit anderen KI-Systemen, einschließlich anderer Geräte und Software, umfassen. Die Beobachtung nach dem Inverkehrbringen sollte nicht für sensible operative Daten von Betreibern, die Strafverfolgungsbehörden sind, gelten. Dieses System ist auch wichtig, damit den möglichen Risiken, die von KI-Systemen ausgehen, die nach dem Inverkehrbringen oder der Inbetriebnahme dazulernen, effizienter und zeitnah begegnet werden kann. In diesem Zusammenhang sollten die Anbieter auch verpflichtet sein, ein System einzurichten, um den zuständigen Behörden schwerwiegende Vorfälle zu melden, die sich aus der Verwendung ihrer KI-Systeme ergeben; damit sind Vorfälle oder Fehlfunktionen gemeint, die zum Tod oder zu schweren Gesundheitsschäden führen, schwerwiegende und irreversible Störungen der Verwaltung und des Betriebs kritischer Infrastrukturen, Verstöße gegen Verpflichtungen aus dem Unionsrecht, mit denen die Grundrechte geschützt werden sollen, oder schwere Sach- oder Umweltschäden.
(155)
Tagamaks, et suure riskiga tehisintellektisüsteemide pakkujad saavad võtta oma süsteemide ja projekteerimis- ja arendusprotsessi parandamiseks arvesse suure riskiga tehisintellektisüsteemide kasutamise käigus saadud kogemusi või võtta õigeaegselt võimalikke parandusmeetmeid, peaks kõigil pakkujatel olema sisse seatud turustamisjärgse seire süsteem. Asjakohasel juhul peaks turustamisjärgne seire hõlmama analüüsi koostoime kohta muude tehisintellektisüsteemidega, sealhulgas muude seadmete ja tarkvaraga. Turustamisjärgne seire ei peaks hõlmama õiguskaitseasutustest juurutajate tundlikke operatiivandmeid. Selline süsteem on oluline ka selleks, et tõhusamalt ja õigeaegsemalt tegeleda riskidega, mis tulenevad suure riskiga tehisintellektisüsteemidest, mis n-ö õpivad edasi ka pärast turule laskmist või kasutusele võtmist. Seoses sellega tuleks pakkujatelt nõuda ka seda, et neil oleks olemas süsteem, mille abil teatada asjaomastele asutustele kõikidest tõsistest intsidentidest, mis tulenevad nende tehisintellektisüsteemide kasutamisest, st intsidentidest või tõrgetest, mis põhjustavad surma või tõsist tervisekahju, elutähtsa taristu haldamise ja käitamise tõsiseid ja pöördumatuid häireid, põhiõiguste kaitseks ette nähtud liidu õigusest tulenevate kohustuste rikkumist või tõsist kahju varale või keskkonnale.
(156)
Zur Gewährleistung einer angemessenen und wirksamen Durchsetzung der Anforderungen und Pflichten gemäß dieser Verordnung, bei der es sich um eine Harmonisierungsrechtsvorschrift der Union handelt, sollte das mit der Verordnung (EU) 2019/1020 eingeführte System der Marktüberwachung und der Konformität von Produkten in vollem Umfang gelten. Die gemäß dieser Verordnung benannten Marktüberwachungsbehörden sollten über alle in der vorliegenden Verordnung und der Verordnung (EU) 2019/1020 festgelegten Durchsetzungsbefugnisse verfügen und ihre Befugnisse und Aufgaben unabhängig, unparteiisch und unvoreingenommen wahrnehmen. Obwohl die meisten KI-Systeme keinen spezifischen Anforderungen und Pflichten gemäß der vorliegenden Verordnung unterliegen, können die Marktüberwachungsbehörden Maßnahmen in Bezug auf alle KI-Systeme ergreifen, wenn sie ein Risiko gemäß dieser Verordnung darstellen. Aufgrund des spezifischen Charakters der Organe, Einrichtungen und sonstigen Stellen der Union, die in den Anwendungsbereich dieser Verordnung fallen, ist es angezeigt, dass der Europäische Datenschutzbeauftragte als eine zuständige Marktüberwachungsbehörde für sie benannt wird. Die Benennung zuständiger nationaler Behörden durch die Mitgliedstaaten sollte davon unberührt bleiben. Die Marktüberwachungstätigkeiten sollten die Fähigkeit der beaufsichtigten Einrichtungen, ihre Aufgaben unabhängig wahrzunehmen, nicht beeinträchtigen, wenn eine solche Unabhängigkeit nach dem Unionsrecht erforderlich ist.
(156)
Selleks et kindlustada liidu ühtlustamisõigusaktide hulka kuuluvas käesolevas määruses sätestatud nõuete ja kohustuste täitmise asjakohane ja tulemuslik tagamine, tuleks määrusega (EL) 2019/1020 kehtestatud toodete turujärelevalve ja nõuetele vastavuse süsteemi kohaldada täies ulatuses. Käesoleva määruse kohaselt määratud turujärelevalveasutustel peaksid olema kõik käesoleva määruse ja määruse (EL) 2019/1020 kohased täitmise tagamise volitused ning nad peaksid kasutama oma volitusi ja täitma oma kohustusi sõltumatult, erapooletult ja eelarvamusteta. Kuigi enamiku tehisintellektisüsteemide suhtes ei kohaldata käesoleva määruse kohaseid konkreetseid nõudeid ja kohustusi, võivad turujärelevalveasutused võtta meetmeid kõigi tehisintellektisüsteemide suhtes, kui need kujutavad endast ohtu vastavalt käesolevale määrusele. Käesoleva määruse kohaldamisalasse kuuluvate liidu institutsioonide, asutuste ja organite eripära tõttu on asjakohane määrata nende jaoks pädevaks turujärelevalveasutuseks Euroopa Andmekaitseinspektor. See ei tohiks piirata riigi pädevate asutuste nimetamist liikmesriikide poolt. Turujärelevalvetoimingud ei tohiks mõjutada järelevalve alla kuuluvate üksuste võimet täita oma ülesandeid sõltumatult, kui selline sõltumatus on nõutav liidu õiguses.
(157)
Diese Verordnung berührt nicht die Zuständigkeiten, Aufgaben, Befugnisse und Unabhängigkeit der einschlägigen nationalen Behörden oder Stellen, die die Anwendung des Unionsrechts zum Schutz der Grundrechte überwachen, einschließlich Gleichbehandlungsstellen und Datenschutzbehörden. Sofern dies für die Erfüllung ihres Auftrags erforderlich ist, sollten auch diese nationalen Behörden oder Stellen Zugang zu der gesamten im Rahmen dieser Verordnung erstellten Dokumentation haben. Es sollte ein spezifisches Schutzklauselverfahren festgelegt werden, um eine angemessene und zeitnahe Durchsetzung gegenüber KI-Systemen, die ein Risiko für Gesundheit, Sicherheit und Grundrechte bergen, sicherzustellen. Das Verfahren für solche KI-Systeme, die ein Risiko bergen, sollte auf Hochrisiko-KI-Systeme, von denen ein Risiko ausgeht, auf verbotene Systeme, die unter Verstoß gegen die in dieser Verordnung festgelegten verbotenen Praktiken in Verkehr gebracht, in Betrieb genommen oder verwendet wurden, sowie auf KI-Systeme, die unter Verstoß der Transparenzanforderungen dieser Verordnung bereitgestellt wurden und ein Risiko bergen, angewandt werden.
(157)
Käesolev määrus ei piira põhiõigusi kaitsva liidu õiguse kohaldamise järelevalvega tegelevate asjaomaste riiklike ametiasutuste või organite, sealhulgas võrdõiguslikkust edendavate asutuste ja andmekaitseasutuste pädevust, ülesandeid, volitusi ega sõltumatust. Kui see on nende volituste täitmiseks vajalik, peaks neil riiklikel ametiasutustel või organitel olema samuti juurdepääs igasugusele käesoleva määruse alusel koostatud dokumentatsioonile. Tuleks kehtestada konkreetne kaitsemenetlus, et tagada piisav ja õigeaegne täitmise tagamine tehisintellektisüsteemide osas, mis kujutavad endast ohtu tervisele, turvalisusele ja põhiõigustele. Selliste endast riski kujutavate tehisintellektisüsteemide jaoks kehtestatud menetlust tuleks kohaldada suure riskiga tehisintellektisüsteemide suhtes, mis kujutavad endast riski, keelatud süsteemide suhtes, mis on turule lastud, kasutusele võetud või mida kasutatakse, rikkudes käesoleva määruse sätteid keelatud kasutusviiside kohta, ning tehisintellektisüsteemide suhtes, mis on tehtud kättesaadavaks käesolevas määruses sätestatud läbipaistvusnõudeid rikkudes ja kujutavad endast riski.
(158)
Die Rechtsvorschriften der Union über Finanzdienstleistungen enthalten Vorschriften und Anforderungen für die interne Unternehmensführung und das Risikomanagement, die für regulierte Finanzinstitute bei der Erbringung solcher Dienstleistungen gelten, auch wenn sie KI-Systeme verwenden. Um eine kohärente Anwendung und Durchsetzung der Pflichten aus dieser Verordnung sowie der einschlägigen Vorschriften und Anforderungen der Rechtsvorschriften der Union über Finanzdienstleistungen zu gewährleisten, sollten die für die Beaufsichtigung und Durchsetzung jener Rechtsvorschriften zuständigen Behörden, insbesondere die zuständigen Behörden im Sinne der Verordnung (EU) Nr. 575/2013 des Europäischen Parlaments und des Rates (46) und der Richtlinien 2008/48/EG (47), 2009/138/EG (48), 2013/36/EU (49), 2014/17/EU (50) und (EU) 2016/97 (51) des Europäischen Parlaments und des Rates, im Rahmen ihrer jeweiligen Zuständigkeiten auch als zuständige Behörden für die Beaufsichtigung der Durchführung dieser Verordnung, einschließlich der Marktüberwachungstätigkeiten, in Bezug auf von regulierten und beaufsichtigten Finanzinstituten bereitgestellte oder verwendete KI-Systeme benannt werden, es sei denn, die Mitgliedstaaten beschließen, eine andere Behörde zu benennen, um diese Marktüberwachungsaufgaben wahrzunehmen. Diese zuständigen Behörden sollten alle Befugnisse gemäß dieser Verordnung und der Verordnung (EU) 2019/1020 haben, um die Anforderungen und Pflichten der vorliegenden Verordnung durchzusetzen, einschließlich Befugnisse zur Durchführung von Ex-post-Marktüberwachungstätigkeiten, die gegebenenfalls in ihre bestehenden Aufsichtsmechanismen und -verfahren im Rahmen des einschlägigen Unionsrechts über Finanzdienstleistungen integriert werden können. Es ist angezeigt, vorzusehen, dass die nationalen Behörden, die für die Aufsicht über unter die Richtlinie 2013/36/EU fallende Kreditinstitute zuständig sind, welche an dem mit der Verordnung (EU) Nr. 1024/2013 des Rates (52) eingerichteten einheitlichen Aufsichtsmechanismus teilnehmen, in ihrer Funktion als Marktüberwachungsbehörden gemäß der vorliegenden Verordnung der Europäischen Zentralbank unverzüglich alle im Zuge ihrer Marktüberwachungstätigkeiten ermittelten Informationen übermitteln, die für die in der genannten Verordnung festgelegten Aufsichtsaufgaben der Europäischen Zentralbank von Belang sein könnten. Um die Kohärenz zwischen der vorliegenden Verordnung und den Vorschriften für Kreditinstitute, die unter die Richtlinie 2013/36/EU fallen, weiter zu verbessern, ist es ferner angezeigt, einige verfahrenstechnische Anbieterpflichten in Bezug auf das Risikomanagement, die Beobachtung nach dem Inverkehrbringen und die Dokumentation in die bestehenden Pflichten und Verfahren gemäß der Richtlinie 2013/36/EU aufzunehmen. Zur Vermeidung von Überschneidungen sollten auch begrenzte Ausnahmen in Bezug auf das Qualitätsmanagementsystem der Anbieter und die Beobachtungspflicht der Betreiber von Hochrisiko-KI-Systemen in Betracht gezogen werden, soweit diese Kreditinstitute betreffen, die unter die Richtlinie 2013/36/EU fallen. Die gleiche Regelung sollte für Versicherungs- und Rückversicherungsunternehmen und Versicherungsholdinggesellschaften gemäß der Richtlinie 2009/138/EG und Versicherungsvermittler gemäß der Richtlinie (EU) 2016/97 sowie für andere Arten von Finanzinstituten gelten, die Anforderungen in Bezug auf ihre Regelungen oder Verfahren der internen Unternehmensführung unterliegen, die gemäß einschlägigem Unionsrecht der Union über Finanzdienstleistungen festgelegt wurden, um Kohärenz und Gleichbehandlung im Finanzsektor sicherzustellen.
(158)
Finantsteenuseid käsitlev liidu õigus sisaldab sisemise juhtimissüsteemi ja riskihalduse kohta käivaid õigusnorme ja nõudeid, mida kohaldatakse reguleeritud finantsasutuste suhtes nende teenuste pakkumise käigus, kaasa arvatud siis, kui nad kasutavad tehisintellektisüsteeme. Käesolevast määrusest tulenevate kohustuste ja finantsteenuseid käsitlevate liidu õigusaktide asjaomaste õigusnormide ja nõuete järjepideva kohaldamise ja täitmise tagamiseks tuleks nende õigusaktide järelevalve ja täitmise tagamise eest vastutavad pädevad asutused, eelkõige pädevad asutused, mis on määratletud Euroopa Parlamendi ja nõukogu määruses (EL) nr 575/2013 (46) ning Euroopa Parlamendi ja nõukogu direktiivides 2008/48/EÜ, (47) 2009/138/EÜ, (48) 2013/36/EL, (49) 2014/17/EL (50) ja (EL) 2016/97, (51) määrata nende vastava pädevuse piires pädevateks asutusteks, kes tegelevad käesoleva määruse rakendamise järelevalvega, sealhulgas turujärelevalvega, seoses reguleeritud ja järelevalve all olevate finantsasutuste pakutavate või kasutatavate tehisintellektisüsteemidega, välja arvatud juhul, kui liikmesriigid otsustavad määrata kõnealuseid turujärelevalveülesandeid täitma mõne muu asutuse. Kõnealustel pädevatel asutustel peaksid olema kõik käesolevast määrusest ja määrusest (EL) 2019/1020 tulenevad volitused tagada käesoleva määruse nõuete ja kohustuste täitmine, sealhulgas õigus viia läbi tagantjärele tehtavaid turujärelevalvetoiminguid, mida saab asjakohasel juhul integreerida nende olemasolevatesse, asjaomasest finantsteenuseid käsitlevast liidu õigusest tulenevasse järelevalvemehhanismidesse ja -menetlustesse. Otstarbekas on näha ette, et käesoleva määruse alusel turujärelevalveasutusena tegutsevad riiklikud asutused, kes vastutavad direktiivi 2013/36/EL alusel reguleeritud krediidiasutuste järelevalve eest ja osalevad nõukogu määrusega (EL) nr 1024/2013 (52) loodud ühtses järelevalvemehhanismis, peaksid viivitamata esitama Euroopa Keskpangale turujärelevalvetoimingute käigus kindlaks tehtud teabe, mis võib pakkuda huvi seoses kõnealuses määruses sätestatud Euroopa Keskpanga usaldatavusnõuete täitmise järelevalve ülesannetega. Et veelgi suurendada käesoleva määruse ja direktiivi 2013/36/EL alusel reguleeritud krediidiasutuste suhtes kohaldatavate õigusnormide sidusust, on ühtlasi otstarbekas integreerida pakkujate mõned riskijuhtimise, turustamisjärgse seire ja dokumentatsiooniga seotud menetluslikud kohustused direktiivi 2013/36/EL kohastesse olemasolevatesse kohustustesse ja menetlustesse. Kattuvuse vältimiseks tuleks ette näha ka piiratud erandid seoses pakkujate kvaliteedijuhtimissüsteemidega ja seirekohustusega, mis on pandud suure riskiga tehisintellektisüsteemide juurutajate, niivõrd, kuivõrd neid kohaldatakse direktiiviga 2013/36/EL reguleeritud krediidiasutuste suhtes. Sama korda tuleks kohaldada direktiivi 2009/138/EÜ kohaste kindlustus- ja edasikindlustusandjate ning kindlustusvaldusettevõtjate ning direktiivi (EL) 2016/97 kohaste kindlustusvahendajate suhtes ning muud liiki finantsasutuste suhtes, kes peavad täitma liidu finantsteenuseid käsitleva asjakohase õiguse kohaselt kehtestatud sisemise juhtimissüsteemi, korra või protsessidega seotud nõudeid, et tagada järjepidevus ja võrdne kohtlemine finantssektoris.
(159)
Jede Marktüberwachungsbehörde für Hochrisiko-KI-Systeme im Bereich der Biometrie, die in einem Anhang zu dieser Verordnung aufgeführt sind, sollte — soweit diese Systeme für die Zwecke der Strafverfolgung, von Migration, Asyl und Grenzkontrolle oder von Rechtspflege und demokratischen Prozessen eingesetzt werden — über wirksame Ermittlungs- und Korrekturbefugnisse verfügen, einschließlich mindestens der Befugnis, Zugang zu allen personenbezogenen Daten, die verarbeitet werden, und zu allen Informationen, die für die Ausübung ihrer Aufgaben erforderlich sind, zu erhalten. Die Marktüberwachungsbehörden sollten in der Lage sein, ihre Befugnisse in völliger Unabhängigkeit auszuüben. Jede Beschränkung ihres Zugangs zu sensiblen operativen Daten im Rahmen dieser Verordnung sollte die Befugnisse unberührt lassen, die ihnen mit der Richtlinie (EU) 2016/680 übertragen wurden. Kein Ausschluss der Offenlegung von Daten gegenüber nationalen Datenschutzbehörden im Rahmen dieser Verordnung sollte die derzeitigen oder künftigen Befugnisse dieser Behörden über den Geltungsbereich dieser Verordnung hinaus beeinträchtigen.
(159)
Igal käesoleva määruse lisas loetletud biomeetriliste andmete valdkonnaga seotud suure riskiga tehisintellektisüsteemide turujärelevalveasutusel, kui neid süsteeme kasutatakse õiguskaitseks, rände-, varjupaiga- ja piirikontrollihalduseks või õigusemõistmiseks ja demokraatlikeks protsessideks, peaksid olema tõhusad uurimis- ja parandusvolitused, sealhulgas vähemalt õigus saada juurdepääs kõigile töödeldavatele isikuandmetele ja kogu teabele, mis on vajalik tema ülesannete täitmiseks. Turujärelevalveasutustel peaks olema võimalik kasutada oma volitusi täiesti sõltumatult. Käesoleva määrusega kehtestatud tundlikele operatiivandmetele juurdepääsu piirangud ei tohiks piirata neile asutustele direktiiviga (EL) 2016/680 antud volitusi. Ükski käesoleva määruse kohane erand, mis puudutab andmete avaldamist riiklikele andmekaitseasutustele, ei tohiks mõjutada nende asutuste praeguseid või tulevasi volitusi väljaspool käesoleva määruse kohaldamisala.
(160)
Die Marktüberwachungsbehörden und die Kommission sollten gemeinsame Tätigkeiten, einschließlich gemeinsamer Untersuchungen, vorschlagen können, die von den Marktüberwachungsbehörden oder von den Marktüberwachungsbehörden gemeinsam mit der Kommission durchgeführt werden, um Konformität zu fördern, Nichtkonformität festzustellen, zu sensibilisieren und Orientierung zu dieser Verordnung und bestimmten Kategorien von Hochrisiko-KI-Systemen bereitzustellen, bei denen festgestellt wird, dass sie in zwei oder mehr Mitgliedstaaten ein ernstes Risiko darstellen. Gemeinsame Tätigkeiten zur Förderung der Konformität sollten im Einklang mit Artikel 9 der Verordnung (EU) 2019/1020 durchgeführt werden. Das Büro für Künstliche Intelligenz sollte die Koordinierung gemeinsamer Untersuchungen unterstützen.
(160)
Turujärelevalveasutused ja komisjon peaksid saama teha ettepanekuid ühismeetmete, sealhulgas ühiste uurimiste kohta, mida viivad läbi turujärelevalveasutused või turujärelevalveasutused koos komisjoniga ja mille eesmärk on edendada nõuetele vastavust, teha kindlaks mittevastavus, suurendada teadlikkust ja anda suuniseid käesoleva määruse kohta seoses selliste suure riskiga tehisintellektisüsteemide konkreetsete kategooriatega, mille puhul on leitud, et need kujutavad endast tõsist riski kahes või enamas liikmesriigis. Nõuete täitmise edendamiseks tuleks võtta ühismeetmeid kooskõlas määruse (EL) 2019/1020 artikliga 9. Ühisuurimiste koordineerimistoe peaks tagama tehisintellektiamet.
(161)
Die Verantwortlichkeiten und Zuständigkeiten auf Unionsebene und nationaler Ebene in Bezug auf KI-Systeme, die auf KI-Modellen mit allgemeinem Verwendungszweck aufbauen, müssen präzisiert werden. Um sich überschneidende Zuständigkeiten zu vermeiden, sollte die Aufsicht für KI-Systeme, die auf KI-Modellen mit allgemeinem Verwendungszweck beruhen und bei denen das Modell und das System vom selben Anbieter bereitgestellt werden, auf der Unionsebene durch das Büro für Künstliche Intelligenz erfolgen, das für diesen Zweck über die Befugnisse einer Marktüberwachungsbehörde im Sinne der Verordnung (EU) 2019/1020 verfügen sollte. In allen anderen Fällen sollten die nationalen Marktüberwachungsbehörden weiterhin für die Aufsicht über KI-Systeme zuständig sein. Bei KI-Systemen mit allgemeinem Verwendungszweck, die von Betreibern direkt für mindestens einen Zweck verwendet werden können, der als hochriskant eingestuft wird, sollten die Marktüberwachungsbehörden jedoch mit dem Büro für Künstliche Intelligenz zusammenarbeiten, um Konformitätsbewertungen durchzuführen, und sie sollten KI-Gremium und andere Marktüberwachungsbehörden entsprechend informieren. Darüber hinaus sollten Marktüberwachungsbehörden das Büro für Künstliche Intelligenz um Unterstützung ersuchen können, wenn die Marktüberwachungsbehörde nicht in der Lage ist, eine Untersuchung zu einem Hochrisiko-KI-System abzuschließen, weil sie keinen Zugang zu bestimmten Informationen im Zusammenhang mit dem KI-Modell mit allgemeinem Verwendungszweck, auf dem das Hochrisiko-KI-System beruht, haben. In diesen Fällen sollte das Verfahren bezüglich grenzübergreifender Amtshilfe nach Kapitel VI der Verordnung (EU) 2019/1020 entsprechend Anwendung finden.
(161)
On vaja selgitada liidu ja liikmesriikide tasandi kohustusi ja pädevusi seoses üldotstarbelistel tehisintellektimudelitel põhinevate tehisintellektisüsteemidega. Pädevuste kattumise vältimiseks peaks juhul, kui tehisintellektisüsteem põhineb üldotstarbelisel tehisintellektimudelil ning mudelit ja süsteemi pakub sama pakkuja, toimuma järelevalve liidu tasandil tehisintellektiameti kaudu, kellel peaks selleks olema turujärelevalveasutuse volitused määruse (EL) 2019/1020 tähenduses. Kõigil muudel juhtudel vastutavad tehisintellektisüsteemide järelevalve eest riiklikud turujärelevalveasutused. Selliste üldotstarbeliste tehisintellektisüsteemide puhul, mida juurutajad saavad kasutada otse vähemalt ühel eesmärgil, mis on liigitatud suure riskiga eesmärgiks, peaksid turujärelevalveasutused tegema tehisintellektiametiga koostööd, et hinnata nõuetele vastavust ning teavitada sellest nõukoda ja teisi turujärelevalveasutusi. Lisaks peaks turujärelevalveasutustel olema võimalik taotleda tehisintellektiametilt abi, kui turujärelevalveasutusel ei ole võimalik suure riskiga tehisintellektisüsteemi uurimist lõpule viia, kuna sellel puudub juurdepääs teatavale teabele, mis on seotud üldotstarbelise tehisintellektimudeliga, millel suure riskiga tehisintellektisüsteem põhineb. Sellistel juhtudel tuleks kohaldada määruse (EL) 2019/1020 VI peatükis sätestatud menetlust, mis käsitleb piiriülest vastastikust abi, mutatis mutandis.
(162)
Um das zentralisierte Fachwissen der Union und Synergien auf Unionsebene bestmöglich zu nutzen, sollte die Kommission für die Aufsicht und die Durchsetzung der Pflichten der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck zuständig sein. Das Büro für Künstliche Intelligenz sollte alle erforderlichen Maßnahmen durchführen können, um die wirksame Umsetzung dieser Verordnung im Hinblick auf KI-Modelle mit allgemeinem Verwendungszweck zu überwachen. Es sollte mögliche Verstöße gegen die Vorschriften für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck sowohl auf eigene Initiative, auf der Grundlage der Ergebnisse seiner Überwachungstätigkeiten, als auch auf Anfrage von Marktüberwachungsbehörden gemäß den in dieser Verordnung festgelegten Bedingungen untersuchen können. Zur Unterstützung einer wirksamen Überwachung durch das Büro für Künstliche Intelligenz sollte die Möglichkeit vorgesehen werden, dass nachgelagerte Anbieter Beschwerden über mögliche Verstöße gegen die Vorschriften für Anbieter von KI-Modellen und -Systemen mit allgemeinem Verwendungszweck einreichen können.
(162)
Selleks et liidu keskset oskusteavet ja koostoimet liidu tasandil parimal viisil ära kasutada, peaksid üldotstarbeliste tehisintellektimudelite pakkujate kohustuste järelevalve ja täitmise tagamise volitused kuuluma komisjoni pädevusse. Tehisintellektiametil peaks olema võimalik võtta kõik vajalikud meetmed, et jälgida käesoleva määruse tõhusat rakendamist seoses üldotstarbeliste tehisintellektimudelitega. Ametil peaks olema võimalik uurida üldotstarbeliste tehisintellektimudelite pakkujaid käsitlevate õigusnormide võimalikke rikkumisi nii omal algatusel, järelevalvetegevuse tulemuste põhjal kui ka turujärelevalveasutuste taotlusel kooskõlas käesolevas määruses sätestatud tingimustega. Selleks et toetada tehisintellektiameti tõhusat järelevalvet, peaks see nägema ette võimaluse, et järgmise etapi pakkujad saavad esitada kaebusi üldotstarbeliste tehisintellektimudelite ja -süsteemide pakkujaid käsitlevate õigusnormide võimaliku rikkumise kohta.
(163)
Um die Governance-Systeme für KI-Modelle mit allgemeinem Verwendungszweck zu ergänzen, sollte das wissenschaftliche Gremium die Überwachungstätigkeiten des Büros für Künstliche Intelligenz unterstützen; dazu kann es in bestimmten Fällen qualifizierte Warnungen an das Büro für Künstliche Intelligenz richten, die Folgemaßnahmen wie etwa Untersuchungen auslösen. Dies sollte der Fall sein, wenn das wissenschaftliche Gremium Grund zu der Annahme hat, dass ein KI-Modell mit allgemeinem Verwendungszweck ein konkretes und identifizierbares Risiko auf Unionsebene darstellt. Außerdem sollte dies der Fall sein, wenn das wissenschaftliche Gremium Grund zu der Annahme hat, dass ein KI-Modell mit allgemeinem Verwendungszweck die Kriterien erfüllt, die zu einer Einstufung als KI-Modell mit allgemeinem Verwendungszweck mit systemischem Risiko führen würde. Um dem wissenschaftlichen Gremium die Informationen zur Verfügung zu stellen, die für die Ausübung dieser Aufgaben erforderlich sind, sollte es einen Mechanismus geben, wonach das wissenschaftliche Gremium die Kommission ersuchen kann, Unterlagen oder Informationen von einem Anbieter anzufordern.
(163)
Üldotstarbeliste tehisintellektimudelite juhtimissüsteemide täiendamiseks peaks teaduskomisjon toetama tehisintellektiameti seiretegevust ja võib teatavatel juhtudel edastada tehisintellektiametile kvalifitseeritud hoiatusteateid, mille põhjal alustatakse järelkontrolle, näiteks uurimisi. See peaks olema nii juhul, kui teaduskomisjonil on põhjust kahtlustada, et üldotstarbeline tehisintellektimudel kujutab endast konkreetset ja tuvastatavat riski liidu tasandil. Lisaks peaks see nii olema juhul, kui teaduskomisjonil on põhjust kahtlustada, et üldotstarbeline tehisintellektimudel vastab kriteeriumidele, mis annaksid alust liigitada see süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks. Selleks et anda teaduskomisjonile teavet, mis on vajalik nende ülesannete täitmiseks, tuleks ette näha mehhanism, mille abil teaduskomisjon saab taotleda, et komisjon nõuaks pakkujalt dokumentatsiooni või teavet.
(164)
Das Büro für Künstliche Intelligenz sollte die erforderlichen Maßnahmen ergreifen können, um die wirksame Umsetzung und die Einhaltung der in dieser Verordnung festgelegten Pflichten der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck zu überwachen. Das Büro für Künstliche Intelligenz sollte mögliche Verstöße im Einklang mit den in dieser Verordnung vorgesehenen Befugnissen untersuchen können, unter anderem indem es Unterlagen und Informationen anfordert, Bewertungen durchführt und Maßnahmen von Anbietern von KI-Modellen mit allgemeinem Verwendungszweck verlangt. Was die Durchführung von Bewertungen betrifft, so sollte das Büro für Künstliche Intelligenz unabhängige Sachverständige mit der Durchführung der Bewertungen in seinem Namen beauftragen können, damit unabhängiges Fachwissen genutzt werden kann. Die Einhaltung der Pflichten sollte durchsetzbar sein, unter anderem durch die Aufforderung zum Ergreifen angemessener Maßnahmen, einschließlich Risikominderungsmaßnahmen im Fall von festgestellten systemischen Risiken, sowie durch die Einschränkung der Bereitstellung des Modells auf dem Markt, die Rücknahme des Modells oder den Rückruf des Modells. Als Schutzmaßnahme, die erforderlichenfalls über die in dieser Verordnung vorgesehenen Verfahrensrechte hinausgeht, sollten die Anbieter von KI-Modellen mit allgemeinem Verwendungszweck über die in Artikel 18 der Verordnung (EU) 2019/1020 vorgesehenen Verfahrensrechte verfügen, die — unbeschadet in der vorliegenden Verordnung vorgesehener spezifischerer Verfahrensrechte — entsprechend gelten sollten.
(164)
Tehisintellektiametil peaks olema võimalik võtta vajalikke meetmeid, et jälgida käesolevas määruses sätestatud üldotstarbeliste tehisintellektimudelite pakkujate kohustuste tõhusat rakendamist ja täitmist. Tehisintellektiametil peaks olema võimalik uurida võimalikke rikkumisi kooskõlas käesolevas määruses sätestatud volitustega, sealhulgas nõudes dokumentatsiooni ja teavet, viies läbi hindamisi ning nõudes üldotstarbeliste tehisintellektimudelite pakkujatelt meetmete võtmist. Selleks et kasutada sõltumatut oskusteavet, peaks tehisintellektiametil olema võimalik kaasata hindamise käigus sõltumatuid eksperte, kes hindamisi ameti nimel läbi viivad. Kohustuste täitmine peaks olema tagatud, muu hulgas nõudes asjakohaste meetmete võtmist, sealhulgas riskimaandusmeetmeid tuvastatud süsteemsete riskide korral, ning piirates mudeli turul kättesaadavaks tegemist, võttes selle turult tagasi või nõudes tagasi. Kui see on lisaks käesolevas määruses sätestatud menetlusõigustele vajalik, peaksid üldotstarbeliste tehisintellektimudelite pakkujatel olema kaitsemeetmena määruse (EL) 2019/1020 artiklis 18 sätestatud menetlusõigused, mida tuleks kohaldada mutatis mutandis, ilma et see piiraks käesolevas määruses sätestatud konkreetsemaid menetlusõigusi.
(165)
Die Entwicklung anderer KI-Systeme als Hochrisiko-KI-Systeme gemäß den Anforderungen dieser Verordnung kann zu einer stärkeren Verbreitung ethischer und vertrauenswürdiger KI in der Union führen. Anbieter von KI-Systemen, die kein hohes Risiko bergen, sollten angehalten werden, Verhaltenskodizes — einschließlich zugehöriger Governance-Mechanismen — zu erstellen, um eine freiwillige Anwendung einiger oder aller der für Hochrisiko-KI-Systeme geltenden Anforderungen zu fördern, die angesichts der Zweckbestimmung der Systeme und des niedrigeren Risikos angepasst werden, und unter Berücksichtigung der verfügbaren technischen Lösungen und bewährten Verfahren der Branche wie Modell- und Datenkarten. Darüber hinaus sollten die Anbieter und gegebenenfalls die Betreiber aller KI-Systeme, ob mit hohem Risiko oder nicht, und aller KI-Modelle auch ermutigt werden, freiwillig zusätzliche Anforderungen anzuwenden, z. B. in Bezug auf die Elemente der Ethikleitlinien der Union für vertrauenswürdige KI, die ökologische Nachhaltigkeit, Maßnahmen für KI-Kompetenz, die inklusive und vielfältige Gestaltung und Entwicklung von KI-Systemen, unter anderem mit Schwerpunkt auf schutzbedürftige Personen und die Barrierefreiheit für Menschen mit Behinderungen, die Beteiligung der Interessenträger, gegebenenfalls mit Einbindung einschlägiger Interessenträger wie Unternehmensverbänden und Organisationen der Zivilgesellschaft, Wissenschaft, Forschungsorganisationen, Gewerkschaften und Verbraucherschutzorganisationen an der Konzeption und Entwicklung von KI-Systemen und die Vielfalt der Entwicklungsteams, einschließlich einer ausgewogenen Vertretung der Geschlechter. Um sicherzustellen, dass die freiwilligen Verhaltenskodizes wirksam sind, sollten sie auf klaren Zielen und zentralen Leistungsindikatoren zur Messung der Verwirklichung dieser Ziele beruhen. Sie sollten außerdem in inklusiver Weise entwickelt werden, gegebenenfalls unter Einbeziehung einschlägiger Interessenträger wie Unternehmensverbände und Organisationen der Zivilgesellschaft, Wissenschaft, Forschungsorganisationen, Gewerkschaften und Verbraucherschutzorganisationen. Die Kommission kann Initiativen, auch sektoraler Art, ergreifen, um den Abbau technischer Hindernisse zu erleichtern, die den grenzüberschreitenden Datenaustausch im Zusammenhang mit der KI-Entwicklung behindern, unter anderem in Bezug auf die Infrastruktur für den Datenzugang und die semantische und technische Interoperabilität verschiedener Arten von Daten.
(165)
Muude tehisintellektisüsteemide kui suure riskiga tehisintellektisüsteemide arendamine kooskõlas käesoleva määruse nõuetega võib aidata kaasa eetilise ja usaldusväärse tehisintellekti laialdasemale levikule liidus. Muude kui suure riskiga tehisintellektisüsteemide pakkujaid tuleks julgustada koostama käitumisjuhendeid, sealhulgas nendega seotud juhtimismehhanisme, mille eesmärk on edendada suure riskiga tehisintellektisüsteemide suhtes kohaldatavate mõne või kõigi kohustuslike nõuete vabatahtlikku kohaldamist, mida on kohandatud vastavalt süsteemide sihtotstarbele ja väiksemale kaasnevale riskile ning võttes arvesse kättesaadavaid tehnilisi lahendusi ja tööstuse parimaid tavasid, nagu mudeli- ja andmekaardid. Kõigi tehisintellektisüsteemide, olgu need siis suure riskiga või mitte, ja tehisintellektimudelite pakkujaid ja vajaduse korral juurutajaid tuleks samuti julgustada vabatahtlikult kohaldama täiendavaid nõudeid, mis on seotud näiteks liidu usaldusväärse tehisintellekti eetikasuunistes sätestatud elementidega, keskkonnakestlikkusega, tehisintellektipädevuse meetmetega, tehisintellektisüsteemide kaasava ja mitmekesise projekteerimise ja arendamisega, sealhulgas tähelepanu pööramisega vähekaitstud isikutele ja juurdepääsetavusega puuetega inimeste jaoks, sidusrühmade osalemisega, kaasates vajaduse korral asjaomaseid sidusrühmi, nagu äri- ja kodanikuühiskonna organisatsioonid, akadeemilised ringkonnad, teadusorganisatsioonid, ametiühingud ja tarbijakaitseorganisatsioonid tehisintellektisüsteemide projekteerimisse ja arendamisse, ning arendusmeeskondade mitmekesisusega, sealhulgas soolise tasakaaluga. Vabatahtlike tegevusjuhendite tõhususe tagamiseks peaksid need põhinema selgetel eesmärkidel ja peamistel tulemusnäitajatel, et mõõta nende eesmärkide saavutamist. Samuti tuleks neid vajaduse korral töötada välja kaasaval viisil, kaasates asjaomaseid sidusrühmi, nagu äri- ja kodanikuühiskonna organisatsioonid, akadeemilised ringkonnad, teadusorganisatsioonid, ametiühingud ja tarbijakaitseorganisatsioonid. Komisjon võib töötada välja algatusi, sealhulgas valdkondlikke algatusi, et aidata vähendada tehnilisi tõkkeid, mis takistavad tehisintellekti arendamise jaoks toimuvat piiriülest andmevahetust, keskendudes muu hulgas andmetele juurdepääsu taristule ning eri andmeliikide semantilisele ja tehnilisele koostalitlusvõimele.
(166)
Es ist wichtig, dass KI-Systeme im Zusammenhang mit Produkten, die gemäß dieser Verordnung kein hohes Risiko bergen und daher nicht die in dieser Verordnung festgelegten Anforderungen für Hochrisiko-KI-Systeme erfüllen müssen, dennoch sicher sind, wenn sie in Verkehr gebracht oder in Betrieb genommen werden. Um zu diesem Ziel beizutragen, würde die Verordnung (EU) 2023/988 des Europäischen Parlaments und des Rates (53) als Sicherheitsnetz dienen.
(166)
On oluline, et tehisintellektisüsteemid, mis on seotud toodetega, mis ei ole käesoleva määruse alusel suure riskiga ja mis seega ei pea vastama suure riskiga tehisintellektisüsteemide suhtes sätestatud nõuetele, oleksid siiski ohutud, kui need turule lastakse või kasutusele võetakse. Selle eesmärgi saavutamiseks kohaldatakse turvaabinõuna Euroopa Parlamendi ja nõukogu määrust (EL) 2023/988 (53).
(167)
Zur Gewährleistung einer vertrauensvollen und konstruktiven Zusammenarbeit der zuständigen Behörden auf Ebene der Union und der Mitgliedstaaten sollten alle an der Anwendung dieser Verordnung beteiligten Parteien gemäß dem Unionsrecht und dem nationalen Recht die Vertraulichkeit der im Rahmen der Wahrnehmung ihrer Aufgaben erlangten Informationen und Daten wahren. Sie sollten ihre Aufgaben und Tätigkeiten so ausüben, dass insbesondere die Rechte des geistigen Eigentums, vertrauliche Geschäftsinformationen und Geschäftsgeheimnisse, die wirksame Durchführung dieser Verordnung, die öffentlichen und nationalen Sicherheitsinteressen, die Integrität von Straf- und Verwaltungsverfahren und die Integrität von Verschlusssachen geschützt werden.
(167)
Pädevate asutuste usaldusliku ja konstruktiivse koostöö tagamiseks liidu ja riikide tasandil peaksid kõik käesoleva määruse kohaldamises osalejad austama oma ülesannete täitmise käigus saadud teabe ja andmete konfidentsiaalsust kooskõlas liidu või riigisisese õigusega. Nad peaksid täitma oma ülesandeid ja tegutsema viisil, mis kaitseb eelkõige intellektuaalomandi õigusi, konfidentsiaalset äriteavet ja ärisaladusi, käesoleva määruse tõhusat rakendamist, avaliku ja riigi julgeolekuga seotud huve, kriminaal- ja haldusmenetluste terviklust ning salastatud teabe terviklust.
(168)
Die Einhaltung dieser Verordnung sollte durch die Verhängung von Sanktionen und anderen Durchsetzungsmaßnahmen durchsetzbar sein. Die Mitgliedstaaten sollten alle erforderlichen Maßnahmen ergreifen, um sicherzustellen, dass die Bestimmungen dieser Verordnung durchgeführt werden, und dazu unter anderem wirksame, verhältnismäßige und abschreckende Sanktionen für Verstöße festlegen und das Verbot der Doppelbestrafung befolgen. Um die verwaltungsrechtlichen Sanktionen für Verstöße gegen diese Verordnung zu verschärfen und zu harmonisieren, sollten Obergrenzen für die Festsetzung der Geldbußen bei bestimmten Verstößen festgelegt werden. Bei der Bemessung der Höhe der Geldbußen sollten die Mitgliedstaaten in jedem Einzelfall alle relevanten Umstände der jeweiligen Situation berücksichtigen, insbesondere die Art, die Schwere und die Dauer des Verstoßes und seiner Folgen sowie die Größe des Anbieters, vor allem wenn es sich bei diesem um ein KMU — einschließlich eines Start-up-Unternehmens — handelt. Der Europäische Datenschutzbeauftragte sollte befugt sein, gegen Organe, Einrichtungen und sonstige Stellen der Union, die in den Anwendungsbereich dieser Verordnung fallen, Geldbußen zu verhängen.
(168)
Käesoleva määruse järgimine peaks olema tagatud karistuste määramise ja muude täitemeetmete abil. Liikmesriigid peaksid võtma kõik vajalikud meetmed, et tagada käesoleva määruse sätete rakendamine, sealhulgas kehtestades mõjusad, proportsionaalsed ja hoiatavad karistused nende rikkumise eest, ning järgides ne bis in idem põhimõtet. Käesoleva määruse rikkumise eest määratavate halduskaristuste tugevdamiseks ja ühtlustamiseks tuleks kehtestada teatavate konkreetsete rikkumiste eest määratavate haldustrahvide ülemmäärad. Trahvisummade hindamisel peaksid liikmesriigid võtma igal üksikjuhul arvesse kõiki konkreetse olukorra asjakohaseid asjaolusid, võttes nõuetekohaselt arvesse eelkõige rikkumise laadi, raskusastet ja kestust ning selle tagajärgi ja pakkuja suurust, eelkõige juhul, kui pakkuja on VKE, sealhulgas idufirma. Euroopa Andmekaitseinspektoril peaks olema õigus määrata trahve käesoleva määruse kohaldamisalasse kuuluvatele liidu institutsioonidele, asutustele ja organitele.
(169)
Die Einhaltung der mit dieser Verordnung auferlegten Pflichten für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck sollte unter anderem durch Geldbußen durchgesetzt werden können. Zu diesem Zweck sollten Geldbußen in angemessener Höhe für Verstöße gegen diese Pflichten, einschließlich der Nichteinhaltung der von der Kommission gemäß dieser Verordnung verlangten Maßnahmen, festgesetzt werden, vorbehaltlich angemessener Verjährungsfristen im Einklang mit dem Grundsatz der Verhältnismäßigkeit. Alle Beschlüsse, die die Kommission auf der Grundlage dieser Verordnung fasst, unterliegen der Überprüfung durch den Gerichtshof der Europäischen Union im Einklang mit dem AEUV, einschließlich der Befugnis des Gerichtshofs zu unbeschränkter Ermessensnachprüfung hinsichtlich Zwangsmaßnahmen im Einklang mit Artikel 261 AEUV.
(169)
Käesoleva määrusega kehtestatud üldotstarbeliste tehisintellektimudelite pakkujate kohustuste täitmine peaks olema tagatud muu hulgas trahvide abil. Selleks tuleks ette näha ka asjakohased trahvimäärad nende kohustuste rikkumise eest, sealhulgas komisjoni poolt käesoleva määruse kohaselt nõutud meetmete täitmata jätmise eest, kohaldades kooskõlas proportsionaalsuse põhimõttega asjakohaseid aegumistähtaegu. Kõik komisjoni poolt käesoleva määruse alusel tehtud otsused vaatab ELi toimimise lepingu kohaselt läbi Euroopa Liidu Kohus, sealhulgas seoses Euroopa Liidu Kohtu täieliku pädevusega karistuse määramisel ELi toimimise lepingu artikli 261 kohaselt.
(170)
Im Unionsrecht und im nationalen Recht sind bereits wirksame Rechtsbehelfe für natürliche und juristische Personen vorgesehen, deren Rechte und Freiheiten durch die Nutzung von KI-Systemen beeinträchtigt werden. Unbeschadet dieser Rechtsbehelfe sollte jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass gegen diese Verordnung verstoßen wurde, befugt sein, bei der betreffenden Marktüberwachungsbehörde eine Beschwerde einzureichen.
(170)
Liidu ja liikmesriigi õiguses on juba ette nähtud tõhusad õiguskaitsevahendid füüsilistele ja juriidilistele isikutele, kelle õigusi ja vabadusi tehisintellektisüsteemide kasutamine kahjustab. Ilma et see piiraks nimetatud õiguskaitsevahendite kohaldamist, peaks igal füüsilisel või juriidilisel isikul, kellel on alust arvata, et käesolevat määrust on rikutud, olema õigus asjaomasele turujärelevalveasutusele kaebus esitada.
(171)
Betroffene Personen sollten das Recht haben, eine Erklärung zu erhalten, wenn eine Entscheidung eines Betreibers überwiegend auf den Ausgaben bestimmter Hochrisiko-KI-systeme beruht, die in den Geltungsbereich dieser Verordnung fallen, und wenn diese Entscheidung Rechtswirkungen entfaltet oder diese Personen in ähnlicher Weise wesentlich beeinträchtigt, und zwar so, dass sie ihrer Ansicht nach negative Auswirkungen auf ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte hat. Diese Erklärung sollte klar und aussagekräftig sein, und sie sollte eine Grundlage bieten, auf der die betroffenen Personen ihre Rechte ausüben können. Das Recht auf eine Erklärung sollte nicht für die Nutzung von KI-Systemen gelten, für die sich aus dem Unionsrecht oder dem nationalen Recht Ausnahmen oder Beschränkungen ergeben, und es sollte nur insoweit gelten, als es nicht bereits in anderem Unionsrecht vorgesehen ist.
(171)
Mõjutatud isikutel peaks olema õigus selgitusele, kui juurutaja otsus põhineb peamiselt teatavate käesoleva määruse kohaldamisalasse kuuluvate suure riskiga tehisintellektisüsteemide väljundil ja kui see otsus tekitab õiguslikke tagajärgi või mõjutab neid isikuid sarnaselt märkimisväärselt viisil, mis nende arvates avaldab kahjulikku mõju nende tervisele, turvalisusele või põhiõigustele. See selgitus peaks olema selge ja sisukas ning andma aluse, mille põhjal saavad mõjutatud isikud oma õigusi kasutada. Õigust saada selgitust ei tohiks kohaldada selliste tehisintellektisüsteemide kasutamise suhtes, mille suhtes kehtivad liidu või liikmesriigi õigusest tulenevad erandid või piirangud, ning seda õigust tuleks kohaldada ainult siis, kui see ei ole liidu õiguses juba ette nähtud.
(172)
Personen, die als Hinweisgeber in Bezug auf die in dieser Verordnung genannten Verstöße auftreten, sollten durch das Unionsrecht geschützt werden. Für die Meldung von Verstößen gegen diese Verordnung und den Schutz von Personen, die solche Verstöße melden, sollte daher die Richtlinie (EU) 2019/1937 des Europäischen Parlaments und des Rates (54) gelten.
(172)
Isikuid, kes tegutsevad käesoleva määruse rikkumisest teatajatena, tuleks liidu õiguse alusel kaitsta. Seega tuleks käesoleva määruse rikkumisest teatamise ja sellistest rikkumisest teatajate kaitse suhtes kohaldada Euroopa Parlamendi ja nõukogu direktiivi (EL) 2019/1937 (54).
(173)
Damit der Regelungsrahmen erforderlichenfalls angepasst werden kann, sollte der Kommission die Befugnis übertragen werden, gemäß Artikel 290 AEUV Rechtsakte zur Änderung der Bedingungen, unter denen ein KI-System nicht als Hochrisiko-System einzustufen ist, der Liste der Hochrisiko-KI-Systeme, der Bestimmungen über die technische Dokumentation, des Inhalts der EU-Konformitätserklärung, der Bestimmungen über die Konformitätsbewertungsverfahren, der Bestimmungen zur Festlegung der Hochrisiko-KI-Systeme, für die das Konformitätsbewertungsverfahren auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der technischen Dokumentation gelten sollte, der Schwellenwerte, Benchmarks und Indikatoren — auch durch Ergänzung dieser Benchmarks und Indikatoren — in den Vorschriften für die Einstufung von KI-Modellen mit allgemeinem Verwendungszweck mit systemischem Risiko, der Kriterien für die Benennung von KI-Modellen mit allgemeinem Verwendungszweck mit systemischem Risiko, der technischen Dokumentation für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck und der Transparenzinformationen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck zu erlassen. Es ist von besonderer Bedeutung, dass die Kommission im Zuge ihrer Vorbereitungsarbeit angemessene Konsultationen, auch auf der Ebene von Sachverständigen, durchführt, die mit den Grundsätzen in Einklang stehen, die in der Interinstitutionellen Vereinbarung vom 13. April 2016 über bessere Rechtsetzung (55) niedergelegt wurden. Um insbesondere für eine gleichberechtigte Beteiligung an der Vorbereitung delegierter Rechtsakte zu sorgen, erhalten das Europäische Parlament und der Rat alle Dokumente zur gleichen Zeit wie die Sachverständigen der Mitgliedstaaten, und ihre Sachverständigen haben systematisch Zugang zu den Sitzungen der Sachverständigengruppen der Kommission, die mit der Vorbereitung der delegierten Rechtsakte befasst sind.
(173)
Tagamaks, et õigusraamistikku saab vajaduse korral kohandada, peaks komisjonil olema õigus võtta kooskõlas ELi toimimise lepingu artikliga 290 vastu delegeeritud õigusakte, et muuta tingimusi, mille alusel tehisintellektisüsteemi ei käsitata suure riskiga tehisintellektisüsteemina; suure riskiga tehisintellektisüsteemide loetelu; tehnilist dokumentatsiooni käsitlevaid sätteid; ELi vastavusdeklaratsiooni sisu; vastavushindamismenetlusi käsitlevaid sätteid; sätteid, millega määratakse kindlaks need suure riskiga tehisintellektisüsteemid, mille suhtes tuleks kohaldada kvaliteedijuhtimissüsteemi ja tehnilise dokumentatsiooni hindamisel põhinevat vastavushindamist; künnist, võrdlusaluseid ja näitajaid süsteemse riskiga üldotstarbeliste tehisintellektimudelite liigitamise õigusnormides, sealhulgas neid võrdlusaluseid ja näitajaid täiendades; kriteeriume süsteemse riskiga üldotstarbeliste tehisintellektimudelite liigitamiseks; üldotstarbeliste tehisintellektimudelite pakkujate tehnilist dokumentatsiooni ja üldotstarbeliste tehisintellektimudelite pakkujatele esitatavat läbipaistvusteavet.. On eriti oluline, et komisjon viiks oma ettevalmistava töö käigus läbi asjakohaseid konsultatsioone, sealhulgas ekspertide tasandil, ja et kõnealused konsultatsioonid viidaks läbi kooskõlas 13. aprilli 2016. aasta institutsioonidevahelises parema õigusloome kokkuleppes (55) sätestatud põhimõtetega. Eelkõige selleks, et tagada delegeeritud õigusaktide ettevalmistamises võrdne osalemine, saavad Euroopa Parlament ja nõukogu kõik dokumendid liikmesriikide ekspertidega samal ajal ning nende ekspertidel on pidev juurdepääs komisjoni eksperdirühmade koosolekutele, millel arutatakse delegeeritud õigusaktide ettevalmistamist.
(174)
Angesichts der raschen technologischen Entwicklungen und des für die wirksame Anwendung dieser Verordnung erforderlichen technischen Fachwissens sollte die Kommission diese Verordnung bis zum 2. August 2029 und danach alle vier Jahre bewerten und überprüfen und dem Europäischen Parlament und dem Rat darüber Bericht erstatten. Darüber hinaus sollte die Kommission — unter Berücksichtigung der Auswirkungen auf den Geltungsbereich dieser Verordnung — einmal jährlich beurteilen, ob es notwendig ist, die Liste der Hochrisiko-KI-Systeme und die Liste der verbotenen Praktiken zu ändern. Außerdem sollte die Kommission bis zum 2. August 2028 und danach alle vier Jahre die Notwendigkeit einer Änderung der Liste der Hochrisikobereiche im Anhang dieser Verordnung, die KI-Systeme im Geltungsbereich der Transparenzpflichten, die Wirksamkeit des Aufsichts- und Governance-Systems und die Fortschritte bei der Entwicklung von Normungsdokumenten zur energieeffizienten Entwicklung von KI-Modellen mit allgemeinem Verwendungszweck, einschließlich der Notwendigkeit weiterer Maßnahmen oder Handlungen, bewerten und dem Europäischen Parlament und dem Rat darüber Bericht erstatten. Schließlich sollte die Kommission bis zum 2. August 2028 und danach alle drei Jahre eine Bewertung der Folgen und der Wirksamkeit der freiwilligen Verhaltenskodizes durchführen, mit denen die Anwendung der für Hochrisiko-KI-Systeme vorgesehenen Anforderungen bei anderen KI-Systemen als Hochrisiko-KI-Systemen und möglicherweise auch zusätzlicher Anforderungen an solche KI-Systeme gefördert werden soll.
(174)
Võttes arvesse tehnoloogia kiiret arengut ja käesoleva määruse tõhusaks kohaldamiseks vajalikku tehnilist oskusteavet, peaks komisjon käesolevat määrust hindama ja vaatama selle läbi hiljemalt 2. augustiks 2029 ja seejärel iga nelja aasta järel ning esitama Euroopa Parlamendile ja nõukogule aruande. Võttes arvesse mõju käesoleva määruse kohaldamisalale, peaks komisjon lisaks kord aastas hindama vajadust muuta suure riskiga tehisintellektisüsteemide loetelu ja keelatud kasutusviiside loetelu. Lisaks peaks komisjon hiljemalt 2. augustiks 2028 ja seejärel iga nelja aasta järel hindama vajadust muuta käesoleva määruse lisas esitatud suure riskiga valdkondade rubriikide loetelu, läbipaistvuskohustuste kohaldamisalasse kuuluvaid tehisintellektisüsteeme, järelevalve- ja juhtimissüsteemi tõhusust ning üldotstarbeliste tehisintellektimudelite energiatõhusat arendamist käsitlevate standardimisdokumentide väljatöötamisel tehtud edusamme, sealhulgas vajadust täiendavate meetmete või tegevuste järele, ning esitama Euroopa Parlamendile ja nõukogule selle kohta aruande. Samuti peaks komisjon hiljemalt 2. augustiks 2028 ja pärast seda iga kolme aasta järel hindama, kui mõjusalt ja tulemuslikult on vabatahtlikkusel põhinevad käitumisjuhendid edendanud suure riskiga tehisintellektisüsteemidele kehtestatud nõuete kohaldamist tehisintellektisüsteemide puhul, mis ei ole suure riskiga tehisintellektisüsteemid, ja võimalik, et ka muude täiendavate nõuete kohaldamist selliste tehisintellektisüsteemide puhul.
(175)
Zur Gewährleistung einheitlicher Bedingungen für die Durchführung dieser Verordnung sollten der Kommission Durchführungsbefugnisse übertragen werden. Diese Befugnisse sollten gemäß der Verordnung (EU) Nr. 182/2011 des Europäischen Parlaments und des Rates (56) ausgeübt werden.
(175)
Selleks et tagada käesoleva määruse ühetaolised rakendamistingimused, tuleks komisjonile anda rakendamisvolitused. Neid volitusi tuleks teostada kooskõlas Euroopa Parlamendi ja nõukogu määrusega (EL) nr 182/2011 (56).
(176)
Da das Ziel dieser Verordnung, nämlich die Verbesserung der Funktionsweise des Binnenmarkts und die Förderung der Einführung einer auf den Menschen ausgerichteten und vertrauenswürdigen KI bei gleichzeitiger Gewährleistung eines hohen Maßes an Schutz der Gesundheit, der Sicherheit, der in der Charta verankerten Grundrechte, einschließlich Demokratie, Rechtsstaatlichkeit und Schutz der Umwelt vor schädlichen Auswirkungen von KI-Systemen in der Union, und der Förderung von Innovation, von den Mitgliedstaaten nicht ausreichend verwirklicht werden kann, sondern vielmehr wegen des Umfangs oder der Wirkungen der Maßnahme auf Unionsebene besser zu verwirklichen ist, kann die Union im Einklang mit dem in Artikel 5 EUV verankerten Subsidiaritätsprinzip tätig werden. Entsprechend dem in demselben Artikel genannten Grundsatz der Verhältnismäßigkeit geht diese Verordnung nicht über das für die Verwirklichung dieses Ziels erforderliche Maß hinaus.
(176)
Kuna käesoleva määruse eesmärki, nimelt parandada siseturu toimimist ning edendada inimkeskse ja usaldusväärse tehisintellekti laialdast kasutuselevõttu, tagades samal ajal tervise, turvalisuse ja põhiõiguste hartas sätestatud põhiõiguste, sealhulgas demokraatia, õigusriigi põhimõtte, kõrgel tasemel kaitse ja keskkonnakaitse tehisintellektisüsteemide kahjuliku mõju vastu liidus ning toetades innovatsiooni, ei suuda liikmesriigid piisavalt saavutada, küll aga saab seda meetme ulatuse või toime tõttu paremini saavutada liidu tasandil, võib liit võtta meetmeid kooskõlas ELi lepingu artiklis 5 sätestatud subsidiaarsuse põhimõttega. Kõnealuses artiklis sätestatud proportsionaalsuse põhimõtte kohaselt ei lähe käesolev määrus nimetatud eesmärgi saavutamiseks vajalikust kaugemale.
(177)
Um Rechtssicherheit zu gewährleisten, einen angemessenen Anpassungszeitraum für die Akteure sicherzustellen und Marktstörungen zu vermeiden, unter anderem durch Gewährleistung der Kontinuität der Verwendung von KI-Systemen, ist es angezeigt, dass diese Verordnung nur dann für die Hochrisiko-KI-Systeme, die vor dem allgemeinen Anwendungsbeginn dieser Verordnung in Verkehr gebracht oder in Betrieb genommen wurden, gilt, wenn diese Systeme ab diesem Datum erheblichen Veränderungen in Bezug auf ihre Konzeption oder Zweckbestimmung unterliegen. Es ist angezeigt, klarzustellen, dass der Begriff der erheblichen Veränderung in diesem Hinblick als gleichwertig mit dem Begriff der wesentlichen Änderung verstanden werden sollte, der nur in Bezug auf Hochrisiko-KI-Systeme im Sinne dieser Verordnung verwendet wird. Ausnahmsweise und im Lichte der öffentlichen Rechenschaftspflicht sollten Betreiber von KI-Systemen, die Komponenten der in einem Anhang zu dieser Verordnung aufgeführten durch Rechtsakte eingerichteten IT-Großsysteme sind, und Betreiber von Hochrisiko-KI-Systemen, die von Behörden genutzt werden sollen, die erforderlichen Schritte unternehmen, um den Anforderungen dieser Verordnung bis Ende 2030 bzw. bis zum 2. August 2030 nachzukommen.
(177)
Selleks et tagada õiguskindlus, tagada operaatoritele asjakohane kohanemisaeg ja vältida turuhäireid, sealhulgas tagades tehisintellektisüsteemide kasutamise järjepidevuse, on asjakohane, et käesolevat määrust kohaldatakse suure riskiga tehisintellektisüsteemide suhtes, mis on turule lastud või kasutusele võetud enne käesoleva määruse üldist kohaldamiskuupäeva, ainult juhul, kui pärast nimetatud kuupäeva muudetakse oluliselt nende projekti või sihtotstarvet. On asjakohane selgitada, et sellega seoses tuleks olulise muutmise mõistet käsitada sisuliselt samaväärsena olulise muudatuse mõistega, mida kasutatakse ainult käesoleva määruse kohaste suure riskiga tehisintellektisüsteemide puhul. Erandkorras ja avaliku sektori vastutust silmas pidades peaksid käesoleva määruse lisas loetletud õigusaktidega loodud suuremahuliste IT-süsteemide komponentideks olevate tehisintellektisüsteemide operaatorid ja avaliku sektori asutustele kasutamiseks mõeldud suure riskiga tehisintellektisüsteemide operaatorid võtma vajalikud meetmed, et täita käesoleva määruse nõuded 2030. aasta lõpuks ja hiljemalt 2. augustiks 2030.
(178)
Die Anbieter von Hochrisiko-KI-Systemen werden ermutigt, auf freiwilliger Basis bereits während der Übergangsphase mit der Einhaltung der einschlägigen Pflichten aus dieser Verordnung zu beginnen.
(178)
Suure riskiga tehisintellektisüsteemide pakkujaid julgustatakse hakkama vabatahtlikult täitma käesoleva määruse asjakohaseid kohustusi juba üleminekuperioodi jooksul.
(179)
Diese Verordnung sollte ab dem 2. August 2026 gelten. Angesichts des unannehmbaren Risikos, das mit der Nutzung von KI auf bestimmte Weise verbunden ist, sollten die Verbote sowie die allgemeinen Bestimmungen dieser Verordnung jedoch bereits ab dem 2. Februar 2025 gelten. Während die volle Wirkung dieser Verbote erst mit der Festlegung der Leitung und der Durchsetzung dieser Verordnung entsteht, ist die Vorwegnahme der Anwendung der Verbote wichtig, um unannehmbaren Risiken Rechnung zu tragen und Wirkung auf andere Verfahren, etwa im Zivilrecht, zu entfalten. Darüber hinaus sollte die Infrastruktur für die Leitung und das Konformitätsbewertungssystem vor dem 2. August 2026 einsatzbereit sein, weshalb die Bestimmungen über notifizierte Stellen und die Leitungsstruktur ab dem 2. August 2025 gelten sollten. Angesichts des raschen technologischen Fortschritts und der Einführung von KI-Modellen mit allgemeinem Verwendungszweck sollten die Pflichten der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck ab dem 2. August 2025 gelten. Die Verhaltenskodizes sollten bis zum 2. Mai 2025 vorliegen, damit die Anbieter die Einhaltung fristgerecht nachweisen können. Das Büro für Künstliche Intelligenz sollte sicherstellen, dass die Vorschriften und Verfahren für die Einstufung jeweils dem Stand der technologischen Entwicklung entsprechen. Darüber hinaus sollten die Mitgliedstaaten die Vorschriften über Sanktionen, einschließlich Geldbußen, festlegen und der Kommission mitteilen sowie dafür sorgen, dass diese bis zum Geltungsbeginn dieser Verordnung ordnungsgemäß und wirksam umgesetzt werden. Daher sollten die Bestimmungen über Sanktionen ab dem 2. August 2025 gelten.
(179)
Käesolevat määrust tuleks kohaldada alates 2. augustist 2026. Võttes aga arvesse vastuvõetamatut riski, mis on seotud tehisintellekti teatavate kasutusviisidega, tuleks keelde ja käesoleva määruse üldsätteid kohaldada juba alates 2. veebruarist 2025. Kuigi nende keeldude täielik mõju saavutatakse käesoleva määruse kohase juhtimise kehtestamise ja määruse jõustamisega, on oluline hakata keeldusid kohaldama juba varem, et võtta arvesse vastuvõetamatuid riske ja mõjutada muid menetlusi, näiteks tsiviilõiguses. Veelgi enam, juhtimise ja vastavushindamissüsteemiga seotud taristu tuleks tööle rakendada juba enne 2. augustit 2026 ning seepärast tuleks teada antud asutusi ja juhtimisstruktuuri käsitlevaid sätteid kohaldada alates 2. augustist 2025. Arvestades tehnoloogia kiiret arengut ja üldotstarbeliste tehisintellektimudelite kasutuselevõttu, tuleks üldotstarbeliste tehisintellektimudelite pakkujate kohustusi kohaldada alates 2. augustist 2025. Tegevusjuhendid peaksid olema valmis hiljemalt 2. maiks 2025, et võimaldada pakkujatel nõuetele vastavust õigeaegselt tõendada. Tehisintellektiamet peaks tagama, et liigitamise reeglid ja menetlused on tehnoloogia arengut silmas pidades ajakohased. Lisaks peaksid liikmesriigid nägema ette õigusnormid karistuste, kaasa arvatud haldustrahvide kohta, teatama neist komisjonile ning tagama, et need õigusnormid on käesoleva määruse kohaldamise kuupäevaks nõuetekohaselt ja tulemuslikult rakendatud. Seepärast tuleks karistusi käsitlevaid sätteid hakata kohaldama alates 2. augustist 2025.
(180)
Der Europäische Datenschutzbeauftragte und der Europäische Datenschutzausschuss wurden gemäß Artikel 42 Absätze 1 und 2 der Verordnung (EU) 2018/1725 angehört und haben am 18. Juni 2021 ihre gemeinsame Stellungnahme abgegeben —
(180)
Euroopa Andmekaitseinspektori ja Euroopa Andmekaitsenõukoguga konsulteeriti kooskõlas määruse (EL) 2018/1725 artikli 42 lõigetega 1 ja 2 ning nad esitasid oma ühisarvamuse 18. juunil 2021,
HABEN FOLGENDE VERORDNUNG ERLASSEN:
ON VASTU VÕTNUD KÄESOLEVA MÄÄRUSE:
(1) Diese Verordnung gilt für
1. Käesolevat määrust kohaldatakse järgmise suhtes:
a)
Anbieter, die in der Union KI-Systeme in Verkehr bringen oder in Betrieb nehmen oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind;
a)
pakkujad, kes tegelevad liidus tehisintellektisüsteemide turule laskmise või kasutusele võtmisega või üldotstarbeliste tehisintellektimudelite turule laskmisega, olenemata sellest, kas pakkuja on asutatud või asub liidus või kolmandas riigis;
b)
Betreiber von KI-Systemen, die ihren Sitz in der Union haben oder in der Union befinden;
b)
liidus asutatud või asuvad tehisintellektisüsteemide juurutajad;
c)
Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder sich in einem Drittland befinden, wenn die vom KI-System hervorgebrachte Ausgabe in der Union verwendet wird;
c)
kolmandates riikides asutatud või asuvad tehisintellektisüsteemide pakkujad ja juurutajad, kui tehisintellektisüsteemi väljundit kasutatakse liidus;
d)
Einführer und Händler von KI-Systemen;
d)
tehisintellektisüsteemide importijad ja turustajad;
e)
Produkthersteller, die KI-Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen oder in Betrieb nehmen;
e)
toote valmistajad, kes lasevad turule või võtavad kasutusele tehisintellektisüsteemi koos oma tootega ja oma nime või kaubamärgi all;
f)
Bevollmächtigte von Anbietern, die nicht in der Union niedergelassen sind;
f)
pakkujate volitatud esindajad, kes ei ole asutatud liidus;
g)
betroffene Personen, die sich in der Union befinden.
g)
liidus asuvad mõjutatud isikud.
(2) Für KI-Systeme, die als Hochrisiko-KI-Systeme gemäß Artikel 6 Absatz 1 eingestuft sind und im Zusammenhang mit Produkten stehen, die unter die in Anhang I Abschnitt B aufgeführten Harmonisierungsrechtsvorschriften der Union fallen, gelten nur Artikel 6 Absatz 1, die Artikel 102 bis 109 und Artikel 112. Artikel 57 gilt nur, soweit die Anforderungen an Hochrisiko-KI-Systeme gemäß dieser Verordnung im Rahmen der genannten Harmonisierungsrechtsvorschriften der Union eingebunden wurden.
2. Artikli 6 lõike 1 kohaselt suure riskiga tehisintellektisüsteemideks liigitatud süsteemide puhul, mis on seotud I lisa B jaos loetletud liidu ühtlustamisõigusaktidega hõlmatud toodetega, kohaldatakse üksnes artiklit 6, artikleid 102-109 ja artiklit 112. Artiklit 57 kohaldatakse üksnes niivõrd, kuivõrd käesoleva määruse kohased suure riskiga tehisintellektisüsteemidele esitatavad nõuded on nendesse liidu ühtlustamisõigusaktidesse integreeritud.
(3) Diese Verordnung gilt nur in den unter das Unionsrecht fallenden Bereichen und berührt keinesfalls die Zuständigkeiten der Mitgliedstaaten in Bezug auf die nationale Sicherheit, unabhängig von der Art der Einrichtung, die von den Mitgliedstaaten mit der Wahrnehmung von Aufgaben im Zusammenhang mit diesen Zuständigkeiten betraut wurde.
3. Käesolevat määrust ei kohaldata valdkondade suhtes, mis ei kuulu liidu õiguse kohaldamisalasse, ning see ei mõjuta ühelgi juhul liikmesriikide pädevust seoses riikliku julgeolekuga, olenemata üksuse liigist, kellele liikmesriigid on usaldanud nende pädevustega seotud ülesannete täitmise.
Diese Verordnung gilt nicht für KI-Systeme, wenn und soweit sie ausschließlich für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit in Verkehr gebracht, in Betrieb genommen oder, mit oder ohne Änderungen, verwendet werden, unabhängig von der Art der Einrichtung, die diese Tätigkeiten ausübt.
Käesolevat määrust ei kohaldata tehisintellektisüsteemide suhtes üksnes siis ja niivõrd, kuivõrd need lastakse turule, võetakse kasutusele või neid kasutatakse muudatustega või ilma muudatusteta üksnes sõjalisel, kaitse- või riikliku julgeoleku eesmärgil, olenemata seda tegevust teostava üksuse liigist.
Diese Verordnung gilt nicht für KI-Systeme, die nicht in der Union in Verkehr gebracht oder in Betrieb genommen werden, wenn die Ausgaben in der Union ausschließlich für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit verwendet werden, unabhängig von der Art der Einrichtung, die diese Tätigkeiten ausübt.
Käesolevat määrust ei kohaldata tehisintellektisüsteemide suhtes, mida ei lasta turule ega võeta kasutusele liidus, kui väljundit kasutatakse liidus üksnes sõjalise, kaitse- või riikliku julgeoleku eesmärgil, olenemata seda tegevust teostava üksuse liigist.
(4) Diese Verordnung gilt weder für Behörden in Drittländern noch für internationale Organisationen, die gemäß Absatz 1 in den Anwendungsbereich dieser Verordnung fallen, soweit diese Behörden oder Organisationen KI-Systeme im Rahmen der internationalen Zusammenarbeit oder internationaler Übereinkünfte im Bereich der Strafverfolgung und justiziellen Zusammenarbeit mit der Union oder mit einem oder mehreren Mitgliedstaaten verwenden und sofern ein solches Drittland oder eine solche internationale Organisation angemessene Garantien hinsichtlich des Schutz der Privatsphäre, der Grundrechte und der Grundfreiheiten von Personen bietet.
4. Käesolevat määrust ei kohaldata kolmanda riigi ametiasutuste ega vastavalt lõikele 1 käesoleva määruse kohaldamisalasse kuuluvate rahvusvaheliste organisatsioonide suhtes, kui need asutused või organisatsioonid kasutavad tehisintellektisüsteeme liidu või ühe või mitme liikmesriigiga sõlmitud rahvusvahelise koostöö või õiguskaitse ja õigusalase koostöö alaste lepingute raames, tingimusel et selline kolmas riik või rahvusvaheline organisatsioon pakub piisavaid kaitsemeetmeid üksikisikute põhiõiguste ja -vabaduste kaitseks.
(5) Die Anwendung der Bestimmungen über die Haftung der Anbieter von Vermittlungsdiensten in Kapitel II der Verordnung 2022/2065 bleibt von dieser Verordnung unberührt.
5. Käesolev määrus ei mõjuta määruse (EL) 2022/2065 II peatükis sätestatud vahendusteenuste osutajate vastutust käsitlevate sätete kohaldamist.
(6) Diese Verordnung gilt nicht für KI-Systeme oder KI-Modelle, einschließlich ihrer Ausgabe, die eigens für den alleinigen Zweck der wissenschaftlichen Forschung und Entwicklung entwickelt und in Betrieb genommen werden.
6. Käesolevat määrust ei kohaldata tehisintellektisüsteemide või -mudelite, sealhulgas nende väljundite suhtes, mis on spetsiaalselt välja töötatud ja kasutusele võetud üksnes teadus- ja arendustegevuse eesmärgil.
(7) Die Rechtsvorschriften der Union zum Schutz personenbezogener Daten, der Privatsphäre und der Vertraulichkeit der Kommunikation gelten für die Verarbeitung personenbezogener Daten im Zusammenhang mit den in dieser Verordnung festgelegten Rechten und Pflichten. Diese Verordnung berührt nicht die Verordnung (EU) 2016/679 bzw. (EU) 2018/1725 oder die Richtlinie 2002/58/EG bzw. (EU) 2016/680, unbeschadet des Artikels 10 Absatz 5 und des Artikels 59 der vorliegenden Verordnung.
7. Käesolevas määruses sätestatud õiguste ja kohustustega seoses töödeldavate isikuandmete suhtes kohaldatakse isikuandmete kaitset, eraelu puutumatust ja side konfidentsiaalsust käsitlevat liidu õigust. Käesolev määrus ei mõjuta määrusi (EL) 2016/679 ja (EL) 2018/1725 ega direktiive 2002/58/EÜ ja (EL) 2016/680, ilma et see piiraks käesoleva määruse artikli 10 lõike 5 ja artikli 59 kohaldamist.
(8) Diese Verordnung gilt nicht für Forschungs-, Test- und Entwicklungstätigkeiten zu KI-Systemen oder KI-Modellen, bevor diese in Verkehr gebracht oder in Betrieb genommen werden. Solche Tätigkeiten werden im Einklang mit dem geltenden Unionsrecht durchgeführt. Tests unter Realbedingungen fallen nicht unter diesen Ausschluss.
8. Käesolevat määrust ei kohaldata tehisintellektisüsteemide või tehisintellektimudelitega seotud teadus-, testimis- või arendustegevuse suhtes enne nende turule laskmist või kasutusele võtmist. Selline tegevus toimub kooskõlas kohaldatava liidu õigusega. See väljajätmine ei hõlma tegelikes tingimustes testimist.
(9) Diese Verordnung berührt nicht die Vorschriften anderer Rechtsakte der Union zum Verbraucherschutz und zur Produktsicherheit.
9. Käesolev määrus ei piira muudes tarbijakaitset ja tooteohutust käsitlevates liidu õigusaktides sätestatud õigusnormide kohaldamist.
(10) Diese Verordnung gilt nicht für die Pflichten von Betreibern, die natürliche Personen sind und KI-Systeme im Rahmen einer ausschließlich persönlichen und nicht beruflichen Tätigkeit verwenden.
10. Käesolevat määrust ei kohaldata isikliku, mitte kutsetegevuse käigus tehisintellektisüsteeme kasutavate füüsilistest isikutest juurutajate kohustuste suhtes.
(11) Diese Verordnung hindert die Union oder die Mitgliedstaaten nicht daran, Rechts- oder Verwaltungsvorschriften beizubehalten oder einzuführen, die für die Arbeitnehmer im Hinblick auf den Schutz ihrer Rechte bei der Verwendung von KI-Systemen durch die Arbeitgeber vorteilhafter sind, oder die Anwendung von Kollektivvereinbarungen zu fördern oder zuzulassen, die für die Arbeitnehmer vorteilhafter sind.
11. Käesolev määrus ei takista liidul või liikmesriikidel säilitamast või kehtestamast õigus- ja haldusnorme, mis on töötajatele soodsamad, et kaitsta nende õigusi seoses tehisintellektisüsteemide kasutamisega tööandjate poolt, või soodustamast või lubamast töötajate jaoks soodsamate kollektiivlepingute kohaldamist.
(12) Diese Verordnung gilt nicht für KI-Systeme, die unter freien und quelloffenen Lizenzen bereitgestellt werden, es sei denn, sie werden als Hochrisiko-KI-Systeme oder als ein KI-System, das unter Artikel 5 oder 50 fällt, in Verkehr gebracht oder in Betrieb genommen.
12. Käesolevat määrust ei kohaldata tehisintellektisüsteemide suhtes, mis on tarbimisse lubatud vaba ja avatud lähtekoodiga litsentside alusel, välja arvatud juhul, kui need lastakse turule või võetakse kasutusele suure riskiga tehisintellektisüsteemidena või artikli 5 või 50 kohaldamisalasse kuuluva tehisintellektisüsteemina.
Verbotene Praktiken im KI-Bereich
Tehisintellekti keelatud kasutusviisid
(1) Folgende Praktiken im KI-Bereich sind verboten:
1. Järgmised tehisintellekti kasutusviisid on keelatud:
a)
das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das Techniken der unterschwelligen Beeinflussung außerhalb des Bewusstseins einer Person oder absichtlich manipulative oder täuschende Techniken mit dem Ziel oder der Wirkung einsetzt, das Verhalten einer Person oder einer Gruppe von Personen wesentlich zu verändern, indem ihre Fähigkeit, eine fundierte Entscheidung zu treffen, deutlich beeinträchtigt wird, wodurch sie veranlasst wird, eine Entscheidung zu treffen, die sie andernfalls nicht getroffen hätte, und zwar in einer Weise, die dieser Person, einer anderen Person oder einer Gruppe von Personen erheblichen Schaden zufügt oder mit hinreichender Wahrscheinlichkeit zufügen wird.
a)
selliste tehisintellektisüsteemide turule laskmine, kasutusele võtmine või kasutamine, milles on kasutatud inimese teadvusest kaugemale ulatuvale alalävisele tajule suunatud võtteid või sihilikult manipuleerivaid või petlikke võtteid, mille eesmärk või tagajärg on isiku või isikute rühma käitumise oluline moonutamine, kahjustades oluliselt nende võimet teha teadlik otsus ja pannes nad seeläbi tegema otsuse, mida nad ei oleks muul juhul teinud, viisil, mis põhjustab või mõistliku tõenäosusega põhjustab sellele isikule, teisele isikule või isikute rühmale olulist kahju;
b)
das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das eine Vulnerabilität oder Schutzbedürftigkeit einer natürlichen Person oder einer bestimmten Gruppe von Personen aufgrund ihres Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation mit dem Ziel oder der Wirkung ausnutzt, das Verhalten dieser Person oder einer dieser Gruppe angehörenden Person in einer Weise wesentlich zu verändern, die dieser Person oder einer anderen Person erheblichen Schaden zufügt oder mit hinreichender Wahrscheinlichkeit zufügen wird;
b)
selliste tehisintellektisüsteemide turule laskmine, kasutusele võtmine või kasutamine, mis kasutavad ära füüsilise isiku või konkreetse isikute rühma mis tahes haavatavusi, mis tulenevad nende vanusest, puudest või konkreetsest sotsiaalsest või majanduslikust olukorrast ning mille eesmärk või tagajärg on oluliselt moonutada selle isiku või sellesse rühma kuuluva isiku käitumist viisil, mis põhjustab või mõistliku tõenäosusega põhjustab sellele või mõnele teisele isikule olulist kahju;
c)
das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von KI-Systemen zur Bewertung oder Einstufung von natürlichen Personen oder Gruppen von Personen über einen bestimmten Zeitraum auf der Grundlage ihres sozialen Verhaltens oder bekannter, abgeleiteter oder vorhergesagter persönlicher Eigenschaften oder Persönlichkeitsmerkmale, wobei die soziale Bewertung zu einem oder beiden der folgenden Ergebnisse führt:
c)
selliste tehisintellektisüsteemide turule laskmine, kasutusele võtmine või kasutamine, millega hinnatakse või liigitatakse füüsilisi isikuid või isikute rühmi teatava aja jooksul, tuginedes nende sotsiaalsele käitumisele või teadaolevatele, tuletatud või prognoositud isiku- või iseloomuomadustele, kusjuures sotsiaalpunktide tulemuseks on üks või mõlemad järgmisest:
i)
Schlechterstellung oder Benachteiligung bestimmter natürlicher Personen oder Gruppen von Personen in sozialen Zusammenhängen, die in keinem Zusammenhang zu den Umständen stehen, unter denen die Daten ursprünglich erzeugt oder erhoben wurden;
i)
teatavaid füüsilisi isikuid või isikute rühmi kahjustav või nende suhtes ebasoodne kohtlemine sotsiaalses kontekstis, mis ei ole seotud kontekstiga, milles andmed algselt loodi või koguti;
ii)
Schlechterstellung oder Benachteiligung bestimmter natürlicher Personen oder Gruppen von Personen in einer Weise, die im Hinblick auf ihr soziales Verhalten oder dessen Tragweite ungerechtfertigt oder unverhältnismäßig ist;
ii)
teatavaid füüsilisi isikuid või isikute rühmi kahjustav või nende ebasoodne kohtlemine, mis ei ole põhjendatud või on ebaproportsionaalne võrreldes nende sotsiaalse käitumise või selle kaalukusega;
d)
das Inverkehrbringen, die Inbetriebnahme für diesen spezifischen Zweck oder die Verwendung eines KI-Systems zur Durchführung von Risikobewertungen in Bezug auf natürliche Personen, um das Risiko, dass eine natürliche Person eine Straftat begeht, ausschließlich auf der Grundlage des Profiling einer natürlichen Person oder der Bewertung ihrer persönlichen Merkmale und Eigenschaften zu bewerten oder vorherzusagen; dieses Verbot gilt nicht für KI-Systeme, die dazu verwendet werden, die durch Menschen durchgeführte Bewertung der Beteiligung einer Person an einer kriminellen Aktivität, die sich bereits auf objektive und überprüfbare Tatsachen stützt, die in unmittelbarem Zusammenhang mit einer kriminellen Aktivität stehen, zu unterstützen;
d)
tehisintellektisüsteemide turule laskmine või kasutusele võtmine sellel konkreetsel eesmärgil või nende kasutamine füüsiliste isikute riskihindamiste tegemiseks, et hinnata või prognoosida riski, et füüsiline isik paneb toime kuriteo, tuginedes üksnes füüsilise isiku profiilianalüüsile või tema isikuomaduste ja erijoonte hindamisele; seda keeldu ei kohaldata tehisintellektisüsteemide suhtes, mida kasutatakse selleks, et toetada inimhinnangut isiku kuritegelikus tegevuses osalemise kohta, mis juba tugineb kuritegeliku tegevusega otseselt seotud objektiivsetele ja kontrollitavatele faktidele;
e)
das Inverkehrbringen, die Inbetriebnahme für diesen spezifischen Zweck oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern;
e)
selliste tehisintellektisüsteemide turule laskmine või kasutusele võtmine sellel konkreetsel eesmärgil või nende kasutamine, mis loovad või laiendavad näotuvastuse andmebaase internetist või videovalve salvestistest näokujutiste kindla suunitluseta ekstraheerimise kaudu;
f)
das Inverkehrbringen, die Inbetriebnahme für diesen spezifischen Zweck oder die Verwendung von KI-Systemen zur Ableitung von Emotionen einer natürlichen Person am Arbeitsplatz und in Bildungseinrichtungen, es sei denn, die Verwendung des KI-Systems soll aus medizinischen Gründen oder Sicherheitsgründen eingeführt oder auf den Markt gebracht werden;
f)
tehisintellektisüsteemide turule laskmine või kasutusele võtmine sellel konkreetsel eesmärgil või nende kasutamine füüsilise isiku emotsioonide tuletamiseks töökoha ja haridusasutustega seoses, välja arvatud juhul, kui tehisintellektisüsteemi kavatsetakse kasutusele võtta või turule viia meditsiinilistel või ohutusega seotud põhjustel;
g)
das Inverkehrbringen, die Inbetriebnahme für diesen spezifischen Zweck oder die Verwendung von Systemen zur biometrischen Kategorisierung, mit denen natürliche Personen individuell auf der Grundlage ihrer biometrischen Daten kategorisiert werden, um ihre Rasse, ihre politischen Einstellungen, ihre Gewerkschaftszugehörigkeit, ihre religiösen oder weltanschaulichen Überzeugungen, ihr Sexualleben oder ihre sexuelle Ausrichtung zu erschließen oder abzuleiten; dieses Verbot gilt nicht für die Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze, wie z. B. Bilder auf der Grundlage biometrischer Daten oder die Kategorisierung biometrischer Daten im Bereich der Strafverfolgung;
g)
selliste biomeetrilise liigitamise süsteemide turule laskmine või kasutuselevõtmine sellel konkreetsel eesmärgil või nende kasutamine, mis liigitavad füüsilisi isikuid individuaalselt nende biomeetriliste andmete alusel, et tuletada või järeldada nende rassi, poliitilisi vaateid, ametiühingusse kuulumist, usulisi või filosoofilisi veendumusi, seksuaalelu või seksuaalset sättumust; see keeld ei hõlma seaduslikult saadud biomeetriliste andmete, näiteks biomeetrilistel andmetel põhinevate piltide märgistamist või filtreerimist või biomeetriliste andmete kategoriseerimist õiguskaitse valdkonnas;
h)
die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken, außer wenn und insoweit dies im Hinblick auf eines der folgenden Ziele unbedingt erforderlich ist:
h)
avalikult juurdepääsetavas ruumis reaalajas toimuva biomeetrilise kaugtuvastamise süsteemide kasutamine õiguskaitse jaoks, välja arvatud juhul, kui selline kasutamine on vajalik rangelt ainult ühel järgmistest eesmärkidest, ja ainult selleks vajalikus ulatuses:
i)
gezielte Suche nach bestimmten Opfern von Entführung, Menschenhandel oder sexueller Ausbeutung sowie die Suche nach vermissten Personen;
i)
konkreetsete inimröövi, inimkaubanduse või seksuaalse ärakasutamise ohvrite sihipärane otsimine ning kadunud isikute otsimine;
ii)
Abwenden einer konkreten, erheblichen und unmittelbaren Gefahr für das Leben oder die körperliche Unversehrtheit natürlicher Personen oder einer tatsächlichen und bestehenden oder tatsächlichen und vorhersehbaren Gefahr eines Terroranschlags;
ii)
füüsiliste isikute elu või füüsilist turvalisust ähvardava konkreetse, suure ja vahetu ohu või tegeliku ja olemasoleva või tegeliku ja prognoositava terrorirünnaku ohu ärahoidmine;
iii)
Aufspüren oder Identifizieren einer Person, die der Begehung einer Straftat verdächtigt wird, zum Zwecke der Durchführung von strafrechtlichen Ermittlungen oder von Strafverfahren oder der Vollstreckung einer Strafe für die in Anhang II aufgeführten Straftaten, die in dem betreffenden Mitgliedstaat nach dessen Recht mit einer Freiheitsstrafe oder einer freiheitsentziehenden Maßregel der Sicherung im Höchstmaß von mindestens vier Jahren bedroht ist.
iii)
kuriteo toimepanemises kahtlustatava isiku asukoha kindlaks tegemine või tuvastamine kriminaaluurimise või süüdistuse esitamise või kriminaalkaristuse täitmisele pööramise eesmärgil II lisas osutatud kuritegude eest, mis on asjaomases liikmesriigis karistatavad vabadusekaotuse või vabadust piirava julgeolekumeetmega, mille maksimaalne pikkus on vähemalt neli aastat.
Unterabsatz 1 Buchstabe h gilt unbeschadet des Artikels 9 der Verordnung (EU) 2016/679 für die Verarbeitung biometrischer Daten zu anderen Zwecken als der Strafverfolgung.
Esimese lõigu punkt h ei piira määruse (EL) 2016/679 artikli 9 kohaldamist biomeetriliste andmete töötlemise suhtes muudel kui õiguskaitse eesmärkidel.
(2) Die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken im Hinblick auf die in Absatz 1 Unterabsatz 1 Buchstabe h genannten Ziele darf für die in jenem Buchstaben genannten Zwecke nur zur Bestätigung der Identität der speziell betroffenen Person erfolgen, wobei folgende Elemente berücksichtigt werden:
2. Kui kasutatakse reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi avalikult juurdepääsetavas ruumis õiguskaitse jaoks ükskõik millisel lõike 1 esimese lõigu punktis h osutatud eesmärgil, toimub kasutus selles punktis sätestatud eesmärkidel üksnes selleks, et kinnitada konkreetselt sihtmärgiks oleva isiku isikusamasust, ning selle puhul võetakse arvesse järgmisi elemente:
a)
die Art der Situation, die der möglichen Verwendung zugrunde liegt, insbesondere die Schwere, die Wahrscheinlichkeit und das Ausmaß des Schadens, der entstehen würde, wenn das System nicht eingesetzt würde;
a)
millist laadi on olukord, kus süsteemi võidakse kasutada; eeskätt see, milline oleks kahju raskusaste, tõenäosus ja ulatus juhul, kui süsteemi ei kasutataks;
b)
die Folgen der Verwendung des Systems für die Rechte und Freiheiten aller betroffenen Personen, insbesondere die Schwere, die Wahrscheinlichkeit und das Ausmaß solcher Folgen.
b)
millised on süsteemi kasutamise tagajärjed kõigi asjaomaste isikute õiguste ja vabaduste seisukohast; eeskätt see, milline on tagajärgede raskusaste, tõenäosus ja ulatus.
Darüber hinaus sind bei der Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken im Hinblick auf die in Absatz 1 Unterabsatz 1 Buchstabe h des vorliegenden Artikels genannten Ziele notwendige und verhältnismäßige Schutzvorkehrungen und Bedingungen für die Verwendung im Einklang mit nationalem Recht über die Ermächtigung ihrer Verwendung einzuhalten, insbesondere in Bezug auf die zeitlichen, geografischen und personenbezogenen Beschränkungen. Die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen ist nur dann zu gestatten, wenn die Strafverfolgungsbehörde eine Folgenabschätzung im Hinblick auf die Grundrechte gemäß Artikel 27 abgeschlossen und das System gemäß Artikel 49 in der EU-Datenbank registriert hat. In hinreichend begründeten dringenden Fällen kann jedoch mit der Verwendung solcher Systeme zunächst ohne Registrierung in der EU-Datenbank begonnen werden, sofern diese Registrierung unverzüglich erfolgt.
Ühtlasi peab reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutamine avalikult juurdepääsetavas ruumis õiguskaitse jaoks ükskõik millisel käesoleva artikli lõike 1 esimese lõigu punktis h osutatud eesmärgil olema vastavuses kasutamise suhtes kehtivate vajalike ja proportsionaalsete kaitsemeetmete ja tingimustega kooskõlas selle kasutamist lubava siseriikliku õigusega ning seda eeskätt ajaliste, geograafiliste ja isikutega seotud piirangute osas. Reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutamine avalikult juurdepääsetavas ruumis on lubatud üksnes juhul, kui õiguskaitseasutus on viinud lõpule põhiõigustele avalduva mõju hindamise, nagu on sätestatud artiklis 27 ja on registreerinud süsteemi ELi andmebaasis vastavalt artiklile 49. Põhjendatud kiireloomulistel juhtudel võib selliseid süsteeme siiski hakata kasutama ilma neid ELi andmebaasis registreerimata, eeldusel et sellist luba taotletakse põhjendamatu viivituseta.
(3) Für die Zwecke des Absatz 1 Unterabsatz 1 Buchstabe h und des Absatzes 2 ist für jede Verwendung eines biometrischen Echtzeit-Fernidentifizierungssystems in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken eine vorherige Genehmigung erforderlich, die von einer Justizbehörde oder einer unabhängigen Verwaltungsbehörde des Mitgliedstaats, in dem die Verwendung erfolgen soll, auf begründeten Antrag und gemäß den in Absatz 5 genannten detaillierten nationalen Rechtsvorschriften erteilt wird, wobei deren Entscheidung bindend ist. In hinreichend begründeten dringenden Fällen kann jedoch mit der Verwendung eines solchen Systems zunächst ohne Genehmigung begonnen werden, sofern eine solche Genehmigung unverzüglich, spätestens jedoch innerhalb von 24 Stunden beantragt wird. Wird eine solche Genehmigung abgelehnt, so wird die Verwendung mit sofortiger Wirkung eingestellt und werden alle Daten sowie die Ergebnisse und Ausgaben dieser Verwendung unverzüglich verworfen und gelöscht.
3. Lõike 1 esimese lõigu punkti h ja lõike 2 kohaldamisel on reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi igaks kasutamiseks avalikult juurdepääsetavas ruumis vaja eelnevat luba, mille annab selle liikmesriigi, kus kasutamine hakkab toimuma, õigusasutus või sõltumatu haldusasutus, kelle otsus on siduv, ja mis antakse põhjendatud taotluse põhjal kooskõlas lõikes 5 osutatud üksikasjalike siseriiklike õigusnormidega. Põhjendatud kiireloomulistel juhtudel võib siiski hakata sellist süsteemi kasutama ilma loata, tingimusel et sellist luba taotletakse põhjendamatu viivituseta ja hiljemalt 24 tunni jooksul. Kui selline luba lükatakse tagasi, lõpetatakse kasutamine viivitamata ning kõik andmed ning selle kasutamise tulemused ja väljundid jäetakse viivitamata kõrvale ja kustutatakse.
Die zuständige Justizbehörde oder eine unabhängige Verwaltungsbehörde, deren Entscheidung bindend ist, erteilt die Genehmigung nur dann, wenn sie auf der Grundlage objektiver Nachweise oder eindeutiger Hinweise, die ihr vorgelegt werden, davon überzeugt ist, dass die Verwendung des betreffenden biometrischen Echtzeit-Fernidentifizierungssystems für das Erreichen eines der in Absatz 1 Unterabsatz 1 Buchstabe h genannten Ziele — wie im Antrag angegeben — notwendig und verhältnismäßig ist und insbesondere auf das in Bezug auf den Zeitraum sowie den geografischen und persönlichen Anwendungsbereich unbedingt erforderliche Maß beschränkt bleibt. Bei ihrer Entscheidung über den Antrag berücksichtigt diese Behörde die in Absatz 2 genannten Elemente. Eine Entscheidung, aus der sich eine nachteilige Rechtsfolge für eine Person ergibt, darf nicht ausschließlich auf der Grundlage der Ausgabe des biometrischen Echtzeit-Fernidentifizierungssystems getroffen werden.
Pädev õigusasutus või sõltumatu haldusasutus, kelle otsus on siduv, annab loa üksnes juhul, kui on talle esitatud objektiivsete tõendite või selgete asjaolude põhjal veendunud, et kõnealuse reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutamine on vajalik ja proportsionaalne mõne lõike 1 esimese lõigu punktis h täpsustatud ja taotluses nimetatud eesmärgi saavutamiseks, ning et eelkõige piirdub süsteemi kasutamine sellega, mis on rangelt vajalik seoses ajavahemiku ning geograafilise ja isikulise kohaldamisalaga. Kõnealune asutus võtab taotluse kohta otsuse tegemisel arvesse lõikes 2 osutatud elemente. Ühtki isiku suhtes kahjulikke õiguslikke tagajärgi põhjustavat otsust ei tohi teha üksnes reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi tulemuste põhjal.
(4) Unbeschadet des Absatzes 3 wird jede Verwendung eines biometrischen Echtzeit-Fernidentifizierungssystems in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken der zuständigen Marktüberwachungsbehörde und der nationalen Datenschutzbehörde gemäß den in Absatz 5 genannten nationalen Vorschriften mitgeteilt. Die Mitteilung muss mindestens die in Absatz 6 genannten Angaben enthalten und darf keine sensiblen operativen Daten enthalten.
4. Ilma et see piiraks lõike 3 kohaldamist, teavitatakse asjaomast turujärelevalveasutust ja riiklikku andmekaitseasutust igast reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutamisest avalikult juurdepääsetavas ruumis õiguskaitse eesmärgil kooskõlas lõikes 5 osutatud siseriiklike õigusnormidega. Teates esitatakse vähemalt lõikes 6 täpsustatud teave ning teade ei sisalda tundlikke operatiivandmeid.
(5) Ein Mitgliedstaat kann die Möglichkeit einer vollständigen oder teilweisen Ermächtigung zur Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken innerhalb der in Absatz 1 Unterabsatz 1 Buchstabe h sowie Absätze 2 und 3 aufgeführten Grenzen und unter den dort genannten Bedingungen vorsehen. Die betreffenden Mitgliedstaaten legen in ihrem nationalen Recht die erforderlichen detaillierten Vorschriften für die Beantragung, Erteilung und Ausübung der in Absatz 3 genannten Genehmigungen sowie für die entsprechende Beaufsichtigung und Berichterstattung fest. In diesen Vorschriften wird auch festgelegt, im Hinblick auf welche der in Absatz 1 Unterabsatz 1 Buchstabe h aufgeführten Ziele und welche der unter Buchstabe h Ziffer iii genannten Straftaten die zuständigen Behörden ermächtigt werden können, diese Systeme zu Strafverfolgungszwecken zu verwenden. Die Mitgliedstaaten teilen der Kommission diese Vorschriften spätestens 30 Tage nach ihrem Erlass mit. Die Mitgliedstaaten können im Einklang mit dem Unionsrecht strengere Rechtsvorschriften für die Verwendung biometrischer Fernidentifizierungssysteme erlassen.
5. Liikmesriik võib otsustada näha ette võimaluse täielikult või osaliselt lubada reaalajas toimuva biomeetrilise kaugtuvastamise süsteemi kasutamist avalikult juurdepääsetavas ruumis õiguskaitse jaoks lõike 1 esimese lõigu punktis h ning lõigetes 2 ja 3 loetletud piirides ja tingimustel. Asjaomased liikmesriigid kehtestavad oma siseriiklikus õiguses lõikes 3 osutatud lubade taotlemise, andmise ja kasutamise ning nende lubadega seotud järelevalve ja aruandluse jaoks vajalikud üksikasjalikud õigusnormid. Kõnealustes õigusnormides tuleb täpsustada, milliste lõike 1 esimese lõigu punktis h loetletud eesmärkide, sealhulgas milliste punkti h alapunktis iii osutatud kuritegude puhul võib anda pädevatele asutustele loa kasutada neid süsteeme õiguskaitse jaoks. Liikmesriigid teatavad nendest õigusnormidest komisjonile hiljemalt 30 päeva jooksul pärast nende vastuvõtmist. Liikmesriigid võivad kooskõlas liidu õigusega kehtestada biomeetrilise kaugtuvastamise süsteemide kasutamise kohta piiravamaid õigusakte.
(6) Die nationalen Marktüberwachungsbehörden und die nationalen Datenschutzbehörden der Mitgliedstaaten, denen gemäß Absatz 4 die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken mitgeteilt wurden, legen der Kommission Jahresberichte über diese Verwendung vor. Zu diesem Zweck stellt die Kommission den Mitgliedstaaten und den nationalen Marktüberwachungs- und Datenschutzbehörden ein Muster zur Verfügung, das Angaben über die Anzahl der Entscheidungen der zuständigen Justizbehörden oder einer unabhängigen Verwaltungsbehörde, deren Entscheidung über Genehmigungsanträge gemäß Absatz 3 bindend ist, und deren Ergebnis enthält.
6. Riiklikud turujärelevalveasutused ja liikmesriikide riiklikud andmekaitseasutused, keda on lõike 4 kohaselt teavitatud reaalajas toimuva biomeetrilise kaugtuvastamise süsteemide kasutamisest avalikult juurdepääsetavas ruumis õiguskaitse eesmärkidel, esitavad komisjonile sellise kasutamise kohta aastaaruanded. Selleks esitab komisjon liikmesriikidele ning riiklikele turujärelevalve- ja andmekaitseasutustele vormi, mis sisaldab teavet pädevate õigusasutuste või sõltumatu haldusasutuse poolt, kelle otsus on siduv, lõike 3 kohaste loataotluste suhtes tehtud otsuste arvu ja nende tulemuste kohta.
(7) Die Kommission veröffentlicht Jahresberichte über die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken, die auf aggregierten Daten aus den Mitgliedstaaten auf der Grundlage der in Absatz 6 genannten Jahresberichte beruhen. Diese Jahresberichte dürfen keine sensiblen operativen Daten im Zusammenhang mit den damit verbundenen Strafverfolgungsmaßnahmen enthalten.
7. Komisjon avaldab lõikes 6 osutatud aastaaruannete põhjal aastaaruanded reaalajas toimuva biomeetrilise kaugtuvastamise süsteemide kasutamise kohta avalikult juurdepääsetavates ruumides õiguskaitse eesmärgil, tuginedes liikmesriikide koondandmetele. Nimetatud aastaaruanded ei sisalda asjaomase õiguskaitsealase tegevuse tundlikke operatiivandmeid.
(8) Dieser Artikel berührt nicht die Verbote, die gelten, wenn KI-Praktiken gegen andere Rechtsvorschriften der Union verstoßen.
8. Käesolev artikkel ei mõjuta keelde, mida kohaldatakse juhul, kui tehisintellektiga seotud tegevus rikub muud liidu õigust.
Einstufungsvorschriften für Hochrisiko-KI-Systeme
Suure riskiga tehisintellektisüsteemide liigitamise reeglid
(1) Ungeachtet dessen, ob ein KI-System unabhängig von den unter den Buchstaben a und b genannten Produkten in Verkehr gebracht oder in Betrieb genommen wird, gilt es als Hochrisiko-KI-System, wenn die beiden folgenden Bedingungen erfüllt sind:
1. Olenemata sellest, kas tehisintellektisüsteem lastakse turule või võetakse kasutusse punktides a ja b osutatud toodetest sõltumatult, peetakse seda tehisintellektisüsteemi suure riskiga süsteemiks, kui täidetud on mõlemad järgmised tingimused:
a)
das KI-System soll als Sicherheitsbauteil eines unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder das KI-System ist selbst ein solches Produkt;
a)
tehisintellektisüsteem on mõeldud kasutamiseks toote turvakomponendina või tehisintellektisüsteem on ise toode, mis on hõlmatud I lisas loetletud liidu ühtlustamisõigusaktidega;
b)
das Produkt, dessen Sicherheitsbauteil gemäß Buchstabe a das KI-System ist, oder das KI-System selbst als Produkt muss einer Konformitätsbewertung durch Dritte im Hinblick auf das Inverkehrbringen oder die Inbetriebnahme dieses Produkts gemäß den in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union unterzogen werden.
b)
toode, mille turvakomponent tehisintellektisüsteem vastavalt punktile a on, või tehisintellektisüsteem ise kui toode peab läbima kolmanda isiku tehtava vastavushindamise, et selle saaks turule lasta või kasutusele võtta vastavalt I lisas loetletud liidu ühtlustamisõigusaktidele.
(2) Zusätzlich zu den in Absatz 1 genannten Hochrisiko-KI-Systemen gelten die in Anhang III genannten KI-Systeme als hochriskant.
2. Lisaks lõikes 1 osutatud suure riskiga tehisintellektisüsteemidele peetakse suure riskiga süsteemideks ka III lisas osutatud tehisintellektisüsteeme.
(3) Abweichend von Absatz 2 gilt ein in Anhang III genanntes KI-System nicht als hochriskant, wenn es kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es unter anderem nicht das Ergebnis der Entscheidungsfindung wesentlich beeinflusst.
3. Erandina lõikest 2 ei peeta III lisas osutatud tehisintellektisüsteemi suure riskiga süsteemiks, kui see ei ohusta oluliselt füüsiliste isikute tervist, ohutust või põhiõigusi, sealhulgas ei mõjuta oluliselt otsuste tegemise tulemust.
Unterabsatz 1 gilt, wenn eine der folgenden Bedingungen erfüllt ist:
Esimest lõiget kohaldatakse siis, kui on täidetud ükskõik milline järgmistest tingimustest:
a)
das KI-System ist dazu bestimmt, eine eng gefasste Verfahrensaufgabe durchzuführen;
a)
tehisintellektisüsteem on ette nähtud täitma kitsast menetlusülesannet;
b)
das KI-System ist dazu bestimmt, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit zu verbessern;
b)
tehisintellektisüsteem on ette nähtud parandama varem lõpetatud inimtegevuse tulemusi;
c)
das KI-System ist dazu bestimmt, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und ist nicht dazu gedacht, die zuvor abgeschlossene menschliche Bewertung ohne eine angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen; oder
c)
tehisintellektisüsteem on ette nähtud tuvastama otsustuste tegemise mustreid või kõrvalekaldeid varasematest otsustusmustritest ning see ei ole mõeldud varem lõpetatud inimhinnangu asendamiseks või mõjutamiseks ilma nõuetekohase inimkontrollita, või
d)
das KI-System ist dazu bestimmt, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist.
d)
tehisintellektisüsteem on ette nähtud III lisas loetletud kasutusjuhtumite puhul asjakohase hindamise ettevalmistava ülesande täitmiseks.
Ungeachtet des Unterabsatzes 1 gilt ein in Anhang III aufgeführtes KI-System immer dann als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt.
Olenemata esimesest lõigust käsitatakse III lisas osutatud tehisintellektisüsteemi alati suure riskiga tehisintellektisüsteemina, kui tehisintellektisüsteem teeb füüsiliste isikute profiilianalüüsi.
(4) Ein Anbieter, der der Auffassung ist, dass ein in Anhang III aufgeführtes KI-System nicht hochriskant ist, dokumentiert seine Bewertung, bevor dieses System in Verkehr gebracht oder in Betrieb genommen wird. Dieser Anbieter unterliegt der Registrierungspflicht gemäß Artikel 49 Absatz 2. Auf Verlangen der zuständigen nationalen Behörden legt der Anbieter die Dokumentation der Bewertung vor.
4. Pakkuja, kes leiab, et III lisas osutatud tehisintellektisüsteem ei ole suure riskiga, dokumenteerib oma hinnangu enne selle süsteemi turule laskmist või kasutusele võtmist. Sellise pakkuja suhtes kohaldatakse artikli 49 lõikes 2 sätestatud registreerimiskohustust. Riigi pädevate asutuste taotluse korral esitab pakkuja hindamise dokumendid.
(5) Die Kommission stellt nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz (im Folgenden „KI-Gremium“) spätestens bis zum 2. Februar 2026 Leitlinien zur praktischen Umsetzung dieses Artikels gemäß Artikel 96 und eine umfassende Liste praktischer Beispiele für Anwendungsfälle für KI-Systeme, die hochriskant oder nicht hochriskant sind, bereit.
5. Komisjon esitab pärast konsulteerimist Euroopa tehisintellekti nõukojaga (edaspidi „nõukoda“) ja hiljemalt 2. veebruariks 2026 suunised, milles täpsustatakse käesoleva artikli praktilist rakendamist kooskõlas artikliga 96, koos põhjaliku loeteluga nii suure riskiga kui ka muude tehisintellektisüsteemide kasutusjuhtumite praktiliste näidete kohta.
(6) Die Kommission ist befugt, gemäß Artikel 97 delegierte Rechtsakte zu erlassen, um Absatz 3 Unterabsatz 2 des vorliegenden Artikels zu ändern, indem neue Bedingungen zu den darin genannten Bedingungen hinzugefügt oder diese geändert werden, wenn konkrete und zuverlässige Beweise für das Vorhandensein von KI-Systemen vorliegen, die in den Anwendungsbereich von Anhang III fallen, jedoch kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen bergen.
6. Komisjonil on õigus võtta kooskõlas artikliga 97 vastu delegeeritud õigusakte, et muuta käesoleva artikli lõike 3 teist lõiku, lisades selles sätestatud tingimustele uusi tingimusi või neid muuta, kui on konkreetseid ja usaldusväärseid tõendeid selliste tehisintellektisüsteemide olemasolu kohta, mis kuuluvad III lisa kohaldamisalasse, kuid ei kujuta endast märkimisväärset ohtu füüsiliste isikute tervisele, ohutusele või põhiõigustele.
(7) Die Kommission erlässt gemäß Artikel 97 delegierte Rechtsakte, um Absatz 3 Unterabsatz 2 des vorliegenden Artikels zu ändern, indem eine der darin festgelegten Bedingungen gestrichen wird, wenn konkrete und zuverlässige Beweise dafür vorliegen, dass dies für die Aufrechterhaltung des Schutzniveaus in Bezug auf Gesundheit, Sicherheit und die in dieser Verordnung vorgesehenen Grundrechte erforderlich ist.
7. Komisjon võtab kooskõlas artikliga 97 vastu delegeeritud õigusaktid, et muuta käesoleva artikli lõike 3 teist lõiku, jättes välja kõik selles sätestatud tingimused, kui on olemas konkreetsed ja usaldusväärsed tõendid selle kohta, et see on vajalik käesolevas määruses sätestatud tervise, ohutuse ja põhiõiguste kaitse taseme säilitamiseks.
(8) Eine Änderung der in Absatz 3 Unterabsatz 2 festgelegten Bedingungen, die gemäß den Absätzen 6 und 7 des vorliegenden Artikels erlassen wurde, darf das allgemeine Schutzniveau in Bezug auf Gesundheit, Sicherheit und die in dieser Verordnung vorgesehenen Grundrechte nicht senken; dabei ist die Kohärenz mit den gemäß Artikel 7 Absatz 1 erlassenen delegierten Rechtsakten sicherzustellen und die Marktentwicklungen und die technologischen Entwicklungen sind zu berücksichtigen.
8. Ükski lõike 3 teises lõigus sätestatud tingimuste muudatus, mis on vastu võetud käesoleva artikli lõigete 6 ja 7 kohaselt, ei tohi vähendada käesolevas määruses sätestatud tervise, ohutuse ja põhiõiguste kaitse üldist taset ning peab tagama järjepidevuse kooskõlas artikli 7 lõike 1 kohaselt vastu võetud delegeeritud õigusaktidega ning võtma arvesse turu ja tehnoloogia arengut.
(1) Für Hochrisiko-KI-Systeme wird ein Risikomanagementsystem eingerichtet, angewandt, dokumentiert und aufrechterhalten.
1. Suure riskiga tehisintellektisüsteemide jaoks luuakse riskijuhtimissüsteem, seda rakendatakse ja see dokumenteeritakse ning seda hoitakse alal.
(2) Das Risikomanagementsystem versteht sich als ein kontinuierlicher iterativer Prozess, der während des gesamten Lebenszyklus eines Hochrisiko-KI-Systems geplant und durchgeführt wird und eine regelmäßige systematische Überprüfung und Aktualisierung erfordert. Es umfasst folgende Schritte:
2. Riskijuhtimissüsteemi käsitatakse pidevalt korduva protsessina, mida kavandatakse ja käitatakse suure riskiga tehisintellektisüsteemi kogu elutsükli jooksul ning mida tuleb korrapäraselt läbi vaadata ja süstemaatiliselt ajakohastada. See peab sisaldama järgmisi etappe:
a)
die Ermittlung und Analyse der bekannten und vernünftigerweise vorhersehbaren Risiken, die vom Hochrisiko-KI-System für die Gesundheit, Sicherheit oder Grundrechte ausgehen können, wenn es entsprechend seiner Zweckbestimmung verwendet wird;
a)
selliste teadaolevate ja mõistlikult prognoositavate riskide kindlakstegemine ja analüüs, mida suure riskiga tehisintellektisüsteem võib kujutada tervisele, ohutusele või põhiõigustele, kui suure riskiga tehisintellektisüsteemi kasutatakse kooskõlas selle sihtotstarbega;
b)
die Abschätzung und Bewertung der Risiken, die entstehen können, wenn das Hochrisiko-KI-System entsprechend seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird;
b)
selliste riskide prognoosimine ja hindamine, mis võivad tekkida, kui suure riskiga tehisintellektisüsteemi kasutatakse vastavalt selle sihtotstarbele, aga ka mõistlikult prognoositava väärkasutamise tingimustes;
c)
die Bewertung anderer möglicherweise auftretender Risiken auf der Grundlage der Auswertung der Daten aus dem in Artikel 72 genannten System zur Beobachtung nach dem Inverkehrbringen;
c)
muude tekkida võivate riskide hindamine artiklis 72 osutatud turustamisjärgse seire süsteemist saadud andmete analüüsi põhjal;
d)
die Ergreifung geeigneter und gezielter Risikomanagementmaßnahmen zur Bewältigung der gemäß Buchstabe a ermittelten Risiken.
d)
asjakohaste ja sihipäraste riskijuhtimismeetmete vastuvõtmine punkti a kohaselt kindlaks tehtud riskide käsitlemiseks.
(3) Die in diesem Artikel genannten Risiken betreffen nur solche Risiken, die durch die Entwicklung oder Konzeption des Hochrisiko-KI-Systems oder durch die Bereitstellung ausreichender technischer Informationen angemessen gemindert oder behoben werden können.
3. Käesolevas artiklis osutatud riskid hõlmavad ainult neid riske, mida on võimalik mõistlikult maandada või kõrvaldada suure riskiga tehisintellektisüsteemi arendamise või projekteerimise või piisava tehnilise teabe esitamise abil.
(4) Bei den in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden die Auswirkungen und möglichen Wechselwirkungen, die sich aus der kombinierten Anwendung der Anforderungen dieses Abschnitts ergeben, gebührend berücksichtigt, um die Risiken wirksamer zu minimieren und gleichzeitig ein angemessenes Gleichgewicht bei der Durchführung der Maßnahmen zur Erfüllung dieser Anforderungen sicherzustellen.
4. Lõike 2 punktis d osutatud riskijuhtimismeetmetes võetakse nõuetekohaselt arvesse käesolevas jaos sätestatud nõuete kombineeritud kohaldamisest tulenevat mõju ja võimalikku koostoimet, pidades silmas riskide tõhusamat minimeerimist, saavutades samas asjakohase tasakaalu nende nõuete täitmiseks võetavate meetmete rakendamisel.
(5) Die in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden so gestaltet, dass jedes mit einer bestimmten Gefahr verbundene relevante Restrisiko sowie das Gesamtrestrisiko der Hochrisiko-KI-Systeme als vertretbar beurteilt wird.
5. Lõike 2 punktis d osutatud riskijuhtimismeetmed on sellised, et iga ohuga seotud asjakohast jääkriski ja suure riskiga tehisintellektisüsteemide üldist jääkriski peetakse vastuvõetavaks.
Bei der Festlegung der am besten geeigneten Risikomanagementmaßnahmen ist Folgendes sicherzustellen:
Kõige asjakohasemate riskijuhtimismeetmete kindlaksmääramisel tuleb tagada järgmine:
a)
soweit technisch möglich, Beseitigung oder Verringerung der gemäß Absatz 2 ermittelten und bewerteten Risiken durch eine geeignete Konzeption und Entwicklung des Hochrisiko-KI-Systems;
a)
lõike 2 kohaselt tuvastatud ja hinnatud riskide kõrvaldamine või vähendamine nii palju kui tehniliselt võimalik suure riskiga tehisintellektisüsteemi sobiva projekteerimise ja arendamise abil;
b)
gegebenenfalls Anwendung angemessener Minderungs- und Kontrollmaßnahmen zur Bewältigung nicht auszuschließender Risiken;
b)
asjakohasel juhul sobivate riskimaandamis- ja kontrollimeetmete rakendamine, et käsitleda selliseid riske, mida ei saa kõrvaldada;
c)
Bereitstellung der gemäß Artikel 13 erforderlichen Informationen und gegebenenfalls entsprechende Schulung der Betreiber.
c)
artikli 13 kohaselt nõutava teabe andmine ning asjakohasel juhul juurutajate koolitamine.
Zur Beseitigung oder Verringerung der Risiken im Zusammenhang mit der Verwendung des Hochrisiko-KI-Systems werden die technischen Kenntnisse, die Erfahrungen und der Bildungsstand, die vom Betreiber erwartet werden können, sowie der voraussichtliche Kontext, in dem das System eingesetzt werden soll, gebührend berücksichtigt.
Suure riskiga tehisintellektisüsteemi kasutamisega seotud riskide kõrvaldamisel või vähendamisel võetakse nõuetekohaselt arvesse juurutajalt eeldatavaid tehnilisi teadmisi, kogemusi, haridust ja koolitust, ning eeldatavat kasutuskonteksti, milles kasutamiseks on süsteem mõeldud.
(6) Hochrisiko-KI-Systeme müssen getestet werden, um die am besten geeigneten gezielten Risikomanagementmaßnahmen zu ermitteln. Durch das Testen wird sichergestellt, dass Hochrisiko-KI-Systeme stets im Einklang mit ihrer Zweckbestimmung funktionieren und die Anforderungen dieses Abschnitts erfüllen.
6. Suure riskiga tehisintellektisüsteeme testitakse, et teha kindlaks kõige asjakohasemad ja sihipäraseid riskijuhtimismeetmed. Testimisega tagatakse, et suure riskiga tehisintellektisüsteemid töötavad oma sihtotstarbe seisukohast järjepidevalt ning vastavad käesolevas jaos sätestatud nõuetele.
(7) Die Testverfahren können einen Test unter Realbedingungen gemäß Artikel 60 umfassen.
7. Testimismenetlused võivad hõlmata tegelikes tingimustes testimist kooskõlas artikliga 60.
(8) Das Testen von Hochrisiko-KI-Systemen erfolgt zu jedem geeigneten Zeitpunkt während des gesamten Entwicklungsprozesses und in jedem Fall vor ihrem Inverkehrbringen oder ihrer Inbetriebnahme. Das Testen erfolgt anhand vorab festgelegter Metriken und Wahrscheinlichkeitsschwellenwerte, die für die Zweckbestimmung des Hochrisiko-KI-Systems geeignet sind.
8. Suure riskiga tehisintellektisüsteemide testimine toimub vastavalt vajadusele mis tahes ajal kogu arendusprotsessi jooksul ja igal juhul enne nende turule laskmist või kasutusele võtmist. Testimiseks kasutatakse eelnevalt kindlaks määratud parameetreid ja tõenäosuskünniseid, mis on suure riskiga tehisintellektisüsteemi sihtotstarbe seisukohast sobivad.
(9) Bei der Umsetzung des in den Absätzen 1 bis 7 vorgesehenen Risikomanagementsystems berücksichtigen die Anbieter, ob angesichts seiner Zweckbestimmung das Hochrisiko-KI-System wahrscheinlich nachteilige Auswirkungen auf Personen unter 18 Jahren oder gegebenenfalls andere schutzbedürftige Gruppen haben wird.
9. Lõigetes 1–7 sätestatud riskijuhtimissüsteemi rakendamisel pööravad pakkujad tähelepanu sellele, kas suure riskiga tehisintellektisüsteem võib oma sihtotstarvet silmas pidades avaldada kahjulikku mõju alla 18-aastastele isikutele, ja kui see on asjakohane, muudele kaitsetutele rühmadele.
(10) Bei Anbietern von Hochrisiko-KI-Systemen, die den Anforderungen an interne Risikomanagementprozesse gemäß anderen einschlägigen Bestimmungen des Unionsrechts unterliegen, können die in den Absätzen 1 bis 9 enthaltenen Aspekte Bestandteil der nach diesem Recht festgelegten Risikomanagementverfahren sein oder mit diesen Verfahren kombiniert werden.
10. Suure riskiga tehisintellektisüsteemide pakkujate jaoks, kes peavad täitma liidu muu asjaomase õiguse alusel sisemisi riskijuhtimisprotsesse käsitlevaid nõudeid, võivad lõigetes 1–9 kirjeldatud aspektid olla kõnealuse õiguse kohaselt loodud riskijuhtimismenetluste osa või nendega kombineeritud.
Daten und Daten-Governance
(1) Hochrisiko-KI-Systeme, in denen Techniken eingesetzt werden, bei denen KI-Modelle mit Daten trainiert werden, müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die den in den Absätzen 2 bis 5 genannten Qualitätskriterien entsprechen, wenn solche Datensätze verwendet werden.
1. Kui tegemist on suure riskiga tehisintellektisüsteemidega, milles kasutatavad meetodid hõlmavad mudelite treenimist andmetega, tuleb nende süsteemide arendamiseks kasutada treenimis-, valideerimis- ja testimisandmestikke, mis vastavad lõigetes 2–5 osutatud kvaliteedikriteeriumidele, kui selliseid andmestikke kasutatakse.
(2) Für Trainings-, Validierungs- und Testdatensätze gelten Daten-Governance- und Datenverwaltungsverfahren, die für die Zweckbestimmung des Hochrisiko-KI-Systems geeignet sind. Diese Verfahren betreffen insbesondere
2. Treenimis-, valideerimis- ja testimisandmestike suhtes kohaldatakse suure riskiga tehisintellektisüsteemi sihtotstarbe seisukohast asjakohaseid andmehaldus- ja juhtimistavasid. Need tavad puudutavad eeskätt järgmist:
a)
die einschlägigen konzeptionellen Entscheidungen,
a)
asjakohased projekteerimise käigus tehtavad valikud;
b)
die Datenerhebungsverfahren und die Herkunft der Daten und im Falle personenbezogener Daten den ursprünglichen Zweck der Datenerhebung,
b)
andmete kogumise protsessid ja andmete päritolu ning isikuandmete puhul andmete kogumise algne eesmärk;
c)
relevante Datenaufbereitungsvorgänge wie Annotation, Kennzeichnung, Bereinigung, Aktualisierung, Anreicherung und Aggregierung,
c)
andmevalmenduseks tehtavad asjakohased töötlemistoimingud, näiteks kommenteerimine, märgendamine, puhastamine, ajakohastamine, rikastamine ja koondamine;
d)
die Aufstellung von Annahmen, insbesondere in Bezug auf die Informationen, die mit den Daten erfasst und dargestellt werden sollen,
d)
eelduste sõnastamine, eeskätt seoses teabega, mida andmed peaksid mõõtma ja kajastama;
e)
eine Bewertung der Verfügbarkeit, Menge und Eignung der benötigten Datensätze,
e)
vajalike andmestike kättesaadavuse, koguste ja sobivuse hindamine;
f)
eine Untersuchung im Hinblick auf mögliche Verzerrungen (Bias), die die Gesundheit und Sicherheit von Personen beeinträchtigen, sich negativ auf die Grundrechte auswirken oder zu einer nach den Rechtsvorschriften der Union verbotenen Diskriminierung führen könnten, insbesondere wenn die Datenausgaben die Eingaben für künftige Operationen beeinflussen,
f)
läbi vaatamine, pidades silmas võimalikku kallutatust, mis tõenäoliselt mõjutab inimeste tervist ja ohutust, mõjutab negatiivselt põhiõigusi või põhjustab diskrimineerimist, mis on liidu õigusega keelatud, eriti kui andmeväljundid mõjutavad sisendeid tulevaste toimingute jaoks;
g)
geeignete Maßnahmen zur Erkennung, Verhinderung und Abschwächung möglicher gemäß Buchstabe f ermittelter Verzerrungen,
g)
asjakohased meetmed punkti f kohaselt kindlaks tehtud võimaliku kallutatuse avastamiseks, ennetamiseks ja leevendamiseks;
h)
die Ermittlung relevanter Datenlücken oder Mängel, die der Einhaltung dieser Verordnung entgegenstehen, und wie diese Lücken und Mängel behoben werden können.
h)
käesoleva määruse järgimist takistavate asjakohaste andmelünkade või puuduste kindlakstegemine ja võimalused nende lünkade ja puuduste kõrvaldamiseks.
(3) Die Trainings-, Validierungs- und Testdatensätze müssen im Hinblick auf die Zweckbestimmung relevant, hinreichend repräsentativ und so weit wie möglich fehlerfrei und vollständig sein. Sie müssen die geeigneten statistischen Merkmale, gegebenenfalls auch bezüglich der Personen oder Personengruppen, für die das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, haben. Diese Merkmale der Datensätze können auf der Ebene einzelner Datensätze oder auf der Ebene einer Kombination davon erfüllt werden.
3. Treenimis-, valideerimis- ja testimisandmestikud peavad olema asjakohased, piisavalt representatiivsed ning võimalikult suurel määral vigadeta ja täielikud, pidades silmas nende sihtotstarvet. Neid peavad iseloomustama asjakohased statistilised omadused, sealhulgas kohaldataval juhul seoses isikute või isikute rühmadega, kelle suhtes kavatsetakse suure riskiga tehisintellektisüsteemi kasutada. Need andmestiku omadused võivad olla täidetud üksikute andmestike või nende kombinatsiooni tasandil.
(4) Die Datensätze müssen, soweit dies für die Zweckbestimmung erforderlich ist, die entsprechenden Merkmale oder Elemente berücksichtigen, die für die besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, typisch sind.
4. Andmestikes tuleb sihtotstarbe jaoks vajalikus ulatuses võtta arvesse omadusi või elemente, mis iseloomustavad konkreetset geograafilist, kontekstuaalset, käitumuslikku või funktsionaalset keskkonda, kus kavatsetakse suure riskiga tehisintellektisüsteemi kasutada.
(5) Soweit dies für die Erkennung und Korrektur von Verzerrungen im Zusammenhang mit Hochrisiko-KI-Systemen im Einklang mit Absatz 2 Buchstaben f und g dieses Artikels unbedingt erforderlich ist, dürfen die Anbieter solcher Systeme ausnahmsweise besondere Kategorien personenbezogener Daten verarbeiten, wobei sie angemessene Vorkehrungen für den Schutz der Grundrechte und Grundfreiheiten natürlicher Personen treffen müssen. Zusätzlich zu den Bestimmungen der Verordnungen (EU) 2016/679 und (EU) 2018/1725 und der Richtlinie (EU) 2016/680 müssen alle folgenden Bedingungen erfüllt sein, damit eine solche Verarbeitung stattfinden kann:
5. Niivõrd kui see on rangelt vajalik selleks, et tagada kallutatuse avastamine ja korrigeerimine suure riskiga tehisintellektisüsteemide puhul kooskõlas käesoleva artikli lõike 2 punktidega f ja g, võivad selliste süsteemide pakkujad erandkorras töödelda isikuandmete eriliike, kohaldades asjakohaseid kaitsemeetmeid füüsiliste isikute põhiõiguste ja -vabaduste kaitseks. Lisaks määruste (EL) 2016/679 ja (EL) 2018/1725 ning direktiivi (EL) 2016/680 sätetele peab selline töötlemine vastama kõigile järgmistele tingimustele:
a)
Die Erkennung und Korrektur von Verzerrungen kann durch die Verarbeitung anderer Daten, einschließlich synthetischer oder anonymisierter Daten, nicht effektiv durchgeführt werden;
a)
kallutatuse tuvastamist ja parandamist ei ole võimalik tulemuslikult saavutada muude andmete, sealhulgas tehisandmete või anonüümitud andmete töötlemisega;
b)
die besonderen Kategorien personenbezogener Daten unterliegen technischen Beschränkungen einer Weiterverwendung der personenbezogenen Daten und modernsten Sicherheits- und Datenschutzmaßnahmen, einschließlich Pseudonymisierung;
b)
isikuandmete eriliikide suhtes kehtivad isikuandmete taaskasutamise tehnilised piirangud ning tipptasemel turva- ja privaatsuse säilitamise meetmed, sealhulgas pseudonüümimine;
c)
die besonderen Kategorien personenbezogener Daten unterliegen Maßnahmen, mit denen sichergestellt wird, dass die verarbeiteten personenbezogenen Daten gesichert, geschützt und Gegenstand angemessener Sicherheitsvorkehrungen sind, wozu auch strenge Kontrollen des Zugriffs und seine Dokumentation gehören, um Missbrauch zu verhindern und sicherzustellen, dass nur befugte Personen Zugang zu diesen personenbezogenen Daten mit angemessenen Vertraulichkeitspflichten haben;
c)
isikuandmete eriliikide suhtes kohaldatakse meetmeid, millega tagatakse töödeldavate isikuandmete turvalisus, kaitse ja asjakohased kaitsemeetmed, sealhulgas juurdepääsu range kontroll ja dokumenteerimine, et vältida väärkasutamist ja tagada, et ainult volitatud isikutel, kellel on asjakohased konfidentsiaalsuskohustused, on juurdepääs kõnealustele isikuandmetele;
d)
die besonderen Kategorien personenbezogener Daten werden nicht an Dritte übermittelt oder übertragen, noch haben diese Dritten anderweitigen Zugang zu diesen Daten;
d)
isikuandmete eriliike ei tohi edastada ega üle anda ning need ei tohi olla teistele isikutele muul moel kättesaadavad;
e)
die besonderen Kategorien personenbezogener Daten werden gelöscht, sobald die Verzerrung korrigiert wurde oder das Ende der Speicherfrist für die personenbezogenen Daten erreicht ist, je nachdem, was zuerst eintritt;
e)
isikuandmete eriliigid kustutatakse, kui kallutatus on parandatud või kui isikuandmete säilitamisperiood saab läbi, olenevalt sellest, kumb saabub varem;
f)
die Aufzeichnungen über Verarbeitungstätigkeiten gemäß den Verordnungen (EU) 2016/679 und (EU) 2018/1725 und der Richtlinie (EU) 2016/680 enthalten die Gründe, warum die Verarbeitung besonderer Kategorien personenbezogener Daten für die Erkennung und Korrektur von Verzerrungen unbedingt erforderlich war und warum dieses Ziel mit der Verarbeitung anderer Daten nicht erreicht werden konnte.
f)
määruste (EL) 2016/679 ja (EL) 2018/1725 ning direktiivi (EL) 2016/680 kohane isikuandmete töötlemise toimingute registreerimine hõlmab põhjuseid, miks isikuandmete eriliikide töötlemine oli rangelt vajalik kallutatuse avastamiseks ja parandamiseks ning miks seda eesmärki ei olnud võimalik saavutada muude andmete töötlemisega.
(6) Bei der Entwicklung von Hochrisiko-KI-Systemen, in denen keine Techniken eingesetzt werden, bei denen KI-Modelle trainiert werden, gelten die Absätze 2 bis 5 nur für Testdatensätze.
6. Nende suure riskiga tehisintellektisüsteemide arendamisel, mille puhul ei kasutata tehisintellektimudelite treenimist hõlmavaid meetodeid, kohaldatakse lõikeid 2–5 üksnes testimisandmestike suhtes.
Tehniline dokumentatsioon
(1) Die technische Dokumentation eines Hochrisiko-KI-Systems wird erstellt, bevor dieses System in Verkehr gebracht oder in Betrieb genommen wird, und ist auf dem neuesten Stand zu halten.
1. Suure riskiga tehisintellektisüsteemi tehniline dokumentatsioon koostatakse enne süsteemi turule laskmist või kasutusele võtmist ning see hoitakse ajakohasena.
Die technische Dokumentation wird so erstellt, dass aus ihr der Nachweis hervorgeht, wie das Hochrisiko-KI-System die Anforderungen dieses Abschnitts erfüllt, und dass den zuständigen nationalen Behörden und den notifizierten Stellen die Informationen in klarer und verständlicher Form zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt. Sie enthält zumindest die in Anhang IV genannten Angaben. KMU, einschließlich Start-up-Unternehmen, können die in Anhang IV aufgeführten Elemente der technischen Dokumentation in vereinfachter Weise bereitstellen. Zu diesem Zweck erstellt die Kommission ein vereinfachtes Formular für die technische Dokumentation, das auf die Bedürfnisse von kleinen Unternehmen und Kleinstunternehmen zugeschnitten ist. Entscheidet sich ein KMU, einschließlich Start-up-Unternehmen, für eine vereinfachte Bereitstellung der in Anhang IV vorgeschriebenen Angaben, so verwendet es das in diesem Absatz genannte Formular. Die notifizierten Stellen akzeptieren das Formular für die Zwecke der Konformitätsbewertung.
Tehniline dokumentatsioon koostatakse selliselt, et see tõendaks suure riskiga tehisintellektisüsteemi vastavust käesolevas jaos sätestatud nõuetele ja annaks riikide pädevatele asutustele ja teada antud asutustele selgel ja terviklikul kujul teabe, mis on vajalik, et hinnata tehisintellektisüsteemi vastavust neile nõuetele. Dokumentatsioon peab sisaldama vähemalt IV lisas loetletud elemente. VKEd, sealhulgas idufirmad, võivad esitada IV lisas täpsustatud tehnilise dokumentatsiooni elemente lihtsustatud viisil. Selleks kehtestab komisjon väikeste ja mikroettevõtjate vajadustele vastava lihtsustatud tehnilise dokumentatsiooni vormi. Kui VKE, sealhulgas idufirma, otsustab esitada IV lisas nõutud teabe lihtsustatud korras, kasutab ta käesolevas lõikes osutatud vormi. Teada antud asutused peavad seda vormi vastavushindamise tegemisel arvestama.
(2) Wird ein Hochrisiko-KI-System, das mit einem Produkt verbunden ist, das unter die in Anhang I Abschnitt A aufgeführten Harmonisierungsrechtsvorschriften der Union fällt, in Verkehr gebracht oder in Betrieb genommen, so wird eine einzige technische Dokumentation erstellt, die alle in Absatz 1 genannten Informationen sowie die nach diesen Rechtsakten erforderlichen Informationen enthält.
2. Kui turule lastakse või kasutusele võetakse suure riskiga tehisintellektisüsteem, mis on seotud tootega, mille suhtes kohaldatakse I lisa A osas loetletud liidu ühtlustamisõigusakte, koostatakse ühtne tehniline dokumentatsioon, mis sisaldab nii kogu lõikes 1 esitatud teavet kui ka nimetatud õigusaktide kohaselt nõutavat teavet.
(3) Die Kommission ist befugt, wenn dies nötig ist, gemäß Artikel 97 delegierte Rechtsakte zur Änderung des Anhangs IV zu erlassen, damit die technische Dokumentation in Anbetracht des technischen Fortschritts stets alle Informationen enthält, die erforderlich sind, um zu beurteilen, ob das System die Anforderungen dieses Abschnitts erfüllt.
3. Komisjon võtab kooskõlas artikliga 97 vastu delegeeritud õigusakte, et muuta IV lisa, kui see on vajalik selle tagamiseks, et tehniline dokumentatsioon sisaldab tehnika arengut arvestades kogu vajalikku teavet, et hinnata süsteemi vastavust käesolevas jaos sätestatud nõuetele.
(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie während der Dauer ihrer Verwendung — auch mit geeigneten Instrumenten einer Mensch-Maschine-Schnittstelle — von natürlichen Personen wirksam beaufsichtigt werden können.
1. Suure riskiga tehisintellektisüsteeme projekteeritakse ja arendatakse selliselt, et füüsilised isikud saaksid teha süsteemide kasutamise ajal nende üle reaalset järelevalvet, muu hulgas asjakohaste inimene-masin kasutajaliideste abil.
(2) Die menschliche Aufsicht dient der Verhinderung oder Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte, die entstehen können, wenn ein Hochrisiko-KI-System im Einklang mit seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird, insbesondere wenn solche Risiken trotz der Einhaltung anderer Anforderungen dieses Abschnitts fortbestehen.
2. Inimjärelevalve eesmärk on hoida ära või minimeerida tervist, ohutust või põhiõigusi ähvardavaid riske, mis võivad tekkida, kui suure riskiga tehisintellektisüsteemi kasutatakse vastavalt selle sihtotstarbele või mõistlikult prognoositava väärkasutamise tingimustes, eeskätt juhul, kui sellised riskid jäävad alles ka siis, kui kohaldatakse muid käesolevas jaos sätestatud nõudeid.
(3) Die Aufsichtsmaßnahmen müssen den Risiken, dem Grad der Autonomie und dem Kontext der Nutzung des Hochrisiko-KI-Systems angemessen sein und werden durch eine oder beide der folgenden Arten von Vorkehrungen gewährleistet:
3. Järelevalvemeetmed peavad vastama suure riskiga tehisintellektisüsteemi riskidele, autonoomsuse tasemele ja kasutuskontekstile ning need tagatakse kas ühe järgmist liiki meetme või kõigi järgmist liiki meetmetega:
a)
Vorkehrungen, die vor dem Inverkehrbringen oder der Inbetriebnahme vom Anbieter bestimmt und, sofern technisch machbar, in das Hochrisiko-KI-System eingebaut werden;
a)
meetmed, mille pakkuja on enne suure riskiga tehisintellektisüsteemi turule laskmist või kasutusele võtmist kindlaks teinud, ja kui see on tehniliselt teostatav, sellisesse süsteemi sisse ehitanud;
b)
Vorkehrungen, die vor dem Inverkehrbringen oder der Inbetriebnahme des Hochrisiko-KI-Systems vom Anbieter bestimmt werden und dazu geeignet sind, vom Betreiber umgesetzt zu werden.
b)
meetmed, mille pakkuja on enne suure riskiga tehisintellektisüsteemi turule laskmist või kasutusele võtmist kindlaks teinud ja mis sobivad selleks, et juurutaja saaks neid rakendada.
(4) Für die Zwecke der Durchführung der Absätze 1, 2 und 3 wird das Hochrisiko-KI-System dem Betreiber so zur Verfügung gestellt, dass die natürlichen Personen, denen die menschliche Aufsicht übertragen wurde, angemessen und verhältnismäßig in der Lage sind,
4. Lõigete 1, 2 ja 3 rakendamiseks antakse suure riskiga tehisintellektisüsteem juurutajale sellisel viisil, et füüsilistel isikutel, kellele on antud ülesanne teha inimjärelevalvet, oleks võimalik, kui see on olenevalt asjaoludest asjakohane ja proportsionaalne:
a)
die einschlägigen Fähigkeiten und Grenzen des Hochrisiko-KI-Systems angemessen zu verstehen und seinen Betrieb ordnungsgemäß zu überwachen, einschließlich in Bezug auf das Erkennen und Beheben von Anomalien, Fehlfunktionen und unerwarteter Leistung;
a)
mõista nõuetekohaselt suure riskiga tehisintellektisüsteemi asjakohaseid võimeid ja piire ning teha igakülgset seiret selle toimimise üle, sealhulgas selleks, et avastada kõrvalekaldeid, väärtalitlusi ja ootamatut toimimist ning nendega tegeleda;
b)
sich einer möglichen Neigung zu einem automatischen oder übermäßigen Vertrauen in die von einem Hochrisiko-KI-System hervorgebrachte Ausgabe („Automatisierungsbias“) bewusst zu bleiben, insbesondere wenn Hochrisiko-KI-Systeme Informationen oder Empfehlungen ausgeben, auf deren Grundlage natürliche Personen Entscheidungen treffen;
b)
olla pidevalt teadlik võimalusest, et tekib kalduvus hakata automaatselt tuginema või liigselt tuginema suure riskiga tehisintellektisüsteemi toodetud väljundile (nn kalduvus eelistada automatiseerimist), seda eriti siis, kui tegemist on suure riskiga tehisintellektisüsteemidega, mida kasutatakse, et saada teavet või soovitusi füüsiliste isikute tehtavate otsuste jaoks;
c)
die Ausgabe des Hochrisiko-KI-Systems richtig zu interpretieren, wobei beispielsweise die vorhandenen Interpretationsinstrumente und -methoden zu berücksichtigen sind;
c)
korrektselt tõlgendada suure riskiga tehisintellektisüsteemi väljundit, võttes arvesse näiteks kättesaadavaid tõlgendamisvahendeid ja -meetodeid;
d)
in einer bestimmten Situation zu beschließen, das Hochrisiko-KI-System nicht zu verwenden oder die Ausgabe des Hochrisiko-KI-Systems außer Acht zu lassen, außer Kraft zu setzen oder rückgängig zu machen;
d)
otsustada igas konkreetses olukorras, et suure riskiga tehisintellektisüsteemi ei kasutata, või jätta suure riskiga tehisintellektisüsteemi väljund muul moel kõrvale, sürjutada või tagasi võtta;
e)
in den Betrieb des Hochrisiko-KI-Systems einzugreifen oder den Systembetrieb mit einer „Stopptaste“ oder einem ähnlichen Verfahren zu unterbrechen, was dem System ermöglicht, in einem sicheren Zustand zum Stillstand zu kommen.
e)
sekkuda suure riskiga tehisintellektisüsteemi toimimisse või katkestada süsteemi töö stopp-nupu või muu sarnase protseduuriga, mis võimaldab süsteemil ohutus olekus peatuda.
(5) Bei den in Anhang III Nummer 1 Buchstabe a genannten Hochrisiko-KI-Systemen müssen die in Absatz 3 des vorliegenden Artikels genannten Vorkehrungen so gestaltet sein, dass außerdem der Betreiber keine Maßnahmen oder Entscheidungen allein aufgrund des vom System hervorgebrachten Identifizierungsergebnisses trifft, solange diese Identifizierung nicht von mindestens zwei natürlichen Personen, die die notwendige Kompetenz, Ausbildung und Befugnis besitzen, getrennt überprüft und bestätigt wurde.
5. III lisa punkti 1 alapunktis a osutatud suure riskiga tehisintellektisüsteemide puhul tagatakse käesoleva artikli lõikes 3 osutatud meetmetega, et lisaks sellele ei tee ega otsusta juurutaja süsteemist saadud tuvastamise põhjal midagi, kui seda tuvastamist ei ole eraldi kontrollinud ja kinnitanud vähemalt kaks füüsilist isikut, kellel on vajalik pädevus, väljaõpe ja volitused.
Die Anforderung einer getrennten Überprüfung durch mindestens zwei natürliche Personen gilt nicht für Hochrisiko-KI-Systeme, die für Zwecke in den Bereichen Strafverfolgung, Migration, Grenzkontrolle oder Asyl verwendet werden, wenn die Anwendung dieser Anforderung nach Unionsrecht oder nationalem Recht unverhältnismäßig wäre.
Nõuet, et vähemalt kaks füüsilist isikut peavad eraldi kontrollima neid suure riskiga tehisintellektisüsteeme, mida kasutatakse õiguskaitse, rände, piirikontrolli või varjupaigaga seotud eesmärgil, ei kohaldata, kui liidu või riigi õiguse kohaselt peetakse selle nõude kohaldamist ebaproportsionaalseks.
Genauigkeit, Robustheit und Cybersicherheit
Täpsus, stabiilsus ja küberturvalisus
(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.
1. Suure riskiga tehisintellektisüsteeme projekteeritakse ja arendatakse selliselt, et need saavutaksid asjakohase täpsuse, stabiilsuse ja küberturvalisuse taseme ning et nad toimiksid nendes aspektides järjekindlalt oma kogu elutsükli jooksul.
(2) Um die technischen Aspekte der Art und Weise der Messung des angemessenen Maßes an Genauigkeit und Robustheit gemäß Absatz 1 und anderer einschlägiger Leistungsmetriken anzugehen, fördert die Kommission in Zusammenarbeit mit einschlägigen Interessenträgern und Organisationen wie Metrologie- und Benchmarking-Behörden gegebenenfalls die Entwicklung von Benchmarks und Messmethoden.
2. Selleks et käsitleda lõikes 1 sätestatud asjakohase täpsuse ja stabiilsuse taseme mõõtmise ning muude asjakohaste tulemusnäitajate tehnilisi aspekte, julgustab komisjon koostöös asjaomaste sidusrühmade ja organisatsioonidega, nagu metroloogia- ja võrdlusuuringuasutused, vajaduse korral võrdlusaluste ja mõõtmismeetodite väljatöötamist.
(3) Die Maße an Genauigkeit und die relevanten Genauigkeitsmetriken von Hochrisiko-KI-Systemen werden in den ihnen beigefügten Betriebsanleitungen angegeben.
3. Suure riskiga tehisintellektisüsteemide täpsuse tasemed ja asjakohased täpsuse parameetrid tuleb deklareerida süsteemiga kaasas olevas kasutusjuhendis.
(4) Hochrisiko-KI-Systeme müssen so widerstandsfähig wie möglich gegenüber Fehlern, Störungen oder Unstimmigkeiten sein, die innerhalb des Systems oder der Umgebung, in der das System betrieben wird, insbesondere wegen seiner Interaktion mit natürlichen Personen oder anderen Systemen, auftreten können. In diesem Zusammenhang sind technische und organisatorische Maßnahmen zu ergreifen.
4. Suure riskiga tehisintellektisüsteemid peavad olema süsteemis või süsteemi töökeskkonnas tekkida võivate vigade, rikete või ebakõlade suhtes võimalikult vastupidavad, eriti juhul, kui põhjuseks on süsteemi interaktsioon füüsiliste isikute või muude süsteemidega. Selleks võetakse tehnilisi ja korralduslikke meetmeid.
Die Robustheit von Hochrisiko-KI-Systemen kann durch technische Redundanz erreicht werden, was auch Sicherungs- oder Störungssicherheitspläne umfassen kann.
Suure riskiga tehisintellektisüsteemide stabiilsuse võib saavutada tehnilise liiasuse lahendustega, mis võivad hõlmata varuplaane või tõrkekindluse plaane.
Hochrisiko-KI-Systeme, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen, sind so zu entwickeln, dass das Risiko möglicherweise verzerrter Ausgaben, die künftige Vorgänge beeinflussen („Rückkopplungsschleifen“), beseitigt oder so gering wie möglich gehalten wird und sichergestellt wird, dass auf solche Rückkopplungsschleifen angemessen mit geeigneten Risikominderungsmaßnahmen eingegangen wird.
Suure riskiga tehisintellektisüsteeme, mis õpivad edasi ka pärast turule laskmist või kasutusele võtmist, arendatakse selliselt, et kõrvaldada või vähendada niipalju kui võimalik potentsiaalselt kallutatud väljundite riski, mis võivad mõjutada edasiste toimingute sisendit (edaspidi „tagasisideahelad“) ning tagada, et selliseid tagasisideahelaid käsitletakse igakülgselt asjakohaste leevendusmeetmete kaudu.
(5) Hochrisiko-KI-Systeme müssen widerstandsfähig gegen Versuche unbefugter Dritter sein, ihre Verwendung, Ausgaben oder Leistung durch Ausnutzung von Systemschwachstellen zu verändern.
5. Suure riskiga tehisintellektisüsteemid peavad pidama vastu volitamata kolmandate isikute katsetele muuta süsteemi kasutamist, väljundit või toimimist, kasutades ära süsteemi nõrkusi.
Die technischen Lösungen zur Gewährleistung der Cybersicherheit von Hochrisiko-KI-Systemen müssen den jeweiligen Umständen und Risiken angemessen sein.
Suure riskiga tehisintellektisüsteemide küberturvalisuse tagamiseks kasutatavad tehnilised lahendused peavad vastama asjaomastele asjaoludele ja riskidele.
Die technischen Lösungen für den Umgang mit KI-spezifischen Schwachstellen umfassen gegebenenfalls Maßnahmen, um Angriffe, mit denen versucht wird, eine Manipulation des Trainingsdatensatzes („data poisoning“) oder vortrainierter Komponenten, die beim Training verwendet werden („model poisoning“), vorzunehmen, Eingabedaten, die das KI-Modell zu Fehlern verleiten sollen („adversarial examples“ oder „model evasions“), Angriffe auf vertrauliche Daten oder Modellmängel zu verhüten, zu erkennen, darauf zu reagieren, sie zu beseitigen und zu kontrollieren.
Tehisintellektile iseloomulike nõrkuste käsitlemiseks kasutatavad tehnilised lahendused hõlmavad olenevalt asjaoludest meetmeid, millega hoida ära, avastada, tõrjuda, lahendada ja kontrollida ründeid, millega püütakse manipuleerida treenimisandmestikku („andmemürgitus“) või treenimisel kasutatavaid eeltreenitud komponente („mudelimürgitus“), sisendeid, mille eesmärk on panna tehisintellektimudel viga tegema („vastandnäited“ või „mudelist kõrvalehoidumine“), konfidentsiaalsusründeid või mudelivigu.
Qualitätsmanagementsystem
Kvaliteedijuhtimissüsteem
(1) Anbieter von Hochrisiko-KI-Systemen richten ein Qualitätsmanagementsystem ein, das die Einhaltung dieser Verordnung gewährleistet. Dieses System wird systematisch und ordnungsgemäß in Form schriftlicher Regeln, Verfahren und Anweisungen dokumentiert und umfasst mindestens folgende Aspekte:
1. Suure riskiga tehisintellektisüsteemide pakkujad võtavad kasutusele kvaliteedijuhtimissüsteemi, mis tagab käesoleva määruse järgimise. Kvaliteedijuhtimissüsteem peab olema kirjalike põhimõtete, menetluste ja juhendite kujul süsteemselt ja nõuetekohaselt dokumenteeritud ning sisaldama vähemalt järgmisi aspekte:
a)
ein Konzept zur Einhaltung der Regulierungsvorschriften, was die Einhaltung der Konformitätsbewertungsverfahren und der Verfahren für das Management von Änderungen an dem Hochrisiko-KI-System miteinschließt;
a)
strateegia õigusnormidele vastavuse tagamiseks, sealhulgas vastavushindamise ja suure riskiga tehisintellektisüsteemis tehtavate muudatuste haldamismenetluste järgimiseks;
b)
Techniken, Verfahren und systematische Maßnahmen für den Entwurf, die Entwurfskontrolle und die Entwurfsprüfung des Hochrisiko-KI-Systems;
b)
meetodid, menetlused ja süstemaatilised meetmed, mida kasutatakse suure riskiga tehisintellektisüsteemi projekteerimiseks, projekteerimise järelevalveks ja projektide kontrollimiseks;
c)
Techniken, Verfahren und systematische Maßnahmen für die Entwicklung, Qualitätskontrolle und Qualitätssicherung des Hochrisiko-KI-Systems;
c)
meetodid, menetlused ja süstemaatilised meetmed, mida kasutatakse suure riskiga tehisintellektisüsteemi arendamiseks, kvaliteedi kontrollimiseks ja kvaliteedi tagamiseks;
d)
Untersuchungs-, Test- und Validierungsverfahren, die vor, während und nach der Entwicklung des Hochrisiko-KI-Systems durchzuführen sind, und die Häufigkeit der Durchführung;
d)
enne suure riskiga tehisintellektisüsteemi arendamist, selle ajal ja pärast seda teostatavad läbivaatamis-, testimis- ja valideerimismenetlused ning nende teostamise sagedus;
e)
die technischen Spezifikationen und Normen, die anzuwenden sind und, falls die einschlägigen harmonisierten Normen nicht vollständig angewandt werden oder sie nicht alle relevanten Anforderungen gemäß Abschnitt 2 abdecken, die Mittel, mit denen gewährleistet werden soll, dass das Hochrisiko-KI-System diese Anforderungen erfüllt;
e)
kohaldatavad tehnilised kirjeldused, sh standardid, ja juhul, kui asjaomaseid harmoneeritud standardeid ei kohaldata täies mahus või need ei hõlma kõiki 2. jaos sätestatud asjakohaseid nõudeid, siis ka vahendid, mida kasutatakse, et tagada suure riskiga tehisintellektisüsteemi vastavus kõnealustele nõuetele;
f)
Systeme und Verfahren für das Datenmanagement, einschließlich Datengewinnung, Datenerhebung, Datenanalyse, Datenkennzeichnung, Datenspeicherung, Datenfilterung, Datenauswertung, Datenaggregation, Vorratsdatenspeicherung und sonstiger Vorgänge in Bezug auf die Daten, die im Vorfeld und für die Zwecke des Inverkehrbringens oder der Inbetriebnahme von Hochrisiko-KI-Systemen durchgeführt werden;
f)
andmehalduse süsteemid ja menetlused, sealhulgas andmete hankimine, andmete kogumine, andmeanalüüs, andmete märgendamine, andmete talletamine, andmete filtreerimine, andmekaeve, andmete agregeerimine, andmesäilitus ja mis tahes muud andmetega seotud toimingud, mida teostatakse suure riskiga tehisintellektisüsteemide turule laskmise või kasutusele võtmise eel ja eesmärgil;
g)
das in Artikel 9 genannte Risikomanagementsystem;
g)
artiklis 9 osutatud riskijuhtimissüsteem;
h)
die Einrichtung, Anwendung und Aufrechterhaltung eines Systems zur Beobachtung nach dem Inverkehrbringen gemäß Artikel 72;
h)
turustamisjärgse seire süsteemi loomine, rakendamine ja toimivana hoidmine vastavalt artiklile 72;
i)
Verfahren zur Meldung eines schwerwiegenden Vorfalls gemäß Artikel 73;
i)
menetlused, mis on seotud tõsisest intsidendist teatamisega vastavalt artiklile 73;
j)
die Handhabung der Kommunikation mit zuständigen nationalen Behörden, anderen einschlägigen Behörden, auch Behörden, die den Zugang zu Daten gewähren oder erleichtern, notifizierten Stellen, anderen Akteuren, Kunden oder sonstigen interessierten Kreisen;
j)
suhtlemine riikide pädevate asutustega, teiste asjaomaste asutustega, sealhulgas nendega, kes pakuvad või toetavad juurdepääsu andmetele, teada antud asutustega, teiste operaatoritega, klientidega või muude huvitatud isikutega;
k)
Systeme und Verfahren für die Aufzeichnung sämtlicher einschlägigen Dokumentation und Informationen;
k)
kõigi vajalike dokumentide ja teabega seotud andmete säilitamise süsteemid ja menetlused;
l)
Ressourcenmanagement, einschließlich Maßnahmen im Hinblick auf die Versorgungssicherheit;
l)
ressursside haldamine, sealhulgas varustuskindlusega seotud meetmed;
m)
einen Rechenschaftsrahmen, der die Verantwortlichkeiten der Leitung und des sonstigen Personals in Bezug auf alle in diesem Absatz aufgeführten Aspekte regelt.
m)
aruandekohustuse raamistik, millega nähakse ette juhtkonna ja muude töötajate vastutus seoses kõigi käesolevas lõikes loetletud aspektidega.
(2) Die Umsetzung der in Absatz 1 genannten Aspekte erfolgt in einem angemessenen Verhältnis zur Größe der Organisation des Anbieters. Die Anbieter müssen in jedem Fall den Grad der Strenge und das Schutzniveau einhalten, die erforderlich sind, um die Übereinstimmung ihrer Hochrisiko-KI-Systeme mit dieser Verordnung sicherzustellen.
2. Lõikes 1 osutatud aspektide rakendamine peab olema proportsionaalne pakkuja organisatsiooni suurusega. Pakkujad austavad igal juhul sellist rangusastet ja kaitsetaset, mis on vajalik, et tagada oma suure riskiga tehisintellektisüsteemide vastavus käesolevale määrusele.
(3) Anbieter von Hochrisiko-KI-Systemen, die Pflichten in Bezug auf Qualitätsmanagementsysteme oder eine gleichwertige Funktion gemäß den sektorspezifischen Rechtsvorschriften der Union unterliegen, können die in Absatz 1 aufgeführten Aspekte als Bestandteil der nach den genannten Rechtsvorschriften festgelegten Qualitätsmanagementsysteme einbeziehen.
3. Suure riskiga tehisintellektisüsteemide pakkujate jaoks, kes peavad täitma asjaomase valdkondliku liidu õiguse alusel kvaliteedijuhtimissüsteeme või samaväärset funktsiooni käsitlevaid kohustusi, võivad lõikes 1 loetletud aspektid olla osa kõnealuse õiguse kohastest kvaliteedijuhtimissüsteemidest.
(4) Bei Anbietern, die Finanzinstitute sind und gemäß den Rechtsvorschriften der Union über Finanzdienstleistungen Anforderungen in Bezug auf ihre Regelungen oder Verfahren der internen Unternehmensführung unterliegen, gilt die Pflicht zur Einrichtung eines Qualitätsmanagementsystems — mit Ausnahme des Absatzes 1 Buchstaben g, h und i des vorliegenden Artikels — als erfüllt, wenn die Vorschriften über Regelungen oder Verfahren der internen Unternehmensführung gemäß dem einschlägigen Unionsrecht über Finanzdienstleistungen eingehalten werden. Zu diesem Zweck werden die in Artikel 40 genannten harmonisierten Normen berücksichtigt.
4. Finantsasutustest pakkujate puhul, kes peavad täitma finantsteenuseid käsitleva liidu õiguse kohaseid nõudeid seoses nende sisemise juhtimissüsteemi, korra või protsessidega, loetakse kvaliteedijuhtimissüsteemi loomise kohustus, välja arvatud käesoleva artikli lõike 1 punktide g, h ja i osas, täidetuks, kui järgitakse nõudeid seoses sisemise juhtimissüsteemi, korra või protsessidega vastavalt finantsteenuseid käsitlevatele asjaomasele liidu õigusele. Seda silmas pidades võetakse arvesse artiklis 40 osutatud harmoneeritud standardeid.
Bevollmächtigte der Anbieter von Hochrisiko-KI-Systemen
Suure riskiga tehisintellektisüsteemide pakkujate volitatud esindajad
(1) Anbieter, die in Drittländern niedergelassen sind, benennen vor der Bereitstellung ihrer Hochrisiko-KI-Systeme auf dem Unionsmarkt schriftlich einen in der Union niedergelassenen Bevollmächtigten.
1. Kolmandates riikides asutatud pakkujad peavad enne oma suure riskiga tehisintellektisüsteemide liidu turul kättesaadavaks tegemist määrama kirjaliku volitusega liidus asutatud volitatud esindaja.
(2) Der Anbieter muss seinem Bevollmächtigten ermöglichen, die Aufgaben wahrzunehmen, die im vom Anbieter erhaltenen Auftrag festgelegt sind.
2. Pakkuja võimaldab oma volitatud esindajal täita pakkujalt saadud volituses kindlaksmääratud ülesandeid.
(3) Der Bevollmächtigte nimmt die Aufgaben wahr, die in seinem vom Anbieter erhaltenen Auftrag festgelegt sind. Er stellt den Marktüberwachungsbehörden auf Anfrage eine Kopie des Auftrags in einer von der zuständigen Behörde angegebenen Amtssprache der Institutionen der Union bereit. Für die Zwecke dieser Verordnung ermächtigt der Auftrag den Bevollmächtigten zumindest zur Wahrnehmung folgender Aufgaben:
3. Volitatud esindaja täidab pakkujalt saadud volituses kindlaksmääratud ülesandeid. Volitatud esindaja esitab turujärelevalveasutuste nõudmisel neile volituse koopia pädeva asutuse poolt osutatud liidu institutsioonide ühes ametlikus keeles. Käesoleva määruse kohaldamisel annab volitus volitatud esindajale õiguse täita järgmisi ülesandeid:
a)
Überprüfung, ob die in Artikel 47 genannte EU-Konformitätserklärung und die technische Dokumentation gemäß Artikel 11 erstellt wurden und ob der Anbieter ein angemessenes Konformitätsbewertungsverfahren durchgeführt hat;
a)
kontrollida, et koostatud on artiklis 47 osutatud ELi vastavusdeklaratsioon ja artiklis 11 osutatud tehniline dokumentatsioon ning et pakkuja on teostanud asjakohase vastavushindamismenetluse;
b)
Bereithaltung — für einen Zeitraum von zehn Jahren ab dem Inverkehrbringen oder der Inbetriebnahme des Hochrisiko-KI-Systems — der Kontaktdaten des Anbieters, der den Bevollmächtigten benannt hat, eines Exemplars der in Artikel 47 genannten EU-Konformitätserklärung, der technischen Dokumentation und gegebenenfalls der von der notifizierten Stelle ausgestellten Bescheinigung für die zuständigen Behörden und die in Artikel 74 Absatz 10 genannten nationalen Behörden oder Stellen;
b)
säilitada pädevate asutuste ja artikli 74 lõikes 10 osutatud riiklike asutuste või organite jaoks kättesaadavana kümne aasta jooksul pärast suure riskiga tehisintellektisüsteemi turule laskmist või kasutusele võtmist pakkuja kontaktandmed, mida kasutades on volitatud esindaja nimetatud, artiklis 47 osutatud ELi vastavusdeklaratsiooni koopia, tehnilise dokumentatsiooni, ning kui see on asjakohane, teada antud asutuse väljastatud sertifikaadi;
c)
Übermittlung sämtlicher — auch der unter Buchstabe b dieses Unterabsatzes genannten — Informationen und Dokumentation, die erforderlich sind, um die Konformität eines Hochrisiko-KI-Systems mit den in Abschnitt 2 festgelegten Anforderungen nachzuweisen, an eine zuständige Behörde auf deren begründete Anfrage, einschließlich der Gewährung des Zugangs zu den vom Hochrisiko-KI-System automatisch erzeugten Protokollen gemäß Artikel 12 Absatz 1, soweit diese Protokolle der Kontrolle des Anbieters unterliegen;
c)
esitada pädevale asutusele põhjendatud taotluse korral kogu teave ja dokumentatsioon, sealhulgas käesoleva lõigu punktis b osutatud teave ja dokumentatsioon, mis on vajalik, et tõendada suure riskiga tehisintellektisüsteemi vastavust 2. jaos sätestatud nõuetele, sealhulgas pakkuda juurdepääsu suure riskiga tehisintellektisüsteemi automaatselt genereeritud logidele, nagu on osutatud artikli 12 lõikes 1, niivõrd, kuivõrd sellised logid on pakkuja kontrolli all;
d)
Zusammenarbeit mit den zuständigen Behörden auf deren begründete Anfrage bei allen Maßnahmen, die Letztere im Zusammenhang mit dem Hochrisiko-KI-System ergreifen, um insbesondere die von dem Hochrisiko-KI-System ausgehenden Risiken zu verringern und abzumildern;
d)
teha pädevate asutustega põhjendatud taotluse korral koostööd kõigis toimingutes, mida pädev asutus seoses suure riskiga tehisintellektisüsteemiga ette võtab; eelkõige selleks, et vähendada ja maandada suure riskiga tehisintellektisüsteemist tulenevaid riske;
e)
gegebenenfalls die Einhaltung der Registrierungspflichten gemäß Artikel 49 Absatz 1 oder, falls die Registrierung vom Anbieter selbst vorgenommen wird, Sicherstellung der Richtigkeit der in Anhang VIII Abschnitt A Nummer 3 aufgeführten Informationen.
e)
täita kohaldataval juhul artikli 49 lõikes 1 osutatud registreerimiskohustusi, või kui registreerimise teeb pakkuja ise, tagada VIII lisa A. jao punktis 3 osutatud teabe õigsus.
Mit dem Auftrag wird der Bevollmächtigte ermächtigt, neben oder anstelle des Anbieters als Ansprechpartner für die zuständigen Behörden in allen Fragen zu dienen, die die Gewährleistung der Einhaltung dieser Verordnung betreffen.
Volitusega antakse volitatud esindajale õigus, et tema poole võivad pöörduda lisaks pakkujale või selle asemel, pädevad asutused kõigis küsimustes, mis on seotud käesoleva määruse järgimise tagamisega.
(4) Der Bevollmächtigte beendet den Auftrag, wenn er der Auffassung ist oder Grund zu der Annahme hat, dass der Anbieter gegen seine Pflichten gemäß dieser Verordnung verstößt. In diesem Fall informiert er unverzüglich die betreffende Marktüberwachungsbehörde und gegebenenfalls die betreffende notifizierte Stelle über die Beendigung des Auftrags und deren Gründe.
4. Volitatud esindaja peatab volituse, kui ta arvab või tal on põhjust arvata, et pakkuja tegevus on vastuolus tema käesolevast määrusest tulenevate kohustustega. Sellisel juhul teatab ta volituse lõpetamisest ja selle põhjustest viivitamata asjakohasele turujärelevalveasutusele ning kui see on kohaldatav, asjaomasele teada antud asutusele.
(1) Bevor sie ein Hochrisiko-KI-System in Verkehr bringen, stellen die Einführer sicher, dass das System dieser Verordnung entspricht, indem sie überprüfen, ob
1. Enne suure riskiga tehisintellektisüsteemi turule laskmist peavad importijad tagama süsteemi vastavuse käesolevale määrusele, kontrollides, et:
a)
der Anbieter des Hochrisiko-KI-Systems das entsprechende Konformitätsbewertungsverfahren gemäß Artikel 43 durchgeführt hat;
a)
suure riskiga tehisintellektisüsteemi pakkuja on teostanud artiklis 43 osutatud asjakohase vastavushindamise;
b)
der Anbieter die technische Dokumentation gemäß Artikel 11 und Anhang IV erstellt hat;
b)
pakkuja on koostanud tehnilise dokumentatsiooni kooskõlas artikliga 11 ja IV lisaga;
c)
das System mit der erforderlichen CE-Kennzeichnung versehen ist und ihm die in Artikel 47 genannte EU-Konformitätserklärung und Betriebsanleitungen beigefügt sind;
c)
süsteemil on nõutav CE-märgis ning sellega on kaasas artiklis 47 osutatud ELi vastavusdeklaratsioon ja kasutusjuhendid;
d)
der Anbieter einen Bevollmächtigten gemäß Artikel 22 Absatz 1 benannt hat.
d)
pakkuja on määranud volitatud esindaja kooskõlas artikli 22 lõikega 1.
(2) Hat ein Einführer hinreichenden Grund zu der Annahme, dass ein Hochrisiko-KI-System nicht dieser Verordnung entspricht oder gefälscht ist oder diesem eine gefälschte Dokumentation beigefügt ist, so bringt er das System erst in Verkehr, nachdem dessen Konformität hergestellt wurde. Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 79 Absatz 1, so informiert der Einführer den Anbieter des Systems, die Bevollmächtigten und die Marktüberwachungsbehörden darüber.
2. Kui importijal on piisavalt põhjust arvata, et suure riskiga tehisintellektisüsteem ei ole käesoleva määrusega vastavuses või on võltsitud või sellega on kaasas võltsitud dokumentatsioon, ei vii ta süsteemi turule enne, kui see on viidud määrusega vastavusse. Kui suure riskiga tehisintellektisüsteem kujutab endast riski artikli 79 lõike 1 tähenduses, teavitab importija sellest süsteemi pakkujat, volitatud esindajaid ja turujärelevalveasutusi.
(3) Die Einführer geben ihren Namen, ihren eingetragenen Handelsnamen oder ihre eingetragene Handelsmarke und die Anschrift, unter der sie in Bezug auf das Hochrisiko-KI-System kontaktiert werden können, auf der Verpackung oder gegebenenfalls in der beigefügten Dokumentation an.
3. Importijad märgivad oma nime, registreeritud kaubanime või registreeritud kaubamärgi ja aadressi, millel nendega saab suure riskiga tehisintellektisüsteemi teemal ühendust võtta, selle pakendile või kaasasolevatesse dokumentidesse, kui see on kohaldatav.
(4) Solange sich ein Hochrisiko-KI-System in ihrer Verantwortung befindet, gewährleisten Einführer, dass — soweit zutreffend — die Lagerungs- oder Transportbedingungen seine Konformität mit den in Abschnitt 2 festgelegten Anforderungen nicht beeinträchtigen.
4. Importijad tagavad vastavalt asjaoludele, et sel ajal, kui suure riskiga tehisintellektisüsteem on nende vastutuse all, ei ohusta ladustamise ega transpordi tingimused kohaldataval juhul selle vastavust 2. jaos sätestatud nõuetele.
(5) Die Einführer halten für einen Zeitraum von zehn Jahren ab dem Inverkehrbringen oder der Inbetriebnahme des Hochrisiko-KI-Systems ein Exemplar der von der notifizierten Stelle ausgestellten Bescheinigung sowie gegebenenfalls die Betriebsanleitungen und die in Artikel 47 genannte EU-Konformitätserklärung bereit.
5. Importijad säilitavad kümne aasta jooksul pärast suure riskiga tehisintellektisüsteemi turule laskmist või kasutusele võtmist koopia teada antud asutuse väljastatud sertifikaadist, kui see on kohaldatav, kasutusjuhendist ning artiklis 47 osutatud ELi vastavusdeklaratsioonist.
(6) Die Einführer übermitteln den betreffenden nationalen Behörden auf deren begründete Anfrage sämtliche — auch die in Absatz 5 genannten — Informationen und Dokumentation, die erforderlich sind, um die Konformität des Hochrisiko-KI-Systems mit den in Abschnitt 2 festgelegten Anforderungen nachzuweisen, und zwar in einer Sprache, die für jene leicht verständlich ist. Zu diesem Zweck stellen sie auch sicher, dass diesen Behörden die technische Dokumentation zur Verfügung gestellt werden kann.
6. Importijad esitavad asjakohasele pädevale asutusele põhjendatud taotluse korral neile kergesti arusaadavas keeles kogu teabe ja dokumentatsiooni, sealhulgas lõikes 5 osutatud teabe ja dokumentatsiooni, mis on vajalik, et tõendada suure riskiga tehisintellektisüsteemi vastavust 2. jaos sätestatud nõuetele. Seda silmas pidades tagavad nad ka selle, et nendele asutustele saab kättesaadavaks teha tehnilise dokumentatsiooni.
(7) Die Einführer arbeiten mit den betreffenden nationalen Behörden bei allen Maßnahmen zusammen, die diese Behörden im Zusammenhang mit einem von den Einführern in Verkehr gebrachten Hochrisiko-KI-System ergreifen, um insbesondere die von diesem System ausgehenden Risiken zu verringern und abzumildern.
7. Importijad teevad asjakohaste pädevate asutustega koostööd kõigis toimingutes, mida need asutused võtavad ette seoses suure riskiga tehisintellektisüsteemiga, mille importijad on turule lasknud, eelkõige selleks, et vähendada ja maandada sellest tulenevaid riske.
(1) Bevor Händler ein Hochrisiko-KI-System auf dem Markt bereitstellen, überprüfen sie, ob es mit der erforderlichen CE-Kennzeichnung versehen ist, ob ihm eine Kopie der in Artikel 47 genannten EU-Konformitätserklärung und Betriebsanleitungen beigefügt sind und ob der Anbieter und gegebenenfalls der Einführer dieses Systems ihre in Artikel 16 Buchstaben b und c sowie Artikel 23 Absatz 3 festgelegten jeweiligen Pflichten erfüllt haben.
1. Enne suure riskiga tehisintellektisüsteemi turul kättesaadavaks tegemist kontrollivad turustajad, et see kannab nõutavat CE-märgist, et sellega on kaasas koopia artiklis 47 osutatud ELi vastavusdeklaratsioonist ja kasutusjuhend ning et olenevalt asjaoludest on kas selle süsteemi pakkuja või importija täitnud oma vastavad kohustused, mis on sätestatud artikli 16 punktides b ja c ning artikli 23 lõikes 3.
(2) Ist ein Händler der Auffassung oder hat er aufgrund von Informationen, die ihm zur Verfügung stehen, Grund zu der Annahme, dass ein Hochrisiko-KI-System nicht den Anforderungen in Abschnitt 2 entspricht, so stellt er das Hochrisiko-KI-System erst auf dem Markt bereit, nachdem die Konformität des Systems mit den Anforderungen hergestellt wurde. Birgt das Hochrisiko-IT-System zudem ein Risiko im Sinne des Artikels 79 Absatz 1, so informiert der Händler den Anbieter bzw. den Einführer des Systems darüber.
2. Kui turustaja arvab või tal on põhjust tema käsutuses oleva teabe põhjal arvata, et suure riskiga tehisintellektisüsteem ei ole vastavuses 2. jaos sätestatud nõuetega, ei tee ta seda suure riskiga tehisintellektisüsteemi turul kättesaadavaks enne, kui see süsteem on viidud nende nõuetega vastavusse. Peale selle, kui suure riskiga tehisintellektisüsteem kujutab endast riski artikli 79 lõike 1 tähenduses, teavitab turustaja sellest süsteemi pakkujat või importijat, nagu on asjakohane.
(3) Solange sich ein Hochrisiko-KI-System in ihrer Verantwortung befindet, gewährleisten Händler, dass — soweit zutreffend — die Lagerungs- oder Transportbedingungen die Konformität des Systems mit den in Abschnitt 2 festgelegten Anforderungen nicht beeinträchtigen.
3. Turustaja tagab, et sel ajal, kui suure riskiga tehisintellektisüsteem on tema vastutuse all, ei ohusta ladustamise ega transpordi tingimused kohaldataval juhul süsteemi vastavust 2. jaos sätestatud nõuetele.
(4) Ein Händler, der aufgrund von Informationen, die ihm zur Verfügung stehen, der Auffassung ist oder Grund zu der Annahme hat, dass ein von ihm auf dem Markt bereitgestelltes Hochrisiko-KI-System nicht den Anforderungen in Abschnitt 2 entspricht, ergreift die erforderlichen Korrekturmaßnahmen, um die Konformität dieses Systems mit diesen Anforderungen herzustellen, es zurückzunehmen oder zurückzurufen, oder er stellt sicher, dass der Anbieter, der Einführer oder gegebenenfalls jeder relevante Akteur diese Korrekturmaßnahmen ergreift. Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 79 Absatz 1, so informiert der Händler unverzüglich den Anbieter bzw. den Einführer des Systems sowie die für das betroffene Hochrisiko-KI-System zuständigen Behörden und macht dabei ausführliche Angaben, insbesondere zur Nichtkonformität und zu bereits ergriffenen Korrekturmaßnahmen.
4. Turustaja, kes arvab või kellel on põhjust tema käsutuses oleva teabe põhjal arvata, et suure riskiga tehisintellektisüsteem, mille ta on turul kättesaadavaks teinud, ei vasta 2. jaos sätestatud nõuetele, võtab parandusmeetmeid, mis on vajalikud, et viia süsteem nende nõuetega vastavusse, võtta see turult tagasi või nõuda tagasi, või tagab, et olenevalt asjaoludest kas pakkuja, importija või mõni asjaomane operaator võtab sellised parandusmeetmed. Kui suure riskiga tehisintellektisüsteem kujutab endast riski artikli 79 lõike 1 tähenduses, teavitab turustaja sellest viivitamata süsteemi pakkujat või importijat ja asjaomase suure riskiga tehisintellektisüsteemi osas pädevaid asutusi, esitades eelkõige üksikasjad mittevastavuse ja võimalike võetud parandusmeetmete kohta.
(5) Auf begründete Anfrage einer betreffenden zuständigen Behörde übermitteln die Händler eines Hochrisiko-KI-Systems dieser Behörde sämtliche Informationen und Dokumentation in Bezug auf ihre Maßnahmen gemäß den Absätzen 1 bis 4, die erforderlich sind, um die Konformität dieses Systems mit den in Abschnitt 2 festgelegten Anforderungen nachzuweisen.
5. Asjakohase pädeva asutuse põhjendatud taotluse korral esitavad suure riskiga tehisintellektisüsteemi turustajad sellele asutusele kogu teabe ja dokumentatsiooni lõigete 1–4 kohaselt võetud meetmete kohta, mis on vajalik, et tõendada kõnealuse süsteemi vastavust 2. jaos sätestatud nõuetele.
(6) Die Händler arbeiten mit den betreffenden zuständigen Behörden bei allen Maßnahmen zusammen, die diese Behörden im Zusammenhang mit einem von den Händlern auf dem Markt bereitgestellten Hochrisiko-KI-System ergreifen, um insbesondere das von diesem System ausgehende Risiko zu verringern oder abzumildern.
6. Turustajad teevad asjakohaste pädevate asutustega koostööd kõigis toimingutes, mida need asutused võtavad ette seoses suure riskiga tehisintellektisüsteemiga, mille turustajad on turul kättesaadavaks teinud, eelkõige selleks, et vähendada või maandada sellest tulenevat riski.
Verantwortlichkeiten entlang der KI-Wertschöpfungskette
Vastutus tehisintellekti väärtusahelas
(1) In den folgenden Fällen gelten Händler, Einführer, Betreiber oder sonstige Dritte als Anbieter eines Hochrisiko-KI-Systems für die Zwecke dieser Verordnung und unterliegen den Anbieterpflichten gemäß Artikel 16:
1. Turustajat, importijat, juurutajat või muud kolmandat isikut käsitatakse käesoleva määruse kohaldamisel suure riskiga tehisintellektisüsteemi pakkujana ning tema suhtes kohaldatakse artiklist 16 tulenevaid pakkuja kohustusi mis tahes järgmisel juhul:
a)
wenn sie ein bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System mit ihrem Namen oder ihrer Handelsmarke versehen, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Pflichten vorsehen;
a)
ta lisab juba turule lastud või kasutusele võetud suure riskiga tehisintellektisüsteemile oma nime või kaubamärgi, ilma et see piiraks selliste lepinguliste kokkulepete kohaldamist, milles sätestatakse, et kohustused on muul viisil jaotatud;
b)
wenn sie eine wesentliche Veränderung eines Hochrisiko-KI-Systems, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, so vornehmen, dass es weiterhin ein Hochrisiko-KI-System gemäß Artikel 6 bleibt;
b)
nad teevad suure riskiga tehisintellektisüsteemi, mis on juba turule lastud või kasutusele võetud, olulise muudatuse viisil, et see jääb suure riskiga tehisintellektisüsteemiks vastavalt artiklile 6;
c)
wenn sie die Zweckbestimmung eines KI-Systems, einschließlich eines KI-Systems mit allgemeinem Verwendungszweck, das nicht als hochriskant eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so verändern, dass das betreffende KI-System zu einem Hochrisiko-KI-System im Sinne von Artikel 6 wird.
c)
nad muudavad tehisintellektisüsteemi, sealhulgas üldotstarbelisse tehisintellektisüsteemi, mida ei ole liigitatud suure riskiga tehisintellektisüsteemiks ja mis on juba turule lastud või kasutusele võetud, sihtotstarvet, nii et asjaomasest tehisintellektisüsteemist saab suure riskiga tehisintellektisüsteem vastavalt artiklile 6.
(2) Unter den in Absatz 1 genannten Umständen gilt der Anbieter, der das KI-System ursprünglich in Verkehr gebracht oder in Betrieb genommen hatte, nicht mehr als Anbieter dieses spezifischen KI-Systems für die Zwecke dieser Verordnung. Dieser Erstanbieter arbeitet eng mit neuen Anbietern zusammen, stellt die erforderlichen Informationen zur Verfügung und sorgt für den vernünftigerweise zu erwartenden technischen Zugang und sonstige Unterstützung, die für die Erfüllung der in dieser Verordnung festgelegten Pflichten, insbesondere in Bezug auf die Konformitätsbewertung von Hochrisiko-KI-Systemen, erforderlich sind. Dieser Absatz gilt nicht in Fällen, in denen der Erstanbieter eindeutig festgelegt hat, dass sein KI-System nicht in ein Hochrisiko-KI-System umgewandelt werden darf und daher nicht der Pflicht zur Übergabe der Dokumentation unterliegt.
2. Lõikes 1 osutatud asjaolude ilmnemise korral ei käsitata tehisintellektisüsteemi algselt turule lasknud või kasutusele võtnud pakkujat enam käesoleva määruse kohaldamisel selle konkreetse tehisintellektisüsteemi pakkujana. Kõnealune algne pakkuja teeb tihedat koostööd uute pakkujatega ning teeb kättesaadavaks vajaliku teabe ja annab mõistlikult eeldatava tehnilise juurdepääsu ja osutab muud abi, mida on vaja käesolevas määruses sätestatud kohustuste täitmiseks, eelkõige seoses suure riskiga tehisintellektisüsteemide vastavushindamise järgimisega. Käesolevat lõiget ei kohaldata juhul, kui algne pakkuja on selgelt täpsustanud, et tema tehisintellektisüsteemi ei tohi muuta suure riskiga tehisintellektisüsteemiks, ja seetõttu ei kohaldata tema suhtes dokumentide üleandmise kohustust.
(3) Im Falle von Hochrisiko-KI-Systemen, bei denen es sich um Sicherheitsbauteile von Produkten handelt, die unter die in Anhang I Abschnitt A aufgeführten Harmonisierungsrechtsvorschriften der Union fallen, gilt der Produkthersteller als Anbieter des Hochrisiko-KI-Systems und unterliegt in den beiden nachfolgenden Fällen den Pflichten nach Artikel 16:
3. Suure riskiga tehisintellektisüsteemide puhul, mis on selliste toodete turvakomponendid, mille suhtes kohaldatakse I lisa A jaos loetletud liidu ühtlustamisõigusakte, käsitatakse nende toodete valmistajat suure riskiga tehisintellektisüsteemi pakkujana ja ta peab täitma artikli 16 kohaseid kohustusi ühel järgmistest juhtudest:
a)
Das Hochrisiko-KI-System wird zusammen mit dem Produkt unter dem Namen oder der Handelsmarke des Produktherstellers in Verkehr gebracht;
a)
suure riskiga tehisintellektisüsteem lastakse turule koos tootega toote valmistaja nime või kaubamärgi all;
b)
das Hochrisiko-KI-System wird unter dem Namen oder der Handelsmarke des Produktherstellers in Betrieb genommen, nachdem das Produkt in Verkehr gebracht wurde.
b)
suure riskiga tehisintellektisüsteem võetakse kasutusele toote valmistaja nime või kaubamärgi all pärast toote turule laskmist.
(4) Der Anbieter eines Hochrisiko-KI-Systems und der Dritte, der ein KI-System, Instrumente, Dienste, Komponenten oder Verfahren bereitstellt, die in einem Hochrisiko-KI-System verwendet oder integriert werden, legen in einer schriftlichen Vereinbarung die Informationen, die Fähigkeiten, den technischen Zugang und die sonstige Unterstützung nach dem allgemein anerkannten Stand der Technik fest, die erforderlich sind, damit der Anbieter des Hochrisiko-KI-Systems die in dieser Verordnung festgelegten Pflichten vollständig erfüllen kann. Dieser Absatz gilt nicht für Dritte, die Instrumente, Dienste, Verfahren oder Komponenten, bei denen es sich nicht um KI-Modelle mit allgemeinem Verwendungszweck handelt, im Rahmen einer freien und quelloffenen Lizenz öffentlich zugänglich machen.
4. Suure riskiga tehisintellektisüsteemi pakkuja ja kolmas isik, kes tarnib tehisintellektisüsteemi, vahendeid, teenuseid, komponente või protsesse, mida kasutatakse suure riskiga tehisintellektisüsteemis või mis on sellesse integreeritud, määravad tehnika üldtunnustatud tasemele tuginedes kirjaliku kokkuleppega kindlaks vajaliku teabe, võimekuse, tehnilise juurdepääsu ja või muu abi, et võimaldada suure riskiga tehisintellektisüsteemi pakkujal täielikult täita käesolevast määrusest tulenevaid kohustusi. Käesolevat lõiget ei kohaldata kolmandate isikute suhtes, kes teevad vaba ja avatud lähtekoodi litsentsi alusel avalikele vahenditele, teenustele, protsessidele või komponentidele kättesaadavaks muud kui üldotstarbelised tehisintellektimudelid.
Das Büro für Künstliche Intelligenz kann freiwillige Musterbedingungen für Verträge zwischen Anbietern von Hochrisiko-KI-Systemen und Dritten, die Instrumente, Dienste, Komponenten oder Verfahren bereitstellen, die für Hochrisiko-KI-Systeme verwendet oder in diese integriert werden, ausarbeiten und empfehlen. Bei der Ausarbeitung dieser freiwilligen Musterbedingungen berücksichtigt das Büro für Künstliche Intelligenz mögliche vertragliche Anforderungen, die in bestimmten Sektoren oder Geschäftsfällen gelten. Die freiwilligen Musterbedingungen werden veröffentlicht und sind kostenlos in einem leicht nutzbaren elektronischen Format verfügbar.
Tehisintellektiamet võib välja töötada ja soovitada vabatahtlikke näidis-lepingutingimusi kasutamiseks suure riskiga tehisintellektisüsteemide pakkujate ja kolmandate isikute vahel, kes pakuvad suure riskiga tehisintellektisüsteemides kasutatavaid või integreeritud vahendeid, teenuseid, komponente või protsesse. Vabatahtlike näidistingimuste väljatöötamisel peaks tehisintellektiamet arvesse võtma konkreetsetes sektorites või ärimudelites kohaldatavaid võimalikke lepingulisi nõudeid. Vabatahtlikud näidistingimused avaldatakse ja tehakse tasuta kättesaadavaks kergesti kasutatavas elektroonilises vormingus.
(5) Die Absätze 2 und 3 berühren nicht die Notwendigkeit, Rechte des geistigen Eigentums, vertrauliche Geschäftsinformationen und Geschäftsgeheimnisse im Einklang mit dem Unionsrecht und dem nationalen Recht zu achten und zu schützen.
5. Lõiked 2 ja 3 ei piira vajadust järgida ja kaitsta intellektuaalomandi õigusi, konfidentsiaalset äriteavet ja ärisaladusi kooskõlas liidu ja siseriikliku õigusega.
Pflichten der Betreiber von Hochrisiko-KI-Systemen
Suure riskiga tehisintellektisüsteemide juurutajate kohustused
(1) Die Betreiber von Hochrisiko-KI-Systemen treffen geeignete technische und organisatorische Maßnahmen, um sicherzustellen, dass sie solche Systeme entsprechend der den Systemen beigefügten Betriebsanleitungen und gemäß den Absätzen 3 und 6 verwenden.
1. Suure riskiga tehisintellektisüsteemide juurutajad võtavad asjakohaseid tehnilisi ja organisatsioonilisi meetmeid eesmärgiga tagada, et nad kasutavad selliseid süsteeme vastavalt süsteemiga kaasas olevale kasutusjuhendile kooskõlas lõigetega 3 ja 6.
(2) Die Betreiber übertragen natürlichen Personen, die über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen, die menschliche Aufsicht und lassen ihnen die erforderliche Unterstützung zukommen.
2. Juurutajad annavad inimjärelevalve ülesande sellistele füüsilistele isikutele, kellel on vajalik pädevus, väljaõpe ja vastavad volitused ning vajalikud tugistruktuurid.
(3) Die Pflichten nach den Absätzen 1 und 2 lassen sonstige Pflichten der Betreiber nach Unionsrecht oder nationalem Recht sowie die Freiheit der Betreiber bei der Organisation ihrer eigenen Ressourcen und Tätigkeiten zur Wahrnehmung der vom Anbieter angegebenen Maßnahmen der menschlichen Aufsicht unberührt.
3. Lõigetes 1 ja 2 sätestatud kohustused ei piira muid liidu või liikmesriigi õigusest tulenevaid juurutaja kohustusi ega juurutaja vabadust oma vahendite ja tegevuse korraldamisel, et rakendada pakkuja märgitud inimjärelevalve meetmeid.
(4) Unbeschadet der Absätze 1 und 2 und soweit die Eingabedaten ihrer Kontrolle unterliegen, sorgen die Betreiber dafür, dass die Eingabedaten der Zweckbestimmung des Hochrisiko-KI-Systems entsprechen und ausreichend repräsentativ sind.
4. Niivõrd, kuivõrd juurutajal on kontroll sisendandmete üle, tagab see juurutaja, et sisendandmed on suure riskiga tehisintellektisüsteemi sihtotstarbe seisukohast asjakohased ja piisavalt esinduslikud, ilma et see piiraks lõigete 1 ja 2 kohaldamist.
(5) Die Betreiber überwachen den Betrieb des Hochrisiko-KI-Systems anhand der Betriebsanleitung und informieren gegebenenfalls die Anbieter gemäß Artikel 72. Haben Betreiber Grund zu der Annahme, dass die Verwendung gemäß der Betriebsanleitung dazu führen kann, dass dieses Hochrisiko-KI-System ein Risiko im Sinne des Artikels 79 Absatz 1 birgt, so informieren sie unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Haben die Betreiber einen schwerwiegenden Vorfall festgestellt, informieren sie auch unverzüglich zuerst den Anbieter und dann den Einführer oder Händler und die zuständigen Marktüberwachungsbehörden über diesen Vorfall. Kann der Betreiber den Anbieter nicht erreichen, so gilt Artikel 73 entsprechend. Diese Pflicht gilt nicht für sensible operative Daten von Betreibern von KI-Systemen, die Strafverfolgungsbehörden sind.
5. Juurutajad tegelevad suure riskiga tehisintellektisüsteemi toimimise seirega kasutusjuhendi alusel ja asjakohasel juhul teavitavad pakkujaid vastavalt artiklile 72. Kui juurutajatel on põhjust arvata, et kasutusjuhendi kohase kasutamise tulemusena võib suure riskiga tehisintellektisüsteem kujutada endast riski artikli 79 lõike 1 tähenduses, teavitavad nad põhjendamatu viivituseta pakkujat või turustajat ja asjaomast turujärelevalveasutust ning peatavad selle süsteemi kasutamise. Kui juurutajad on tuvastanud tõsise intsidendi, teavitavad nad sellest intsidendist viivitamata ka kõigepealt pakkujat ning seejärel importijat või turustajat ja asjaomaseid turujärelevalveasutusi. Kui juurutaja ei saa pakkujaga ühendust, kohaldatakse artiklit 73 mutatis mutandis. See kohustus ei hõlma õiguskaitseasutustest tehisintellektisüsteemide juurutajate tundlikke operatiivandmeid.
Bei Betreibern, die Finanzinstitute sind und gemäß den Rechtsvorschriften der Union über Finanzdienstleistungen Anforderungen in Bezug auf ihre Regelungen oder Verfahren der internen Unternehmensführung, unterliegen, gilt die in Unterabsatz 1 festgelegte Überwachungspflicht als erfüllt, wenn die Vorschriften über Regelungen, Verfahren oder Mechanismen der internen Unternehmensführung gemäß einschlägigem Recht über Finanzdienstleistungen eingehalten werden.
Finantsasutustest juurutajate puhul, kes peavad täitma finantsteenuseid käsitleva liidu õiguse kohaseid nõudeid seoses nende sisemise juhtimissüsteemi, korra või protsessidega, loetakse esimeses lõigus sätestatud seirekohustus täidetuks, kui vastavalt finantsteenuseid käsitlevale asjaomasele õigusele on täidetud sisemise juhtimissüsteemi, protsesside ja mehhanismide alased nõuded.
(6) Betreiber von Hochrisiko-KI-Systemen bewahren die von ihrem Hochrisiko-KI-System automatisch erzeugten Protokolle, soweit diese Protokolle ihrer Kontrolle unterliegen, für einen der Zweckbestimmung des Hochrisiko-KI-Systems angemessenen Zeitraum von mindestens sechs Monaten auf, sofern im geltenden Unionsrecht, insbesondere im Unionsrecht über den Schutz personenbezogener Daten, oder im geltenden nationalen Recht nichts anderes bestimmt ist.
6. Suure riskiga tehisintellektisüsteemide juurutajad säilitavad selle suure riskiga tehisintellektisüsteemi poolt automaatselt genereeritud logisid niivõrd, kuivõrd sellised logid on nende kontrolli all, ajavahemiku jooksul, mis vastab suure riskiga tehisintellektisüsteemi sihtotstarbele ning vähemalt kuue kuu jooksul, välja arvatud juhul, kui kohaldatavas liidu või siseriiklikus õiguses, eelkõige isikuandmete kaitset käsitlevas liidu õiguses on sätestatud teisiti.
Betreiber, die Finanzinstitute sind und gemäß den Rechtsvorschriften der Union über Finanzdienstleistungen Anforderungen in Bezug auf ihre Regelungen oder Verfahren der internen Unternehmensführung unterliegen, bewahren die Protokolle als Teil der gemäß einschlägigem Unionsecht über Finanzdienstleistungen aufzubewahrenden Dokumentation auf.
Finantsasutustest juurutajad, kes peavad täitma finantsteenuseid käsitleva liidu õiguse kohaseid nõudeid seoses nende sisemise juhtimissüsteemi, korra või protsessidega, säilitavad logisid osana dokumentatsioonist, mida tuleb säilitada vastavalt finantsteenuseid käsitlevale asjaomasele liidu õigusele.
(7) Vor der Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz informieren Betreiber, die Arbeitgeber sind, die Arbeitnehmervertreter und die betroffenen Arbeitnehmer darüber, dass sie der Verwendung des Hochrisiko-KI-Systems unterliegen werden. Diese Informationen werden gegebenenfalls im Einklang mit den Vorschriften und Gepflogenheiten auf Unionsebene und nationaler Ebene in Bezug auf die Unterrichtung der Arbeitnehmer und ihrer Vertreter bereitgestellt.
7. Enne suure riskiga tehisintellektisüsteemi kasutusele võtmist või kasutamist töökohal teavitavad tööandjatest juurutajad töötajate esindajaid ja mõjutatud töötajaid sellest, et nende suhtes hakatakse kasutama suure riskiga tehisintellektisüsteemi. See teave esitatakse kohaldataval juhul kooskõlas töötajate ja nende esindajate teavitamist käsitlevates liidu ja siseriiklikes õigusaktides ja tavades sätestatud õigusnormide ja menetlustega.
(8) Betreiber von Hochrisiko-KI-Systemen, bei denen es sich um Organe, Einrichtungen oder sonstige Stellen der Union handelt, müssen den Registrierungspflichten gemäß Artikel 49 nachkommen. Stellen diese Betreiber fest, dass das Hochrisiko-KI-System, dessen Verwendung sie planen, nicht in der in Artikel 71 genannten EU-Datenbank registriert wurde, sehen sie von der Verwendung dieses Systems ab und informieren den Anbieter oder den Händler.
8. Suure riskiga tehisintellektisüsteemide juurutajad, kes on avaliku sektori asutused või liidu institutsioonid, organid või asutused, täidavad artiklis 49 osutatud registreerimiskohustusi. Kui sellised juurutajad leiavad, et suure riskiga tehisintellektisüsteem, mida nad kavatsevad kasutada, ei ole registreeritud ELi andmebaasis, millele on osutatud artiklis 71, siis nad seda süsteemi ei kasuta ning teavitavad pakkujat või turustajat.
(9) Die Betreiber von Hochrisiko-KI-Systemen verwenden gegebenenfalls die gemäß Artikel 13 der vorliegenden Verordnung bereitgestellten Informationen, um ihrer Pflicht zur Durchführung einer Datenschutz-Folgenabschätzung gemäß Artikel 35 der Verordnung (EU) 2016/679 oder Artikel 27 der Richtlinie (EU) 2016/680 nachzukommen.
9. Suure riskiga tehisintellektisüsteemide juurutajad kasutavad käesoleva määruse artikli 13 alusel esitatavat teavet, et täita oma kohustust koostada vajaduse korral andmekaitsealane mõjuhinnang vastavalt määruse (EL) 2016/679 artiklile 35 või direktiivi (EL) 2016/680 artiklile 27.
(10) Unbeschadet der Richtlinie (EU) 2016/680 beantragt der Betreiber eines Hochrisiko-KI-Systems zur nachträglichen biometrischen Fernfernidentifizierung im Rahmen von Ermittlungen zur gezielten Suche einer Person, die der Begehung einer Straftat verdächtigt wird oder aufgrund einer solchen verurteilt wurde, vorab oder unverzüglich, spätestens jedoch binnen 48 Stunden bei einer Justizbehörde oder einer Verwaltungsbehörde, deren Entscheidung bindend ist und einer justiziellen Überprüfung unterliegt, die Genehmigung für die Nutzung dieses Systems, es sei denn, es wird zur erstmaligen Identifizierung eines potenziellen Verdächtigen auf der Grundlage objektiver und nachprüfbarer Tatsachen, die in unmittelbarem Zusammenhang mit der Straftat stehen, verwendet. Jede Verwendung ist auf das für die Ermittlung einer bestimmten Straftat unbedingt erforderliche Maß zu beschränken.
10. Ilma et see piiraks direktiivi (EL) 2016/680 kohaldamist, taotleb tagantjärele toimuvaks biomeetriliseks kaugtuvastamiseks mõeldud suure riskiga tehisintellektisüsteemi juurutaja kuriteo toimepanemises kahtlustatava või süüdi mõistetud isiku sihipärase otsingu raames selle süsteemi kasutamiseks eelnevalt või põhjendamatu viivituseta, kuid mitte hiljem kui 48 tunni jooksul luba õigusasutuselt või haldusasutuselt, kelle otsus on siduv ja mille suhtes kohaldatakse kohtulikku kontrolli, välja arvatud juhul, kui seda kasutatakse võimaliku kahtlustatava esmaseks tuvastamiseks kuriteoga otseselt seotud objektiivsete ja kontrollitavate faktide põhjal. Iga kasutamine piirdub sellega, mis on rangelt vajalik konkreetse kuriteo uurimiseks.
Wird die gemäß Unterabsatz 1 beantragte Genehmigung abgelehnt, so wird die Verwendung des mit dieser beantragten Genehmigung verbundenen Systems zur nachträglichen biometrischen Fernidentifizierung mit sofortiger Wirkung eingestellt und werden die personenbezogenen Daten, die im Zusammenhang mit der Verwendung des Hochrisiko-KI-Systems stehen, für die die Genehmigung beantragt wurde, gelöscht.
Kui esimese lõigu kohane loataotlus lükatakse tagasi, peatatakse viivitamata taotletud loaga seotud tagantjärele toimuva biomeetrilise kaugtuvastamise süsteemi kasutamine ja selle suure riskiga tehisintellektisüsteemi kasutamisega seotud isikuandmed, mille jaoks luba taotleti, kustutatakse.
In keinem Fall darf ein solches Hochrisiko-KI-System zur nachträglichen biometrischen Fernidentifizierung zu Strafverfolgungszwecken in nicht zielgerichteter Weise und ohne jeglichen Zusammenhang mit einer Straftat, einem Strafverfahren, einer tatsächlichen und bestehenden oder tatsächlichen und vorhersehbaren Gefahr einer Straftat oder der Suche nach einer bestimmten vermissten Person verwendet werden. Es muss sichergestellt werden, dass die Strafverfolgungsbehörden keine ausschließlich auf der Grundlage der Ausgabe solcher Systeme zur nachträglichen biometrischen Fernidentifizierung beruhende Entscheidung, aus der sich eine nachteilige Rechtsfolge für eine Person ergibt, treffen.
Ühelgi juhul ei tohi sellist suure riskiga tehisintellektisüsteemi tagantjärele toimuvaks biomeetriliseks kaugtuvastamiseks kasutada õiguskaitse eesmärkidel kindla suunitluseta, ilma et see oleks mingil viisil seotud kuriteo, kriminaalmenetluse, kuriteo tegeliku ja olemasoleva või tegeliku ja prognoositava ohuga või konkreetse teadmata kadunud isiku otsimisega. Ühtki isiku suhtes kahjulikke õiguslikke tagajärgi põhjustavat otsust ei tohi teha üksnes tagantjärele toimuva biomeetrilise kaugtuvastamise süsteemi tulemuste põhjal.
Dieser Absatz gilt unbeschadet des Artikels 9 der Verordnung (EU) 2016/679 und des Artikels 10 der Richtlinie (EU) 2016/680 für die Verarbeitung biometrischer Daten.
Käesolev lõige ei piira määruse (EL) 2016/679 artikli 9 ja direktiivi (EL) 2016/680 artikli 10 kohaldamist biomeetriliste andmete töötlemisel.
Unabhängig vom Zweck oder Betreiber wird jede Verwendung solcher Hochrisiko-KI-Systeme in der einschlägigen Polizeiakte dokumentiert und der zuständigen Marktüberwachungsbehörde und der nationalen Datenschutzbehörde auf Anfrage zur Verfügung gestellt, wovon die Offenlegung sensibler operativer Daten im Zusammenhang mit der Strafverfolgung ausgenommen ist. Dieser Unterabsatz berührt nicht die den Aufsichtsbehörden durch die Richtlinie (EU) 2016/680 übertragenen Befugnisse.
Olenemata eesmärgist või juurutajast, dokumenteeritakse selliste suure riskiga tehisintellektisüsteemide iga kasutamine asjaomases politseitoimikus ning tehakse taotluse korral kättesaadavaks asjaomasele turujärelevalveasutusele ja riiklikule andmekaitseasutusele, välistades õiguskaitsega seotud tundlike operatiivandmete avalikustamise. Käesolev lõik ei piira direktiiviga (EL) 2016/680 järelevalveasutustele antud volitusi.
Die Betreiber legen den zuständigen Marktüberwachungsbehörden und den nationalen Datenschutzbehörden Jahresberichte über ihre Verwendung von Systemen zur nachträglichen biometrischen Fernidentifizierung vor, wovon die Offenlegung sensibler operativer Daten im Zusammenhang mit der Strafverfolgung ausgenommen ist. Die Berichte können eine Zusammenfassung sein, damit sie mehr als einen Einsatz abdecken.
Juurutajad esitavad asjaomastele turujärelevalve- ja riiklikele andmekaitseasutustele aastaaruanded tagantjärele toimuva biomeetrilise tuvastamise süsteemide kasutamise kohta, välistades õiguskaitsega seotud tundlike operatiivandmete avalikustamise. Aruanded võib koondada nii, et need hõlmaksid rohkem kui ühte kasutamist.
Die Mitgliedstaaten können im Einklang mit dem Unionsrecht strengere Rechtsvorschriften für die Verwendung von Systemen zur nachträglichen biometrischen Fernidentifizierung erlassen.
Liikmesriigid võivad kooskõlas liidu õigusega kehtestada tagantjärele toimuva biomeetrilise kaugtuvastamise süsteemide kasutamise kohta piiravamaid õigusakte.
(11) Unbeschadet des Artikels 50 der vorliegenden Verordnung informieren die Betreiber der in Anhang III aufgeführten Hochrisiko-KI-Systeme, die natürliche Personen betreffende Entscheidungen treffen oder bei solchen Entscheidungen Unterstützung leisten, die natürlichen Personen darüber, dass sie der Verwendung des Hochrisiko-KI-Systems unterliegen. Für Hochrisiko-KI-Systeme, die zu Strafverfolgungszwecken verwendet werden, gilt Artikel 13 der Richtlinie (EU) 2016/680.
11. Ilma et see mõjutaks käesoleva määruse artikli 50 kohaldamist, teavitavad selliste III lisas osutatud suure riskiga tehisintellektisüsteemide juurutajad, mis teevad füüsiliste isikutega seotud otsuseid või aitavad neid otsuseid teha, füüsilisi isikuid sellest, et nende suhtes kasutakse suure riskiga tehisintellektisüsteemi. Õiguskaitse eesmärgil kasutatavate suure riskiga tehisintellektisüsteemide suhtes kohaldatakse direktiivi (EL) 2016/680 artiklit 13.
(12) Die Betreiber arbeiten mit den zuständigen Behörden bei allen Maßnahmen zusammen, die diese Behörden im Zusammenhang mit dem Hochrisiko-KI-System zur Umsetzung dieser Verordnung ergreifen.
12. Juurutajad teevad asjakohaste pädevate asutustega koostööd kõigis toimingutes, mida kõnealused asutused võtavad ette seoses suure riskiga tehisintellektisüsteemiga käesoleva määruse rakendamiseks.
Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme
Põhiõigustele avaldatava mõju hindamine suure riskiga tehisintellektisüsteemide puhul
(1) Vor der Inbetriebnahme eines Hochrisiko-KI-Systems gemäß Artikel 6 Absatz 2 — mit Ausnahme von Hochrisiko-KI-Systemen, die in dem in Anhang III Nummer 2 aufgeführten Bereich verwendet werden sollen — führen Betreiber, bei denen es sich um Einrichtungen des öffentlichen Rechts oder private Einrichtungen, die öffentliche Dienste erbringen, handelt, und Betreiber von Hochrisiko-KI-Systemen gemäß Anhang III Nummer 5 Buchstaben b und c eine Abschätzung der Auswirkungen, die die Verwendung eines solchen Systems auf die Grundrechte haben kann, durch. Zu diesem Zweck führen die Betreiber eine Abschätzung durch, die Folgendes umfasst:
1. Enne artikli 6 lõikes 2 osutatud suure riskiga tehisintellektisüsteemi juurutamist, välja arvatud suure riskiga tehisintellektisüsteemide puhul, mis on ette nähtud kasutamiseks III lisa punktis 2 loetletud valdkonnas, hindavad juurutajad, kes on avalik-õiguslikud asutused või avalikke teenuseid osutavad eraõiguslikud üksused, ning III lisa punkti 5 alapunktides b ja c osutatud suure riskiga tehisintellektisüsteemide juurutajad põhiõigustele avalduvat mõju, mida sellise süsteemi kasutamine võib avaldada. Selleks viivad juurutajad läbi hindamise, mis hõlmab järgmist:
a)
eine Beschreibung der Verfahren des Betreibers, bei denen das Hochrisiko-KI-System im Einklang mit seiner Zweckbestimmung verwendet wird;
a)
juurutaja kirjeldus protsessidest, milles suure riskiga tehisintellektisüsteemi kasutatakse kooskõlas selle sihtotstarbega;
b)
eine Beschreibung des Zeitraums und der Häufigkeit, innerhalb dessen bzw. mit der jedes Hochrisiko-KI-System verwendet werden soll;
b)
viide ajavahemikule, mille jooksul iga suure riskiga tehisintellektisüsteemi kavatsetakse kasutada, ja kasutamise sagedus;
c)
die Kategorien der natürlichen Personen und Personengruppen, die von seiner Verwendung im spezifischen Kontext betroffen sein könnten;
c)
füüsiliste isikute ja rühmade kategooriad, keda süsteemi kasutamine konkreetses kontekstis tõenäoliselt mõjutab;
d)
die spezifischen Schadensrisiken, die sich auf die gemäß Buchstabe c dieses Absatzes ermittelten Kategorien natürlicher Personen oder Personengruppen auswirken könnten, unter Berücksichtigung der vom Anbieter gemäß Artikel 13 bereitgestellten Informationen;
d)
konkreetsed käesoleva lõike punkti c kohaselt kindlaks tehtud füüsiliste isikute või isikute rühmade kategooriaid mõjutada võiva kahju riskid, võttes arvesse pakkuja poolt artikli 13 kohaselt esitatud teavet;
e)
eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht entsprechend den Betriebsanleitungen;
e)
inimjärelevalve meetmete rakendamise kirjeldus vastavalt kasutusjuhendile;
f)
die Maßnahmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind, einschließlich der Regelungen für die interne Unternehmensführung und Beschwerdemechanismen.
f)
nende riskide realiseerumise korral võetavad meetmed, sealhulgas sisejuhtimise kord ja kaebuste esitamise mehhanismid.
(2) Die in Absatz 1 festgelegte Pflicht gilt für die erste Verwendung eines Hochrisiko-KI-Systems. Der Betreiber kann sich in ähnlichen Fällen auf zuvor durchgeführte Grundrechte-Folgenabschätzungen oder bereits vorhandene Folgenabschätzungen, die vom Anbieter durchgeführt wurden, stützen. Gelangt der Betreiber während der Verwendung des Hochrisiko-KI-Systems zur Auffassung, dass sich eines der in Absatz 1 aufgeführten Elemente geändert hat oder nicht mehr auf dem neuesten Stand ist, so unternimmt der Betreiber die erforderlichen Schritte, um die Informationen zu aktualisieren.
2. Lõikes 1 sätestatud kohustus kehtib suure riskiga tehisintellektisüsteemi esimese kasutamise korral. Sarnastel juhtudel võib juurutaja tugineda varem läbi viidud põhiõiguste mõjuhinnangutele või olemasolevatele pakkuja tehtud mõjuhinnangutele. Kui juurutaja leiab suure riskiga tehisintellektisüsteemi kasutamise ajal, et mõni lõikes 1 loetletud elementidest on muutunud või ei ole enam ajakohane, võtab juurutaja vajalikud meetmed teabe ajakohastamiseks.
(3) Sobald die Abschätzung gemäß Absatz 1 des vorliegenden Artikels durchgeführt wurde, teilt der Betreiber der Marktüberwachungsbehörde ihre Ergebnisse mit, indem er das ausgefüllte, in Absatz 5 des vorliegenden Artikels genannte Muster als Teil der Mitteilung übermittelt. In dem in Artikel 46 Absatz 1 genannten Fall können die Betreiber von der Mitteilungspflicht befreit werden.
3. Kui käesoleva artikli lõikes 1 osutatud hindamine on tehtud, teavitab juurutaja turujärelevalveasutust selle tulemustest, esitades täidetuna käesoleva artikli lõikes 5 osutatud vormi teavituse osana. Artikli 46 lõikes 1 osutatud juhul võib juurutajad nimetatud teavitamiskohustusest vabastada.
(4) Wird eine der in diesem Artikel festgelegten Pflichten bereits infolge einer gemäß Artikel 35 der Verordnung (EU) 2016/679 oder Artikel 27 der Richtlinie (EU) 2016/680 durchgeführten Datenschutz-Folgenabschätzung erfüllt, so ergänzt die Grundrechte-Folgenabschätzung gemäß Absatz 1 des vorliegenden Artikels diese Datenschutz-Folgenabschätzung.
4. Kui mõni käesolevas artiklis sätestatud kohustustest on määruse (EL) 2016/679 artikli 35 või direktiivi (EL) 2016/680 artikli 27 kohaselt tehtud andmekaitsealase mõjuhinnangu tulemusel juba täidetud, täiendab käesoleva artikli lõikes 1 osutatud põhiõiguste mõjuhinnang kõnealust andmekaitsealast mõjuhinnangut.
(5) Das Büro für Künstliche Intelligenz arbeitet ein Muster für einen Fragebogen — auch mithilfe eines automatisierten Instruments — aus, um die Betreiber in die Lage zu versetzen, ihren Pflichten gemäß diesem Artikel in vereinfachter Weise nachzukommen.
5. Tehisintellektiamet töötab välja küsimustiku vormi, sealhulgas automaatse vahendi abil, et hõlbustada juurutajatel täita käesolevast artiklist tulenevaid kohustusi lihtsustatud viisil.
(1) Jeder Mitgliedstaat sorgt für die Benennung oder Schaffung mindestens einer notifizierenden Behörde, die für die Einrichtung und Durchführung der erforderlichen Verfahren zur Bewertung, Benennung und Notifizierung von Konformitätsbewertungsstellen und für deren Überwachung zuständig ist. Diese Verfahren werden in Zusammenarbeit zwischen den notifizierenden Behörden aller Mitgliedstaaten entwickelt.
1. Iga liikmesriik määrab või loob vähemalt ühe teavitava asutuse, kes vastutab vastavushindamisasutuste hindamise, määramise ja neist teavitamise ning nende järelevalve jaoks vajalike menetluste väljatöötamise ja läbiviimise eest. Nimetatud menetlused töötatakse välja kõigi liikmesriikide teavitavate asutuste koostöös.
(2) Die Mitgliedstaaten können entscheiden, dass die Bewertung und Überwachung nach Absatz 1 von einer nationalen Akkreditierungsstelle im Sinne und gemäß der Verordnung (EG) Nr. 765/2008 durchzuführen ist.
2. Liikmesriigid võivad otsustada, et lõikes 1 osutatud hindamist ja järelevalvet teostab riiklik akrediteerimisasutus määruse (EÜ) nr 765/2008 tähenduses ja sellega kooskõlas.
(3) Notifizierende Behörden werden so eingerichtet, organisiert und geführt, dass jegliche Interessenkonflikte mit Konformitätsbewertungsstellen vermieden werden und die Objektivität und die Unparteilichkeit ihrer Tätigkeiten gewährleistet sind.
3. Teavitavad asutused tuleb luua, nende töö korraldada ja neid juhtida nii, et ei tekiks huvide konflikti vastavushindamisasutustega ning et oleks kindlustatud nende tegevuse objektiivsus ja erapooletus.
(4) Notifizierende Behörden werden so organisiert, dass Entscheidungen über die Notifizierung von Konformitätsbewertungsstellen von kompetenten Personen getroffen werden, die nicht mit den Personen identisch sind, die die Bewertung dieser Stellen durchgeführt haben.
4. Teavitavate asutuste töö korraldatakse nii, et kõik vastavushindamisasutusest teavitamisega seotud otsused teevad pädevad isikud, kes ei ole nende asutuste hindamist läbi viinud isikud.
(5) Notifizierende Behörden dürfen weder Tätigkeiten, die Konformitätsbewertungsstellen durchführen, noch Beratungsleistungen auf einer gewerblichen oder wettbewerblichen Basis anbieten oder erbringen.
5. Teavitavad asutused ei tohi pakkuda ega osutada teenuseid, mida osutavad vastavushindamisasutused, ega nõustamisteenuseid ärilisel või konkureerival alusel.
(6) Notifizierende Behörden gewährleisten gemäß Artikel 78 die Vertraulichkeit der von ihnen erlangten Informationen.
6. Teavitavad asutused tagavad saadud teabe konfidentsiaalsuse kooskõlas artikliga 78.
(7) Notifizierende Behörden verfügen über eine angemessene Anzahl kompetenter Mitarbeiter, sodass sie ihre Aufgaben ordnungsgemäß wahrnehmen können. Die kompetenten Mitarbeiter verfügen — wo erforderlich — über das für ihre Funktion erforderliche Fachwissen in Bereichen wie Informationstechnologie sowie KI und Recht, einschließlich der Überwachung der Grundrechte.
7. Teavitavatel asutustel on oma ülesannete nõuetekohaseks täitmiseks piisavalt pädevaid töötajaid. Pädevatel töötajatel on kohaldataval juhul oma ülesannete täitmiseks vajalikud eksperditeadmised infotehnoloogia, tehisintellekti ja õiguse, sealhulgas põhiõiguste järelevalve valdkonnas.
Antrag einer Konformitätsbewertungsstelle auf Notifizierung
Vastavushindamisasutuse teavitamistaotlus
(1) Konformitätsbewertungsstellen beantragen ihre Notifizierung bei der notifizierenden Behörde des Mitgliedstaats, in dem sie niedergelassen sind.
1. Vastavushindamisasutus esitab teavitamistaotluse selle liikmesriigi teavitavale asutusele, mille territooriumil ta on asutatud.
(2) Dem Antrag auf Notifizierung legen sie eine Beschreibung der Konformitätsbewertungstätigkeiten, des bzw. der Konformitätsbewertungsmodule und der Art der KI-Systeme, für die diese Konformitätsbewertungsstelle Kompetenz beansprucht, sowie, falls vorhanden, eine Akkreditierungsurkunde bei, die von einer nationalen Akkreditierungsstelle ausgestellt wurde und in der bescheinigt wird, dass die Konformitätsbewertungsstelle die Anforderungen des Artikels 31 erfüllt.
2. Teavitamistaotlusega koos esitatakse dokument, kus kirjeldatakse vastavushindamistoiminguid, vastavushindamismoodulit või -mooduleid ja tehisintellektisüsteemide liike, millega tegelemiseks väidab see vastavushindamisasutus end pädev olevat, ning riikliku akrediteerimisasutuse väljastatud akrediteerimistunnistus (kui see on olemas), mis tõendab, et vastavushindamisasutus vastab artiklis 31 sätestatud nõuetele.
Sonstige gültige Dokumente in Bezug auf bestehende Benennungen der antragstellenden notifizierten Stelle im Rahmen anderer Harmonisierungsrechtsvorschriften der Union sind ebenfalls beizufügen.
Lisatakse mis tahes kehtivad dokumendid, mis on seotud taotlust esitava teada antud asutuse olemasolevate määramistega mõne muu liidu ühtlustamisõigusakti alusel.
(3) Kann die betreffende Konformitätsbewertungsstelle keine Akkreditierungsurkunde vorweisen, so legt sie der notifizierenden Behörde als Nachweis alle Unterlagen vor, die erforderlich sind, um zu überprüfen, festzustellen und regelmäßig zu überwachen, ob sie die Anforderungen des Artikels 31 erfüllt.
3. Kui vastavushindamisasutus ei saa akrediteerimistunnistust esitada, siis esitab ta teavitavale asutusele kõik dokumentaalsed tõendid, mis on vajalikud, et kontrollida, tunnistada ja korrapäraselt jälgida tema vastavust artiklis 31 sätestatud nõuetele.
(4) Bei notifizierten Stellen, die im Rahmen anderer Harmonisierungsrechtsvorschriften der Union benannt wurden, können alle Unterlagen und Bescheinigungen im Zusammenhang mit solchen Benennungen zur Unterstützung ihres Benennungsverfahrens nach dieser Verordnung verwendet werden. Die notifizierte Stelle aktualisiert die in den Absätzen 2 und 3 des vorliegenden Artikels genannte Dokumentation immer dann, wenn sich relevante Änderungen ergeben, damit die für notifizierte Stellen zuständige Behörde überwachen und überprüfen kann, ob die Anforderungen des Artikels 31 kontinuierlich erfüllt sind.
4. Kui tegemist on teada antud asutusega, mis on määratud mõne muu liidu ühtlustamisõigusakti alusel, võib vastavalt vajadusele kasutada kõiki kõnealuste määramistega seotud dokumente ja tõendeid nende määramise toetuseks käesoleva määruse alusel. Teada antud asutus ajakohastab käesoleva artikli lõigetes 2 ja 3 osutatud dokumentatsiooni alati, kui tehakse asjakohaseid muudatusi, et teada antud asutuste eest vastutav asutus saaks jälgida ja kontrollida pidevat vastavust kõigile artiklis 31 sätestatud nõuetele.
(1) Die notifizierenden Behörden dürfen nur Konformitätsbewertungsstellen notifizieren, die die Anforderungen des Artikels 31 erfüllen.
1. Teavitavad asutused võivad teavitada ainult neist vastavushindamisasutustest, mis vastavad artiklis 31 sätestatud nõuetele.
(2) Die notifizierenden Behörden unterrichten die Kommission und die übrigen Mitgliedstaaten mithilfe des elektronischen Notifizierungsinstruments, das von der Kommission entwickelt und verwaltet wird, über jede Konformitätsbewertungsstelle gemäß Absatz 1.
2. Teavitavad asutused kasutavad komisjoni ja teiste liikmesriikide teavitamiseks igast lõikes 1 osutatud vastavushindamisasutusest komisjoni välja töötatud ja hallatavat elektroonilist teavitamisvahendit.
(3) Die Notifizierung gemäß Absatz 2 des vorliegenden Artikels enthält vollständige Angaben zu den Konformitätsbewertungstätigkeiten, dem betreffenden Konformitätsbewertungsmodul oder den betreffenden Konformitätsbewertungsmodulen, den betreffenden Arten der KI-Systeme und der einschlägigen Bestätigung der Kompetenz. Beruht eine Notifizierung nicht auf einer Akkreditierungsurkunde gemäß Artikel 29 Absatz 2, so legt die notifizierende Behörde der Kommission und den anderen Mitgliedstaaten die Unterlagen vor, die die Kompetenz der Konformitätsbewertungsstelle und die Vereinbarungen nachweisen, die getroffen wurden, um sicherzustellen, dass die Stelle regelmäßig überwacht wird und weiterhin die Anforderungen des Artikels 31 erfüllt.
3. Käesoleva artikli lõikes 2 nimetatud teavitus sisaldab kõiki üksikasju vastavushindamistoimingutest, vastavushindamismoodulist või -moodulitest ja asjaomastest tehisintellektisüsteemide liikidest ning asjakohast pädevuse kinnitust. Kui teavitus ei põhine artikli 29 lõikes 2 osutatud akrediteerimistunnistusel, esitab teavitav asutus komisjonile ja teistele liikmesriikidele dokumentaalsed tõendid, mis kinnitavad, et vastavushindamisasutus on pädev ja et on kehtestatud asutuse korrapärast järelevalvet tagav kord, millega tagatakse ka edaspidi vastavus artiklis 31 sätestatud nõuetele.
(4) Die betreffende Konformitätsbewertungsstelle darf die Tätigkeiten einer notifizierten Stelle nur dann wahrnehmen, wenn weder die Kommission noch die anderen Mitgliedstaaten innerhalb von zwei Wochen nach einer Notifizierung durch eine notifizierende Behörde, falls eine Akkreditierungsurkunde gemäß Artikel 29 Absatz 2 vorgelegt wird, oder innerhalb von zwei Monaten nach einer Notifizierung durch eine notifizierende Behörde, falls als Nachweis Unterlagen gemäß Artikel 29 Absatz 3 vorgelegt werden, Einwände erhoben haben.
4. Asjaomane vastavushindamisasutus võib teada antud asutuse toiminguid teha ainult juhul, kui komisjon või teised liikmesriigid ei esita vastuväiteid kahe nädala jooksul alates teavitava asutuse poolsest teavitamisest, kui teavitus sisaldab artikli 29 lõikes 2 osutatud akrediteerimistunnistust, või kahe kuu jooksul alates teavitava asutuse poolsest teavitamisest, kui teavitus sisaldab artikli 29 lõikes 3 osutatud dokumentaalseid tõendeid.
(5) Werden Einwände erhoben, konsultiert die Kommission unverzüglich die betreffenden Mitgliedstaaten und die Konformitätsbewertungsstelle. Im Hinblick darauf entscheidet die Kommission, ob die Genehmigung gerechtfertigt ist. Die Kommission richtet ihren Beschluss an die betroffenen Mitgliedstaaten und an die zuständige Konformitätsbewertungsstelle.
5. Kui esitatakse vastuväiteid, alustab komisjon viivitamata konsultatsioone asjaomaste liikmesriikide ja vastavushindamisasutusega. Komisjon otsustab neid konsultatsioone silmas pidades, kas luba on põhjendatud. Komisjon saadab oma otsuse asjaomasele liikmesriigile ja asjaomasele vastavushindamisasutusele.
Anforderungen an notifizierte Stellen
Teada antud asutusi puudutavad nõuded
(1) Eine notifizierte Stelle wird nach dem nationalen Recht eines Mitgliedstaats gegründet und muss mit Rechtspersönlichkeit ausgestattet sein.
1. Teada antud asutus asutatakse liikmesriigi õiguse alusel ning ta on juriidiline isik.
(2) Die notifizierten Stellen müssen die zur Wahrnehmung ihrer Aufgaben erforderlichen Anforderungen an die Organisation, das Qualitätsmanagement, die Ressourcenausstattung und die Verfahren sowie angemessene Cybersicherheitsanforderungen erfüllen.
2. Teada antud asutused täidavad organisatsioonilisi, kvaliteedijuhtimise, ressursside ja protsessidega seotud nõudeid, mis on vajalikud nende ülesannete täitmiseks, ning vastavaid küberturvalisuse nõudeid.
(3) Die Organisationsstruktur, die Zuweisung der Zuständigkeiten, die Berichtslinien und die Funktionsweise der notifizierten Stellen müssen das Vertrauen in ihre Leistung und in die Ergebnisse der von ihnen durchgeführten Konformitätsbewertungstätigkeiten gewährleisten.
3. Teada antud asutuste organisatsiooniline struktuur, vastutusalade jaotus, aruandlusahelad ja tegevus peavad tagama usalduse teada antud asutuste tegevuse ja nende teostatud vastavushindamistoimingute tulemuste suhtes.
(4) Die notifizierten Stellen müssen von dem Anbieter eines Hochrisiko-KI-Systems, zu dem sie Konformitätsbewertungstätigkeiten durchführen, unabhängig sein. Außerdem müssen die notifizierten Stellen von allen anderen Akteuren, die ein wirtschaftliches Interesse an den bewerteten Hochrisiko-KI-Systemen haben, und von allen Wettbewerbern des Anbieters unabhängig sein. Dies schließt die Verwendung von bewerteten Hochrisiko-KI-Systemen, die für die Tätigkeit der Konformitätsbewertungsstelle nötig sind, oder die Verwendung solcher Hochrisiko-KI-Systeme zum persönlichen Gebrauch nicht aus.
4. Teada antud asutused peavad olema sõltumatud suure riskiga tehisintellektisüsteemi pakkujast, mille vastavushindamisega nad tegelevad. Samuti peavad teada antud asutused olema sõltumatud mis tahes muust operaatorist, kellel on majanduslik huvi hinnatava suure riskiga tehisintellektisüsteemi vastu, ja kõigist pakkuja konkurentidest. See ei välista vastavushindamisasutuse tegevuseks vajalike hinnatud suure riskiga tehisintellektisüsteemide kasutamist ega selliste suure riskiga tehisintellektisüsteemide kasutamist isiklikel eesmärkidel.
(5) Weder die Konformitätsbewertungsstelle, ihre oberste Leitungsebene noch die für die Erfüllung ihrer Konformitätsbewertungsaufgaben zuständigen Mitarbeiter dürfen direkt an Entwurf, Entwicklung, Vermarktung oder Verwendung von Hochrisiko-KI-Systemen beteiligt sein oder die an diesen Tätigkeiten beteiligten Parteien vertreten. Sie dürfen sich nicht mit Tätigkeiten befassen, die ihre Unabhängigkeit bei der Beurteilung oder ihre Integrität im Zusammenhang mit den Konformitätsbewertungstätigkeiten, für die sie notifiziert sind, beeinträchtigen könnten. Dies gilt besonders für Beratungsdienstleistungen.
5. Vastavushindamisasutus, selle juhtkond ega selle vastavushindamisülesannete täitmise eest vastutavad töötajad ei tohi olla otseselt seotud suure riskiga tehisintellektisüsteemide projekteerimise, arendamise, turustamise või kasutamisega ega esindada ühtegi isikut, kes nimetatud tegevustega tegeleb. Nad ei tohi osaleda üheski tegevuses, mis võib olla vastuolus nende otsuste sõltumatuse ja vastavushindamistoimingute usaldusväärsusega, mille teostamiseks on neist teada antud. See kehtib eelkõige nõustamisteenuste puhul.
(6) Notifizierte Stellen werden so organisiert und geführt, dass bei der Ausübung ihrer Tätigkeit Unabhängigkeit, Objektivität und Unparteilichkeit gewahrt sind. Von den notifizierten Stellen werden eine Struktur und Verfahren dokumentiert und umgesetzt, die ihre Unparteilichkeit gewährleisten und sicherstellen, dass die Grundsätze der Unparteilichkeit in ihrer gesamten Organisation, von allen Mitarbeitern und bei allen Bewertungstätigkeiten gefördert und angewandt werden.
6. Teada antud asutuste töö korraldatakse ja neid juhitakse nii, et tagada nende tegevuse sõltumatus, objektiivsus ja erapooletus. Teada antud asutused dokumenteerivad ja rakendavad struktuuri ja menetlused, millega tagatakse erapooletus ning mille abil edendatakse ja kohaldatakse erapooletuse põhimõtteid kogu nende organisatsiooni, töötajate ja hindamistoimingute osas.
(7) Die notifizierten Stellen gewährleisten durch dokumentierte Verfahren, dass ihre Mitarbeiter, Ausschüsse, Zweigstellen, Unterauftragnehmer sowie alle zugeordneten Stellen oder Mitarbeiter externer Einrichtungen die Vertraulichkeit der Informationen, die bei der Durchführung der Konformitätsbewertungstätigkeiten in ihren Besitz gelangen, im Einklang mit Artikel 78 wahren, außer wenn ihre Offenlegung gesetzlich vorgeschrieben ist. Informationen, von denen Mitarbeiter der notifizierten Stellen bei der Durchführung ihrer Aufgaben gemäß dieser Verordnung Kenntnis erlangen, unterliegen der beruflichen Schweigepflicht, außer gegenüber den notifizierenden Behörden des Mitgliedstaats, in dem sie ihre Tätigkeiten ausüben.
7. Teada antud asutustel peavad olema dokumenteeritud menetlused, millega tagatakse, et nende töötajad, komiteed, tütarettevõtjad, alltöövõtjad ja kõik nendega seotud asutused või väliste asutuste töötajad austavad kooskõlas artikliga 78 vastavushindamistoimingute teostamise käigus saadud teabe konfidentsiaalsust, välja arvatud juhul, kui avalikustamine on seadusega nõutud. Teada antud asutuste töötajad on kohustatud kaitsma ametisaladusena teavet, mille nad on saanud käesoleva määruse alusel oma ülesandeid täites, välja arvatud suhetes selle liikmesriigi teavitavate asutustega, kus teada antud asutus tegutseb.
(8) Die notifizierten Stellen verfügen über Verfahren zur Durchführung ihrer Tätigkeiten unter gebührender Berücksichtigung der Größe eines Betreibers, des Sektors, in dem er tätig ist, seiner Struktur sowie der Komplexität des betreffenden KI-Systems.
8. Teada antud asutustel peavad olema menetlused selliste toimingute teostamiseks, milles võetakse asjakohaselt arvesse pakkuja suurust, tegutsemisvaldkonda, tema struktuuri ning asjaomase tehisintellektisüsteemi keerukuse astet.
(9) Die notifizierten Stellen schließen eine angemessene Haftpflichtversicherung für ihre Konformitätsbewertungstätigkeiten ab, es sei denn, diese Haftpflicht wird aufgrund nationalen Rechts von dem Mitgliedstaat, in dem sie niedergelassen sind, gedeckt oder dieser Mitgliedstaat ist selbst unmittelbar für die Konformitätsbewertung zuständig.
9. Teada antud asutused peavad võtma endale asjakohase vastutuskindlustuse seoses oma vastavushindamistoimingutega, välja arvatud juhul, kui vastutust kannab liikmesriik, milles nad on asutatud, vastavalt selle liikmesriigi õigusele, või kui see liikmesriik vastutab ise otseselt vastavushindamise eest.
(10) Die notifizierten Stellen müssen in der Lage sein, ihre Aufgaben gemäß dieser Verordnung mit höchster beruflicher Integrität und der erforderlichen Fachkompetenz in dem betreffenden Bereich auszuführen, gleichgültig, ob diese Aufgaben von den notifizierten Stellen selbst oder in ihrem Auftrag und in ihrer Verantwortung durchgeführt werden.
10. Teada antud asutused peavad olema võimelised täitma kõiki oma käesoleva määruse kohaseid ülesandeid suurima erialase usaldusväärsuse ja nõutava erialase pädevusega nii siis, kui neid ülesandeid täidavad teada antud asutused ise, kui ka siis, kui seda tehakse nende nimel ja nende vastutusel.
(11) Die notifizierten Stellen müssen über ausreichende interne Kompetenzen verfügen, um die von externen Stellen in ihrem Namen wahrgenommen Aufgaben wirksam beurteilen zu können. Die notifizierten Stellen müssen ständig über ausreichendes administratives, technisches, juristisches und wissenschaftliches Personal verfügen, das Erfahrungen und Kenntnisse in Bezug auf einschlägige Arten der KI-Systeme, Daten und Datenverarbeitung sowie die in Abschnitt 2 festgelegten Anforderungen besitzt.
11. Teada antud asutustel peab olema piisav sisepädevus, et tulemuslikult hinnata väliste isikute poolt nende nimel täidetud ülesandeid. Teada antud asutusele peab olema alaliselt kättesaadav piisavalt haldus-, tehnilisi, õigus- ja teadustöötajaid, kellel on kogemused ja teadmised asjaomaste tehisintellektisüsteemide liikide, andmete ja andmetöötlusega ning seoses 2. jaos sätestatud nõuetega.
(12) Die notifizierten Stellen wirken an den in Artikel 38 genannten Koordinierungstätigkeiten mit. Sie wirken außerdem unmittelbar oder mittelbar an der Arbeit der europäischen Normungsorganisationen mit oder stellen sicher, dass sie stets über den Stand der einschlägigen Normen unterrichtet sind.
12. Teada antud asutused osalevad artiklis 38 osutatud koordineerimistegevuses. Samuti osalevad nad otseselt või esindajate kaudu Euroopa standardiorganisatsioonides või tagavad, et nad on asjakohastest standarditest teadlikud ja nende viimase arenguga kursis.
Änderungen der Notifizierungen
(1) Die notifizierende Behörde unterrichtet die Kommission und die anderen Mitgliedstaaten mithilfe des in Artikel 30 Absatz 2 genannten elektronischen Notifizierungsinstruments über alle relevanten Änderungen der Notifizierung einer notifizierten Stelle.
1. Teavitav asutus teavitab komisjoni ja teisi liikmesriike kõigist asjakohastest muudatustest teada antud asutuse teavituses artikli 30 lõikes 2 osutatud elektroonilise teavitamisvahendi kaudu.
(2) Für Erweiterungen des Anwendungsbereichs der Notifizierung gelten die in den Artikeln 29 und 30 festgelegten Verfahren.
2. Teavituse ulatuse laiendamise suhtes kohaldatakse artiklites 29 ja 30 sätestatud menetlusi.
Für andere Änderungen der Notifizierung als Erweiterungen ihres Anwendungsbereichs gelten die in den Absätzen 3 bis 9 dargelegten Verfahren.
Muude kui teavituse ulatuse laiendamisega seotud muudatuste puhul kohaldatakse lõigetes 3–9 sätestatud menetlusi.
(3) Beschließt eine notifizierte Stelle die Einstellung ihrer Konformitätsbewertungstätigkeiten, so informiert sie die betreffende notifizierende Behörde und die betreffenden Anbieter so bald wie möglich und im Falle einer geplanten Einstellung ihrer Tätigkeiten mindestens ein Jahr vor deren Einstellung darüber. Die Bescheinigungen der notifizierten Stelle können für einen Zeitraum von neun Monaten nach Einstellung der Tätigkeiten der notifizierten Stelle gültig bleiben, sofern eine andere notifizierte Stelle schriftlich bestätigt hat, dass sie die Verantwortung für die von diesen Bescheinigungen abgedeckten Hochrisiko-KI-Systeme übernimmt. Die letztgenannte notifizierte Stelle führt vor Ablauf dieser Frist von neun Monaten eine vollständige Bewertung der betroffenen Hochrisiko-KI-Systeme durch, bevor sie für diese neue Bescheinigungen ausstellt. Stellt die notifizierte Stelle ihre Tätigkeit ein, so widerruft die notifizierende Behörde die Benennung.
3. Kui teada antud asutus otsustab vastavushindamisalase tegevuse lõpetada, teatab ta sellest teavitavale asutusele ja asjaomastele pakkujatele nii kiiresti kui võimalik ning ettekavatsetud lõpetamise korral vähemalt üks aasta enne tegevuse lõpetamist. Teada antud asutuse sertifikaadid võivad pärast teada antud asutuse tegevuse lõpetamist jääda kehtima üheksaks kuuks tingimusel, et mõni teine teada antud asutus on kirjalikult kinnitanud, et ta võtab nende sertifikaatidega hõlmatud suure riskiga tehisintellektisüsteemide eest vastutuse üle. Enne asjaomastele tehisintellektisüsteemidele uute sertifikaatide väljastamist viib viimati nimetatud teada antud asutus selle üheksakuulise ajavahemiku lõpuks läbi nende suure riskiga süsteemide täieliku hindamise. Kui teada antud asutus on oma tegevuse lõpetanud, tühistab teavitav asutus määramise.
(4) Hat eine notifizierende Behörde hinreichenden Grund zu der Annahme, dass eine notifizierte Stelle die in Artikel 31 festgelegten Anforderungen nicht mehr erfüllt oder dass sie ihren Pflichten nicht nachkommt, so untersucht die notifizierende Behörde den Sachverhalt unverzüglich und mit äußerster Sorgfalt. In diesem Zusammenhang teilt sie der betreffenden notifizierten Stelle die erhobenen Einwände mit und gibt ihr die Möglichkeit, dazu Stellung zu nehmen. Kommt die notifizierende Behörde zu dem Schluss, dass die notifizierte Stelle die in Artikel 31 festgelegten Anforderungen nicht mehr erfüllt oder dass sie ihren Pflichten nicht nachkommt, schränkt sie die Benennung gegebenenfalls ein, setzt sie aus oder widerruft sie, je nach Schwere der Nichterfüllung dieser Anforderungen oder Pflichtverletzung. Sie informiert die Kommission und die anderen Mitgliedstaaten unverzüglich darüber.
4. Kui teavitaval asutusel on piisavalt põhjust arvata, et teada antud asutus ei vasta enam artiklis 31 sätestatud nõuetele või et ta ei täida oma kohustusi, siis uurib teavitav asutus seda küsimust viivitamata ja äärmiselt hoolikalt. Seoses sellega teatab ta asjaomasele teada antud asutusele tekkinud vastuväidetest ja annab talle võimaluse esitada oma seisukohad. Kui teavitav asutus on jõudnud järeldusele, et teada antud asutus ei vasta enam artiklis 31 sätestatud nõuetele või et ta ei täida oma kohustusi, siis vastavalt vajadusele seab teavitav asutus määramisele piirangud või peatab või tühistab selle sõltuvalt nõuetele mittevastavuse või kohustuste mittetäitmise raskusastmest. Ta teatab sellest viivitamata komisjonile ja teistele liikmesriikidele.
(5) Wird die Benennung einer notifizierten Stelle ausgesetzt, eingeschränkt oder vollständig oder teilweise widerrufen, so informiert die notifizierte Stelle die betreffenden Anbieter innerhalb von zehn Tagen darüber.
5. Kui määramine on peatatud, piiratud või täielikult või osaliselt tühistatud, peab teada antud asutus asjaomaseid pakkujaid sellest teavitama kümne päeva jooksul.
(6) Wird eine Benennung eingeschränkt, ausgesetzt oder widerrufen, so ergreift die notifizierende Behörde geeignete Maßnahmen, um sicherzustellen, dass die Akten der betreffenden notifizierten Stelle für die notifizierenden Behörden in anderen Mitgliedstaaten und die Marktüberwachungsbehörden bereitgehalten und ihnen auf deren Anfrage zur Verfügung gestellt werden.
6. Määramise piiramise, peatamise või tühistamise korral võtab teavitav asutus asjakohaseid meetmeid tagamaks, et asjaomase teada antud asutuse toimikud hoitakse alles ja tehakse teistes liikmesriikides asuvatele teavitavatele asutustele ja turujärelevalveasutustele nende taotluse alusel kättesaadavaks.
(7) Wird eine Benennung eingeschränkt, ausgesetzt oder widerrufen, so geht die notifizierende Behörde wie folgt vor:
7. Määramise piiramise, peatamise või tühistamise korral teavitav asutus:
a)
Sie bewertet die Auswirkungen auf die von der notifizierten Stelle ausgestellten Bescheinigungen;
a)
hindab mõju teada antud asutuse väljastatud sertifikaatidele;
b)
sie legt der Kommission und den anderen Mitgliedstaaten innerhalb von drei Monaten nach Notifizierung der Änderungen der Benennung einen Bericht über ihre diesbezüglichen Ergebnisse vor;
b)
esitab komisjonile ja teistele liikmesriikidele kolme kuu jooksul pärast määramise muudatustest teatamist aruande oma järelduste kohta;
c)
sie weist die notifizierte Stelle zur Gewährleistung der fortlaufenden Konformität der im Verkehr befindlichen Hochrisiko-KI-Systeme an, sämtliche nicht ordnungsgemäß ausgestellten Bescheinigungen innerhalb einer von der Behörde festgelegten angemessenen Frist auszusetzen oder zu widerrufen;
c)
nõuab, et teada antud asutus peataks või tunnistaks riikliku asutuse määratud mõistliku aja jooksul kõik alusetult väljastatud sertifikaadid kehtetuks, et tagada turul olevate suure riskiga tehisintellektisüsteemide jätkuv nõuetele vastavus;
d)
sie informiert die Kommission und die Mitgliedstaaten über Bescheinigungen, deren Aussetzung oder Widerruf sie angewiesen hat;
d)
teavitab komisjoni ja liikmesriike sertifikaatidest, mille peatamist või kehtetuks tunnistamist ta on nõudnud;
e)
sie stellt den zuständigen nationalen Behörden des Mitgliedstaats, in dem der Anbieter seine eingetragene Niederlassung hat, alle relevanten Informationen über Bescheinigungen, deren Aussetzung oder Widerruf sie angewiesen hat, zur Verfügung; diese Behörde ergreift erforderlichenfalls geeignete Maßnahmen, um ein mögliches Risiko für Gesundheit, Sicherheit oder Grundrechte zu verhindern.
e)
esitab selle liikmesriigi pädevatele asutustele, kus on pakkuja registreeritud tegevuskoht, kogu asjakohase teabe sertifikaatide kohta, mille peatamist või kehtetuks tunnistamist ta on nõudnud. Nimetatud asutus võtab vajaduse korral asjakohaseid meetmeid, et ära hoida võimalik risk tervisele, ohutusele või põhiõigustele.
(8) Abgesehen von den Fällen, in denen Bescheinigungen nicht ordnungsgemäß ausgestellt wurden und in denen eine Benennung ausgesetzt oder eingeschränkt wurde, bleiben die Bescheinigungen unter einem der folgenden Umstände gültig:
8. Välja arvatud alusetult väljastatud sertifikaatide puhul ning kui määramine on peatatud või piiratud, jäävad sertifikaadid kehtima ühel järgmistel tingimustel:
a)
Die notifizierende Behörde hat innerhalb eines Monats nach der Aussetzung oder Einschränkung bestätigt, dass im Zusammenhang mit den von der Aussetzung oder Einschränkung betroffenen Bescheinigungen kein Risiko für Gesundheit, Sicherheit oder Grundrechte besteht, und die notifizierende Behörde hat einen Zeitplan für Maßnahmen zur Aufhebung der Aussetzung oder Einschränkung genannt oder
a)
teavitav asutus on ühe kuu jooksul alates peatamisest või piirangu kehtestamisest kinnitanud, et nende sertifikaatide puhul, mida peatamine või piirang puudutab, puudub risk tervisele, ohutusele või põhiõigustele, ning teavitav asutus on esitanud ajakava ja meetmed peatamise või piirangu tühistamiseks, või
b)
die notifizierende Behörde hat bestätigt, dass keine von der Aussetzung betroffenen Bescheinigungen während der Dauer der Aussetzung oder Einschränkung ausgestellt, geändert oder erneut ausgestellt werden, und gibt an, ob die notifizierte Stelle in der Lage ist, bestehende ausgestellte Bescheinigungen während der Dauer der Aussetzung oder Einschränkung weiterhin zu überwachen und die Verantwortung dafür zu übernehmen; falls die notifizierende Behörde feststellt, dass die notifizierte Stelle nicht in der Lage ist, bestehende ausgestellte Bescheinigungen weiterzuführen, so bestätigt der Anbieter des von der Bescheinigung abgedeckten Systems den zuständigen nationalen Behörden des Mitgliedstaats, in dem er seine eingetragene Niederlassung hat, innerhalb von drei Monaten nach der Aussetzung oder Einschränkung schriftlich, dass eine andere qualifizierte notifizierte Stelle vorübergehend die Aufgaben der notifizierten Stelle zur Überwachung der Bescheinigung übernimmt und dass sie während der Dauer der Aussetzung oder Einschränkung für die Bescheinigung verantwortlich bleibt.
b)
teavitav asutus on kinnitanud, et peatamisega seoses ei anta välja, ei muudeta ega anta uuesti välja ühtegi sertifikaati peatamise või piirangu kehtivuse jooksul, ning märgib, kas teada antud asutus on suuteline järelevalvet jätkama ja jätkuvalt vastutama olemasolevate sertifikaatide eest, mis on välja antud peatamise või piirangu kehtivuse ajaks; juhul kui teavitatav asutus teeb kindlaks, et teada antud asutus ei ole suuteline olemasolevate väljastatud sertifikaatide eest vastutama, esitab sertifikaadiga hõlmatud süsteemi pakkuja oma registreeritud tegevuskoha liikmesriigi pädevatele asutustele kolme kuu jooksul alates peatamisest või piirangu kehtestamisest, et mõni teine kvalifitseeritud teada antud asutus võtab peatamise või piirangu kehtimise ajaks ajutiselt üle teada antud asutuse järelevalve ja sertifikaatide eest vastutamisega seotud ülesanded.
(9) Abgesehen von den Fällen, in denen Bescheinigungen nicht ordnungsgemäß ausgestellt wurden und in denen eine Benennung widerrufen wurde, bleiben die Bescheinigungen unter folgenden Umständen für eine Dauer von neun Monaten gültig:
9. Välja arvatud alusetult väljastatud sertifikaatide puhul ja kui määramine on kehtetuks tunnistatud, jäävad sertifikaadid kehtima üheksaks kuuks järgmistel tingimustel:
a)
Die zuständige nationale Behörde des Mitgliedstaats, in dem der Anbieter des von der Bescheinigung abgedeckten Hochrisiko-KI-Systems seine eingetragene Niederlassung hat, hat bestätigt, dass im Zusammenhang mit den betreffenden Hochrisiko-KI-Systemen kein Risiko für Gesundheit, Sicherheit oder Grundrechte besteht, und
a)
selle liikmesriigi pädev asutus, kus on sertifikaadiga hõlmatud kõrge riskiga tehisintellektisüsteemi pakkuja registreeritud tegevuskoht, on kinnitanud, et asjaomaste suure riskiga tehisintellektisüsteemidega ei kaasne riski tervisele, ohutusele ega põhiõigustele, ning
b)
eine andere notifizierte Stelle hat schriftlich bestätigt, dass sie die unmittelbare Verantwortung für diese KI-Systeme übernehmen und deren Bewertung innerhalb von 12 Monaten ab dem Widerruf der Benennung abgeschlossen haben wird.
b)
mõni teine teada antud asutus on kirjalikult kinnitanud, et ta võtab üle otsese vastutuse nende tehisintellektisüsteemide eest ning viib nende hindamise lõpule 12 kuu jooksul alates määramise kehtetuks tunnistamisest.
Unter den in Unterabsatz 1 genannten Umständen kann die zuständige nationale Behörde des Mitgliedstaats, in dem der Anbieter des von der Bescheinigung abgedeckten Systems seine Niederlassung hat, die vorläufige Gültigkeit der Bescheinigungen um zusätzliche Zeiträume von je drei Monaten, jedoch nicht um insgesamt mehr als 12 Monate, verlängern.
Esimeses lõigus osutatud tingimustel võib selle liikmesriigi pädev asutus, kus on sertifikaadiga hõlmatud tehisintellektisüsteemi pakkuja registreeritud tegevuskoht, pikendada sertifikaatide ajutist kehtivust kolme kuu kaupa, mis kokku ei tohi ületada 12 kuud.
Die zuständige nationale Behörde oder die notifizierte Stelle, die die Aufgaben der von der Benennungsänderung betroffenen notifizierten Stelle übernimmt, informiert unverzüglich die Kommission, die anderen Mitgliedstaaten und die anderen notifizierten Stellen darüber.
Riigi pädev asutus või teada antud asutus, kes täidab selle teada antud asutuse ülesandeid, keda määramise muutmine puudutab, teavitab sellest viivitamata komisjoni, teisi liikmesriike ja teisi teada antud asutusi.
Anfechtungen der Kompetenz notifizierter Stellen
Teada antud asutuste pädevuse vaidlustamine
(1) Die Kommission untersucht erforderlichenfalls alle Fälle, in denen begründete Zweifel an der Kompetenz einer notifizierten Stelle oder daran bestehen, dass eine notifizierte Stelle die in Artikel 31 festgelegten Anforderungen und ihre geltenden Pflichten weiterhin erfüllt.
1. Komisjon uurib vajaduse korral kõiki juhtumeid, mille puhul on põhjust kahelda teada antud asutuse pädevuses või artiklis 31 sätestatud nõuete ja kohaldatavate kohustuste jätkuvas täitmises teada antud asutuse poolt.
(2) Die notifizierende Behörde stellt der Kommission auf Anfrage alle Informationen über die Notifizierung oder die Aufrechterhaltung der Kompetenz der betreffenden notifizierten Stelle zur Verfügung.
2. Teavitav asutus annab komisjonile taotluse alusel kogu teabe asjaomase teada antud asutuse teavitamise või pädevuse säilitamise kohta.
(3) Die Kommission stellt sicher, dass alle im Verlauf ihrer Untersuchungen gemäß diesem Artikel erlangten sensiblen Informationen gemäß Artikel 78 vertraulich behandelt werden.
3. Komisjon tagab, et käesoleva artikli kohase uurimise käigus saadud tundlikku teavet käsitatakse konfidentsiaalsena kooskõlas artikliga 78.
(4) Stellt die Kommission fest, dass eine notifizierte Stelle die Anforderungen für ihre Notifizierung nicht oder nicht mehr erfüllt, so informiert sie den notifizierenden Mitgliedstaat entsprechend und fordert ihn auf, die erforderlichen Abhilfemaßnahmen zu treffen, einschließlich einer Aussetzung oder eines Widerrufs der Notifizierung, sofern dies nötig ist. Versäumt es ein Mitgliedstaat, die erforderlichen Abhilfemaßnahmen zu ergreifen, kann die Kommission die Benennung im Wege eines Durchführungsrechtsakts aussetzen, einschränken oder widerrufen. Dieser Durchführungsrechtsakt wird gemäß dem in Artikel 98 Absatz 2 genannten Prüfverfahren erlassen.
4. Kui komisjon on veendunud, et teada antud asutus ei täida või enam ei täida teavitamise aluseks olevaid nõudeid, teatab ta sellest teavitavale liikmesriigile ning nõuab, et see võtaks vajalikke parandusmeetmeid, sealhulgas vajaduse korral peataks teavituse või võtaks selle tagasi. Kui liikmesriik ei võta vajalikke parandusmeetmeid, võib komisjon rakendusaktiga määramise peatada, kehtetuks tunnistada või seda piirata. Kõnealune rakendusakt võetakse vastu kooskõlas artikli 98 lõikes 2 osutatud kontrollimenetlusega.
Harmonisierte Normen und Normungsdokumente
Harmoneeritud standardid ja standardimisdokumendid
(1) Bei Hochrisiko-KI-Systemen oder KI-Modellen mit allgemeinem Verwendungszweck, die mit harmonisierten Normen oder Teilen davon, deren Fundstellen gemäß der Verordnung (EU) Nr. 1025/2012 im Amtsblatt der Europäischen Union veröffentlicht wurden, übereinstimmen, wird eine Konformität mit den Anforderungen gemäß Abschnitt 2 des vorliegenden Kapitels oder gegebenenfalls mit den Pflichten gemäß Kapitel V Abschnitte 2 und 3 der vorliegenden Verordnung vermutet, soweit diese Anforderungen oder Verpflichtungen von den Normen abgedeckt sind.
1. Eeldatakse, et suure riskiga tehisintellektisüsteemid või üldotstarbelised tehisintellektimudelid, mis vastavad harmoneeritud standarditele või nende osadele, mille viited on avaldatud Euroopa Liidu Teatajas kooskõlas määrusega (EL) nr 1025/2012, on vastavuses käesoleva peatüki 2. jaos sätestatud nõuetega, või kui see on asjakohane, käesoleva määruse V peatüki 2. ja 3. jaos sätestatud kohustustega niivõrd, kuivõrd nimetatud standardid hõlmavad neid nõudeid või kohustusi.
(2) Gemäß Artikel 10 der Verordnung (EU) Nr. 1025/2012 erteilt die Kommission unverzüglich Normungsaufträge, die alle Anforderungen gemäß Abschnitt 2 des vorliegenden Kapitels abdecken und gegebenenfalls Normungsaufträge, die Pflichten gemäß Kapitel V Abschnitte 2 und 3 der vorliegenden Verordnung abdecken. In dem Normungsauftrag werden auch Dokumente zu den Berichterstattungs- und Dokumentationsverfahren im Hinblick auf die Verbesserung der Ressourcenleistung von KI-Systemen z. B. durch die Verringerung des Energie- und sonstigen Ressourcenverbrauchs des Hochrisiko-KI-Systems während seines gesamten Lebenszyklus und zu der energieeffizienten Entwicklung von KI-Modellen mit allgemeinem Verwendungszweck verlangt. Bei der Ausarbeitung des Normungsauftrags konsultiert die Kommission das KI-Gremium und die einschlägigen Interessenträger, darunter das Beratungsforum.
2. Komisjon esitab kooskõlas määruse (EL) nr 1025/2012 artikliga 10 põhjendamatu viivituseta standardimistaotlused, mis hõlmavad kõiki käesoleva peatüki 2. jaos sätestatud nõudeid ja vajaduse korral käesoleva määruse V peatüki 2. ja 3. jaos sätestatud kohustusi hõlmavaid standardimistaotlusi. Standardimistaotluses nõutakse ka aruandlus- ja dokumenteerimisprotsesside tulemusi, et parandada tehisintellektisüsteemide ressursinäitajaid, näiteks vähendada suure riskiga tehisintellektisüsteemi energia- ja muude ressursside tarbimist selle olelusringi jooksul, ning üldotstarbeliste tehisintellektimudelite energiatõhuse tulemusi. Standardimistaotluse koostamisel konsulteerib komisjon nõukoja ja asjaomaste sidusrühmadega, sealhulgas nõuandva koguga.
Bei der Erteilung eines Normungsauftrags an die europäischen Normungsorganisationen gibt die Kommission an, dass die Normen klar und — u. a. mit den Normen, die in den verschiedenen Sektoren für Produkte entwickelt wurden, die unter die in Anhang I aufgeführten geltenden Harmonisierungsrechtsvorschriften der Union fallen — konsistent sein müssen und sicherstellen sollen, dass die in der Union in Verkehr gebrachten oder in Betrieb genommenen Hochrisiko-KI-Systeme oder KI-Modelle mit allgemeinem Verwendungszweck die in dieser Verordnung festgelegten einschlägigen Anforderungen oder Pflichten erfüllen.
Euroopa standardiorganisatsioonidele standardimistaotluse esitamisel täpsustab komisjon, et standardid peavad olema selged ja sidusad, sealhulgas kooskõlas standarditega, mis on välja töötatud eri sektorites I lisas loetletud kehtivate liidu ühtlustamisõigusaktidega hõlmatud toodete jaoks, ning nende eesmärk on tagada, et liidus turule lastud või kasutusele võetud suure riskiga tehisintellektisüsteemid või üldotstarbelised tehisintellektimudelid vastavad käesolevas määruses sätestatud asjakohastele nõuetele või kohustustele.
Die Kommission fordert die europäischen Normungsorganisationen auf, Nachweise dafür vorzulegen, dass sie sich nach besten Kräften bemühen, die in den Unterabsätzen 1 und 2 dieses Absatzes genannten Ziele im Einklang mit Artikel 24 der Verordnung (EU) Nr. 1025/2012 zu erreichen.
Komisjon palub Euroopa standardiorganisatsioonidel esitada tõendid selle kohta, et nad on andnud endast parima käesoleva lõike esimeses ja teises lõigus osutatud eesmärkide saavutamiseks kooskõlas määruse (EL) nr 1025/2012 artikliga 2.
(3) Die am Normungsprozess Beteiligten bemühen sich, Investitionen und Innovationen im Bereich der KI, u. a. durch Erhöhung der Rechtssicherheit, sowie der Wettbewerbsfähigkeit und des Wachstums des Unionsmarktes zu fördern und zur Stärkung der weltweiten Zusammenarbeit bei der Normung und zur Berücksichtigung bestehender internationaler Normen im Bereich der KI, die mit den Werten, Grundrechten und Interessen der Union im Einklang stehen, beizutragen und die Multi-Stakeholder-Governance zu verbessern, indem eine ausgewogene Vertretung der Interessen und eine wirksame Beteiligung aller relevanten Interessenträger gemäß den Artikeln 5, 6 und 7 der Verordnung (EU) Nr. 1025/2012 sichergestellt werden.
3. Standardimisprotsessis osalejad püüavad edendada tehisintellekti investeerimist ja innovatsiooni, sealhulgas õiguskindluse suurendamise kaudu, ning liidu turu konkurentsivõimet ja kasvu, aitavad tugevdada ülemaailmset standardimisalast koostööd ja võtta arvesse tehisintellekti valdkonnas kehtivaid rahvusvahelisi standardeid, mis on kooskõlas liidu väärtuste, põhiõiguste ja huvidega, ning tõhustavad mitmeid sidusrühmi hõlmavat juhtimist, tagades huvide tasakaalustatud esindatuse ja kõigi asjaomaste sidusrühmade tõhusa osalemise kooskõlas määruse (EL) nr 1025/2012 artiklitega 5, 6 ja 7.
Gemeinsame Spezifikationen
(1) Die Kommission kann Durchführungsrechtsakte zur Festlegung gemeinsamer Spezifikationen für die Anforderungen gemäß Abschnitt 2 dieses Kapitels oder gegebenenfalls die Pflichten gemäß Kapitel V Abschnitte 2 und 3 erlassen, wenn die folgenden Bedingungen erfüllt sind:
1. Komisjonil võib võtta vastu rakendusakte, millega kehtestatakse ühtsed kirjeldused käesoleva peatüki 2. jaos sätestatud nõuete või vajaduse korral V peatüki 2. ja 3. jaos sätestatud kohustuste kohta, kui on täidetud järgmised tingimused:
a)
Die Kommission hat gemäß Artikel 10 Absatz 1 der Verordnung (EU) Nr. 1025/2012 eine oder mehrere europäische Normungsorganisationen damit beauftragt, eine harmonisierte Norm für die in Abschnitt 2 dieses Kapitels festgelegten Anforderungen oder gegebenenfalls für die in Kapitel V Abschnitte 2 und 3 festgelegten Pflichten zu erarbeiten, und
a)
komisjon on esitanud määruse (EL) nr 1025/2012 artikli 10 lõike 1 kohaselt taotluse ühele või mitmele Euroopa standardiorganisatsioonile koostada harmoneeritud standard käesoleva peatüki 2. jaos sätestatud nõuete kohta või kui see on asjakohane, siis V peatüki 2. ja 3. jaos sätestatud kohustuste kohta, ning;
i)
der Auftrag wurde von keiner der europäischen Normungsorganisationen angenommen oder
i)
ükski Euroopa standardiorganisatsioon ei ole taotlust vastu võtnud või
ii)
die harmonisierten Normen, die Gegenstand dieses Auftrags sind, werden nicht innerhalb der gemäß Artikel 10 Absatz 1 der Verordnung (EU) Nr. 1025/2012 festgelegten Frist erarbeitet oder
ii)
kõnealust taotlust käsitlevaid harmoneeritud standardeid ei esitatud määruse (EL) nr 1025/2012 artikli 10 lõikes 1 sätestatud tähtaja jooksul või
iii)
die einschlägigen harmonisierten Normen tragen den Bedenken im Bereich der Grundrechte nicht ausreichend Rechnung oder
iii)
asjakohastes harmoneeritud standardites ei käsitleta piisavalt põhiõigustega seotud probleeme või
iv)
die harmonisierten Normen entsprechen nicht dem Auftrag und
iv)
harmoneeritud standardid ei vasta taotlusele ning
b)
im Amtsblatt der Europäischen Union sind keine Fundstellen zu harmonisierten Normen gemäß der Verordnung (EU) Nr. 1025/2012 veröffentlicht, die den in Abschnitt 2 dieses Kapitels aufgeführten Anforderungen oder gegebenenfalls den in Kapitel V Abschnitte 2 und 3 aufgeführten Pflichten genügen, und es ist nicht zu erwarten, dass eine solche Fundstelle innerhalb eines angemessenen Zeitraums veröffentlicht wird.
b)
Euroopa Liidu Teatajas ei ole avaldatud ühtegi määruse (EL) nr 1025/2012 kohast viidet harmoneeritud standarditele, mis hõlmaks käesoleva peatüki 2. jaos sätestatud olulisi nõudeid või kui see on asjakohane, siis V peatüki 2. ja 3. jaos sätestatud kohustusi, ning tõenäoliselt sellist viidet mõistliku aja jooksul ei avaldata.
Bei der Verfassung der gemeinsamen Spezifikationen konsultiert die Kommission das in Artikel 67 genannte Beratungsforum.
Ühtsete kirjelduste koostamisel konsulteerib komisjon artiklis 67 osutatud nõuandva koguga.
Die in Unterabsatz 1 des vorliegenden Absatzes genannten Durchführungsrechtsakte werden gemäß dem in Artikel 98 Absatz 2 genannten Prüfverfahren erlassen.
Käesoleva lõike esimeses lõigus osutatud rakendusaktid võetakse vastu kooskõlas artikli 98 lõikes 2 osutatud kontrollimenetlusega.
(2) Vor der Ausarbeitung eines Entwurfs eines Durchführungsrechtsakts informiert die Kommission den in Artikel 22 der Verordnung (EU) Nr. 1025/2012 genannten Ausschuss darüber, dass sie die in Absatz 1 des vorliegenden Artikels festgelegten Bedingungen als erfüllt erachtet.
2. Enne rakendusakti eelnõu koostamist teavitab komisjon määruse (EL) nr 1025/2012 artiklis 22 osutatud komiteed sellest, et tema hinnangul on käesoleva artikli lõikes 1 sätestatud tingimused täidetud.
(3) Bei Hochrisiko-KI-Systemen oder KI-Modellen mit allgemeinem Verwendungszweck, die mit den in Absatz 1 genannten gemeinsamen Spezifikationen oder Teilen dieser Spezifikationen übereinstimmen, wird eine Konformität mit den Anforderungen in Abschnitt 2 dieses Kapitels oder gegebenenfalls die Einhaltung der in Kapitel V Abschnitte 2 und 3 genannten Pflichten vermutet, soweit diese Anforderungen oder diese Pflichten von den gemeinsamen Spezifikationen abgedeckt sind.
3. Eeldatakse, et suure riskiga tehisintellektisüsteemid või üldotstarbelised tehisintellektimudelid, mis vastavad lõikes 1 osutatud ühtsetele kirjeldustele või osale nimetatud kirjeldustest, on vastavuses käesoleva peatüki 2. jaos sätestatud oluliste nõuete või kui see on asjakohane, siis V peatüki 2. ja 3. jaos sätestatud kohustustega niivõrd, kuivõrd nimetatud ühtsed kirjeldused hõlmavad neid nõudeid.
(4) Wird eine harmonisierte Norm von einer europäischen Normungsorganisation angenommen und der Kommission zur Veröffentlichung ihrer Fundstelle im Amtsblatt der Europäischen Union vorgeschlagen, so bewertet die Kommission die harmonisierte Norm gemäß der Verordnung (EU) Nr. 1025/2012. Wird die Fundstelle zu einer harmonisierten Norm im Amtsblatt der Europäischen Union veröffentlicht, so werden die in Absatz 1 genannten Durchführungsrechtsakte, die dieselben Anforderungen gemäß Abschnitt 2 dieses Kapitels oder gegebenenfalls dieselben Pflichten gemäß Kapitel V Abschnitte 2 und 3 erfassen, von der Kommission ganz oder teilweise aufgehoben.
4. Kui Euroopa standardiorganisatsioon võtab vastu harmoneeritud standardi ning see on esitatud komisjonile standardi viite avaldamiseks Euroopa Liidu Teatajas, hindab komisjon seda standardit kooskõlas määrusega (EL) nr 1025/2012. Kui harmoneeritud standardi viide avaldatakse Euroopa Liidu Teatajas, tunnistab komisjon kehtetuks lõikes 1 osutatud rakendusaktid või nende osad, mis hõlmavad samu nõudeid, mis on sätestatud käesoleva peatüki 2. jaos või kui see on asjakohane, siis samu kohustusi, mis on sätestatud V peatüki 2. ja 3. jaos.
(5) Wenn Anbieter von Hochrisiko-KI-Systemen oder KI-Modellen mit allgemeinem Verwendungszweck die in Absatz 1 genannten gemeinsamen Spezifikationen nicht befolgen, müssen sie hinreichend nachweisen, dass sie technische Lösungen verwenden, die die in Abschnitt 2 dieses Kapitels aufgeführten Anforderungen oder gegebenenfalls die Pflichten gemäß Kapitel V Abschnitte 2 und 3 zumindest in gleichem Maße erfüllen;
5. Kui suure riskiga tehisintellektisüsteemide või üldotstarbeliste tehisintellektimudelite pakkujad ei täida lõikes 1 osutatud ühtseid kirjeldusi, peavad nad põhjendama, et nad on võtnud kasutusele käesoleva peatüki 2. jaos osutatud nõuetele või kui see on asjakohane, siis V peatüki 2. ja 3. jaos sätestatud kohustustele vähemalt samaväärsel tasemel vastavad tehnilised lahendused.
(6) Ist ein Mitgliedstaat der Auffassung, dass eine gemeinsame Spezifikation den Anforderungen gemäß Abschnitt 2 nicht vollständig entspricht oder gegebenenfalls die Pflichten gemäß Kapitel V Abschnitte 2 und 3 nicht vollständig erfüllt, so setzt er die Kommission im Rahmen einer ausführlichen Erläuterung davon in Kenntnis. Die Kommission bewertet die betreffende Information und ändert gegebenenfalls den Durchführungsrechtsakt, durch den die betreffende gemeinsame Spezifikation festgelegt wurde.
6. Kui liikmesriik on seisukohal, et ühtne spetsifikatsioon ei vasta täielikult käesoleva peatüki 2. jaos sätestatud nõuetele või kui see on asjakohane, siis V peatüki 2. ja 3. jaos sätestatud kohustustele, teatab ta sellest komisjonile, esitades üksikasjaliku selgituse. Komisjon hindab seda teavet ja võib asjakohasel juhul muuta rakendusakti, millega asjaomane ühtne spetsifikatsioon kehtestatakse.
(1) Hat ein Anbieter zum Nachweis, dass ein in Anhang III Nummer 1 aufgeführtes Hochrisiko-KI-System die in Abschnitt 2 festgelegten Anforderungen erfüllt, harmonisierte Normen gemäß Artikel 40 oder gegebenenfalls gemeinsame Spezifikationen gemäß Artikel 41 angewandt, so entscheidet er sich für eines der folgenden Konformitätsbewertungsverfahren auf der Grundlage
1. Kui pakkuja on rakendanud artiklis 40 osutatud harmoneeritud standardeid, või kui see on kohaldatav, artiklis 41 osutatud ühtset kirjeldust, et tõendada III lisa punktis 1 loetletud suure riskiga tehisintellektisüsteemide vastavust 2. jaos sätestatud nõuetele, järgib pakkuja üht järgmistest vastavushindamismenetlustest, mis põhineb:
a)
der internen Kontrolle gemäß Anhang VI oder
a)
VI lisas osutatud sisekontrollil või
b)
der Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation unter Beteiligung einer notifizierten Stelle gemäß Anhang VII.
b)
VII lisas osutatud kvaliteedijuhtimissüsteemi hindamisel ja tehnilise dokumentatsiooni hindamisel ning milles osaleb teada antud asutus.
Zum Nachweis, dass sein Hochrisiko-KI-System die in Abschnitt 2 festgelegten Anforderungen erfüllt, befolgt der Anbieter das Konformitätsbewertungsverfahren gemäß Anhang VII, wenn
Tõendades suure riskiga tehisintellektisüsteemi vastavust 2. jaos sätestatud nõuetele, järgib pakkuja VII lisas sätestatud vastavushindamist järgmistel juhtudel:
a)
es harmonisierte Normen gemäß Artikel 40 nicht gibt und keine gemeinsamen Spezifikationen gemäß Artikel 41 vorliegen,
a)
artiklis 40 osutatud harmoneeritud standardeid ei ole olemas ja artiklis 41 osutatud ühtsed kirjeldused ei ole kättesaadavad;
b)
der Anbieter die harmonisierte Norm nicht oder nur teilweise angewandt hat;
b)
pakkuja ei ole harmoneeritud standardit kohaldanud või on seda kohaldanud ainult osaliselt;
c)
die unter Buchstabe a genannten gemeinsamen Spezifikationen zwar vorliegen, der Anbieter sie jedoch nicht angewandt hat;
c)
punktis a osutatud ühtsed kirjeldused on olemas, kuid pakkuja ei ole neid kohaldanud;
d)
eine oder mehrere der unter Buchstabe a genannten harmonisierten Normen mit einer Einschränkung und nur für den eingeschränkten Teil der Norm veröffentlicht wurden.
d)
punktis a osutatud harmoneeritud standardid või mõni neist on avaldatud piiranguga ja üksnes standardi selles osas, mida piirang puudutab.
Für die Zwecke des Konformitätsbewertungsverfahrens gemäß Anhang VII kann der Anbieter eine der notifizierten Stellen auswählen. Soll das Hochrisiko-KI-System jedoch von Strafverfolgungs-, Einwanderungs- oder Asylbehörden oder von Organen, Einrichtungen oder sonstigen Stellen der Union in Betrieb genommen werden, so übernimmt die in Artikel 74 Absatz 8 bzw. 9 genannte Marktüberwachungsbehörde die Funktion der notifizierten Stelle.
VII lisas osutatud vastavushindamise jaoks võib pakkuja valida mis tahes teada antud asutuse. Kui aga suure riskiga tehisintellektisüsteemi kavatsevad kasutusele võtta õiguskaitse-, rände- või varjupaigaasutused või liidu institutsioonid, organid või asutused, tegutseb teada antud asutusena artikli 74 lõikes 8 või kohaldataval juhul lõikes 9 osutatud turujärelevalveasutus.
(2) Bei den in Anhang III Nummern 2 bis 8 aufgeführten Hochrisiko-KI-Systemen befolgen die Anbieter das Konformitätsbewertungsverfahren auf der Grundlage einer internen Kontrolle gemäß Anhang VI, das keine Beteiligung einer notifizierten Stelle vorsieht.
2. III lisa punktides 2–8 osutatud suure riskiga tehisintellektisüsteemide puhul järgivad pakkujad VI lisas osutatud sisekontrollil põhinevat vastavushindamist, mille korral ei ole teada antud asutuse osalemist ette nähtud.
(3) Bei den Hochrisiko-KI-Systemen, die unter die in Anhang I Abschnitt A aufgeführten Harmonisierungsrechtsakte der Union fallen, befolgt der Anbieter die einschlägigen Konformitätsbewertungsverfahren, die nach diesen Rechtsakten erforderlich sind. Die in Abschnitt 2 dieses Kapitels festgelegten Anforderungen gelten für diese Hochrisiko-KI-Systeme und werden in diese Bewertung einbezogen. Anhang VII Nummern 4.3, 4.4 und 4.5 sowie Nummer 4.6 Absatz 5 finden ebenfalls Anwendung.
3. I lisa A jaos loetletud liidu ühtlustamisõigusaktidega hõlmatud suure riskiga tehisintellektisüsteemide puhul, järgib pakkuja nende õigusaktide kohaselt nõutavat asjaomast vastavushindamismenetlust. Selliste suure riskiga tehisintellektisüsteemide suhtes kohaldatakse käesoleva peatüki 2. jaos sätestatud nõudeid ning need nõuded on vastavushindamise osa. Kohaldatakse ka VII lisa punkte 4.3, 4.4, 4.5 ja punkti 4.6 viiendat lõiku.
Für die Zwecke dieser Bewertung sind die notifizierten Stellen, die gemäß diesen Rechtsakten notifiziert wurden, berechtigt, die Konformität der Hochrisiko-KI-Systeme mit den in Abschnitt 2 festgelegten Anforderungen zu kontrollieren, sofern im Rahmen des gemäß diesen Rechtsakten durchgeführten Notifizierungsverfahrens geprüft wurde, dass diese notifizierten Stellen die in Artikel 31 Absätze 4, 5, 10 und 11 festgelegten Anforderungen erfüllen.
Teada antud asutustel, kellest on teavitatud nende õigusaktide alusel, on selliseks hindamiseks õigus kontrollida, kas suure riskiga tehisintellektisüsteemid vastavad 2. jaos sätestatud nõuetele, tingimusel et nende teada antud asutuste vastavust artikli 31 lõigetes 4, 10 ja 11 sätestatud nõuetele on hinnatud nende õigusaktide kohase teavitamismenetluse raames.
Wenn ein in Anhang I Abschnitt A aufgeführter Rechtsakte es dem Hersteller des Produkts ermöglicht, auf eine Konformitätsbewertung durch Dritte zu verzichten, sofern dieser Hersteller alle harmonisierten Normen, die alle einschlägigen Anforderungen abdecken, angewandt hat, so darf dieser Hersteller nur dann von dieser Möglichkeit Gebrauch machen, wenn er auch harmonisierte Normen oder gegebenenfalls gemeinsame Spezifikationen gemäß Artikel 41, die alle in Abschnitt 2 dieses Kapitels festgelegten Anforderungen abdecken, angewandt hat.
Kui I lisa A jaos loetletud õigusaktid võimaldavad toote valmistajal loobuda kolmanda isiku tehtavast vastavushindamisest, tingimusel et see valmistaja on rakendanud kõiki harmoneeritud standardeid, mis hõlmavad kõiki olulisi nõudeid, võib see valmistaja nimetatud võimalust kasutada ainult siis, kui ta rakendab ka harmoneeritud standardeid, või kui see on kohaldatav, artiklis 41 osutatud ühtseid kirjeldusi, mis hõlmavad kõiki käesoleva peatüki 2. osas sätestatud nõudeid.
(4) Hochrisiko-KI-Systeme, die bereits Gegenstand eines Konformitätsbewertungsverfahren gewesen sind, werden im Falle einer wesentlichen Änderung einem neuen Konformitätsbewertungsverfahren unterzogen, unabhängig davon, ob das geänderte System noch weiter in Verkehr gebracht oder vom derzeitigen Betreiber weitergenutzt werden soll.
4. Suure riskiga tehisintellektisüsteemidele, mis on juba läbinud vastavushindamise, tuleb teha uus vastavushindamine alati, kui süsteeme oluliselt muudetakse, olenemata sellest, kas muudetud süsteemi kavatsetakse edasi turustada või jätkab selle kasutamist praegune juurutaja.
Bei Hochrisiko-KI-Systemen, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen, gelten Änderungen des Hochrisiko-KI-Systems und seiner Leistung, die vom Anbieter zum Zeitpunkt der ursprünglichen Konformitätsbewertung vorab festgelegt wurden und in den Informationen der technischen Dokumentation gemäß Anhang IV Nummer 2 Buchstabe f enthalten sind, nicht als wesentliche Veränderung;
Kui tegemist on suure riskiga tehisintellektisüsteemiga, mis õpib edasi ka pärast turule laskmist või kasutusele võtmist, ei käsitata oluliste muudatustena suure riskiga tehisintellektisüsteemi ja selle toimimise muudatusi, mille pakkuja on eelnevalt esialgse vastavushindamise ajal määratlenud ja mis on osa IV lisa punkti 2 alapunktis f osutatud tehnilises dokumentatsioonis sisalduvast teabest;
(5) Die Kommission ist befugt, gemäß Artikel 97 delegierte Rechtsakte zu erlassen, um die Anhänge VI und VII zu ändern, indem sie sie angesichts des technischen Fortschritts aktualisiert.
5. Komisjonil on õigus võtta kooskõlas artikliga 97 vastu delegeeritud õigusaktid, et muuta VI ja VII lisa ajakohastades neid tehnika arengut silmas pidades.
(6) Die Kommission ist befugt, gemäß Artikel 97 delegierte Rechtsakte zur Änderung der Absätze 1 und 2 des vorliegenden Artikels zu erlassen, um die in Anhang III Nummern 2 bis 8 genannten Hochrisiko-KI-Systeme dem Konformitätsbewertungsverfahren gemäß Anhang VII oder Teilen davon zu unterwerfen. Die Kommission erlässt solche delegierten Rechtsakte unter Berücksichtigung der Wirksamkeit des Konformitätsbewertungsverfahrens auf der Grundlage einer internen Kontrolle gemäß Anhang VI hinsichtlich der Vermeidung oder Minimierung der von solchen Systemen ausgehenden Risiken für die Gesundheit und Sicherheit und den Schutz der Grundrechte sowie hinsichtlich der Verfügbarkeit angemessener Kapazitäten und Ressourcen in den notifizierten Stellen.
6. Komisjonil on õigus võtta kooskõlas artikliga 97 vastu delegeeritud õigusaktid käesoleva artikli lõigete 1 ja 2 muutmiseks, et kohaldada III lisa punktides 2–8 osutatud suure riskiga tehisintellektisüsteemide suhtes VII lisas osutatud vastavushindamist või selle osi. Komisjon arvestab selliseid delegeeritud õigusakte vastu võttes seda, kui mõjus on VI lisas osutatud sisekontrollil põhinev vastavushindamine, et hoida ära või minimeerida tervist, ohutust ja põhiõiguste kaitset ähvardavaid riske, mida sellised süsteemid põhjustavad, ning piisava suutlikkuse ja ressursside kättesaadavust teada antud asutustes.
(1) Die von notifizierten Stellen gemäß Anhang VII ausgestellten Bescheinigungen werden in einer Sprache ausgefertigt, die für die einschlägigen Behörden des Mitgliedstaats, in dem die notifizierte Stelle niedergelassen ist, leicht verständlich ist.
1. Teada antud asutuste poolt VII lisa kohaselt välja antavad sertifikaadid koostatakse keeles, mis on teada antud asutuse asutamisliikmesriigi asjaomastele asutustele kergesti arusaadav.
(2) Die Bescheinigungen sind für die darin genannte Dauer gültig, die maximal fünf Jahre für unter Anhang I fallende KI-Systeme und maximal vier Jahre für unter Anhang III fallende KI-Systeme beträgt. Auf Antrag des Anbieters kann die Gültigkeit einer Bescheinigung auf der Grundlage einer Neubewertung gemäß den geltenden Konformitätsbewertungsverfahren um weitere Zeiträume von jeweils höchstens fünf Jahren für unter Anhang I fallende KI-Systeme und höchstens vier Jahre für unter Anhang III fallende KI-Systeme verlängert werden. Eine Ergänzung zu einer Bescheinigung bleibt gültig, sofern die Bescheinigung, zu der sie gehört, gültig ist.
2. Sertifikaadid kehtivad nende märgitud ajavahemiku jooksul, mis ei ületa I lisaga hõlmatud tehisintellektisüsteemide puhul viit aastat ja III lisaga hõlmatud tehisintellektisüsteemide puhul nelja aastat. Pakkuja taotlusel võib sertifikaadi kehtivust pikendada korraga mitte rohkem kui viie aasta kaupa I lisaga hõlmatud tehisintellektisüsteemide puhul ja nelja aasta kaupa III lisaga hõlmatud tehisintellektisüsteemide puhul, võttes aluseks kohaldatavate vastavushindamismenetluste kohaselt tehtava uue hindamise. Sertifikaadi mis tahes lisad on kehtivad eeldusel, et sertifikaat kehtib.
(3) Stellt eine notifizierte Stelle fest, dass ein KI-System die in Abschnitt 2 festgelegten Anforderungen nicht mehr erfüllt, so setzt sie die ausgestellte Bescheinigung aus, widerruft sie oder schränkt sie ein, jeweils unter Berücksichtigung des Grundsatzes der Verhältnismäßigkeit, sofern die Einhaltung der Anforderungen nicht durch geeignete Korrekturmaßnahmen des Anbieters des Systems innerhalb einer von der notifizierten Stelle gesetzten angemessenen Frist wiederhergestellt wird. Die notifizierte Stelle begründet ihre Entscheidung.
3. Kui teada antud asutus leiab, et tehisintellektisüsteem ei vasta enam 2. jaos sätestatud nõuetele, peatab ta väljastatud sertifikaadi, tunnistab selle kehtetuks või kehtestab selle suhtes piirangud, võttes seejuures arvesse proportsionaalsuse põhimõtet, välja arvatud juhul, kui nimetatud nõuete täitmine tagatakse sellega, et süsteemi pakkuja võtab teada antud asutuse määratud asjakohase tähtaja jooksul asjakohaseid parandusmeetmeid. Teada antud asutus põhjendab oma otsust.
Es muss ein Einspruchsverfahren gegen die Entscheidungen der notifizierten Stellen, auch solche über ausgestellte Konformitätsbescheinigungen, vorgesehen sein.
Teada antud asutuse otsuste, sealhulgas välja antud vastavussertifikaate käsitlevate otsuste vaidlustamiseks nähakse ette edasikaebamise kord.
Ausnahme vom Konformitätsbewertungsverfahren
Erand vastavushindamismenetlusest
(1) Abweichend von Artikel 43 und auf ein hinreichend begründetes Ersuchen kann eine Marktüberwachungsbehörde das Inverkehrbringen oder die Inbetriebnahme bestimmter Hochrisiko-KI-Systeme im Hoheitsgebiet des betreffenden Mitgliedstaats aus außergewöhnlichen Gründen der öffentlichen Sicherheit, des Schutzes des Lebens und der Gesundheit von Personen, des Umweltschutzes oder des Schutzes wichtiger Industrie- und Infrastrukturanlagen genehmigen. Diese Genehmigung wird auf die Dauer der erforderlichen Konformitätsbewertungsverfahren befristet, wobei den außergewöhnlichen Gründen für die Ausnahme Rechnung getragen wird. Der Abschluss dieser Verfahren erfolgt unverzüglich.
1. Erandina artiklist 43 ja põhjendatud taotluse korral võib mis tahes turujärelevalveasutus anda loa lasta asjaomase liikmesriigi territooriumil turule või võtta kasutusele konkreetne suure riskiga tehisintellektisüsteem, kui selleks on erandkorras põhjust avaliku julgeoleku või inimeste elu ja tervise kaitse, keskkonnakaitse või oluliste tööstus- ja taristuvarade kaitse tõttu. Selline luba antakse piiratud ajavahemikuks, kuni toimuvad vajalikud vastavushindamismenetlused, võttes arvesse erandi aluseks olevaid erandlikke põhjuseid. Need menetlused viiakse lõpule põhjendamatu viivituseta.
(2) In hinreichend begründeten dringenden Fällen aus außergewöhnlichen Gründen der öffentlichen Sicherheit oder in Fällen einer konkreten, erheblichen und unmittelbaren Gefahr für das Leben oder die körperliche Unversehrtheit natürlicher Personen können Strafverfolgungsbehörden oder Katastrophenschutzbehörden ein bestimmtes Hochrisiko-KI-System ohne die in Absatz 1 genannte Genehmigung in Betrieb nehmen, sofern diese Genehmigung während der Verwendung oder im Anschluss daran unverzüglich beantragt wird. Falls die Genehmigung gemäß Absatz 1 abgelehnt wird, wird Verwendung des Hochrisiko-KI-Systems mit sofortiger Wirkung eingestellt und sämtliche Ergebnisse und Ausgaben dieser Verwendung werden unverzüglich verworfen.
2. Põhjendatud hädaolukorras avaliku julgeoleku erandlikel põhjustel või konkreetse, olulise ja vahetu ohu korral füüsiliste isikute elule või füüsilisele turvalisusele võivad õiguskaitseasutused või elanikkonnakaitse asutused võtta kasutusele konkreetse suure riskiga tehisintellektisüsteemi ilma lõikes 1 nimetatud loata tingimusel, et sellist luba taotletakse kasutamise ajal või pärast seda ilma põhjendamatu viivituseta. Kui lõikes 1 osutatud luba lükatakse tagasi, peatatakse suure riskiga tehisintellektisüsteemi kasutamine viivitamatult ning kõik sellise kasutamise tulemused ja väljundid jäetakse viivitamata kõrvale.
(3) Die in Absatz 1 genannte Genehmigung wird nur erteilt, wenn die Marktüberwachungsbehörde zu dem Schluss gelangt, dass das Hochrisiko-KI-System die Anforderungen des Abschnitts 2 erfüllt. Die Marktüberwachungsbehörde informiert die Kommission und die anderen Mitgliedstaaten über alle von ihr gemäß den Absätzen 1 und 2 erteilten Genehmigungen. Diese Pflicht erstreckt sich nicht auf sensible operative Daten zu den Tätigkeiten von Strafverfolgungsbehörden.
3. Lõikes 1 osutatud luba antakse üksnes juhul, kui turujärelevalveasutus järeldab, et suure riskiga tehisintellektisüsteem vastab 2. jao nõuetele. Turujärelevalveasutus teavitab komisjoni ja teisi liikmesriike kõigist lõigete 1 ja 2 kohaselt antud lubadest. See kohustus ei hõlma õiguskaitseasutuste tegevusega seotud tundlikke operatiivandmeid.
(4) Erhebt weder ein Mitgliedstaat noch die Kommission innerhalb von 15 Kalendertagen nach Erhalt der in Absatz 3 genannten Mitteilung Einwände gegen die von einer Marktüberwachungsbehörde eines Mitgliedstaats gemäß Absatz 1 erteilte Genehmigung, so gilt diese Genehmigung als gerechtfertigt.
4. Kui ükski liikmesriik ega komisjon ei ole esitanud vastuväiteid liikmesriigi turujärelevalveasutuse lõike 1 kohaselt välja antud loa kohta 15 kalendripäeva jooksul alates lõikes 3 osutatud teabe kättesaamisest, loetakse luba põhjendatuks.
(5) Erhebt innerhalb von 15 Kalendertagen nach Erhalt der in Absatz 3 genannten Mitteilung ein Mitgliedstaat Einwände gegen eine von einer Marktüberwachungsbehörde eines anderen Mitgliedstaats erteilte Genehmigung oder ist die Kommission der Auffassung, dass die Genehmigung mit dem Unionsrecht unvereinbar ist oder dass die Schlussfolgerung der Mitgliedstaaten in Bezug auf die Konformität des in Absatz 3 genannten Systems unbegründet ist, so nimmt die Kommission unverzüglich Konsultationen mit dem betreffenden Mitgliedstaat auf. Die betroffenen Akteure werden konsultiert und erhalten Gelegenheit, dazu Stellung zu nehmen. In Anbetracht dessen entscheidet die Kommission, ob die Genehmigung gerechtfertigt ist. Die Kommission richtet ihren Beschluss an den betroffenen Mitgliedstaat und an die betroffenen Akteure.
5. Kui 15 kalendripäeva jooksul alates lõikes 3 osutatud teabe kättesaamisest esitab mõni liikmesriik vastuväiteid mõne teise liikmesriigi turujärelevalveasutuse välja antud loa kohta või kui komisjon leiab, et luba on vastuolus liidu õigusega või et lõikes 3 osutatud liikmesriikide järeldus süsteemi vastavuse kohta ei ole põhjendatud, alustab komisjon viivitamata konsultatsioone asjaomase liikmesriigiga. Konsulteeritakse asjaomaste operaatoritega ning neil on võimalus esitada oma seisukohad. Komisjon otsustab seda arvesse võttes, kas luba on põhjendatud. Komisjon adresseerib oma otsuse asjaomasele liikmesriigile ning asjaomastele operaatoritele.
(6) Wird die Genehmigung von der Kommission als ungerechtfertigt erachtet, so muss sie von der Marktüberwachungsbehörde des betreffenden Mitgliedstaats zurückgenommen werden.
6. Kui komisjon leiab, et luba on põhjendamata, tunnistab asjaomase liikmesriigi turujärelevalveasutus selle kehtetuks.
(7) Für Hochrisiko-KI-Systeme im Zusammenhang mit Produkten, die unter die in Anhang I Abschnitt A aufgeführten Harmonisierungsrechtsvorschriften der Union fallen, gelten nur die in diesen Harmonisierungsrechtsvorschriften der Union festgelegten Ausnahmen von den Konformitätsbewertungsverfahren.
7. Suure riskiga tehisintellektisüsteemide suhtes, mis on seotud I lisa A jaos loetletud liidu ühtlustamisõigusaktidega hõlmatud toodetega, kohaldatakse üksnes kõnealustes liidu ühtlustamisõigusaktides sätestatud erandeid vastavushindamisest.
ELi vastavusdeklaratsioon
(1) Der Anbieter stellt für jedes Hochrisiko-KI-System eine schriftliche maschinenlesbare, physische oder elektronisch unterzeichnete EU-Konformitätserklärung aus und hält sie für einen Zeitraum von 10 Jahren ab dem Inverkehrbringen oder der Inbetriebnahme des Hochrisiko-KI-Systems für die zuständigen nationalen Behörden bereit. Aus der EU-Konformitätserklärung geht hervor, für welches Hochrisiko-KI-System sie ausgestellt wurde. Eine Kopie der EU-Konformitätserklärung wird den zuständigen nationalen Behörden auf Anfrage übermittelt.
1. Pakkuja koostab iga suure riskiga tehisintellektisüsteemi kohta kirjaliku masinloetava, füüsiliselt või e-allkirjastatud ELi vastavusdeklaratsiooni ja säilitab seda riigi pädevate asutuste jaoks kättesaadavana vähemalt kümne aasta jooksul pärast suure riskiga tehisintellektisüsteemi turule laskmist või kasutusele võtmist. ELi vastavusdeklaratsioonis nimetatakse, millise suure riskiga tehisintellektisüsteemi kohta see on koostatud. Taotluse korral esitatakse ELi vastavusdeklaratsiooni koopia riigi asjaomastele pädevatele asutustele.
(2) Die EU-Konformitätserklärung muss feststellen, dass das betreffende Hochrisiko-KI-System die in Abschnitt 2 festgelegten Anforderungen erfüllt. Die EU-Konformitätserklärung enthält die in Anhang V festgelegten Informationen und wird in eine Sprache übersetzt, die für die zuständigen nationalen Behörden der Mitgliedstaaten, in denen das Hochrisiko-KI-System in Verkehr gebracht oder bereitgestellt wird, leicht verständlich ist.
2. ELi vastavusdeklaratsioonis kinnitatakse, et kõnealune suure riskiga tehisintellektisüsteem vastab 2. jaos sätestatud nõuetele. ELi vastavusdeklaratsioon sisaldab V lisas sätestatud teavet ning see tõlgitakse keelde, mis on kergesti arusaadav nende liikmesriikide pädevatele asutustele, kus suure riskiga tehisintellektisüsteem turule lastakse või kättesaadavaks tehakse.
(3) Unterliegen Hochrisiko-KI-Systeme anderen Harmonisierungsrechtsvorschriften der Union, die ebenfalls eine EU-Konformitätserklärung vorschreiben, so wird eine einzige EU-Konformitätserklärung ausgestellt, die sich auf alle für das Hochrisiko-KI-System geltenden Rechtsvorschriften der Union bezieht. Die Erklärung enthält alle erforderlichen Informationen zur Feststellung der Harmonisierungsrechtsvorschriften der Union, auf die sich die Erklärung bezieht.
3. Kui suure riskiga tehisintellektisüsteemide suhtes kohaldatakse muid liidu ühtlustamisõigusakte, mille kohaselt on samuti nõutav ELi vastavusdeklaratsioon, koostatakse kõigi suure riskiga tehisintellektisüsteemi suhtes kohaldatava liidu õiguse jaoks üks ainus ELi vastavusdeklaratsioon. Vastavusdeklaratsioon sisaldab kogu teavet, mida on vaja deklaratsiooniga seotud liidu ühtlustamisõigusaktide kindlakstegemiseks.
(4) Mit der Ausstellung der EU-Konformitätserklärung übernimmt der Anbieter die Verantwortung für die Erfüllung der in Abschnitt 2 festgelegten Anforderungen. Der Anbieter hält die EU-Konformitätserklärung gegebenenfalls auf dem neuesten Stand.
4. ELi vastavusdeklaratsiooni koostamisega võtab pakkuja vastutuse 2. jaos sätestatud nõuete täitmise eest. Pakkuja ajakohastab ELi vastavusdeklaratsiooni vastavalt vajadusele.
(5) Der Kommission ist befugt, gemäß Artikel 97 delegierte Rechtsakte zur Aktualisierung des in Anhang V festgelegten Inhalts der EU-Konformitätserklärung zu erlassen, um den genannten Anhang durch die Einführung von Elementen zu ändern, die angesichts des technischen Fortschritts erforderlich werden.
5. Komisjonil on õigus võtta kooskõlas artikliga 97 vastu delegeeritud õigusaktid, et muuta V lisa, ajakohastades selles lisas esitatud ELi vastavusdeklaratsiooni sisu, et lisada sinna elemente, mis muutuvad vajalikuks tulenevalt tehnika arengust.
(1) Für die CE-Kennzeichnung gelten die in Artikel 30 der Verordnung (EG) Nr. 765/2008 festgelegten allgemeinen Grundsätze.
1. CE-märgise suhtes kohaldatakse määruse (EÜ) nr 765/2008 artiklis 30 sätestatud üldpõhimõtteid.
(2) Bei digital bereitgestellten Hochrisiko-KI-Systemen wird eine digitale CE-Kennzeichnung nur dann verwendet, wenn sie über die Schnittstelle, von der aus auf dieses System zugegriffen wird, oder über einen leicht zugänglichen maschinenlesbaren Code oder andere elektronische Mittel leicht zugänglich ist.
2. Digitaalselt pakutavate suure riskiga tehisintellektisüsteemide puhul kasutatakse digitaalset CE-märgist üksnes juhul, kui sellele on lihtne juurde pääseda liidese abil, mille kaudu kõnealusele süsteemile juurde pääsetakse, või kergesti juurdepääsetava masinloetava koodi või muude elektrooniliste vahendite kaudu.
(3) Die CE-Kennzeichnung wird gut sichtbar, leserlich und dauerhaft an Hochrisiko-KI-Systemen angebracht. Falls die Art des Hochrisiko-KI-Systems dies nicht zulässt oder nicht rechtfertigt, wird sie auf der Verpackung bzw. der beigefügten Dokumentation angebracht.
3. CE-märgis kinnitatakse suure riskiga tehisintellektisüsteemile nähtaval, loetaval ja kustutamatul viisil. Kui see ei ole suure riskiga tehisintellektisüsteemi olemuse tõttu võimalik või otstarbekas, kinnitatakse märgis olenevalt asjaoludest kas pakendile või süsteemiga kaasas olevatele dokumentidele.
(4) Gegebenenfalls wird der CE-Kennzeichnung die Identifizierungsnummer der für die in Artikel 43 festgelegten Konformitätsbewertungsverfahren zuständigen notifizierten Stelle hinzugefügt. Die Identifizierungsnummer der notifizierten Stelle ist entweder von der Stelle selbst oder nach ihren Anweisungen durch den Anbieter oder den Bevollmächtigten des Anbieters anzubringen. Diese Identifizierungsnummer wird auch auf jeglichem Werbematerial angegeben, in dem darauf hingewiesen wird, dass das Hochrisiko-KI-System die Anforderungen für die CE-Kennzeichnung erfüllt.
4. Kui see on kohaldatav, järgneb CE-märgisele artiklis 43 sätestatud vastavushindamismenetluste eest vastutava teada antud asutuse identifitseerimisnumber. Teada antud asutuse identifitseerimisnumbri kinnitab kas asutus ise või tema juhiste järgi pakkuja või pakkuja volitatud esindaja. Identifitseerimisnumber esitatakse ka kõigis reklaammaterjalides, kus on öeldud, et suure riskiga tehisintellektisüsteem vastab CE-märgise nõuetele.
(5) Falls Hochrisiko-KI-Systeme ferner unter andere Rechtsvorschriften der Union fallen, in denen die CE-Kennzeichnung auch vorgesehen ist, bedeutet die CE-Kennzeichnung, dass das Hochrisiko-KI-System auch die Anforderungen dieser anderen Rechtsvorschriften erfüllt.
5. Kui suure riskiga tehisintellektisüsteemide suhtes kohaldatakse muud liidu õigust, mis näeb samuti ette CE-märgise kinnitamise, peab CE-märgis viitama sellele, et suure riskiga tehisintellektisüsteem vastab ka selle muu õiguse nõuetele.
(1) Vor dem Inverkehrbringen oder der Inbetriebnahme eines in Anhang III aufgeführten Hochrisiko-KI-Systems — mit Ausnahme der in Anhang III Nummer 2 genannten Hochrisiko-KI-Systeme — registriert der Anbieter oder gegebenenfalls sein Bevollmächtigter sich und sein System in der in Artikel 71 genannten EU-Datenbank.
1. Enne III lisas loetletud suure riskiga tehisintellektisüsteemi, välja arvatud III lisa punktis 2 osutatud suure riskiga tehisintellektisüsteemid, turule laskmist või kasutusele võtmist registreerib pakkuja või vajaduse korral volitatud esindaja ennast ja oma süsteemi artiklis 71 osutatud ELi andmebaasis.
(2) Vor dem Inverkehrbringen oder der Inbetriebnahme eines Hochrisiko-KI-Systems, bei dem der Anbieter zu dem Schluss gelangt ist, dass es nicht hochriskant gemäß Artikel 6 Absatz 3 ist, registriert dieser Anbieter oder gegebenenfalls sein Bevollmächtigter sich und dieses System in der in Artikel 71 genannten EU-Datenbank.
2. Enne sellise suure riskiga tehisintellektisüsteemi turule laskmist või kasutusele võtmist, mille kohta pakkuja on vastavalt artikli 6 lõikele 3 teinud otsuse, et tegemist ei ole suure riskiga süsteemiga, registreerib pakkuja või kohaldataval juhul volitatud esindaja selle süsteemi artiklis 71 osutatud ELi andmebaasis.
(3) Vor der Inbetriebnahme oder Verwendung eines in Anhang III aufgeführten Hochrisiko-KI-Systems — mit Ausnahme der in Anhang III Nummer 2 aufgeführten Hochrisiko-KI-Systeme — registrieren sich Betreiber, bei denen es sich um Behörden oder Organe, Einrichtungen oder sonstige Stellen der Union oder in ihrem Namen handelnde Personen handelt, in der in Artikel 71 genannten EU-Datenbank, wählen das System aus und registrieren es dort.
3. Enne III lisas loetletud suure riskiga tehisintellektisüsteemi kasutuselevõttu või kasutamist, välja arvatud III lisa punktis 2 loetletud suure riskiga tehisintellektisüsteemide puhul, registreerivad end juurutajad, kes on avaliku sektori asutused, liidu institutsioonid, organid, ametid või asutused või nende nimel tegutsevad isikud, valivad süsteemi ja registreerivad selle kasutamise artiklis 71 osutatud ELi andmebaasis.
(4) Bei den in Anhang III Nummern 1, 6 und 7 genannten Hochrisiko-KI-Systemen erfolgt in den Bereichen Strafverfolgung, Migration, Asyl und Grenzkontrolle die Registrierung gemäß den Absätzen 1, 2 und 3 des vorliegenden Artikels in einem sicheren nicht öffentlichen Teil der in Artikel 71 genannten EU-Datenbank und enthält, soweit zutreffend, lediglich die Informationen gemäß
4. III lisa punktides 1, 6 ja 7 osutatud suure riskiga tehisintellektisüsteemide puhul õiguskaitse, rände, varjupaiga ja piirikontrolli haldamise valdkonnas toimub käesoleva artikli lõigetes 1, 2 ja 3 osutatud registreerimine artiklis 71 osutatud ELi andmebaasi turvalises mitteavalikus osas ning sisaldab üksnes järgmist teavet, nagu on asjakohane:
a)
Anhang VIII Abschnitt A Nummern 1 bis 10 mit Ausnahme der Nummern 6, 8 und 9,
a)
VIII lisa A jao punktid 1–10, välja arvatud punktid 6, 8 ja 9;
b)
Anhang VIII Abschnitt B Nummern 1 bis 5 sowie Nummern 8 und 9,
b)
VIII lisa B jao punktid 1–5 ning punktid 8 ja 9;
c)
Anhang VIII Abschnitt C Nummern 1 bis 3,
c)
VIII lisa C jao punktid 1–3;
d)
Anhang IX Nummern 1, 2, 3 und Nummer 5.
d)
IX lisa punktid 1, 2, 3 ja 5.
Nur die Kommission und die in Artikel 74 Absatz 8 genannten nationalen Behörden haben Zugang zu den jeweiligen beschränkten Teilen der EU-Datenbank gemäß Unterabsatz 1 dieses Absatzes.
Ainult komisjonil ja artikli 74 lõikes 8 osutatud riiklikel asutustel on juurdepääs vastavatele käesoleva lõike esimeses lõigus loetletud ELi andmebaasi piiratud juurdepääsuga osadele.
(5) Die in Anhang III Nummer 2 genannten Hochrisiko-KI-Systeme werden auf nationaler Ebene registriert.
5. III lisa punktis 2 osutatud suure riskiga tehisintellektisüsteemid registreeritakse riiklikul tasandil.
Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme
Teatavate tehisintellektisüsteemide pakkujate ja juurutajate läbipaistvuskohustused
(1) Die Anbieter stellen sicher, dass KI-Systeme, die für die direkte Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren, es sei denn, dies ist aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten zugelassene KI-Systeme, wenn geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.
1. Pakkujad tagavad, et füüsiliste isikutega vahetult suhtlema mõeldud tehisintellektisüsteeme projekteeritakse ja arendatakse selliselt, et asjaomastele füüsilistele isikutele antakse teada, et nad suhtlevad tehisintellektisüsteemiga, välja arvatud juhul, kui see on piisavalt informeeritud, tähelepaneliku ja aruka füüsilise isiku jaoks ilmne, võttes arvesse asjaolusid ja kasutamise konteksti. See kohustus ei kehti tehisintellektisüsteemide suhtes, mida on seadusega lubatud kasutada kuritegude avastamiseks, tõkestamiseks ja uurimiseks või nende eest vastutusele võtmiseks, tingimusel et kolmandate isikute õiguste ja vabaduste kaitseks kohaldatakse asjakohaseid kaitsemeetmeid, välja arvatud juhul, kui sellised süsteemid on üldsusele kättesaadavad, et kuritegudest teatada.
(2) Anbieter von KI-Systemen, einschließlich KI-Systemen mit allgemeinem Verwendungszweck, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, stellen sicher, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind. Die Anbieter sorgen dafür, dass — soweit technisch möglich — ihre technischen Lösungen wirksam, interoperabel, belastbar und zuverlässig sind und berücksichtigen dabei die Besonderheiten und Beschränkungen der verschiedenen Arten von Inhalten, die Umsetzungskosten und den allgemein anerkannten Stand der Technik, wie er in den einschlägigen technischen Normen zum Ausdruck kommen kann. Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern oder wenn sie zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen sind.
2. Tehisintellektisüsteemide, sealhulgas üldotstarbeliste tehisintellektisüsteemide pakkujad, kes loovad sünteetilist audio-, pildi-, video- või tekstisisu, tagavad, et tehisintellektisüsteemi väljundid on märgitud masinloetavas vormingus ja tuvastatavad kui kunstlikult loodud või manipuleeritud. Pakkujad tagavad, et nende tehnilised lahendused on tõhusad, koostalitlusvõimelised, töökindlad ja usaldusväärsed, niivõrd kui see on tehniliselt teostatav, võttes arvesse eri liiki sisu eripära ja piiranguid, rakendamise kulusid ja tehnika üldtunnustatud taset, mis võib olla kajastatud asjakohastes tehnilistes standardites. Seda kohustust ei kohaldata, kui tehisintellektisüsteemid täidavad standardse redigeerimise abifunktsiooni või ei muuda oluliselt juurutaja esitatud sisendandmeid või nende semantikat või kui see on seadusega lubatud kuritegude avastamiseks, tõkestamiseks, uurimiseks või nende eest vastutusele võtmiseks.
(3) Die Betreiber eines Emotionserkennungssystems oder eines Systems zur biometrischen Kategorisierung informieren die davon betroffenen natürlichen Personen über den Betrieb des Systems und verarbeiten personenbezogene Daten gemäß den Verordnungen (EU) 2016/679 und (EU) 2018/1725 und der Richtlinie (EU) 2016/680. Diese Pflicht gilt nicht für gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung im Einklang mit dem Unionsrecht verwendet werden, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.
3. Emotsioonituvastussüsteemi või biomeetrilise liigitamise süsteemi juurutajad annavad süsteemi tööst teada füüsilistele isikutele, kes selle süsteemiga kokku puutuvad, ning töötlevad vajaduse korral isikuandmeid kooskõlas määrustega (EL) 2016/679 ja (EL) 2018/1725 ning direktiiviga (EL) 2016/680. Seda kohustust ei kohaldata biomeetriliseks liigitamiseks ja emotsioonide tuvastamiseks kasutatavate tehisintellektisüsteemide suhtes, mida on seadusega lubatud kasutada kuritegude avastamiseks, tõkestamiseks või uurimiseks, tingimusel et kolmandate isikute õiguste ja vabaduste kaitseks kohaldatakse asjakohaseid kaitsemeetmeid ja kooskõlas liidu õigusega.
(4) Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein Deepfake sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die in diesem Absatz festgelegten Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.
4. Sellise tehisintellektisüsteemi juurutajad, mis loob või manipuleerib pildi-, audio- või videosisu, mis kujutab endast süvavõltsingut, avalikustavad, et sisu on kunstlikult loodud või manipuleeritud. Seda kohustust ei kohaldata, kui kasutamine on seadusega lubatud kuritegude avastamiseks, tõkestamiseks, uurimiseks või nende eest vastutusele võtmiseks. Kui sisu moodustab osa ilmselgelt kunstilisest, loomingulisest, satiirilisest, väljamõeldud või samalaadsest teosest või programmist, piirduvad käesolevas lõikes sätestatud läbipaistvuskohustused sellise loodud või manipuleeritud sisu olemasolu avalikustamisega asjakohasel viisil, mis ei takista teose kuvamist või kasutamist.
Betreiber eines KI-Systems, das Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde. Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist oder wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.
Sellise tehisintellektisüsteemi juurutajad, mis loob või manipuleerib teksti, mis avaldatakse eesmärgiga teavitada üldsust avalikku huvi pakkuvatest küsimustest, avalikustavad, et tekst on kunstlikult loodud või manipuleeritud. Seda kohustust ei kohaldata, kui kasutamine on seadusega lubatud kuritegude avastamiseks, tõkestamiseks, uurimiseks või nende eest vastutusele võtmiseks või kui tehisintellekti loodud sisu on läbinud inimkontrolli või toimetuskontrolli ning kui sisu avaldamise eest kannab toimetuslikku vastutust füüsiline või juriidiline isik.
(5) Die in den Absätzen 1 bis 4 genannten Informationen werden den betreffenden natürlichen Personen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt. Die Informationen müssen den geltenden Barrierefreiheitsanforderungen entsprechen.
5. Lõigetes 1–4 osutatud teave esitatakse asjaomastele füüsilistele isikutele selgel ja eristataval viisil hiljemalt esimese suhtlemise või kokkupuute ajal. Teave peab vastama kohaldatavatele ligipääsetavusnõuetele.
(6) Die Absätze 1 bis 4 lassen die in Kapitel III festgelegten Anforderungen und Pflichten unberührt und berühren nicht andere Transparenzpflichten, die im Unionsrecht oder dem nationalen Recht für Betreiber von KI-Systemen festgelegt sind.
6. Lõiked 1–4 ei mõjuta III peatükis sätestatud nõudeid ja kohustusi ega piira muude liidu või riigisiseses õiguses tehisintellektisüsteemide juurutajatele sätestatud läbipaistvuskohustuste kohaldamist.
(7) Das Büro für Künstliche Intelligenz fördert und erleichtert die Ausarbeitung von Praxisleitfäden auf Unionsebene, um die wirksame Umsetzung der Pflichten in Bezug auf die Feststellung und Kennzeichnung künstlich erzeugter oder manipulierter Inhalte zu erleichtern. Die Kommission kann Durchführungsrechtsakte zur Genehmigung dieser Praxisleitfäden nach dem in Artikel 56 Absatz 6 festgelegten Verfahren erlassen. Hält sie einen Kodex für nicht angemessen, so kann die Kommission einen Durchführungsrechtsakt gemäß dem in Artikel 98 Absatz 2 genannten Prüfverfahren erlassen, in dem gemeinsame Vorschriften für die Umsetzung dieser Pflichten festgelegt werden.
7. Tehisintellektiamet julgustab ja hõlbustab tegevusjuhendite koostamist liidu tasandil, et lihtsustada kunstlikult loodud või manipuleeritud sisu avastamise ja märgistamisega seotud kohustuste tõhusat rakendamist. Komisjonil võib võtta vastu rakendusakte kõnealuste tegevusjuhendite heakskiitmiseks artikli 56 lõikes 6 sätestatud korras. Kui komisjon leiab, et juhend ei ole piisav, võib ta kooskõlas artikli 98 lõikes 2 sätestatud kontrollimenetlusega võtta vastu rakendusakti, milles määratakse kindlaks ühised õigusnormid kõnealuste kohustuste rakendamiseks.
(1) Erfüllt ein KI-Modell mit allgemeinem Verwendungszweck die Bedingung gemäß Artikel 51 Absatz 1 Buchstabe a, so teilt der betreffende Anbieter dies der Kommission unverzüglich, in jedem Fall jedoch innerhalb von zwei Wochen, nachdem diese Bedingung erfüllt ist oder bekannt wird, dass sie erfüllt wird, mit. Diese Mitteilung muss die Informationen enthalten, die erforderlich sind, um nachzuweisen, dass die betreffende Bedingung erfüllt ist. Erlangt die Kommission Kenntnis von einem KI-Modell mit allgemeinem Verwendungszweck, das systemische Risiken birgt, die ihr nicht mitgeteilt wurden, so kann sie entscheiden, es als Modell mit systemischen Risiken auszuweisen.
1. Kui üldotstarbeline tehisintellektimudel vastab artikli 51 lõike 1 punktis a osutatud tingimusele, teavitab asjaomane pakkuja sellest komisjoni viivitamata ja igal juhul kahe nädala jooksul pärast selle nõude täitmist või teadasaamist, et nõue täidetakse. Kõnealune teade sisaldab teavet, mis on vajalik tõendamaks, et asjaomane nõue on täidetud. Kui komisjon saab teada üldotstarbelisest tehisintellektimudelist, millega kaasnevad süsteemsed riskid, millest teda ei ole teavitatud, võib ta otsustada liigitada selle süsteemse riskiga mudeliks.
(2) Der Anbieter eines KI-Modells mit allgemeinem Verwendungszweck, das die in Artikel 51 Absatz 1 Buchstabe a genannte Bedingung erfüllt, kann in seiner Mitteilung hinreichend begründete Argumente vorbringen, um nachzuweisen, dass das KI-Modell mit allgemeinem Verwendungszweck, obwohl es diese Bedingung erfüllt, aufgrund seiner besonderen Merkmale außerordentlicherweise keine systemischen Risiken birgt und daher nicht als KI-Modell mit allgemeinem Verwendungszweck mit systemischem Risiko eingestuft werden sollte.
2. Artikli 51 lõike 1 punktis a osutatud nõudele vastava üldotstarbelise tehisintellektimudeli pakkuja võib koos teatega esitada piisavalt põhjendatud väited tõendamaks, et kuigi üldotstarbeline tehisintellektimudel vastab sellele nõudele, ei kujuta see erandkorras oma erijoonte tõttu süsteemseid riske ja seetõttu ei tuleks see klassifitseerida süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks.
(3) Gelangt die Kommission zu dem Schluss, dass die gemäß Absatz 2 vorgebrachten Argumente nicht hinreichend begründet sind, und konnte der betreffende Anbieter nicht nachweisen, dass das KI-Modell mit allgemeinem Verwendungszweck aufgrund seiner besonderen Merkmale keine systemischen Risiken aufweist, weist sie diese Argumente zurück, und das KI-Modell mit allgemeinem Verwendungszweck gilt als KI-Modell mit allgemeiner Zweckbestimmung mit systemischem Risiko.
3. Kui komisjon jõuab järeldusele, et lõike 2 kohaselt esitatud väited ei ole piisavalt põhjendatud ja asjaomane pakkuja ei suutnud tõendada, et üldotstarbeline tehisintellektimudel ei kujuta oma erijoonte tõttu süsteemseid riske, lükkab ta need väited tagasi ja üldotstarbelist tehisintellektimudelit käsitatakse süsteemse riskiga üldotstarbelise tehisintellektimudelina.
(4) Die Kommission kann ein KI-Modell mit allgemeinem Verwendungszweck von Amts wegen oder aufgrund einer qualifizierten Warnung des wissenschaftlichen Gremiums gemäß Artikel 90 Absatz 1 Buchstabe a auf der Grundlage der in Anhang XIII festgelegten Kriterien als KI-Modell mit systemischen Risiken ausweisen.
4. Komisjon võib liigitada üldotstarbelise tehisintellektimudeli süsteemseid riske kujutavaks mudeliks ex officio või pärast teaduskomisjonilt artikli 90 lõike 1 punkti a kohase kvalifitseeritud hoiatusteate saamist, põhinedes XIII lisas sätestatud kriteeriumidele.
Die Kommission ist befugt, gemäß Artikel 97 delegierte Rechtsakte zu erlassen, um Anhang XIII zu ändern, indem die in dem genannten Anhang genannten Indikatoren präzisiert und aktualisiert werden.
Komisjonil on õigus võtta kooskõlas artikliga 97 vastu delegeeritud õigusakte, et muuta XIII lisa, täpsustades ja ajakohastades selles lisas esitatud kriteeriume.
(5) Stellt der Anbieter, dessen Modell gemäß Absatz 4 als KI-Modell mit allgemeinem Verwendungszweck mit systemischem Risiko ausgewiesen wurde, einen entsprechenden Antrag, berücksichtigt die Kommission den Antrag und kann entscheiden, erneut zu prüfen, ob beim KI-Modell mit allgemeinem Verwendungszweck auf der Grundlage der in Anhang XIII festgelegten Kriterien immer noch davon ausgegangen werden kann, dass es systemische Risiken aufweist. Dieser Antrag muss objektive, detaillierte und neue Gründe enthalten, die sich seit der Entscheidung zur Ausweisung ergeben haben. Die Anbieter können frühestens sechs Monate nach der Entscheidung zur Ausweisung eine Neubewertung beantragen. Entscheidet die Kommission nach ihrer Neubewertung, die Ausweisung als KI-Modell mit allgemeiner Zweckbestimmung mit systemischem Risiko beizubehalten, können die Anbieter frühestens sechs Monate nach dieser Entscheidung eine Neubewertung beantragen.
5. Pakkuja, kelle mudel on liigitatud artikli 4 kohaselt süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks, põhjendatud taotluse korral võtab komisjon taotlust arvesse ja võib otsustada uuesti hinnata, kas seda üldotstarbelist tehisintellektimudelit saab siiski pidada süsteemseid riske kujutavaks mudeliks, põhinedes XIII lisas toodud kriteeriumidele. Selline taotlus peab sisaldama objektiivseid, üksikasjalikke ja uusi põhjuseid, mis on esile kerkinud pärast liigitamisotsust. Pakkujad võivad taotleda uut hindamist kõige varem kuus kuud pärast liigitamisotsuse tegemist. Kui komisjon otsustab pärast uuesti hindamist säilitada mudeli liigitamise süsteemse riskiga üldotstarbeliseks tehisintellektimudeliks, võivad pakkujad taotleda uuesti hindamist kõige varem kuus kuud pärast kõnealuse otsuse tegemist.
(6) Die Kommission stellt sicher, dass eine Liste von KI-Modellen mit allgemeinem Verwendungszweck mit systemischem Risiko veröffentlicht wird, und hält diese Liste unbeschadet der Notwendigkeit, Rechte des geistigen Eigentums und vertrauliche Geschäftsinformationen oder Geschäftsgeheimnisse im Einklang mit dem Unionsrecht und dem nationalen Recht zu achten und zu schützen, auf dem neuesten Stand.
6. Komisjon tagab süsteemse riskiga üldotstarbeliste tehisintellektimudelite loetelu avaldamise ja ajakohastab seda, ilma et see piiraks vajadust järgida ja kaitsta intellektuaalomandi õigusi ja konfidentsiaalset äriteavet või ärisaladusi kooskõlas liidu ja riigisisese õigusega.
Pflichten für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck
Üldotstarbeliste tehisintellektimudelite pakkujate kohustused
(1) Anbieter von KI-Modellen mit allgemeinem Verwendungszweck
1. Üldotstarbeliste tehisintellektimudelite pakkujad:
a)
erstellen und aktualisieren die technische Dokumentation des Modells, einschließlich seines Trainings- und Testverfahrens und der Ergebnisse seiner Bewertung, die mindestens die in Anhang XI aufgeführten Informationen enthält, damit sie dem Büro für Künstliche Intelligenz und den zuständigen nationalen Behörden auf Anfrage zur Verfügung gestellt werden kann;
a)
koostavad mudeli tehnilise dokumentatsiooni, sealhulgas selle treenimis- ja testimisprotsessi ning hindamistulemuste kohta, mis sisaldab vähemalt XI lisas sätestatud teavet, et esitada see taotluse korral tehisintellektiametile ja riigi pädevatele asutustele, ning ajakohastavad seda;
b)
erstellen und aktualisieren Informationen und die Dokumentation und stellen sie Anbietern von KI-Systemen zur Verfügung, die beabsichtigen, das KI-Modell mit allgemeinem Verwendungszweck in ihre KI-Systeme zu integrieren. Unbeschadet der Notwendigkeit, die Rechte des geistigen Eigentums und vertrauliche Geschäftsinformationen oder Geschäftsgeheimnisse im Einklang mit dem Unionsrecht und dem nationalen Recht zu achten und zu schützen, müssen die Informationen und die Dokumentation
b)
koostavad teabe ja dokumentatsiooni ning teevad selle kättesaadavaks tehisintellektisüsteemide pakkujatele, kes kavatsevad integreerida üldotstarbelise tehisintellektimudeli oma tehisintellektisüsteemidesse, ning ajakohastavad seda. Ilma et see piiraks vajadust jälgida ja kaitsta intellektuaalomandi õigusi ja konfidentsiaalset äriteavet või ärisaladusi kooskõlas liidu ja riigisisese õigusega, peab teave ja dokumentatsioon:
i)
die Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und Grenzen des KI-Modells mit allgemeinem Verwendungszweck gut zu verstehen und ihren Pflichten gemäß dieser Verordnung nachzukommen, und
i)
võimaldama tehisintellektisüsteemide pakkujatel saada hea ülevaate üldotstarbelise tehisintellektimudeli võimetest ja piiridest ning täita oma käesolevast määrusest tulenevaid kohustusi, ning
ii)
zumindest die in Anhang XII genannten Elemente enthalten;
ii)
sisaldama vähemalt XII lisas loetletud elemente;
c)
bringen eine Strategie zur Einhaltung des Urheberrechts der Union und damit zusammenhängender Rechte und insbesondere zur Ermittlung und Einhaltung eines gemäß Artikel 4 Absatz 3 der Richtlinie (EU) 2019/790 geltend gemachten Rechtsvorbehalts, auch durch modernste Technologien, auf den Weg;
c)
kehtestavad põhimõtted, et järgida autoriõiguse alast liidu õigust ja seotud õigusi ning eelkõige tuvastada ja järgida, sealhulgas tipptasemel tehnoloogia abil, direktiivi (EL) 2019/790 artikli 4 lõike 3 kohaselt väljendatud õiguste piiramist;
d)
erstellen und veröffentlichen eine hinreichend detaillierte Zusammenfassung der für das Training des KI-Modells mit allgemeinem Verwendungszweck verwendeten Inhalte nach einer vom Büro für Künstliche Intelligenz bereitgestellten Vorlage.
d)
koostavad ja teevad üldsusele kättesaadavaks piisavalt üksikasjaliku kokkuvõtte üldotstarbelise tehisintellektimudeli treenimiseks kasutatud sisu kohta vastavalt tehisintellektiameti esitatud vormile.
(2) Die Pflichten gemäß Absatz 1 Buchstaben a und b gelten nicht für Anbieter von KI-Modellen, die im Rahmen einer freien und quelloffenen Lizenz bereitgestellt werden, die den Zugang, die Nutzung, die Änderung und die Verbreitung des Modells ermöglicht und deren Parameter, einschließlich Gewichte, Informationen über die Modellarchitektur und Informationen über die Modellnutzung, öffentlich zugänglich gemacht werden. Diese Ausnahme gilt nicht für KI-Modellen mit allgemeinem Verwendungszweck mit systemischen Risiken.
2. Lõike 1 punktides a ja b sätestatud kohustusi ei kohaldata selliste tehisintellektimudelite pakkujate suhtes, mis lubatakse tarbimisse vaba ja avatud lähtekoodi litsentsi alusel, mis võimaldab mudelile juurdepääsu, selle kasutamist, muutmist ja turustamist, ning mille parameetrid, sealhulgas kaalud, teave mudeliarhitektuuri kohta ja teave mudeli kasutamise kohta, tehakse üldsusele kättesaadavaks. Seda erandit ei kohaldata süsteemse riskiga üldotstarbeliste tehisintellektimudelite suhtes.
(3) Anbieter von KI-Modellen mit allgemeinem Verwendungszweck arbeiten bei der Ausübung ihrer Zuständigkeiten und Befugnisse gemäß dieser Verordnung erforderlichenfalls mit der Kommission und den zuständigen nationalen Behörden zusammen.
3. Üldotstarbeliste tehisintellektimudelite pakkujad teevad käesolevast määrusest tulenevate pädevuste ja volituste kasutamisel vajaduse korral koostööd komisjoni ja riigi pädevate asutustega.
(4) Anbieter von KI-Modellen mit allgemeinem Verwendungszweck können sich bis zur Veröffentlichung einer harmonisierten Norm auf Praxisleitfäden im Sinne des Artikels 56 stützen, um die Einhaltung der in Absatz 1 des vorliegenden Artikels genannten Pflichten nachzuweisen. Die Einhaltung der harmonisierten europäischen Norm begründet für die Anbieter die Vermutung der Konformität, insoweit diese Normen diese Verpflichtungen abdecken. Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, die keinen genehmigten Praxisleitfaden befolgen oder eine harmonisierte europäische Norm nicht einhalten, müssen geeignete alternative Verfahren der Einhaltung aufzeigen, die von der Kommission zu bewerten sind.
4. Üldotstarbeliste tehisintellektimudelite pakkujad võivad kuni harmoneeritud standardi avaldamiseni tugineda tegevusjuhenditele artikli 56 tähenduses, et tõendada käesoleva artikli lõikes 1 sätestatud kohustuste täitmist. Euroopa harmoneeritud standardi järgimine tagab pakkujatele kohustuste täidetuse eelduse niivõrd, kuivõrd need standardid hõlmavad neid kohustusi. Üldotstarbeliste tehisintellektimudelite pakkujad, kes ei järgi heakskiidetud tegevusjuhendit ega Euroopa harmoneeritud standardit, peavad tõendama nõuetele vastavust alternatiivsete asjakohaste meetodite abil, mida komisjon peab hindama.
(5) Um die Einhaltung von Anhang XI, insbesondere Nummer 2 Buchstaben d und e, zu erleichtern, ist die Kommission befugt, gemäß Artikel 97 delegierte Rechtsakte zu erlassen, um die Mess- und Berechnungsmethoden im Einzelnen festzulegen, damit eine vergleichbare und überprüfbare Dokumentation ermöglicht wird.
5. XI lisa, eelkõige selle punkti 2 alapunktide d ja e järgimise hõlbustamiseks võib komisjon võtta kooskõlas artikliga 97 vastu delegeeritud õigusakte, et täpsustada mõõtmis- ja arvutusmeetodeid, pidades silmas võrreldava ja kontrollitava dokumentatsiooni võimaldamist.
(6) Die Kommission ist befugt, gemäß Artikel 97 Absatz 2 delegierte Rechtsakte zu erlassen, um die Anhänge XI und XII vor dem Hintergrund sich wandelnder technologischer Entwicklungen zu ändern.
6. Komisjon võib võtta kooskõlas artikli 97 lõikega 2 vastu delegeeritud õigusakte, et ajakohastada XI ja XIII lisa, arvestades tehnika arenguga.
(7) Jegliche Informationen oder Dokumentation, die gemäß diesem Artikel erlangt werden, einschließlich Geschäftsgeheimnisse, werden im Einklang mit den in Artikel 78 festgelegten Vertraulichkeitspflichten behandelt.
7. Mis tahes käesoleva artikli kohaselt saadud teavet ja dokumentatsiooni, sealhulgas ärisaladusi, käsitletakse kooskõlas artiklis 78 sätestatud konfidentsiaalsuskohustustega.