Artikel 7: Änderungen des Anhangs III
Kapitel 3 Hochrisiko-KI-Systeme - Abschnitt 1: Einstufung von KI-Systemen als Hochrisiko-KI-Systeme
(1)
Die Kommission ist befugt, gemäß Artikel 97 delegierte Rechtsakte zur Änderung von Anhang III durch Hinzufügung oder Änderung von Anwendungsfällen für Hochrisiko-KI-Systeme zu erlassen, die beide der folgenden Bedingungen erfüllen:
- a)Die KI-Systeme sollen in einem der in Anhang III aufgeführten Bereiche eingesetzt werden;
- b)die KI-Systeme bergen ein Risiko der Schädigung in Bezug auf die Gesundheit und Sicherheit oder haben nachteilige Auswirkungen auf die Grundrechte und dieses Risiko gleicht dem Risiko der Schädigung oder den nachteiligen Auswirkungen, das bzw. die von den in Anhang III bereits genannten Hochrisiko-KI-Systemen ausgeht bzw. ausgehen, oder übersteigt diese.
(2)
Bei der Bewertung der Bedingung gemäß Absatz 1 Buchstabe b berücksichtigt die Kommission folgende Kriterien:
- a)die Zweckbestimmung des KI-Systems;
- b)das Ausmaß, in dem ein KI-System verwendet wird oder voraussichtlich verwendet werden wird;
- c)die Art und den Umfang der vom KI-System verarbeiteten und verwendeten Daten, insbesondere die Frage, ob besondere Kategorien personenbezogener Daten verarbeitet werden;
- d)das Ausmaß, in dem das KI-System autonom handelt, und die Möglichkeit, dass ein Mensch eine Entscheidung oder Empfehlungen, die zu einem potenziellen Schaden führen können, außer Kraft setzt;
- e)das Ausmaß, in dem durch die Verwendung eines KI-Systems schon die Gesundheit und Sicherheit geschädigt wurden, es nachteilige Auswirkungen auf die Grundrechte gab oder z. B. nach Berichten oder dokumentierten Behauptungen, die den zuständigen nationalen Behörden übermittelt werden, oder gegebenenfalls anderen Berichten Anlass zu erheblichen Bedenken hinsichtlich der Wahrscheinlichkeit eines solchen Schadens oder solcher nachteiligen Auswirkungen besteht;
- f)das potenzielle Ausmaß solcher Schäden oder nachteiligen Auswirkungen, insbesondere hinsichtlich ihrer Intensität und ihrer Eignung, mehrere Personen zu beeinträchtigen oder eine bestimmte Gruppe von Personen unverhältnismäßig stark zu beeinträchtigen;
- g)das Ausmaß, in dem Personen, die potenziell geschädigt oder negative Auswirkungen erleiden werden, von dem von einem KI-System hervorgebrachten Ergebnis abhängen, weil es insbesondere aus praktischen oder rechtlichen Gründen nach vernünftigem Ermessen unmöglich ist, sich diesem Ergebnis zu entziehen;
- h)das Ausmaß, in dem ein Machtungleichgewicht besteht oder in dem Personen, die potenziell geschädigt oder negative Auswirkungen erleiden werden, gegenüber dem Betreiber eines KI-Systems schutzbedürftig sind, insbesondere aufgrund von Status, Autorität, Wissen, wirtschaftlichen oder sozialen Umständen oder Alter;
- i)das Ausmaß, in dem das mithilfe eines KI-Systems hervorgebrachte Ergebnis unter Berücksichtigung der verfügbaren technischen Lösungen für seine Korrektur oder Rückgängigmachung leicht zu korrigieren oder rückgängig zu machen ist, wobei Ergebnisse, die sich auf die Gesundheit, Sicherheit oder Grundrechte von Personen negativ auswirken, nicht als leicht korrigierbar oder rückgängig zu machen gelten;
- j)das Ausmaß und die Wahrscheinlichkeit, dass der Einsatz des KI-Systems für Einzelpersonen, Gruppen oder die Gesellschaft im Allgemeinen, einschließlich möglicher Verbesserungen der Produktsicherheit, nützlich ist;
- k)das Ausmaß, in dem bestehendes Unionsrecht Folgendes vorsieht:
I) wirksame Abhilfemaßnahmen in Bezug auf die Risiken, die von einem KI-System ausgehen, mit Ausnahme von Schadenersatzansprüchen;
II) wirksame Maßnahmen zur Vermeidung oder wesentlichen Verringerung dieser Risiken.
(3)
Die Kommission ist befugt, gemäß Artikel 97 delegierte Rechtsakte zur Änderung der Liste in Anhang III zu erlassen, um Hochrisiko-KI-Systeme zu streichen, die beide der folgenden Bedingungen erfüllen:
- a)Das betreffende Hochrisiko-KI-System weist unter Berücksichtigung der in Absatz 2 aufgeführten Kriterien keine erheblichen Risiken mehr für die Grundrechte, Gesundheit oder Sicherheit auf;
- b)durch die Streichung wird das allgemeine Schutzniveau in Bezug auf Gesundheit, Sicherheit und Grundrechte im Rahmen des Unionsrechts nicht gesenkt.
Zugehörige Erwägungsgründe
- Erwägungsgrund 1: Verordnungszweck
- Erwägungsgrund 2: Vereinbarkeit mit den Werten der Europäischen Union
- Erwägungsgrund 5: Mögliche Risiken bei der Anwendung von KI
- Erwägungsgrund 6: Menschenzentrierte Entwicklung in Übereinstimmung mit Werten der EU
- Erwägungsgrund 7: Schutzniveau
- Erwägungsgrund 47: Risikominimierung
- Erwägungsgrund 48: Schutz von Grundrechten
- Erwägungsgrund 52: Kriterien für die Einstufung als Hochrisiko-System
- Erwägungsgrund 53: Ausnahmen und Risiken für die Risikoeinstufung
- Erwägungsgrund 53: Ausnahmen und Risiken für die Risikoeinstufung
- Erwägungsgrund 59: Einsatz in der Strafverfolgung
- Erwägungsgrund 64: Vereinbarkeit mit sonstigem Unionsrecht
- Erwägungsgrund 65: Einsatz Risikomanagementsystems
- Erwägungsgrund 66: Reichweite der Anforderungen
- Erwägungsgrund 126: Verfahren für Konformitätsbewertung durch Dritte
- Erwägungsgrund 127: Anerkennung von Konformitätsbewertungsergebnissen
- Erwägungsgrund 158: Aufsicht und Marktüberwachung von KI-Systemen im Finanzsektor
- Erwägungsgrund 159: Befugnisse zuständiger Behörden bei biometrischen Daten
- Erwägungsgrund 161: Verantwortlichkeiten und Zuständigkeiten
- Erwägungsgrund 162: Synergien auf Unionsebene
- Erwägungsgrund 163: Wissenschaftliches Gremium als Unterstützer des Amts für KI
- Erwägungsgrund 164: Kompetenzen des Amts für KI
Haben Sie Fragen?
Wir unterstützen Sie gerne bei Ihrem KI-Projekt!