Verordnung über künstliche Intelligenz

Am 13. Juni 2024 hat die Europäische Union die Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) 300/2008, (EU) 167/2013, (EU) Nr. 168/2013, (EU) Nr. 2018/858, (EU) Nr. 2018/1139 und (EU) Nr. 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) Nr. 2016/797 und (EU) Nr. 2020/1828 ( Verordnung über künstliche Intelligenz ) verabschiedet, das am 1. August 2024 in Kraft trat.

Der Zweck der Verordnung über künstliche Intelligenz ist die Gewährleistung einer sicheren Nutzung von künstlicher Intelligenz für alle Nutzer. In der Verordnung über künstliche Intelligenz wird diese in verschiedene Risikostufen unterteilt, wobei die Systeme, die künstliche Intelligenz nutzen, entsprechend dem Risiko, das sie darstellen, kategorisiert werden. Die künstlich-intelligente Systeme werden demnach in vier Kategorien eingeteilt:

1. Geringes Risiko

Für solche Systeme sind keine zusätzlichen Verpflichtungen vorgesehen, jedoch können die Organisationen auch freiwillig entsprechende Verhaltenskodizes annehmen. In diese Kategorie fallen zum Beispiel Spam-Filter oder KI-basierte Videospiele.

2. Besonderes Risiko in Bezug auf Transparenz bzw. Systeme mit begrenztem Risiko

Zu dieser Kategorie gehören beispielsweise Chatbots (wie ChatGPT). Diese Systeme unterliegen der Verpflichtung, den Nutzern mitzuteilen, dass sie mit einer Maschine kommunizieren. Dadurch kann man entscheiden, ob man die Kommunikation fortsetzen möchte oder nicht. Außerdem müssen sie in der Lage sein, Inhalte zu erkennen, die von künstlicher Intelligenz erzeugt worden sind. KI-generierte Inhalte, die veröffentlicht werden, müssen ebenfalls als KI-generiert gekennzeichnet werden (dies gilt auch für sogenannte "Deep Fake"-Audio- und Videoinhalte).

3. Hochrisiko-Systeme

Dazu gehören z. B. Systeme zur Verwaltung von Justiz und demokratischen Prozessen (künstliche Intelligenz zur Suche nach Gerichtsentscheidungen) oder zur Personalbeschaffung, Verwaltung von Arbeitskräften und Zugang zur Selbständigkeit (Software zur Sortierung von Lebensläufen bei der Personalbeschaffung). Diese Systeme müssen zusätzliche Verpflichtungen erfüllen, u. a. die Implementierung eines Systems zur Risikominderung, menschliche Aufsicht, qualitativ hochwertige Datensätze, automatische Protokollierung von Aktivitäten während der Lebensdauer des Systems zur Gewährleistung der Nachverfolgbarkeit usw.

4. Systeme, die eine eindeutige Bedrohung für die grundlegenden Menschenrechte darstellen

Solche Systeme werden vollständig verboten. Dazu gehören z. B. Spielzeuge mit Sprachassistenz, die zu gefährlichem Verhalten ermutigen, sowie die Möglichkeit einer sozialen Bewertung von Personen durch staatliche Behörden (wie das Social Credit System in China). Verboten sind somit Systeme, die:

  • (i) subliminale Techniken verwenden, die das Bewusstsein der Person übersteigen;
  • (ii) absichtlich manipulative oder täuschende Techniken verwenden, um das Verhalten von Personen zu verzerren und dadurch ihre Fähigkeit, eine informierte Entscheidung zu treffen, beeinträchtigen; oder
  • (iii) Schwachstellen von Menschen aufgrund ihres Alters, ihrer Behinderung oder ihrer besonderen sozialen oder wirtschaftlichen Lage ausnutzen usw.

Jeder EU-Mitgliedstaat muss außerdem eine Notifizierungsbehörde benennen oder einrichten. Diese ist für die Einrichtung und Durchführung der erforderlichen Verfahren zur Bewertung, Benennung und Notifizierung der Stellen zuständig, die für die Bewertung der Konformität mit dieser Verordnung verantwortlich sind. Die benannten Stellen sind für die Konformitätsbewertung und Zertifizierung der entsprechenden Systeme zuständig.

Für die Aufsicht der Umsetzung und Durchführung der Verordnung über künstliche Intelligenz ist das Europäische Amt für künstliche Intelligenz zuständig, das im Februar 2024 innerhalb der Kommission eingerichtet wurde. Neben der Aufsicht ist das Amt auch für die Förderung einer globalen Governance der künstlichen Intelligenz sowie dafür verantwortlich, dass die Europäische Union eine Führungsrolle bei der ethischen und nachhaltigen Entwicklung von künstlich-intelligenten Systemen übernimmt.

Die Verordnung über künstliche Intelligenz wird erst in zwei Jahren in vollem Umfang anwendbar sein, um Zeit für die Anpassung an die darin enthaltenen Verpflichtungen zu lassen. Die Verbote werden bereits nach sechs Monaten in Kraft treten, die Regeln zur Regulierung allgemeiner Systeme nach 12 Monaten und die Verpflichtungen für integrierte künstliche Intelligenz in regulierten Produkten nach 36 Monaten.

Gerade wegen des langen Zeitrahmens und um Anpassungen zu erleichtern, hat das Europäische Amt für Künstliche Intelligenz den Pakt für Künstliche Intelligenz ins Leben gerufen. Das Amt wird auch Organisationen beaufsichtigen, die eine freiwillige Verpflichtung bzw. den Pakt eingehen. Letzterer fördert die frühzeitige Erfüllung der Verpflichtungen der Verpflichteten aus der Verordnung über künstliche Intelligenz. Es handelt sich um einen freiwilligen Beitritt, der es den Teilnehmern ermöglicht, bewährte Verfahren und praktische Informationen über die Umsetzung der Verordnung auszutauschen, die Sichtbarkeit und Glaubwürdigkeit von Schutzmaßnahmen zu erhöhen und Vertrauen in künstlich-intelligente Technologien aufzubauen.

So wie sich die Dinge entwickeln, werden wir uns der künstlichen Intelligenz wohl nicht entziehen können. Aber wir können sie zu unserem Vorteil nutzen und, wo nötig, dafür sorgen, dass die Nutzer dabei sicher sind.


Ein Fachbeitrag aus dem DIRO-Netzwerk

Beitrag veröffentlicht am
20. November 2024

Diesen Beitrag teilen