Der AI Act - Was ich als Unternehmen sicherstellen muss
Der AI Act ist eine seit dem 21. Mai 2024 endgültig verabschiedete EU-Verordnung und stellt die erste Regulierung von künstlicher Intelligenz dar. Offiziell in Kraft getreten ist der AI Act am 1. August 2024. Er umfasst unter anderem folgende Anwendungsbereiche:
Systeme zur Verarbeitung biometrischer Daten
Systeme für den Einsatz in kritischer Infrastruktur
Systeme, die in kritischer Infrastruktur vorkommen
Bewertung von Schülern
Prüfung von Universitätszugängen
Auswahl von Bewerbern
Prognosen zur Rückfälligkeit von Straftätern
Risikobewertung bei Kranken- und Lebensversicherungen
Einflussnahme auf Wahlen
Kreditwürdigkeitsprüfungen
Einschätzung individueller Gesundheitsrisiken
Einschätzung von Sicherheitsrisiken
Welche Anforderungen gelten?
Unternehmen, die Hochrisiko-KI einsetzen, müssen diverse Anforderungen erfüllen, die folgende Punkte beinhalten:
Risikomanagementsystem: Risiken sollen systematisch identifiziert, analysiert und bewertet werden, um sie wirksam zu bewältigen.
Anforderungen an die Datenqualität erfüllen: Die KI-Systeme müssen auf verlässlichen, aktuellen und repräsentativen Daten basieren. So werden Verzerrungen reduziert und die Genauigkeit (Hitrate) erhöht.
Menschliche Aufsicht über die KI sicherstellen: Mitarbeitende im Unternehmen müssen in der Lage sein, KI-Entscheidungen nachzuvollziehen und kritisch zu prüfen. Auch ein korrigierender Eingriff muss jederzeit möglich sein.
Konformitätsbewertungsverfahren aufgleisen: Mithilfe interner Dokumentationen und regelmäßiger Audits soll sichergestellt werden, dass gesetzliche und ethische Standards eingehalten werden – und zwar in Übereinstimmung mit den geltenden Vorschriften.
Zudem gilt: Wenn es sich beim KI-System nicht um eine Hochrisiko-KI handelt, sondern z. B. um ein Medizinprodukt, dann müssen die Anforderungen im medizinprodukterechtlichen Konformitätsverfahren mitgeprüft werden.
Welche Kennzeichnungspflichten gibt es?
Generative KI-Inhalte wie Videos, Bilder oder Tonaufnahmen müssen klar und maschinenlesbar als KI-generiert gekennzeichnet sein. Auch bei der Interaktion mit KI – etwa bei einem Chatbot – muss für den Nutzer klar erkennbar sein, dass keine menschliche Kommunikation vorliegt.
Was ist verboten?
Verboten sind KI-Systeme, die z. B. Social Scoring betreiben, biometrische Videoüberwachung mit Gesichtserkennung beinhalten oder Emotionen automatisch erkennen und damit subtil das Verhalten von Menschen beeinflussen. Für Strafverfolgungsbehörden, Militär oder Geheimdienste gelten jedoch Ausnahmeregelungen.
Fazit
Die Einführung von KI-Systemen bringt Verantwortung mit sich – sowohl gegenüber Kunden als auch gegenüber der Gesellschaft. Der Einsatz von KI kann durchaus sinnvoll sein, wenn er Vorteile bringt – aber genauso wichtig ist es, ethische und rechtliche Rahmenbedingungen zu berücksichtigen. Unternehmen sollten Risiken genau analysieren und intern Verantwortliche definieren, die KI-Systeme kritisch hinterfragen, überwachen, dokumentieren – und das Ganze auch wirklich im Griff haben.
Bevor ein KI-System eingeführt wird, sollte das zwingend im Vorfeld gemeinsam mit einem Experten geprüft werden – Ziel ist es dabei, mögliche Risiken zu erkennen und sicherzustellen, dass die Vorgaben des AI Acts eingehalten werden.
Die Vorschriften gelten übrigens nicht sofort. Für Unternehmen gibt es Übergangsfristen von 6 bis 36 Monaten. Bis dahin setzt die EU auf freiwillige Selbstbeschränkungen der Wirtschaft. Heißt im Umkehrschluss: Wer sich frühzeitig mit dem Thema beschäftigt, gerät später weniger unter Zugzwang. Möchten Sie eine kostenlose Beratung zu diesem Thema? Kontaktieren Sie uns jetzt!