Seit dem 2. Februar sind weitere Regelungen der europäischen KI-Verordnung (AI Act) in Kraft. Dabei handelt es sich zum einen um Verbote von bestimmten KI-Praktiken wie Social-Scoring-Systemen, manipulative KI-Techniken oder Emotionserkennung am Arbeitsplatz. Zum anderen greifen Vorgaben für KI-Kompetenzanforderungen von Beschäftigten. Eine ausreichende Rechtssicherheit für den KI-Einsatz bietet dies aber laut dem Digitalverband Bitkom noch nicht.
AI Act gewährleistet keine Rechtssicherheit für KI
„Der AI Act sollte für Rechtssicherheit bei Künstlicher Intelligenz in Europa sorgen – aktuell droht das genaue Gegenteil. Wenn ab Sonntag weitere Regelungen der europäischen KI-Verordnung in Kraft treten ist unklar, für welche Anwendungen das gesetzliche Verbot tatsächlich gilt. Die Politik hat beim AI Act hohe Anforderungen und enge Fristen für die Unternehmen aufgestellt, hat selbst aber ihre Hausaufgaben nicht gemacht. Das Risiko tragen die Unternehmen, die KI entwickeln oder einsetzen. Während in den USA mit dreistelligen Milliardenbeträgen KI ausgebaut werden soll und in China extrem leistungsfähige Sprachmodelle veröffentlicht werden, werfen wir in Deutschland und Europa den KI-Unternehmen Knüppel zwischen die Beine“, erklärte Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung, in einer Pressemitteilung.
Dabei sei es keineswegs so, dass die Definition verbotener Praktiken nur eindeutig problematische Anwendungen erfasst. Erst zwei Tage vor Geltungsbeginn, wolle die EU-Kommission dringend notwendige Leitlinien zur KI-Definition und zu verbotenen Praktiken veröffentlichen. Unternehmen, deren Systeme zu den zahlreichen schwer einzuordnenden Grenzfällen gehören, erführen so sehr spät, ob ihre betroffenen Systeme weiterhin auf dem Markt bleiben dürfen oder übers Wochenende vom Markt genommen werden müssen, kommentiert Susanne Dehmel.
KI-Kompetenzanforderungen sind nicht klar genug definiert
Auch bei den sogenannten KI-Kompetenzanforderungen, die praktisch alle KI entwickelnden oder einsetzenden Unternehmen betreffen, gebe es noch Unsicherheiten. Alle Unternehmen, die KI einsetzen, müssten sicherstellen, dass die betreffenden Beschäftigten über „ein ausreichendes Maß an KI-Kompetenz“ verfügten. Wann dieser Pflicht genüge getan sei, sei auch deshalb noch unklar, weil bislang keine entsprechende Aufsicht in Deutschland eingerichtet worden sei, die als Ansprechpartner für die Wirtschaft Hinweise geben könnte, bemängelt der Bitkom.
Auch von europäischer Seite gebe es keine konkretisierenden Hinweise. Unternehmen sollten sich aber davon nicht abhalten lassen, ihre KI-Anstrengungen fortzusetzen, sondern vielmehr die Frist zum Anlass nehmen, ihre Beschäftigten im Umgang mit KI weiterzubilden und so über den AI Act hinaus fit zu machen.
„Wir brauchen mehr deutsche und europäische KI. Dafür brauchen wir – neben Geld und mehr Unterstützung für europäische KI-Unternehmen – einen wirklich innovationsfreundlich gestalteten Regulierungsrahmen, also nicht ein Übermaß an vagen Vorschriften, sondern stattdessen ein Mindestmaß an verbindlichen und klaren Leitplanken für die Praxis. Es ist höchste Zeit, Künstliche Intelligenz nicht immer zuallererst als Bedrohung, sondern als Chance wahrzunehmen“, so Dehmel weiter.
Weitere Informationen gibt es unter www.bitkom.org.