Künstliche Intelligenz: Wirtschaft warnt vor „massiven Einschränkungen“ durch AI Act
Benachrichtigung aktivierenDürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafftErlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviertWir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke
Anzeige
EU-RegulierungKünstliche Intelligenz: Wirtschaft warnt vor „massiven Einschränkungen“ durch AI Act
Brüssel will einen „Goldstandard“ für die neue Technik entwickeln. Unternehmen fürchten Wettbewerbsnachteile. Sie stören sich vor allem an einem Punkt.
Düsseldorf In diesen Wochen beginnen die finalen Verhandlungen über den sogenannten AI Act. Mit diesem will die Europäische Union (EU) in fast allen Lebensbereichen Einsatz und Entwicklung Künstlicher Intelligenz (KI) regulieren. Am Dienstag wollen die Mitgliedstaaten im Rat eine Position beschließen, die anschließend mit EU-Parlament und -Kommission in die Abstimmung gehen wird.
Für den Staatenverbund handelt es sich um ein zentrales Regulierungsvorhaben. Künstliche Intelligenz sei eine „der strategisch bedeutendsten Technologien des 21. Jahrhunderts“, schreibt die EU-Kommission in einem Papier. „Die Art, wie wir an die KI herangehen, ist entscheidend dafür, in welcher Welt wir künftig leben werden.“ Doch die Art, wie die EU an die Gesetzgebung herangeht, verschreckt viele Unternehmen.
Brüssel will einen Standard prägen, wie die Technologie in Zukunft gestaltet wird, auch über die Grenzen Europas hinaus. Bei der KI-Entwicklung konkurrieren grundsätzlich die USA und China darum, wer Weltmarktführer wird. Geht es um Geld und Talent, Daten und Rechenleistung, liegt Europa im Vergleich zu den beiden anderen Wirtschaftsräumen hinten – doch politisch hat es einen Hebel.
Über die Details der Verordnung dürfte bis zur letzten Minute verhandelt werden. Die Grundzüge lassen Start-up-Gründer, Konzernmanager und Verbandsvertreter schon jetzt eine Regulierung befürchten, die zu großer Verunsicherung führt und stark in die Entwicklung der Technologie eingreift.
Ein IT-Unternehmen warnt, dass durch die breite Definition zahlreiche Produkte reguliert werden, die mit KI wenig zu tun haben. Im Management eines Dax-Konzerns moniert man die „Schwammigkeit“ des Vorhabens. Der Digitalverband Bitkom warnt vor einer „zu starken Fokussierung auf Risiken“. Und der KI-Bundesverband sieht gar „das gesamte KI-Ökosystem und in weiten Teilen auch die Anwendung von Software“ massiv eingeschränkt.
Warum will die EU Künstliche Intelligenz regulieren?
Die EU-Kommission sieht Künstliche Intelligenz als Technologie mit großem Potenzial – im Guten wie im Schlechten. Es bestehe die Chance auf einen „vielfältigen Nutzen für Wirtschaft und Gesellschaft“, ob beim Klimaschutz, im Gesundheitswesen oder in Branchen wie der Mobilität, heißt es im Gesetzentwurf. Allerdings gebe es auch neue Risiken, für den Einzelnen wie die Gesellschaft.
Wie der AI Act Risiken bewertet
Die Europäische Union will mit dem AI Act Künstliche Intelligenz regulieren. Dabei ist ein risikobasierter Ansatz vorgesehen – je größer das Risiko, desto höher die Auflagen. Vier Stufen sieht die Verordnung vor.
Als inakzeptables Risiko gelten Anwendungen, die eine klare Bedrohung für die Menschenrechte sind, etwa die Gesichtserkennung im öffentlichen Raum oder Sozialkreditsysteme, mit denen der Staat wie in China die Bürger zu einem bestimmten Verhalten bewegen will. Sie sind grundsätzlich verboten.
Ein hohes Risiko liegt laut Verordnung vor, wenn Gesundheit, Sicherheit oder Grundrechte von EU-Bürgern gefährdet sind. Eingeschlossen sind biometrische Systeme, der Betrieb kritischer Infrastrukturen und Personalsoftware, etwa für Bewerbungen.
Als begrenztes Risiko gelten Anwendungen in unkritischen Bereichen, beispielsweise Chatbots für den Kundenservice. Diese unterliegen lediglich einer Transparenzpflicht – Nutzer sollen wissen, dass sie es mit einem automatisierten System zu tun haben.
Bei vielen Anwendungen gibt nur ein minimales Risiko, beispielsweise bei Computerspielen, Filmempfehlungen oder Spamfiltern. Hier sieht die Verordnung keine Einschränkungen vor.
Einige Beispiele belegen das. So moniert die Organisation Algorithm Watch, dass automatisierte Entscheidungssysteme – die oft KI verwenden – immer wieder Menschen diskriminieren, sei es bei der Vergabe von Jobs oder der biometrischen Erkennung von Gesichtern. Zudem fehlt es an Informationen darüber, wie diese Systeme genau funktionieren, was es erschwert, Entscheidungen anzufechten.
Künstliche Intelligenz benötigt große Datenmengen als Lernstoff, der allerdings – auch versteckte – menschliche Vorurteile beinhaltet. Überhaupt ist die Datenqualität von entscheidender Bedeutung für die Ergebnisse. Zudem sind die Ergebnisse der Berechnungen oft schwierig nachzuvollziehen. Der Algorithmus: eine Blackbox.
Die EU-Kommission will daher gewährleisten, dass Forschungseinrichtungen und Firmen Künstliche Intelligenz nach „europäischen Werten“ entwickeln. Dabei besteht die Hoffnung, einen „Goldstandard“ für die Regulierung zu entwickeln: Ähnlich wie bei der DSGVO soll Brüssel Regeln festlegen, die im Idealfall global wirken – und nebenbei den Standort Europa stärken, der aktuell an Bedeutung verliert, schon wegen der Energiepreise.
Wie reguliert der AI Act Künstliche Intelligenz?
Der aktuelle Entwurf des AI Act samt Anhängen ist 125 Seiten lang. Er sieht einen risikobasierten Ansatz vor – die Regeln orientieren sich daran, welches Risiko bei einer bestimmten Technologie angenommen wird: minimal, begrenzt, hoch und inakzeptabel.
Kraftakt
125
Seiten
umfasst der aktuelle Entwurf des AI Act der EU-Kommission.
Der Fokus des AI Act liegt auf Hochrisikoanwendungen, die nach Einschätzung der Kommission bis 15 Prozent aller KI-Systeme ausmachen. Die Verordnung zählt den Betrieb kritischer Infrastrukturen dazu ebenso wie algorithmisch unterstützte Chirurgie. Auch enthalten: Systeme, die Bewerbungen vorsortieren, sowie die, die eine Prognose zum Verhalten von Straftätern stellen. Risikomodelle von Lebensversicherungen und Bonitätsbewertung im Bankensektor fallen ebenfalls unter diese Definition.
Für diese Anwendungen schreibt der AI Act hohe Auflagen vor: Firmen müssen ein Risikomanagement für Künstliche Intelligenz einführen, Transparenzpflichten gegenüber den Nutzern erfüllen, eine technische Dokumentation mit detaillierten Angaben zu den verwendeten Daten vorlegen und ihr Programm zudem in einer Datenbank der EU eintragen.
Wo könnte es Schwierigkeiten geben?
Die meisten Unternehmen halten sich öffentlich mit Kritik zurück, sie machen ihren Einfluss stattdessen über die Verbände geltend. Diese werden regelmäßig in Berlin und Brüssel vorstellig, ist in Wirtschaftskreisen zu hören. Und tatsächlich berücksichtigt der aktuelle Entwurf des EU-Rats bereits einige Vorschläge.
Trotzdem besteht aus Sicht der Wirtschaft weiter Verbesserungsbedarf. Der maßgebliche Kritikpunkt zielt auf die Definitionen. Der Gesetzentwurf bezeichnet neben „Konzepten des maschinellen Lernens“ auch statistische Ansätze sowie Such- und Optimierungsverfahren als Künstliche Intelligenz. Das schließe nahezu jede Software ein, die heutzutage entwickelt werde, moniert der KI-Bundesverband.
Mensch trifft Maschine
Technologisch liegt Europa im Vergleich zu USA und China hinten – doch politisch hat es einen Hebel.
Auch welche Anwendung ein hohes Risiko mit sich bringt, muss aus Sicht der Technologiebranche deutlich genauer definiert werden. So fordert der Bitkom, nicht pauschal Anwendungsfälle zu klassifizieren, sondern konkrete Anwendungen. Nicht jedes Programm für die Personalabteilung sortiert Lebensläufe, nicht jede Software eines Stromversorgers steuert das Netz.
Ein Dax-Konzern kritisiert, es sei unklar, wer bei komplexen Produkten wie Maschinensteuerungen, Robotern oder Autos die bürokratischen Pflichten trage – durch die Abstimmung zwischen den Herstellern und zahlreichen Zulieferern sei mit einem „Riesen-Overhead“ zu rechnen, gerade in der deutschen Industrie.
Diskussionsbedarf sieht die Technologiebranche nicht zuletzt beim Umgang mit Daten: Diese sollen „repräsentativ, fehlerfrei und vollständig“ sein, um beispielsweise die Diskriminierung von unterrepräsentierten Bevölkerungsgruppen zu verhindern. Entwickler verweisen indes darauf, dass hochwertige Datensätze nur sehr begrenzt zur Verfügung stehen. Die Vorgabe dürfte daher schwer zu erfüllen sein.
Das Kommentieren dieses Artikels wurde deaktiviert.