Deutsche Märkte schließen in 3 Stunden 47 Minuten

EU-Kommission will mehr Transparenz bei Künstlicher Intelligenz

Entwickler von Produkten mit hohen Risiken für Gesundheit oder der öffentlichen Sicherheit könnten von der EU gezwungen werden, ihre Codes und Daten offenzulegen.

Noch ist es nur eine Idee, aber die ist schon sehr konkret. Die EU-Kommission dürfte in Kürze vorschlagen, die Entwickler bestimmter Anwendungen von Künstlicher Intelligenz (KI) zu mehr Transparenz zu zwingen. Wenn die Produkte mit hohen Risiken etwa für Gesundheit oder öffentliche Sicherheit behaftet seien, so heißt es im Entwurf des KI-Weißbuchs der Behörde, sollten diese vor der Markteinführung kontrolliert werden. Unabhängige Tests der verwendeten Daten und Algorithmen sollten sicherstellen, dass die Produkte mit den EU-Bestimmungen vereinbar seien.

Die Vizepräsidentin der Kommission, Margrethe Vestager, wird das Weißbuch am 19. Februar vorstellen. Auf Grundlage des Dokuments will die Behörde zunächst mit Vertretern von Industrie und Verbrauchern diskutieren, bevor sie neue Gesetze vorschlägt. Das Ziel der Initiative ist es, durch klare Regeln und gute Investitionsbedingungen eine führende Rolle für Europa zu sichern. Unterfüttert werden soll sie durch eine neue Datenstrategie, die die Kommission gleichzeitig vorlegen will und die dem Handelsblatt ebenfalls vorliegt.

Bislang werde die Verbreitung von KI-Anwendungen durch mangelndes Vertrauen gehemmt, argumentiert die Kommission: „Die Bürger befürchten, dass sie es mit Maschinen zu tun bekommen, die niemandem Rechenschaft schuldig sind und deren Entscheidungen nicht nachzuvollziehen sind, während Unternehmen die Rechtsunsicherheit besorgt“, heißt es im jüngsten Entwurf des Weißbuchs.

Um das nötige Vertrauen zu schaffen, dürfte die Kommission vorschlagen, die existierenden EU-Regeln etwa für die Sicherheit von Produkten und die Haftung im Schadensfall anzupassen. „Wir werden nach der Konsultation sehen, ob es nötig ist, manche Vorschriften zu ändern“, sagt Justizkommissar Didier Reynders. „Aber ich bin mir recht sicher, dass das der Fall sein wird.“

Die Kommission schlägt aber vor, die schärferen Regeln auf besonders risikobehaftete Anwendungen zu beschränken. Als kritisch gelten könnten demnach etwa KI-Produkte, die in der Medizin oder in Verkehrsleitsystemen eingesetzt werden. Dazu dürften beispielsweise selbstlernende Algorithmen zählen, die Krebstumore diagnostizieren. Diese werden bereits mit hohen Trefferraten zur Erkennung von Brustkrebs eingesetzt.

Verbot vom Tisch

Ebenfalls als problematisch könnten KI-Systeme eingestuft werden, die zur Gesichtserkennung eingesetzt werden. In einem früheren Entwurf hatte die Kommission ein temporäres Verbot entsprechender Produkte erwogen. Davon ist nun nicht mehr die Rede. Auch Algorithmen, die Arbeitgeber zur Auswahl von Bewerbern einsetzen, könnten als kritisch eingestuft werden – sie bergen die Gefahr von Diskriminierung bestimmter Bevölkerungsgruppen.

Entwickler, deren Anwendungen als „high risk“ eingestuft werden, könnten eine Reihe von zusätzlichen Pflichten auferlegt bekommen. So erwägt die Kommission eine „unabhängige Überprüfung und Bewertung der Algorithmen und Daten durch Testzentren“. Die Mitgliedstaaten sollten dafür spezialisierte Dienstleister wie die Tüvs beauftragen.

Die Behörde hofft darauf, mit den europäischen KI-Regeln Pflöcke einzuschlagen, die in anderen Erdteilen nachgeahmt werden und auch von den großen Digitalkonzernen aus den USA oder Asien beachtet werden müssen. Beim Datenschutz sei dies der EU schon einmal gelungen, sagt Reynders.

Verbraucherschützer fordern schon länger unabhängige Tests von KI-Produkten. Auch in der Bevölkerung gibt es dafür viel Zustimmung: In einer Umfrage im Auftrag des Tüv-Verbands hatten sich kürzlich 85 Prozent der befragten Bürger dafür ausgesprochen, die Sicherheit von KI-Produkten zu überprüfen, bevor sie auf den Markt gebracht werden.

Die Vizepräsidentin des Europaparlaments, Nicola Beer, warnt aber vor der Gefahr, durch zu weitreichende Auflagen gerade Start-ups mit neuen Geschäftsideen überzuregulieren: Nur wirklich hochrisikobehaftete Anwendungen dürften vorab geprüft werden müssen, fordert die FDP-Politikerin, alles andere sei auch nicht praktikabel: „Woher sollen sonst auch all die Informatiker kommen, die jeweils Millionen Zeilen von Codes analysieren können?“

Hinzu komme, so Beer, dass KI-Algorithmen eigenständig hinzulernten und sich die Entscheidungen somit auch nach der Markteinführung ändern könnten. „Die Tüv-Analogie funktioniert daher nicht wirklich.“ Auch die Kommission spricht dieses Problem an, ohne darauf aber eine Antwort zu geben.

Auch die Industrie warnt vor zu viel Regulierung: Anders als in der Debatte häufig suggeriert, so Susanne Dehmel, Mitglied der Geschäftsleitung beim Branchenverband Bitkom, werde „der Einsatz von KI-Anwendungen bereits heute durch die geltenden Gesetze begrenzt“.