EU-Gesetz zur Regulierung von Künstlicher Intelligenz - AI Act: Der Bürger kommt nicht vor

Von dem Gesetzeswerk des EU-Parlaments zur Künstlichen Intelligenz werden nur global agierende Unternehmen profitieren, die sich leisten können, Rechtsstreitigkeiten auszufechten. Wie sich die Bürger selbst vor den Gefahren der Künstlichen Intelligenz schützen können, interessiert offenbar nicht.

EU-Abgeordnete stimmten am 14. Juni über den AI Act ab / dpa
Anzeige

Autoreninfo

Jörg Phil Friedrich ist Philosoph, Publizist und Unternehmer. Er studierte Physik, Meteorologie und später Philosophie und schreibt über Fragen aus Wissenschaft, Religion und Politik. Zuletzt erschien sein Buch „Degenerierte Vernunft - Künstliche Intelligenz und die Natur des Denkens“. Seit 1994 ist er Geschäftsführer eines Softwarehauses in Münster.

So erreichen Sie Jörg Phil Friedrich:

Anzeige

Man könnte meinen, dass das Europäische Parlament wirklich einmal schnell gewesen sei – nur wenige Monate nach dem ersten großen Hype um Systeme der Künstlichen Intelligenz und sogar nur ein paar Wochen, nachdem aufsehenerregende Mahnungen vor einem Auslöschen der Menschheit durch KI die Öffentlichkeit erreichten, hat das Parlament ein Gesetz zur Regulierung der Künstlichen Intelligenz beschlossen. Allerdings wurde inzwischen zwei Jahre daran gearbeitet – wenigstens kann man den EU-Abgeordneten aber nicht vorwerfen, sich erst spät oder zu spät mit der Materie beschäftigt zu haben.

Nun liegt ein umfangreicher Gesetzestext vor, rund 100 Seiten, 85 Paragraphen, voll von Vorschriften und Verboten, Richtlinien, Einschränkungen und Vorgaben. Damit sollen in Europa die Gefahren, die nach Ansicht vieler Politiker, Experten und öffentlicher Stimmen im Einsatz von KI-Systemen lauern, gebannt werden.

Spielwiese für Anwälte und Berater

Man ist stolz darauf, einen „risikobasierten Ansatz“ zu verfolgen, zu unterscheiden, welche Systeme ein unannehmbares Risiko bergen, sodass sie verboten werden, bei welchen Technologien das Risiko hoch ist, sodass sie straff reguliert werden müssen, und welche Systeme nicht besonders risikobehaftet sind, sodass die bisherigen Mittel der Regulierung und Kontrolle ausreichen. Das wird, so viel kann man ohne allzu viel Phantasie sicherlich heute schon vorhersagen, ein riesiges Betätigungsfeld für Rechtsabteilungen internationaler Unternehmen auf der einen und Kontrollbehörden auf der anderen Seite, aber auch für Anwälte, Unternehmensberater und Experten werden – für Leute, die Gutachten schreiben, Szenarien diskutieren und Unternehmen bei der Umsetzung ihrer Vorhaben betreuen und begleiten wollen. Wie schon bei der Datenschutzgrundverordnung geschehen, wird die Beraterbranche mit fiktiven Beispielen und Risikoerwägungen, die vor allem mittelständisch strukturierten Entwicklungsfirmen an die Hand nehmen wollen, ihnen Dokumentationsverfahren und Überwachungsprozeduren anempfehlen und sie natürlich hilfsbereit bei deren Einrichtung unterstützen wollen.

Für viele der kleinen innovativen Firmen wird das wieder bedeuten, dass sie, aus Sorge, etwas zu entwickeln, was dann doch verboten oder so streng kontrolliert wird, dass die Akzeptanz im Markt gefährdet ist, lieber die Finger von den KI-Technologien lassen oder sich jedenfalls nicht allzu weit auf unerschlossenes Terrain vorwagen. Dass das EU-Parlament da in zwei Artikeln des neuen Gesetzes vorschlägt, es könnten ja KI-Reallabore eingerichtet werden, zu denen Start-ups und kleine Unternehmen dann bevorzugt Zugang erhalten sollen, wird an der grundsätzlichen Misere nichts ändern. Profitieren werden davon die global agierenden Unternehmen, die in der Lage sind, Rechtsstreitigkeiten um die Funktionen ihrer Systeme auszufechten und für die der europäische Markt ohnehin nur einer von mehreren ist.

Fürsorge statt Ermächtigung

Viele werden die Verbote und Vorschriften des EU-Parlaments dennoch begrüßen, die alarmistischen Warnungen vor KI in den letzten Wochen haben den Boden bereitet für Angst und Furcht, der die fürsorglichen Politiker am liebsten mit strengen Gesetzen gegen potentielle Missetäter begegnen. Kaum jemandem fällt auf, was in dem Gesetz und in der gesamten europäischen Politik wie auch in der öffentlichen Debatte fehlt: die Antwort auf die Frage, wie sich denn die Bürger selbst gegen die angeblichen Gefahren der Künstlichen Intelligenz schützen können. Wie erwerben sie die Kompetenz, Deep Fakes zu beurteilen und nicht auf Fälschungen hereinzufallen? Wie kommen sie überhaupt zu einer gesunden Skepsis gegenüber ungeprüften, aber echt wirkenden Nachrichten und Bildern? Wie stelle ich mir wieder ein Set von Medien zusammen, denen ich vertraue, dass sie ihre Quellen prüfen? Aber auch: Wie schütze ich mich vor ungewollter biometrischer Erfassung meiner Identität?

 

Mehr zum Thema:

 

Und wenn Systeme, die der Auswahl und Einordnung von Personen dienen sollen, sei es in der Ausbildung oder bei Einstellungsverfahren, besonders reguliert werden sollen, dann muss sich doch gerade die Politik fragen, was sie tun kann, damit solche standardisierten und objektivierenden, das subjektive Urteil vermeidenden Verfahren, die man dann eine KI machen lassen kann, nicht mehr gebraucht werden. In der Gesetzgebung zur Gleichbehandlung und gegen Diskriminierung, die in den letzten Jahren implementiert wurde, liegt letztlich ein Grund, der zum Einsatz solcher Systeme führt. Was gebraucht wird, ist ein öffentliches Klima, bei dem die subjektive Entscheidung von Menschen wieder zählen darf, dann müssen wir über die Regulierung solcher KI-Systeme nicht mehr diskutieren, weil es dann viel weniger Bedarf dafür gibt.

Und wenn biometrische Fern-Erkennungssysteme als besonders risikobehaftet angesehen werden, dann muss sich die europäische Politik fragen, wo die allgemeine Akzeptanz für solche Systeme herkommt und warum die Bürger nach dem Prinzip „Ich hab doch nichts zu verbergen“ und „Wenn es bequem ist, immer gern“ ihre Freiheit für Sicherheit und kleine Vorteile herzugeben bereit sind. Auch das ist zum großen Teil in einer Politik begründet, die nicht zuletzt in der Pandemie genau solchen Prinzipien das Wort geredet hat.

Der richtige Umgang mit den Herausforderungen der Künstlichen Intelligenz liegt nicht in strengen Gesetzen, sondern in einer Unterstützung der selbstbestimmten und kompetenten Menschen, die verstehen, was diese Werkzeuge tun, und die darüber nachdenken, ob sie in einer KI-dominierten Welt leben wollen. Dann wird sich in der öffentlichen Meinungsbildung die richtige Balance aus Euphorie über die Möglichkeiten und Skepsis über die Gefahren herausbilden. Wie sie dazu beitragen kann, das sollte die europäische Politik sich fragen.

Von Jörg Phil Friedrich erschien Ende Mai: „Degenerierte Vernunft. Künstliche Intelligenz und die Natur des Denkens“, Claudius-Verlag, 20 €

Anzeige