Ab wann ist eine Maschinenentscheidung riskant? Der EU-Rechtsrahmen für künstliche Intelligenz
Ohne die Hilfe künstlicher Intelligenz (KI) wird es in der Digitalisierung nicht weitergehen. Aktuell wird auf EU-Ebene eine KI-Verordnung entwickelt. Darum geht es.
9.05.2022
Prof. Dr. Rolf Schwartmann, Leiter der Forschungsstelle für Medienrecht an der TH Köln; Vorsitzender der Gesellschaft für Datenschutz und Datensicherheit (GDD) e.V.
Hinweis „Künstliche Intelligenz in der Justiz – Impulse aus NRW“ war 02. Mai 2022 Thema eines gemeinsames Symposiums des Ministeriums der Justiz des Landes Nordrhein-Westfalen und der Kölner Forschungsstelle für Medienrecht an der TH Köln.
Sie können die Vorträge von Peter Biesenbach (JM NRW), Bernd Scheiff (OLG Köln), Markus Hartmann (ZAC-NRW) und Rolf Schwartmann (TH köln) im DataAgenda Podcast Special #1 hören.
Den Vortrag von Axel Voss (MdEP) und die von Martin Kessen (BGH) moderierte Podiumsdiskussion aller Vortragenden hören Sie im DataAgenda Podcast Special #2 .
Einen Bericht zur Veranstaltung können Sie hier abrufen.
Die EU will besonders riskante Anwendungen künstlicher Intelligenz besonderen rechtlichen Regeln unterziehen. Entscheidungen, die für den Menschen kein Risiko bergen, brauchen nicht allein deshalb besondere Regeln, weil sie von Maschinen getroffen werden. Risikoreiche Anwendungen, die menschliches Verhalten auswerten und den Menschen steuern können, will man verbieten.
Anwendungen, die zwar nicht risikolos, aber mit Blick auf ihr Gefährdungspotential kalkulierbar sind, will man von Voraussetzungen abhängig machen. Das gilt etwa für den Einsatz künstlicher Intelligenz bei der Verbrechensbekämpfung.
Es kommt auf das richtige Maß an
Beim Einsatz von künstlicher Intelligenz gibt es viele Zweifelsfälle. Kann zum Beispiel die weithin bekannte algorithmenbasierte, kundenorientierte Werbeansprache riskant und deshalb regulierungsbedürftig werden, weil sie zu sehr in das Bewusstsein der Menschen dringt? Einzelheiten dazu muss der Europäische Gesetzgeber entscheiden. Er muss dabei das richtige Maß wahren.
Nur bei besonderem Risikopotenzial algorithmendeterminierter Entscheidungen ohne menschliches Zutun hat die Datenethikkommission eine Nachbesserung des europäischen Rechts verlangt. Zu Recht, denn es ist schließlich ein Unterschied, ob per Algorithmus ein schlechter Versicherungsvertrag vorgeschlagen wird oder ob man von einem „Roboterstaatsanwalt“ vor Gericht angeklagt wird. Es bedarf jedenfalls dann eines risikoabhängigen Schutzes und spezifischer Verteidigungsmöglichkeiten gegen die Algorithmen, wenn der Mensch zum Objekt der Maschine wird.
Fehlende Diversität als Rechtsrisiko?
Dass die Empfehlung einer Maschine für einen Schuhkauf ein Fall für die Algorithmenkontrolle der KI-Verordnung wird, weil sie Fragen der Diversität nicht berücksichtigt, wird diskutiert. Stellt das ein regulierungsbedürftiges ethisches oder rechtliches Risiko dar? Darüber kann man lange streiten.
KI in der Justiz
Andere Fälle sind eindeutiger. Etwa bei staatlichen Anwendungen, insbesondere im Bereich der Justiz. Hier sind wir im digitalen Zeitalter auf die Hilfe künstlicher Intelligenz angewiesen, wenn man der Internetkriminalität etwas entgegensetzen möchte.
Nur KI kann nämlich schnell und treffsicher Bild- und Videodateien auf strafbare Inhalte überprüfen. Sie schlägt Alarm, wenn ein Kinderfoto pornografisch ist und kann es von einem harmlosen Strandfoto unterscheiden.
Europaparlament erörtert künstliche Intelligenz
Im Europaparlament wird die KI-Verordnung aktuell debattiert. Das Anliegen der dortigen Wirtschaftspolitiker ist es, die Anforderungen an die riskanten Anwendungen nicht zu überspannen. Wenn Algorithmen für Leib, Leben oder Eigentum gefährlich werden oder in die Psyche der Menschen eindringen, weil sie deren Gedanken beeinflussen, wird es kritisch.
Spielraum für die Wirtschaft
Das ist wichtig, denn nur wenn es rechtlichen Spielraum für die technische Entwicklung harmloser, notwendiger und sinnvoller KI-Anwendungen gibt, kann die europäische Wirtschaft bestehen. Hier ergibt es Sinn, neben der konkreten Nutzung einer Anwendung zusätzlich auf deren Kontext zu achten. Nur wenn Kontext und Nutzung kritisch sind, muss man besondere Regeln treffen.
Mai 2022