Ein Artikel aus dem Hochschulmagazin inside out #60 (2022)

German Angst?

Ist Deutschland ein Land der Technologieverweigerer oder ist die Akzeptanz von KI in der Gesellschaft größer, als man denkt? Zumindest neigen wir im Alltag zu einer gewissen Bequemlichkeit im Umgang mit Technologien, die KI miteinbeziehen.

Warum sich die Gesellschaft intensiver mit dem Thema beschäftigen sollte und welche Regulierungen beim Einsatz einer KI sinnvoll sind, erklärt die Sozialphilosophin Prof. Dr. Carmen Kaminsky.

Robotermarionette (Bild: Andreas Limbach / AdobeStock.com)

Geheimnisvolle Maschinen, die die Arbeit von Menschen übernehmen. Versteckte Sensoren, die unser Verhalten kontrollieren. Eine Software, die darüber entscheidet, wer einen Job bekommt oder einen Kredit, und wer nicht. All das sind Szenarien, wenn nicht mitunter bereits Realitäten Künstlicher Intelligenz, vor denen sich vermeintlich viele Menschen fürchten.

Viele? „Die Angst scheint gar nicht so groß zu sein, wenn man sieht, wie viele Menschen Systeme wie Navigationsgeräte, Sprachassistenten und Tracking Apps fröhlich und unbedarft nutzen“, sagt Prof. Dr. Carmen Kaminsky, Professorin für Sozialphilosophie und Ethik an unserer Hochschule. Studien und Umfragen bestätigen durchaus den Eindruck, dass die Angst bei der Mehrheit der Menschen eher gering ausgeprägt ist.

Oder ist das nur Verdrängung? Ignoranz? Wie viel Grund zu konkreten Befürchtungen gibt es denn eigentlich? Und wie müsste KI gestaltet sein, um die tatsächlichen Gefahren zu minimieren? Welche ethischen Kriterien sind dabei entscheidend? Fragen, mit denen sich Carmen Kaminsky an der Fakultät für Angewandte Sozialwissenschaften intensiv beschäftigt. Sie nennt drei ethische Dimensionen, die dabei wichtig seien: Die Berufsethik derer, die eine KI programmieren, dann die Ethik der Anwendung und schließlich und vor allem die Ethik des Designs, die die Frage beantworten muss: Ist die KI so gestaltet, dass die Berechnungen und Datensammlungen, die sie ermöglicht, auch ethisch vertretbar sind?

Grundsätzlich sind die Kernfragen der Ethik die nach Gerechtigkeit und nach dem „guten Leben“. Stichwort Gerechtigkeit: Was diskriminierend ist, kann nicht gerecht sein. Die Philosophin sieht genau darin, in der Diskriminierung und Unfairness, eines der Hauptprobleme angewandter KI. Programme zum Beispiel, die die Entscheidung über Kreditvergaben von Banken fällen und dabei die Frage, in welcher Straße jemand wohnt, zu einem wesentlichen Kriterium machen. Wohnen dort viele, die wir bereits als nicht kreditwürdig eingestuft haben? Dann bekommen neu Antragstellende auch keinen.

Carmen Kaminsky (Bild: privat)

 Diskriminierung und Unfairness gehören zu den Hauptproblemen angewandter KI.”

Dr. Carmen Kaminsky ist Professorin für Sozialphilosophie und -ethik an der Fakultät für Angewandte Sozialwissenschaften und Mitglied des interdisziplinären Forschungsschwerpunkts Digitale Technologien und Soziale Dienste (DiTeS).

Ein weiteres Beispiel sind KI-Systeme, die Einfluss auf unser öffentliches Leben und Gemeinwohl nehmen. Gesichtserkennungssoftware beispielsweise, die im öffentlichen Raum genutzt wird. Gerade hier zeigt sich nach Ansicht der Professorin, dass KI die grundrechtlichen und demokratischen Fundamente unserer Gesellschaft in Gefahr bringen kann. Sie kann bestehende Vorurteile und ethisch fragwürdige Haltungen nicht nur fortsetzen, sondern sogar verschärfen.

Solche Vorurteile und Tendenzen ließen sich in einfachen KI-Systemen mit eng begrenzten Anwendungsbereichen noch ausmerzen, aber in komplexeren kaum noch, meint Kaminsky und nennt für diese problematischen Fälle zuallererst prädiktive Systeme. Solche also, die berechnen, ob jemand (noch) einmal straffällig werden wird, wie der Krankheitsverlauf bei einer Person sein wird oder ob ein Verkehrsstau oder Unfall bevorsteht. Oder eben auch, ob mit einer pünktlichen Rückzahlung eines Kredites zu rechnen ist.

Die Gesellschaft müsse sich noch viel intensiver als bisher mit dem Thema auseinandersetzen und sich klar werden, was die Voraussetzungen dafür sind, dass wir einer KI vertrauen können, sagt die Ethikerin. Und welche könnten das sein? Ganz sicher: Transparenz. Kaminsky hält zum einen ein Open-Source-System für notwendig, in dem alle, die wollen, Einblick in die Systematik einer KI nehmen können. Damit könne die Entwicklung von KI- Systemen dann auch ein partizipativer, transparenter Prozess werden. Und in diesem Prozess wird auch entschieden, welche Daten wer erheben und zu welchem Zweck eigentlich nutzen darf: „Wir sollten die KI so bauen, dass sie selbst Rechenschaft darüber ablegt, warum sie wie entscheidet.“

Wenn es in der Gesellschaft Angst vor KI gibt, dann ließe sie sich so sicher mindern. Aber als gänzlich einseitiges Phänomen gibt es sie wohl ohnehin nicht. Eher ist es diffuses Unbehagen, das neben dem Wohlgefühl von Bequemlichkeit existiert und nicht selten auch mit einem guten Anteil Gleichgültigkeit verbunden ist. Eine lässige Haltung übrigens, die Professorin Kaminsky gar nicht so abwegig findet: Sollten Menschen nicht auch leichtfertig sein dürfen? „Doch, sie müssten nur wissen, dass sie gerade leichtfertig sind! Es müsste bei jeder privat genutzten KI eine Art Beipackzettel geben, der sagt: Wenn Sie diese App nutzen, sollten Sie bedenken, dass ...“

KI am Arbeitsplatz: Stimmen Sie diesen Aussagen zu?

Infografik Quelle: Bitcom Research 2020, Statista.de. In der Studie "Künstliche Intelligenz 2020" wurden 1.004 Menschen ab 16 Jahren befragt. Die Statistik bildet nur die Top-Two-Boxes "stimme voll zu" sowie "stimme eher zu" ab. (Bild: Anna Wöffen /TH Köln)

Die Anwendungsmöglichkeiten von KI werden dabei immer weiter wachsen. Ist zum Beispiel die Position eines Richters oder einer Richterin, die von einem Roboter oder einer irgendwie gearteten KI besetzt ist, nur eine Vision? Nein, sagt die Philosophin: „Wir haben ein klares Rechtssystem und eine lange Historie dokumentierter Rechtsprechung. Diese Datensätze kann man in eine KI einspeisen, die daraufhin ihr Urteil fällen kann.“ Aber Menschen zuckten bei dieser Vorstellung zurück – „und das, obwohl wir wissen, dass auch das Urteil von Richterinnen und Richtern mit davon abhängt, wie gut sie geschlafen haben, ob der Kaffee gut war oder nicht. Wir denken also gar nicht, dass Menschen bessere Urteile fällen als KI – im Gegenteil, wir hätten eigentlich guten Grund anzunehmen, dass die KI besser ist.“

Voraussetzung dafür sei allerdings, dass wir sie mit den richtigen Daten füttern und ihre Entscheidungswege gegebenenfalls korrigieren können. „Je stärker eine KI in existenziell bedeutsame Zusammenhänge eingreift, desto sorgfältiger müssen wir ihre Konstruktion bedenken und Nutzungen diskutieren.“ Ob Natürliche oder Künstliche Intelligenz, am Ende kommt es also doch immer auf den Menschen an und auf die ethischen Grundsätze, nach denen er handelt.

August 2022

Ein Artikel aus dem Hochschulmagazin inside out #60 (2022)


M
M