KI in Forschung und Lehre: So vermeidet man Fallstricke

TH_20230428_medienrecht_15min-840x430.jpg (Bild: TH-Köln)

Bereits 1921 beschrieb der österr. Philosoph Ludwig Wittgenstein die begrenzende Wirkung der Sprache: „Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.“ Etwas mehr als ein Jahrhundert später kam ChatGPT auf den Markt und offenbarte, dass nicht nur unsere eigene Sprachgrenze unsere Welt einschränkt. Auch die Grenzen der Sprache unserer KI-Systeme können unsere Gedankenwelt limitieren.

28.05.2024

Moritz Köhler ist wissenschaftlicher Mitarbeiter der Kölner Forschungsstelle für Medienrecht an der TH Köln.

KI in der Wissenschaft

Die Grenzen digitaler Verständniswelt hat der Verfasser dieses Editorials am eigenen Leib erfahren. Bei der Arbeit an einem wissenschaftlichen Text suchte er eine treffende Definition für „algorithmische Systeme“. Die Durchsicht der Fachliteratur führte zu der Erkenntnis, dass die gängigen Definitionsansätze für die Zwecke seiner Arbeit unpassend sind. Sie legen den Fokus zu stark auf den Einsatz der Systeme zur Entscheidungsfindung, obwohl moderne algorithmische Systeme weitaus mehr leisten können. Auf Basis dieser Erkenntnis entwickelte der Verfasser also eine eigene Definition. Bei der Überarbeitung des Textes einige Tage später kam die Idee auf, ein KI-Sprachsystem nach einer Definition zu fragen, um die vorherigen Erkenntnisse zu überprüfen. Das KI-System lieferte einen zunächst überzeugenden Ansatz. Dabei fiel nicht auf, dass die KI den bewusst ausgelassenen Entscheidungsbegriff mit der ihr eigenen eloquenten Leichtigkeit wieder eingefügt hatte.

Die Regeln der Wahrscheinlichkeit…

Dem System kann kein Vorwurf gemacht werden: In der Datenbasis ist der Begriff des algorithmischen Systems fest mit dem Begriff der Entscheidung verknüpft, so verlangt es die statistische Auswertung der herkömmlichen Definitionen. Eine Verknüpfung in der angeforderten Definition war daher nur wahrscheinlich; ein Ergebnis narrativer Notwendigkeit, wie es die KI-Forscher Léon Bottou und Bernhard Schölkopf treffend ausdrücken. Trotzdem unterstreicht das Beispiel die Schwäche generativer KI: Sie kann den kreativen Fortschritt zunichte machen, der Kern einer wissenschaftlichen Publikation ist. Zugleich folgte der Verfasser der Technologie, wie ein naiver Autofahrer, der seinem Navigationsgerät gehorcht, bis er im nächsten See landet.

… und ihre Folgen

Machen sich Forscher und Lehrende diese Risiken im Umgang mit künstlicher Intelligenz nicht bewusst, kann ihr Einsatz zur Gefahr für Wissenschaft und demokratische Bildung werden. Verantwortungsbewusst eingesetzt kann KI Fortschritt garantieren, ansonsten droht der Stillstand. Zur guten wissenschaftlichen Praxis gehört das ständige Hinterfragen der gefundenen Ergebnisse. Das gilt umso mehr, wenn die Ergebnisse nicht von einem Menschen, sondern von einer KI gefunden wurden.

F.A.Z. Podcast zu Gast an der Forschungsstelle

Die beschriebene Wirkweise künstlicher Intelligenz macht Eigenverantwortlichkeit und eine ausgeprägte KI-Kompetenz erforderlich. Darüber hinaus bedarf es einer Regulierung, die die Rechte betroffener Personen und die Werte unserer Gesellschaft angemessen schützt. Wie die jetzt in Kraft tretende KI-Verordnung der Europäischen Union das leisten kann und wo das Prüfungsrecht Grenzen für den KI-Einsatz zieht, bespricht Prof. Dr. Rolf Schwartmann mit Lisa Becker und Ursula Kals aus der F.A.Z. Wirtschaftsredaktion am 4.6. im F.A.Z. Beruf & Chance Live Podcast unter der Überschrift „Von Schummelei bis Chance – KI in der Lehre“. Die Aufzeichnung findet zwischen 15:00 Uhr und 16:30 Uhr am Campus Südstadt im Mevissensaal statt. Interessierte werden um Anmeldung gebeten unter folgendem Link. Ab 10:00 Uhr haben zuvor Studierende und Absolvent:innen der Studiengänge der Fakultäten für Wirtschafts- und Rechtswissenschaften sowie für Informations- und Kommunikationswissenschaften die Gelegenheit, auf der Karrieremesse Recht und Wirtschaft potenzielle Arbeitgeber kennenzulernen. Die Forschungsstelle freut sich auf Ihren Besuch.

Mai 2024

M
M