Nachgefragt bei Prof. Dr. Victor Klockmann
Die Anwendung von Künstlicher Intelligenz (KI) führt nicht zur Erschaffung neuer menschenähnlicher Akteure, sondern es werden technologische Werkzeuge für menschliche Zwecke eingesetzt. Maschinen agieren lediglich auf Basis der ihnen zugeführten Daten. Die alleinige Verantwortung für diese Daten und ihre Verwendung liegt beim Menschen. Es findet also keine Vermenschlichung von Maschinen statt.
Aber gibt es nicht doch auch jetzt schon Szenarien, in denen Maschinen bereits eigene Entscheidungen treffen? Wir haben bei unserem Experten Prof. Dr. Victor Klockmann, Professur für Mikroökonomie, insb. Digitalisierung, nachgefragt.
Victor Klockmann: Tatsächlich gibt es Szenarien, in denen Maschinen scheinbar eigenständige Entscheidungen treffen. Allerdings beruht dies auf dem Konzept des „Human-in-the-Loop“. Dabei bleibt der Mensch als entscheidender Akteur in den Prozessen involviert, indem er die KI überwacht, lenkt und die Grenzen für autonome Handlungen festlegt. So gewährleisten wir, dass Maschinen im Rahmen menschlicher Zielsetzungen agieren und keine unvorhersehbaren oder unerwünschten Entscheidungen treffen. Der „Human-in-the-Loop“-Ansatz ermöglicht eine effektive Kontrolle und minimiert potenzielle Risiken autonomer Maschinenentscheidungen. Es ist wichtig zu betonen, dass Maschinen keine Autonomie im Entscheidungsprozess haben. Jegliche Entscheidungen resultieren aus vorprogrammierten Anweisungen und Daten, die von Menschen bereitgestellt wurden.
In vielen Fällen jedoch unterbreiten Maschinen lediglich Vorschläge, die abschließend von Menschen überprüft werden. Die Vorhersage von Ereignissen wird zwar von Maschinen übernommen, jedoch behält das Urteilsvermögen seine entscheidende Bedeutung und liegt letztendlich in menschlichen Händen. Ein exemplarisches Anwendungsgebiet ist die erfolgreiche Nutzung Künstlicher Intelligenz zur Identifikation potenzieller Steuerhinterziehung in umfangreichen Datensätzen. Die KI kann auffällige Muster und verdächtige Transaktionen erkennen, was Steuerbehörden ermöglicht, gezieltere Prüfungen durchzuführen. Ebenso führt die Anwendung fortschrittlicher Algorithmen zur Vorhersage von Konsumentscheidungen im E-Commerce zu einer personalisierten Kundenansprache und einer effizienten Bestandsplanung, was schlussendlich zu optimierten Geschäftsprozessen führt. Die Überwachung und Kontrolle dieser Systeme liegen jedoch stets in den Händen menschlicher Akteure.
WiWi Fakultät: Und worauf basieren solche Entscheidungen?
Victor Klockmann: Solche Entscheidungen basieren auf vordefinierten Algorithmen und Regeln, die von Menschen entwickelt und programmiert werden. Dennoch bringt die Künstliche Intelligenz oft das sogenannte Black-Box-Problem mit sich, da die Funktionsweise komplexer Modelle schwer nachvollziehbar sein kann. Dies führt zu einer fehlenden Transparenz darüber, wie genau eine Maschine zu einer bestimmten Entscheidung gelangt.
Um diesem Problem zu begegnen, wurden diverse Ansätze der erklärbaren Künstlichen Intelligenz („explainable AI“) entwickelt. Diese Ansätze sollen sicherstellen, dass die Entscheidungsfindung von KI-Systemen für Menschen nachvollziehbar ist. Durch die Integration von Mechanismen, die die Logik und die Gründe hinter den getroffenen Entscheidungen offenlegen, wird versucht, das Verständnis und das Vertrauen in KI-Systeme zu stärken. So können menschliche Entscheidungsträger die Funktionsweise besser nachvollziehen und im Bedarfsfall eingreifen, um ethische Standards und gesellschaftliche Werte zu wahren.
WiWi Fakultät: Besteht die Gefahr, dass sich maschinell getroffene Entscheidungen verselbständigen und im schlimmsten Fall sich sogar gegen die Menschheit richten könnte?
Victor Klockmann: Dieses Szenario ist vor allem dann bedenklich, wenn Künstliche Intelligenz in autonom agierenden Systemen eingesetzt wird, die komplexe Aufgaben ohne menschliche Überwachung ausführen. Mögliche Risiken können auftreten, wenn die Algorithmen in unvorhersehbaren Situationen oder bei unklaren Zielvorgaben eigenständige Handlungen entwickeln. Ein zentrales Element dabei ist das Konzept der „Zielfunktion“, die als Ziel oder Zweck für ein KI-System fungiert und die Grundlage für dessen Entscheidungsfindung und Verhalten bildet. Wichtig ist, dass die Maschine selbst die Zielfunktion nicht verändern kann; diese wird von den Entwicklern festgelegt.
Die Herausforderung besteht jedoch darin, dass die Zielfunktion klar und präzise formuliert sein muss. Insbesondere bei komplexen Modellen wie Sprachmodellen könnte eine unklare Formulierung der Zielfunktion zu unerwünschten Verhaltensweisen führen. Wenn die Anweisungen oder Zielvorgaben in der Zielfunktion nicht eindeutig sind, besteht die Gefahr, dass das Modell Interpretationen wählt, die nicht im Einklang mit den beabsichtigten Werten stehen.
Um solche Gefahren zu minimieren, sind ethische Richtlinien, transparente Entscheidungsprozesse und klare Verantwortlichkeiten entscheidend. Ein sorgfältiges Design von KI-Systemen, das menschliche Werte und ethische Prinzipien berücksichtigt, ist unabdingbar, um sicherzustellen, dass maschinelle Entscheidungen im Einklang mit menschlichen Interessen und Werten stehen. Regulatorische Maßnahmen und die Implementierung von Sicherheitsmechanismen können ebenfalls dazu beitragen, potenzielle Risiken zu kontrollieren.