- 31.10.2024 - 16:14 

Künstliche Intelligenz: Wie Erklärungen die Zusammenarbeit verbessern

Künstliche Intelligenz (KI) spielt eine immer grössere Rolle in unserem Alltag – von Sprachassistenten über personalisierte Empfehlungen bis hin zu automatisierten Entscheidungsprozessen in Medizin und Finanzwesen. Doch wie können Menschen und KI effektiv zusammenarbeiten, um das Beste aus beiden Welten zu vereinen? In seinem Research Talk beleuchtete Prof. Kevin Bauer wie erklärbare KI dazu beitragen kann, dass Menschen besser entscheiden, wann sie Aufgaben an KI delegieren sollten. Dabei zeigte er auf, dass Erklärungen der KI nicht nur unser Verständnis der KI selbst verbessern, sondern auch unser Wissen über unsere eigenen Fähigkeiten schärfen.

Menschen und Künstliche Intelligenz haben oft unterschiedliche, aber sich ergänzende Fähigkeiten. Während KI-Systeme grosse Datenmengen schnell verarbeiten und Muster erkennen können, bringen Menschen Erfahrung, Intuition und Kontextwissen mit. Durch die Kombination dieser Stärken können erhebliche Effizienzgewinne erzielt werden. Eine wichtige Frage dabei ist jedoch: Wie entscheiden wir, welche Aufgaben wir selbst übernehmen und welche wir der KI überlassen sollten?

Hier kommt das Konzept der Arbeitsaufteilung ins Spiel. Wenn Menschen Aufgaben an die KI delegieren, bei denen sie selbst weniger kompetent sind, und sich auf ihre eigenen Stärken konzentrieren, können beide zusammen bessere Ergebnisse erzielen. In der Praxis zeigt sich jedoch, dass Menschen oft Schwierigkeiten haben, effektiv zu entscheiden, wann sie Aufgaben an die KI abgeben sollten. Ein Hauptgrund dafür ist, dass sie nicht genau wissen, wie gut sie selbst in bestimmten Aufgaben sind – ihnen fehlt sogenanntes Metawissen über ihre eigenen Fähigkeiten. Das heisst, sie wussten nicht, was sie wissen und was nicht.

Die Rolle von erklärbarer KI in der Entscheidungsfindung

Erklärbare KI (XAI) bezeichnet KI-Systeme, die ihre Entscheidungen oder Vorhersagen für Menschen nachvollziehbar machen. Anstatt eine "Black Box" zu sein, liefert eine erklärbare KI Informationen darüber, welche Faktoren zu einer bestimmten Entscheidung geführt haben. Dies kann beispielsweise durch die Angabe von Merkmalen geschehen, die besonders wichtig waren.

Prof. Bauer untersuchte, ob XAI dazu beitragen kann, dass Menschen besser einschätzen, wann es sinnvoll ist, Aufgaben an die KI zu delegieren. Die Idee ist, dass, wenn Menschen besser verstehen, wie die KI arbeitet und welche Informationen sie nutzt, sie auch ein besseres Verständnis für ihre eigenen Fähigkeiten im Vergleich zur KI entwickeln können.

Wie Erklärungen die Delegation verbessern

In einer Feldstudie mit 149 Teilnehmenden erforschte Prof. Bauer, wie Erklärungen zur Funktionsweise der KI das Delegationsverhalten beeinflussen. Die Aufgabe bestand darin, den Wert von Wohnungen einzuschätzen – eine Tätigkeit, die sowohl von Menschen als auch von KI-Systemen durchgeführt werden kann.

Die Studie begann mit zwei Gruppen. Eine Gruppe der Teilnehmenden erhielt Erklärungen darüber, wie die KI zu ihren Preisbewertungen kommt. Dies umfasste Informationen über wichtige Merkmale wie Wohnfläche, Anzahl der Zimmer, Balkon und andere Faktoren, die den Preis beeinflussen. Der anderen Gruppe wurde nicht erklärt, wie die KI zu ihrer Preissetzung kommt.

Es folgte die Aufgabenteilung: Die Teilnehmenden mussten entscheiden, welche Wohnungen sie selbst bewerten und welche sie der KI überlassen möchten. Dabei hatten sie nur begrenzte Zeit.

Sowohl die Teilnehmenden als auch die KI bewerteten die ihnen zugeteilten Wohnungen unabhängig voneinander. Zusätzlich wurden die Teilnehmenden gebeten, ihre eigene Genauigkeit sowie die der KI einzuschätzen.

Ergebnisse und Implikationen für die Praxis

Die Ergebnisse zeigten, dass Teilnehmende, die Erklärungen von der KI erhielten, häufiger und mit mehr Vertrauen Aufgaben an die KI delegierten. Die Delegationshäufigkeit stieg um ein Drittel, und das Vertrauen in die Delegation um ein Viertel. Wichtig war dabei, dass die Delegationen auch effektiver waren – die Teilnehmer überliessen der KI eher die Aufgaben, bei denen die KI tatsächlich besser abschnitt.

Der Hauptgrund lag in einer Verbesserung des Metawissens der Teilnehmer. Durch die Erklärungen der KI konnten sie besser einschätzen, in welchen Bereichen die KI ihnen überlegen war und in welchen nicht. Interessanterweise führte dies nicht nur zu einem besseren Verständnis der KI, sondern auch zu einem realistischeren Bild ihrer eigenen Fähigkeiten.

Diese Erkenntnisse haben wichtige Implikationen für die Gestaltung von KI-Systemen. Indem wir KI erklärbarer machen, können wir die Zusammenarbeit zwischen Mensch und Maschine verbessern. Menschen können fundiertere Entscheidungen darüber treffen, wann sie die KI nutzen sollten und wann nicht, was insgesamt zu besseren Ergebnissen führt.

Fazit

Der Research Talk von Prof. Kevin Bauer verdeutlichte, wie wichtig Erklärungen in der Zusammenarbeit zwischen Mensch und KI sind. Durch erklärbare KI können Menschen nicht nur die Fähigkeiten der KI besser verstehen, sondern auch ihre eigenen. Dies führt zu effizienteren Delegationsentscheidungen und verbessert die Gesamtleistung des Teams aus Mensch und Maschine.

In einer Welt, in der KI immer mehr Entscheidungen beeinflusst, ist es entscheidend, dass wir diese Systeme transparent und verständlich gestalten. Die Forschung von Prof. Bauer leistet einen wichtigen Beitrag dazu, wie wir die Synergien zwischen Mensch und KI optimal nutzen und uns dabei sogar selbst besser verstehen lernen können.

north