- 31.10.2024 - 16:14
Menschen und Künstliche Intelligenz haben oft unterschiedliche, aber sich ergänzende Fähigkeiten. Während KI-Systeme grosse Datenmengen schnell verarbeiten und Muster erkennen können, bringen Menschen Erfahrung, Intuition und Kontextwissen mit. Durch die Kombination dieser Stärken können erhebliche Effizienzgewinne erzielt werden. Eine wichtige Frage dabei ist jedoch: Wie entscheiden wir, welche Aufgaben wir selbst übernehmen und welche wir der KI überlassen sollten?
Hier kommt das Konzept der Arbeitsaufteilung ins Spiel. Wenn Menschen Aufgaben an die KI delegieren, bei denen sie selbst weniger kompetent sind, und sich auf ihre eigenen Stärken konzentrieren, können beide zusammen bessere Ergebnisse erzielen. In der Praxis zeigt sich jedoch, dass Menschen oft Schwierigkeiten haben, effektiv zu entscheiden, wann sie Aufgaben an die KI abgeben sollten. Ein Hauptgrund dafür ist, dass sie nicht genau wissen, wie gut sie selbst in bestimmten Aufgaben sind – ihnen fehlt sogenanntes Metawissen über ihre eigenen Fähigkeiten. Das heisst, sie wussten nicht, was sie wissen und was nicht.
Erklärbare KI (XAI) bezeichnet KI-Systeme, die ihre Entscheidungen oder Vorhersagen für Menschen nachvollziehbar machen. Anstatt eine "Black Box" zu sein, liefert eine erklärbare KI Informationen darüber, welche Faktoren zu einer bestimmten Entscheidung geführt haben. Dies kann beispielsweise durch die Angabe von Merkmalen geschehen, die besonders wichtig waren.
Prof. Bauer untersuchte, ob XAI dazu beitragen kann, dass Menschen besser einschätzen, wann es sinnvoll ist, Aufgaben an die KI zu delegieren. Die Idee ist, dass, wenn Menschen besser verstehen, wie die KI arbeitet und welche Informationen sie nutzt, sie auch ein besseres Verständnis für ihre eigenen Fähigkeiten im Vergleich zur KI entwickeln können.
In einer Feldstudie mit 149 Teilnehmenden erforschte Prof. Bauer, wie Erklärungen zur Funktionsweise der KI das Delegationsverhalten beeinflussen. Die Aufgabe bestand darin, den Wert von Wohnungen einzuschätzen – eine Tätigkeit, die sowohl von Menschen als auch von KI-Systemen durchgeführt werden kann.
Die Studie begann mit zwei Gruppen. Eine Gruppe der Teilnehmenden erhielt Erklärungen darüber, wie die KI zu ihren Preisbewertungen kommt. Dies umfasste Informationen über wichtige Merkmale wie Wohnfläche, Anzahl der Zimmer, Balkon und andere Faktoren, die den Preis beeinflussen. Der anderen Gruppe wurde nicht erklärt, wie die KI zu ihrer Preissetzung kommt.
Es folgte die Aufgabenteilung: Die Teilnehmenden mussten entscheiden, welche Wohnungen sie selbst bewerten und welche sie der KI überlassen möchten. Dabei hatten sie nur begrenzte Zeit.
Sowohl die Teilnehmenden als auch die KI bewerteten die ihnen zugeteilten Wohnungen unabhängig voneinander. Zusätzlich wurden die Teilnehmenden gebeten, ihre eigene Genauigkeit sowie die der KI einzuschätzen.
Die Ergebnisse zeigten, dass Teilnehmende, die Erklärungen von der KI erhielten, häufiger und mit mehr Vertrauen Aufgaben an die KI delegierten. Die Delegationshäufigkeit stieg um ein Drittel, und das Vertrauen in die Delegation um ein Viertel. Wichtig war dabei, dass die Delegationen auch effektiver waren – die Teilnehmer überliessen der KI eher die Aufgaben, bei denen die KI tatsächlich besser abschnitt.
Der Hauptgrund lag in einer Verbesserung des Metawissens der Teilnehmer. Durch die Erklärungen der KI konnten sie besser einschätzen, in welchen Bereichen die KI ihnen überlegen war und in welchen nicht. Interessanterweise führte dies nicht nur zu einem besseren Verständnis der KI, sondern auch zu einem realistischeren Bild ihrer eigenen Fähigkeiten.
Diese Erkenntnisse haben wichtige Implikationen für die Gestaltung von KI-Systemen. Indem wir KI erklärbarer machen, können wir die Zusammenarbeit zwischen Mensch und Maschine verbessern. Menschen können fundiertere Entscheidungen darüber treffen, wann sie die KI nutzen sollten und wann nicht, was insgesamt zu besseren Ergebnissen führt.
Der Research Talk von Prof. Kevin Bauer verdeutlichte, wie wichtig Erklärungen in der Zusammenarbeit zwischen Mensch und KI sind. Durch erklärbare KI können Menschen nicht nur die Fähigkeiten der KI besser verstehen, sondern auch ihre eigenen. Dies führt zu effizienteren Delegationsentscheidungen und verbessert die Gesamtleistung des Teams aus Mensch und Maschine.
In einer Welt, in der KI immer mehr Entscheidungen beeinflusst, ist es entscheidend, dass wir diese Systeme transparent und verständlich gestalten. Die Forschung von Prof. Bauer leistet einen wichtigen Beitrag dazu, wie wir die Synergien zwischen Mensch und KI optimal nutzen und uns dabei sogar selbst besser verstehen lernen können.