Veranstaltungen - 30.10.2024 - 09:21
Dr. Niclas Kannengiesser studierte Wirtschaftsingenieurwesen und Informatik an der Universität Kassel und promovierte 2024 in Wirtschaftsinformatik am KIT. Mit einem technischen Hintergrund in Blockchain-Technologie und der Entwicklung dezentraler Anwendungen konzentriert er sich darauf, Informationssysteme sinnvoll zu dezentralisieren—zum Beispiel, um Monopole und Datenkraken zu vermeiden. Sein besonderes Interesse gilt dem kollaborativen verteilten maschinellen Lernen, bei dem die Datensouveränität der Trainingsparteien erhalten bleibt und dennoch Daten gemeinsam genutzt werden können.
In seinem Vortrag griff Dr. Kannengiesser die Ideen von Gerd Gigerenzer auf, einem bekannten Psychologen, der sich mit der Rolle von Heuristiken—einfachen Entscheidungsregeln—in menschlichen Entscheidungsprozessen beschäftigt hat. Gigerenzer zeigte, dass Heuristiken trotz ihrer Einfachheit oft zu guten Ergebnissen führen können. Dr. Kannengiesser überträgt dieses Konzept auf das maschinelle Lernen.
Die Hyperparameter-Optimierung (HPO) ist ein kritischer, aber komplexer Schritt bei der Entwicklung von ML-Modellen. Hyperparameter sind Einstellungen, die vor dem Training festgelegt werden und die Leistung des Modells massgeblich beeinflussen. Beispielsweise legt die sogenannte Lernrate fest, wie schnell ein Modell aus Daten lernt, was unter anderem beeinflusst, wie robust das Gelernte wird. Die Auswahl der richtigen Hyperparameter kann jedoch zeitaufwändig und ressourcenintensiv sein. Durch den Einsatz von Heuristiken können Entwickler diesen Prozess vereinfachen, indem sie auf bewährte Strategien zurückgreifen, die in bestimmten Kontexten gute Ergebnisse liefern.
Es gibt eine Vielzahl von Methoden zur Optimierung von Hyperparametern, die sich in ihrer Komplexität und ihrem Ansatz unterscheiden:
Dr. Kannengiesser führte Interviews und Umfragen durch, um zu verstehen, welche Motive Praktiker bei der Auswahl einer bestimmten HPO-Methode leiten. Er identifizierte dabei verschiedene Ziele, z.B.:
Der zentrale Teil von Dr. Kannengiessers Vortrag war die Entwicklung eines Modells, das zeigt, wie Praktiker ihre Ziele und den Kontext berücksichtigen, um die passende HPO-Methode auszuwählen. Dieses Modell basiert auf drei Hauptfaktoren:
Anhand dieser Faktoren können Entwickler die HPO-Methode wählen, die am besten zu ihren Zielen passt. Zum Beispiel:
Dr. Kannengiesser stellte fest, dass die tatsächliche Wahl der Methode oft nicht mit derjenigen übereinstimmt, die theoretisch am sinnvollsten wäre. Dies kann auf Faktoren wie mangelndes Wissen über alternative Methoden, Gewohnheiten oder den Einfluss des sozialen Umfelds zurückzuführen sein. Manche Entwickler nutzen weiterhin die manuelle Optimierung, obwohl automatisierte Methoden effizienter sein könnten, weil sie sich mit diesen Methoden wohler fühlen oder weil diese in ihrem Umfeld üblich sind.
Im kollaborativen verteilten maschinellen Lernen, bei dem mehrere Teilnehmer gemeinsam Modelle trainieren, ohne ihre Rohdaten zu teilen, wird die Hyperparameter-Optimierung noch komplexer. Methoden wie Federated Learning oder Collaborative Distributed Machine Learning ermöglichen zwar die Zusammenarbeit unter Wahrung der Datensouveränität, stellen aber neue Herausforderungen:
Dr. Kannengiesser betonte, dass in solchen Szenarien neue Ansätze und Methoden für die Hyperparameter-Optimierung entwickelt werden müssen, um den unterschiedlichen Anforderungen gerecht zu werden. Seine aktuelle Forschung konzentriert sich darauf, Lösungen zu finden, die sowohl technische als auch soziale Aspekte berücksichtigen.
Der Research Talk von Dr. Niclas Kannengiesser bot einen tiefgehenden Einblick in die komplexe Welt der Hyperparameter-Optimierung im maschinellen Lernen. Er zeigte auf, wie wichtig es ist, die Wahl der Optimierungsmethode bewusst zu treffen und dabei die eigenen Ziele, das Wissen, das soziale Umfeld und die technischen Ressourcen zu berücksichtigen. Durch die Anwendung von Heuristiken und das Verständnis der verschiedenen Einflussfaktoren können Entwickler effizientere und effektivere ML-Modelle erstellen.
Besonders in kollaborativen Umgebungen stellt die Hyperparameter-Optimierung eine grosse Herausforderung dar, die innovative Ansätze erfordert. Dr. Kannengiessers Arbeit leistet einen wichtigen Beitrag dazu, diese Herausforderungen zu verstehen und Lösungen zu entwickeln, die sowohl die technischen als auch die sozialen Dimensionen des maschinellen Lernens berücksichtigen.