Search
Generic filters
Exact matches only
Filter by content type
Users
Attachments

Management von Bias in der KI-Modellentwicklung

Bei KI-Projekten werden in der Regel riesige Datenmengen zur Generierung von qualitativ hochwertigen Outputs benötigt. Die Akzeptanz einer KI-Lösung hängt in hohem Masse vom erstklassigen und präzisen Betrieb derselben ab. Da sich Trainingsdaten dynamisch ändern, muss dabei der komplette Lebenszyklus betrachtet werden.

Bei der Umsetzung von KI-Projekten spielt Bias eine grosse Rolle. Unter Bias versteht man eine systematische Abweichung der Ergebnisse eines Algorithmus von den gewünschten Ergebnisses. Dies kann sowohl durch eine Verzerrung in den Daten als auch durch eine Verzerrung im Algorithmus geschehen und zu ungenauen oder ungewollten Ergebnissen führen. Dadurch können KI-Projekte langfristig Schaden nehmen und Vertrauen in die KI-Lösung verspielt werden. Hierfür gibt es zahlreiche Beispiele, wie den Rekrutierungsalgorithmus, der für technische Stellenausschreibungen Männer bevorzugt, da der zugrundeliegende Trainingsdatensatz hauptsächlich Männer in technischen Berufen enthielt.

Verschiedene Data Bias können in jeder Phase des Projektes auftreten, weshalb es wichtig ist, sich in jeder Phase des Projektes der möglichen Bias bewusst zu sein. Um dies zu erreichen, haben wir die potentiellen Bias im CRISP-DM verortet. Ist ein Bias identifiziert, kann er mit speziellen, auf den jeweiligen Bias angepassten Mitigation Strategys behandelt werden. Nicht immer wird ein Bias in der selben CRISP-DM Phase mitigiert, in der er auftritt. Aus diesem Grund ist ein Mapping der Mitigation Strategys sowohl zu den Arten von Bias, als auch zu den Projektphasen nötig.

Kommen Sie bei Fragen zu Bias in der KI-Modellentwicklung gerne auf uns zu!

Autor: Tobias Fahse

Datum: 8. Februar 2021