text.skipToContent text.skipToNavigation

Advanced Analytics und KI

Tools und Technologien der Zukunft - bei uns schon heute im Einsatz. Ein Interview mit Dr. Dariush Gigloo, Senior Data Scientist bei Keller & Kalmbach


Herr Dr. Gigloo, wie kamen Sie denn zu Keller & Kalmbach?

Es war tatsächlich Schicksal. Ich war an der TU München und fast am Ende meiner Promotion. An der Uni wollte ich nicht bleiben. Zufällig bin ich über einen Bekannten auf Keller & Kalmbach aufmerksam geworden. Als ich mir die Website der Firma angeschaut habe, habe ich gesehen, dass Keller & Kalmbach genau in dem Bereich tätig ist, auf dem ich mich im Studium und durch meine Forschungstätigkeiten spezialisiert habe. Ich habe direkt Dr. Seidl angeschrieben und kurz danach war ich in der Firma.

Was war denn das Thema Ihrer Promotion?

Mein Thema war „Dynamische Sicherheitsbestandsplanung in der Produktions- und Bestandsplanung“.
Es ging darum, wie man den Lagerbestand durch Entscheidungen über Bestell- oder Produktionsmengen optimiert, sodass man einerseits den versprochenen Servicegrad für die Kunden einhält, aber auch gleichzeitig die internen Kapitalbindungs- sowie Bestellabwicklungskosten minimiert. In der Praxis muss man solche Entscheidungen oft in einem unsicheren Umfeld treffen, weil wir nie genau vorhersagen können, was der Kunde in Zukunft benötigen wird oder wann der Lieferant die richtigen Mengen liefert. Im Rahmen meiner Doktorarbeit habe ich einen neuen integrierten Lösungsansatz entwickelt, um diese Unsi- cherheit mathematisch zu quantifizieren und darauf basierend einen dynamischen Sicherheitsbestand festzulegen, um am Ende den versprochenen Servicegrad zu erreichen. Den Lösungsansatz habe ich in einer realen Fallstudie validiert und die Ergebnisse in einer anerkannten Fachzeitschrift veröffentlicht.

Dr. Dariush Tavaghof Gigloo, 38, geboren im Iran, studierte Wirtschaftsingenieurwesen in Teheran. Er kam 2008 nach Deutschland, studierte weiter an der TU Berlin, war Projekt- mitarbeiter an der Universität Wien und Wissenschaftlicher Mitarbeiter an der TU München, wo er auch promovierte. Er ist seit 2017 bei Keller & Kalmbach.

Wie war die Situation bei Keller & Kalmbach, als Sie anfingen? Mit welchen Tools arbeitete man? Was bestimmte diese Zielgrößen wesentlich?

Zunächst fand ich beeindruckend, wie gut die Dateninfrastruktur bei Keller & Kalmbach war. Das hatte ich ehrlich gesagt nicht erwartet. Ich habe starke Systemlösungen wie das ERP System proAlpha und die Bestandsoptimierungssoftware addONE entdeckt. An der Uni haben wir mit vielen kleinen und großen Unternehmen gearbeitet, viele Firmen waren nicht soweit.
Aber gleichzeitig gab es viele Probleme und Schwierigkeiten. Man hat versucht, die internen Prozesse relativ kompromisslos mit den erwähnten Standardsoftwares zu standardisieren, automatisieren oder zu zentralisieren, ohne dabei ausreichend auf die besondere Natur der C-Teile-Lieferkette oder die Kultur der Firma zu achten. Die Lieferkette von Beschaffung bis Ver- trieb war teilweise langsam oder inflexibel. Durch die angestrebte Zentralisierung in der Disposition waren Verantwortungen teilweise verschoben und die fehlende Datenqualität hat oft zu Fehlentscheidungen geführt. Die Auswirkungen waren erheblich: Der Lagerbestand ist stets gestiegen. Der Servicegrad war aber nicht besonders befriedigend.

Wie man am Zahlenverlauf der beiden Kenngrößen über die Jahre sehen kann hat sich das enorm verbessert. Mit welchen Mitteln haben Sie diesen Erfolg erreicht?

Zunächst muss ich betonen, dass ein solcher Erfolg nur kollektiv und mit konstruktiver Zusammenarbeit erreicht werden kann. Die Geschäftsleitung hat konsequente Entscheidungen getroffen, die Mitarbeiter und vor allem unsere großartigen Disponenten haben eng zusammengearbeitet. Klar, am Anfang hatte ich auch viele dieser Probleme gesehen. Aber ich war zurückhaltend. Kaum jemand kannte mich, ich musste noch Vertrauen aufbauen. Ich wusste, dass es immer sachliche oder historische Gründe gibt, warum die Leute in einer gewissen Art und Weise arbeiten. Die musste ich erst einmal herausfinden, um naive oder oberflächliche Lösungen zu vermeiden.

Wir mussten unbedingt unsere Datenqualität erhöhen. Um die Datenqualität zu erhöhen, müssen wir die Datenquellen identifizieren und sie sogleich prüfen, bevor sie ins System eingespielt werden. Dabei haben wir verschiedene Tools, sogenannte Advanced Analytics Tools, entwickelt, z.B. das Tool ForecastImporting, das die Forecastzahlen, die uns unsere Kunden mitteilen, prüft und analysiert. Falls das Tool einen Fehler identifiziert, muss er behoben werden, sonst erlaubt das Tool nicht, dass man die Forecastzahlen ins System einspielt! Ein weiteres Tool visualisiert und überwacht die Änderungen der eingespielten Forecastzahlen über einen längeren Zeitraum. Ein anderes Tool simuliert die Bestandsverläufe mittels Szenarioplanung, um die kritischen Bestandsverläufe im Voraus zu identifizieren. Diese Tools sind intuitiv, schnell und modular aufgebaut. Daher macht es Spaß mit ihnen zu arbeiten.

Diese Tools haben Sie selbst entwickelt?

Ja, diese Tools habe ich tatsächlich selbst entwickelt, aber ich bekomme auch viele Verbesserungsvorschläge sowie Unterstützungen von unserem IT-, Data Warehouse- und ERP-Team.

Vielleicht können Sie noch etwas zu der Quantität der Daten sagen, also z.B. Artikelanzahl, Zahl der Mitarbeiter/Disponenten bei Keller & Kalmbach, damit man die Komplexität des Problems erkennt.

Wir haben über 200.000 aktive Teile. Ungefähr 50 Disponenten disponieren diese Teile und lösen jährlich ca. 160.000 Bestellpositionen aus. Die Teile beschaffen wir von über 3.000 verschiedenen Lieferanten aus der ganzen Welt, die Bestellungen werden überwacht bis sie ins Lager kommen.

Ich kann mir vorstellen, dass es zurzeit besonders herausfordernd ist, da Lieferzeiten extrem steigen und die Bedarfe bei den Kunden zunehmen; es gibt sicher auch Lieferprobleme. Sie haben aber auch Tools entwickelt wie den Gesundheitsindikator, mit dem das gut gelingt.

Ja, die Situation ist aktuell besonders herausfordernd. Zum Glück sind wir intern gut darauf vorbereitet, was die Prozesse oder die Datenqualität angeht. Wir haben letztes Jahr das wichtige Upgrade von addONE erfolgreich abgeschlossen. Unsere Mitarbeiter und vor allem die Disponenten sind in letzter Zeit wiederholt geschult worden. Wir haben unsere Advanced Analytics Tools im Einsatz u.a. das Tool Gesundheitsindikator, welches alle 200.000 Teile nach einer intelligenten Reichweite-Matrix in grüne, gelbe, rote oder schwarze Teile aufteilt und damit eine einfache Übersicht schafft, welche Bestandsverläufe gesund oder ungesund sind. Außerdem sind wir in der Lage, die Dispositionsparameter, Lieferzeiten und Bedarfsprognosen automatisch an die aktuelle Situation anzupassen. Viele Anpassungen finden völlig automatisch statt.

Ich gebe Ihnen ein Beispiel: Als wir bemerkt haben, dass der Suez-Kanal gesperrt ist, haben wir lediglich die Transportzeit der betroffenen Artikel aus Asien erhöht. Die Lieferzeiten wurden am nächsten Tag automatisch verlängert. Die verlängerten Lieferzeiten haben nicht nur die Anliefer- daten der offenen Bestellungen aktualisiert, sondern auch den dynamischen Sicher- heitsbestand und den generellen Bestellrhythmus. Also da vieles bei uns synchronisiert ist, sind wir auch in der Lage, sehr schnell auf die externen Änderungen zu reagieren.

Das ist fantastisch. Was sind denn jetzt bzw. in Zukunft Ihre Aufgaben? Wo sehen Sie noch wichtige Felder in diesem Bereich der Disposition, aber vielleicht auch darüber hinaus?

Aus meiner Sicht sind wir noch am Anfang, weil dank unseres Fortschritts im Bereich Digitalisierung uns viele neue Technologien zur Verfügung stehen sowie die motivierten Mitarbeiter, die noch anspruchsvollere Aufgaben übernehmen wollen. Wir möchten die neuen Technologien vor allem im Bereich Cloud-Services konsequent nutzen. Dabei konzentieren wir uns auf unser Zukunftsbild 2025. Ich erwähne hier zwei Beispielprojekte:

Im Bereich Autonomous Inventory Management: Hier wollen wir die wiederkehrenden Tätigkeiten in der Disposition minimieren, damit die Disponenten wichtigere Aufgaben übernehmen können. Im Rahmen des Projektes versuchen wir, zunächst optimale Bestellmengen mittels mathematischer Ansätze festzulegen.
Diese Bestellungen gehen aber dann alle durch ein intelligentes Überwachungssystem, in dem geprüft wird, ob sie automatisch an Lieferanten versendet oder zur manuellen Prüfung an Disponenten weitergegeben werden müssen.

Ein anderes wichtiges Fokusthema ist die Bedarfsprognose: Wir arbeiten aktuell
an einer cloudbasierten Forecasting-Plattform, in der wir verschiedene Prognoseverfahren u.a. aus Bereichen Machine- learning und neuronale Netzwerke anwenden wollen, um die bestmögliche Prognose zu ermitteln. Wir möchten dabei unsere eigenen Daten, die Daten von unseren Kunden, die uns zur Verfügung stehen, und die makroökonomischen Daten wie Wirt- schaftslage oder die Entwicklung der Materialpreise verwenden.

Könnte man diese Plattform dann auch bei Kunden einsetzen?

Ja, wir wollen später neben anderen Advanced Analytics Tools die Forecasting- Plattform auch an unsere Logistik-Plattform Logtopus anbinden. Die Oberfläche der Plattform wird intuitiv sein, sodass unsere Kunden damit leicht arbeiten können. Sie können ihre eigenen Daten hoch- laden und gleich neue Prognosen erstellen lassen oder einfach auf die Prognose, die wir bereits basiert auf den erhobenen Daten ermittelt haben, zugreifen oder einfach eine Kombination von beiden. Da können sich unsere Kunden noch auf viele interessante Projekte freuen, die ihnen auch nutzen.

Downloads