[00:00:00] Herzlich willkommen zum AI First Podcast. In den letzten Folgen haben wir sehr viel über generative KI gesprochen. Das macht ja auch Sinn, weil das Thema super relevant ist. Der Einfluss auf unsere Arbeit ist damit gigantisch und viele Menschen da draußen beschäftigt das Thema sehr. Aber wenn man sich mal in Unternehmen die KI-Use Cases anschaut die gerade wirklich live und produktiv sind, dann sind die meisten gar nicht generativ, sondern eher analytisch gelagert.
Und in ein solcher analytischen Anwendungsfälle tauchen wir heute mal ganz tief ein und schauen uns das von Anfang bis Ende an, wie man so ein Projekt umsetzt. Und berichten wird davon Sebastian Herz, der ist Mitglied der Geschäftsleitung bei der Rennfahrt GmbH und verantwortlich für alles Digitale und die Supply Chain, um die es auch im Anwendungsfall geht.
Sebastian, schön, dass du da bist.
Ja, hi Felix, vielen Dank, dass ich da sein darf.
Damit wir noch mal ein bisschen besser verstehen, was Rennfahrt eigentlich macht, kannst du uns da eine [00:01:00] kurze Einführung geben.
Na klar. Rennfahrt ist quasi ein mittelständisches Unternehmen der deutschen Dentaltechnikbranche und die meisten können mit der Dentaltechnik weniger anfangen als mit dem Zahnarzt. Den beliefern wir nämlich nicht, nicht direkt. Der hat meistens im Hintergrund ja ein zahntechnisches Labor, also die Damen und Herren, die dir oder mir, uns allen den Zahnersatz herstellen, wenn wir es denn brauchen.
Und das ist der Zahntechniker. Und der Zahntechniker ist am Ende unser Endkunde. Das heißt, wir stellen für den Geräte, Materialien chemische Flüssigkeiten und so weiter diverses eben her, was er in seinem Prozess so brauchen kann. Und das tun wir in dem internationalen Dentaltechnikmarkt. Das heißt, wir verkaufen weltweit, haben also der Claim immer 120 Länder dieser Welt.
Ich kann sie nicht einzeln zählen, aber ich glaube das jetzt einfach mal.
Vielen [00:02:00] Dank
Mitarbeiter haben wir ungefähr, sitzen im schönen beschaulichen Hilsing.
Das kennt wahrscheinlich kaum einer, ist ganz in der südwestlichen Ecke Deutschlands an der Schweizer Grenze gelagert, in Nähe vom Bodensee. Den kennen die einen oder anderen. Wir arbeiten da, wo andere Urlaub machen, ist der Slogan dann immer so nett. Und genau, mit unseren 200 Mitarbeitern 40 Millionen, so circa die Regionen an Umsatz, ja, fühlen wir uns eigentlich ganz pudelwohl und haben uns ja auch vor nicht allzu langer Zeit mit dem gesamten Thema KI und was kann ich damit machen, intensiver beschäftigt ja.
Wenn ich mich richtig erinnere hattest du mir gesagt, dass das so 2020 war, als ihr mit dem Thema gestartet seid und dann insbesondere auch in eurer Lieferkette, ich meine, das ist ja natürlich Kernteil eurer Wertschöpfungskette als produzierendes Unternehmen, einen ganz spannenden Bereich gefunden habt, den ihr euch dann genauer angeschaut habt, um KI hier einzusetzen, um diesen Prozess zu optimieren. Teil war [00:03:00] das?
da hast du vollkommen recht, das ist in der Supply Chain tatsächlich drin gewesen und auch das Jahr hast du richtig antizipiert, das war 2020, mitten in der Corona-Zeit tatsächlich, weil ja ganz ehrlich gesagt, das ist vielleicht der humorvolle Einstieg dahin, ich hatte Zeit. Und auf einmal hatte man in Corona Zeit und das hat Rennfahrt auch so ein bisschen beschäftigt weil wir einfach im Grunde genommen aus einer ziemlich schwierigen Situation kamen es war, erst hatten wir einen Hack erlebt, wir wurden angegriffen tatsächlich mit Ransomware angegriffen Hat uns erstmal lahmgelegt, dann kam Corona, das hat uns danach lahmgelegt und auf einmal saß dann der Sebastian Herz zu Hause als Verantwortlicher in dem von dir genannten Supply Chain und IT Digitalisierungsbereich und dann habe ich gedacht, okay, aus der verfügbaren Zeit machen wir jetzt was Gutes und habe mich einfach mal hinterfragt wo haben wir eigentlich Potenziale wo machen wir schon lange Dinge immer auf dieselbe Art und Weise, weil wir einfach keine anderen Lösungen mehr gefunden haben.
Und [00:04:00] da kam ich dann auf das Eck, auf das ich gleich nochmal näher eingehe, nämlich das gesamte Thema Bedarfsplanung und ja, dann habe ich mich im Internet umgeguckt und habe gesagt, was kann man denn da so, das wäre doch bestimmt ein KI-Thema eigentlich und dann habe ich mich umgeschaut und habe dann verschiedene Podcasts die es auch da schon mal gab, auch Webinare gefunden und habe dann ein ganz spannendes Webinar zu im Prinzip genau meinem Thema, nämlich der Bedarfsplanung, gefunden.
Damals gehalten von dem Kollegen Arvind Arora und das hat mich dann mitgenommen, weil ich gesagt habe, aha, die Idee hatten wohl auch schon andere und da kann man ja eigentlich mal mit einsteigen. Das war so der Startpunkt im Prinzip für weitere KI-Überlegungen bei der Rennfahrt GmbH. Ein paar andere Prozesse hatten wir schon minimalst KI auch drin, aber wirklich im minimalen Umfang, wo man heute wahrscheinlich gar nicht mehr über Machine Learning und KI sprechen würde, ist das tatsächlich unser Anfangssprit gewesen.
Und dann kam eben dieses Bedarfsplanungsthema auf, mitten in der Supply Chain.
[00:05:00] Was machen wir denn schon lange immer so und haben irgendwie noch keine bessere Lösung gefunden? Und ich glaube, wenn man sich das in den meisten Unternehmen fragen würde, ich kenne es auch von mir früher, dann sind das ja ganz, ganz viele Dinge, die sich so mit der Zeit eingeschliffen haben und dann gar nicht mehr hinterfragt wurden und einfach irgendwie so weitergemacht werden.
Dann kann, glaube ich jeder sich irgendwie mit auch da reinfühlen. Wie bist du denn von da aus dann weitergegangen? Weil das finde ich ja immer das Herausfordernde, so einen Anwendungsfall dann tatsächlich auch zu oder die ganzen möglichen Anwendungsfälle dann auch zu priorisieren und zu entscheiden, genau da setzen wir jetzt drauf und machen damit weiter, weil das Problem ja selten ist, viele Anwendungsfälle zu finden,
Ja. Ja
das Problem ist, die richtigen zu finden, die tatsächlich dann auch den Hebel aufs Ergebnis am Ende [00:06:00] haben.
Absolut. Also das ist, glaube ich einer der ganz großen Probleme, wenn es im Bereich AI und Machine Learning geht, dann hast du eigentlich immer die Aussage, machen kannst du alles. Richtig. Toll danke. Das hat mich jetzt noch nicht weitergebracht. Und dann war halt für mich damals eben auch zentral die Frage, wo hast du selber mal ein bisschen Wissen, wo könntest du dich selber austoben und wo kannst du dir vorstellen, dass sowas überhaupt realisierbar ist?
Und dann ist einer der ersten Fakten die man dir nennt ist, du brauchst erstmal eine fundierte, umfassende Datenbank, wenn man so will. Also ich meine jetzt damit nicht die Database als technisches Element, sondern du brauchst Daten. Viele, viele, viele, viele, viele, viele. Gute Daten. Und da ist halt natürlich ein Punkt, wenn man über dieses Thema Bedarfsplanung spricht, dann hat das ja offensichtlich damit zu tun, dass man versuchen möchte, aus bisherigen Verkaufssituationen jetzt in unserem Fall, eine Prognose für die Zukunft zu machen.
Und das Gute ist, ich glaube, [00:07:00] da kann man für viele Unternehmen sprechen, wenn irgendwo die Datenbestände ganz ordentlich sind, dann sind das meistens im Bereich von Sales Orders also Verkaufsaufträgen und der damit hintendran abgewickelten Transaktionen, weil das hat im Endeffekt jedes Unternehmen und auch in Ausprägung viel, weil ein Artikel viele Kunden oder viele Kunden ein Artikel, man kann ja alles im Prinzip darstellen und man hat viele Daten.
Und das hat für mich eigentlich den Ausschlag gegeben, ich selber komme, hast du ja angeteasert, eben Supply Chain, komme ja aus dem Bereich Der das abwickelt kenne ich mich also inhaltlich gut aus. Zweitens eben das Thema Möglichkeit aufgrund von Datenqualität erschien mir hier als gegeben und gut.
Also... War das definitiv so der zweite Aspekt, der mich hingeschoben hat. Und der dritte Aspekt war einfach so die Frage, wo habe ich denn einen echten Mehrwert? Also wir wissen, mit KI könnte man alles. Die Frage ist aber, wo setze ich eigentlich dann einen Schwerpunkt drauf? Und da war für mich einfach der Punkt gekommen zu sagen, naja, was machst du bisher und findest du das gut?
Und jetzt könntest du fragen, was habt [00:08:00] ihr denn bis dahin gemacht? Wenn du das tätest würde ich sagen, wir haben…
nächste Frage, die ich schon im Hinterkopf habe. Wunderbar, mach weiter so.
Für die Bedarfsplanung muss man ja ein bisschen verstehen, wie tickt dieser Organismus Rennfahrt. Also es ist ein indirekter Markt. Wir verkaufen den Großhändler der Großhändler verkauft dem internationalen Dentaltechnik Kunden. Und das heißt, wir haben erstens eine Verzögerung von uns bis zum Endkunden zweitens Intransparenz weil wir nie genau wissen, Jetzt hat Renfert aber die Situation, wir wollen ab Lager lieferfähig sein, wir wollen schnell sein für unseren Kunden.
Schnell sein und nicht wissen, was der Kunde so haben will, ist tatsächlich ein Problem. Das heißt, wir antizipieren aus der Vergangenheit die Kundenbedarfe von morgen, jetzt sehr einfach ausgedrückt. Und dieser Fragestellung sind wir im Prinzip bis dahin mit Excel [00:09:00] und Grafiken in Excel begegnet und haben da Trendlinien daraus gemalt.
Sechsfache polynomische Regression war die Art und Weise, wie ich aus den Datensätzen dann eine Hüllkurve gezaubert habe. Also man kann sich ja schön vorstellen, nicht zackig, sondern etwas grob träger, damit man das irgendwie hinkriegt. Und das hat Excel gerade noch hingekriegt und das haben wir dann halt für das gesamte Sortiment gemacht und dann war das in Anführungszeichen gut.
Oder? So formuliert, so gut wie wir es halt konnten. Mehr konnten wir nicht. Statistiker ist keiner bei uns gewesen und Data Scientist halt auch nicht. Dann habe ich mir gedacht, ja, also im Sinne einer Professionalisierung könnte man jetzt glauben, dass eine grafische Ableitung in Excel, eine Regressionsanalyse vielleicht nicht das Optimum ist.
Das mal sehr freundlich ausgedrückt. Und eben da hatte ich dann einfach den Punkt, da gibt es einen Hebel, da gibt es den Ansatz. Und dieses Element, ich kann in der Realität damit auch was anfangen, das war für mich eben dann am Ende der ausschlaggebende Punkt zu sagen, das scheint mir [00:10:00] Projekt zu sein, wo ich genug Wissen habe, weiß, ich habe einen Datenbestand und ich habe auf jeden Fall was, was ich in Zukunft dadurch viel besser machen kann.
habe mir gerade im Kopf so mental so eine Einfluss-Aufwands-Matrix vorgestellt und da konntest du den wahrscheinlich dann auch schon in dem Quadranten einordnen, wo du einen relativ hohen Mehrwert für euer Business gesehen hast und eine gewisse Machbarkeit aufgrund eurer Infrastruktur der verfügbaren Daten, wo du ja auch schon recht tief drin warst und das einschätzen konntest, um schon mal zu entscheiden, hey, damit macht es Sinn, mal weiterzugehen.
richtig, genau.
du denn zu dem Zeitpunkt schon, wo du damit hin willst oder was so das Zielbild sein soll? Ja
Also die Idee hat sich dann nach den ersten, nach den ersten Sichten des Webinars tatsächlich dann weiter rauskristallisiert, weil ich mir dann gefragt habe, okay, jetzt hast du eine Idee, was du umsetzen könntest, mit welchem Ziel willst du das eigentlich machen? Und für mich war eigentlich immer [00:11:00] relativ klar, das Team, das das Ganze operativ macht, das ist kein riesengroßes Team.
Das ist kein Team, wo man sagen kann, ich qualifiziere jetzt 20 Leute, die dann damit tolle Grafiken kriegen und intensive Operationen machen, sondern im Endeffekt stand ja der Output im Fokus. Ich wollte am Ende etwas haben, was ich einfach operational ins System, salopp gesagt, reinknallen kann und der Anwender dann einfach sich im Prinzip darum nicht mehr sorgen muss.
Das war eigentlich für mich so das Zielbild, das ich herauskristallisierte
Ich glaube, mir war in dem Moment auch bewusst, dass das vielleicht ein bisschen utopisch ist, aber als Zielformulierung war es mal ganz gut in dem Moment.
Und wie bist du dann weitergegangen in die Umsetzung? Was waren deine ersten Schritte
Genau, also mit dem Use Case und der Zielvorstellung habe ich dann nochmal Kontakt zu dem Arvind Arora eben, der dieses Webinar geleitet hatte für die Firma AIM damals, auch aufgenommen und einfach tatsächlich mal [00:12:00] in den Raum gestellt, klopf klopf, hier bin ich, ich habe da eine Idee, passt zu deinem Webinar, was hältst davon?
Ja, und dann haben wir uns das mal so ein bisschen angesprochen und dann hast du gesagt, ja, also könnte das schon klappen, ja, das scheint mir ein sinnvoller Use Case zu sein. Wie möchtest du denn weitermachen? Dann habe ich gesagt, ja, das freut mich, dass du das sagst das ist erstmal bestätigend, aber ich glaube, Geld in die Hand nehmen aufgrund von, da sagt einer, ja, ist vielleicht ein bisschen schwierig Für so einen Mittelständler da hat man jetzt nicht zu viel Geld rumliegen, anders formuliert hätte ich lieber nicht gemacht.
Also von dem her haben wir uns darauf verständigt, dass wir einen Data-Quick-Check machen, erstmal tatsächlich schauen, die Daten die wir bereitstellen können, sind die denn von der Quantität und Qualität, wie man das tatsächlich bräuchte, haben das dann also da erstmal durchgejagt haben dann darin vielleicht ein paar Schwachstellen und Fehler gefunden, die am Ende auch jedes Unternehmen haben wird, weil es gibt Prozesse.[00:13:00]
erklären? Wie habt ihr diesen Daten-Quick-Check gemacht und in welcher Form lagen denn eure Daten vor? Weil klar, Sales-Orders hat irgendwie jedes Unternehmen, aber wie die Daten dann verarbeitet und verfügbar gemacht werden, das kann ja von, ich habe den Zettel im Ordner abgeheftet bis hin zu, ich habe einen super ERP- oder CRM-System, wo alle Datenbehälter perfekt ausgefüllt sind, mit Schnittstellen in meinen Data-Warehouse, wo die zusammengeführt und allen zugänglich sind. Die
also
man ja finden.
es ist ganz, ganz nett, weil es beschreibt ja so ein bisschen auch, oder das stellt ja auch so ein bisschen auch eine andere Frage über Rennfahrt, weil zu dem Zeitpunkt, über den wir reden, da hättest du echt, wenn du das Wort Data Warehouse in den Mund genommen hättest hätten dich alle verständnisfrei angenickt.
Also das wäre etwas gewesen, was zu diesem Zeitpunkt einfach nicht existent war an der Stelle. Ich will damit sagen, ja, wir haben ERP-seitig damals AX2012 [00:14:00] eingesetzt von Microsoft als Lösung und darin sind natürlich auch alle Sales Orders gewesen, auch der Datenbestand etc., der gesamte Prozess. Ich hätte jetzt meine Hand nicht ins Feuer gelegt, dass es perfekt war, aber es ist einer der Bereiche, wo es am Ende ordentlich ist, weil du brauchst diese Transaktion, die hat eine gewisse Bedeutung Die muss einigermaßen gut sein.
So hat man dann sich tatsächlich erstmal gefragt, ja wie kriegen wir denn eure Daten dahin Und dann haben wir die hochtechnologischste Lösung gewählt, die man sich nur vorstellen kann. Wir haben eine CSV-Datei generiert. Ich sage das so lapidar, weil am Ende, wir reden hier in dem Podcast auch immer wieder mal über Gen-AI oder andere Sachen und tatsächlich sind viele Anfangsfelder doch wirklich so lapidar wie eine CSV-Datei.
Warum? Weil es keine technische Hürde gibt zur Integration. Du musst jetzt nicht aufwendig gucken, wie du dann noch Abfragen intensiv baust. Nee, wir sind tatsächlich in den Tabellenbrowser des Systems gegangen und haben die [00:15:00] riesengroße Datenbank der Kundenaufträge ein bisschen zusammengefiltert auf den relevanten Zeitraum, den wir mal als Data-Quick-Check haben wollten und haben dann ein paar Felder rausgeworfen und CSV im Prinzip daraus generiert.
Und die haben wir dann ganz oldschool FTP-Server zusammengefiltert Zu den Kollegen rüber übertragen die sich die CSV dann vorgenommen haben und dann erstmal halt im Prinzip geguckt haben, sind denn die Annahmen die wir hier treffen, darin überhaupt valide abbildbar? Und das war der erste Schritt und das sind auch übrigens ein paar tausend Euro, die dann runtergegangen sind.
Also ich bin jetzt nicht mehr ganz sattelfest Ich hätte behauptet wir haben 15 Tage rein investiert. Jetzt kann man sich denken, was so ein IT-Dienstleister für einen Tagessatz hat. Ich sage jetzt einfach mal so eine fiktive Zahl von 15.000 Euro investiert, um da mal die erste Aussage zu kriegen, ja, eure Daten sind soweit valide, damit könnte man was anfangen.
So, das war dann der Data-Quick-Check.
Kannst du sagen, wonach sie das bewertet haben? Ja.
Naja wir haben [00:16:00] erstmal eine Arbeitshypothese formuliert. Also wir sind dann vorgegangen und haben gesagt, keine Ahnung, die Menge an diesem konkret, dieses Feld aus der Tabelle Datum, das ist für uns das entscheidende Feld und das prüfen wir als allererstes Mal, haben wir bei allen Datensätzen da eine Information und passt sie zu den Annahmen, die wir hier gemeinsam getroffen haben.
Das hat dann in, sagen wir mal, 98% der Fällen auch so gepasst, weil eben ein Mittelständler halt auch mal seinen Prozess etwas flexibler lebt und dann irgendwas nicht ganz genau passt, aber in ausreichender Qualität haben wir es vorgefunden. Und dann ist man hingegangen und hat tatsächlich einfach mal die ersten Modelle draufgeworfen einfach mal zu gucken, lässt sich da überhaupt irgendwas draus prognostizieren, ohne da jetzt ein Customizing zu machen oder das wirklich genau zuzuschneiden, sondern einfach nur mal, lass mal ein Modell drauf los und guck mal, ob irgendwas passiert.
Und das hat tatsächlich dann auch geklappt. Wir haben dann auch erste Erkenntnisse wie Standardabweichung, Fehler, Indikationen so weiter und so fort gefunden. Ich sage mal, als [00:17:00] Abfallprodukt hast du dann auch immer wieder interessante Erkenntnisse über dein Unternehmen erlangt und dann war halt dieser Data-Quick-Check für uns im Prinzip absolviert und mit Aussage des Anbieters damit kannst du arbeiten, in Anführungszeichen
Jetzt hattet ihr also schon mal den Proof dass die Daten da sind. Das ist ja schon die halbe Miete, würde ich sagen, weil wenn das jetzt nicht der Fall gewesen wäre, dann hättet ihr schon ganz vorne wieder anfangen müssen und dann hätte man wahrscheinlich erst mal ein paar Jahre das ganze Thema auf Eis legen können, je nachdem in welchem Zustand die Daten sind,
Ja, absolut. Also man kann auf jeden Fall sagen, ein paar tausend Datensätze brauchst du dafür schon. Man sagt im Wesentlichen, zwei bis drei Jahre wären schon mal ganz gut. Und bei der Sortimentsbreite, die wir hatten, haben wir das aber auch schnell an viele Daten liefern können. Aber klar, hätten wir es nicht können, wäre die Qualität nicht gut, dann hätte man das für ein paar Jahre parken können und dann nochmal anfragen
Wie seid ihr von da dann weitergegangen? Habt dann den ersten Piloten vom Umfang her [00:18:00] definiert und seid in die Entwicklung gegangen oder was waren die nächsten Schritte?
Gut, also erstmal hatte ich damit ja in einem vergleichsweise kompakten Umfeld, zeitlich und finanziell eine Erstaussage dass es überhaupt machbar ist. Das war mir sehr wichtig, weil wie gesagt, wir haben ja jetzt auch nicht unendlich viele Finanzmittel zur Verfügung gehabt und Spielgeld, sondern das war für mich die erste Indikation zu sagen, hier gibt es einen businessrelevanten Use Case.
Dann habe ich erstmal intern das Funding dafür aufgebaut, weil wir gesagt haben, okay, was sind wir bereit für am Ende ja immer noch riskantes Vorhaben kann ja immer noch nichts rauskommen oder was nicht Verwertbares rauskommt zu investieren.
Vielen
auch schnell herbeizuführen und auch das Geld aufzutreiben.
Und dann haben wir tatsächlich gesagt, okay, was kann der nächste Schritt sein? Dann hast du zu Recht gesagt, unser erster Proof of Concept, nämlich tatsächlich die erste Arbeitshypothese, wir erreichen [00:19:00] ein, noch immer im Bastelzustand, aber vorhandenes Modell, ein Prognosemodell, das nachweislich besser funktioniert als unsere Excel-Regression.
So, das war der Arbeitstitel quasi für den nächsten Schritt.
Ja, also wie man ja, wenn man nochmal drei Schritte rückwärts gehen, vorhin ja gehört haben, dadurch, dass der Kunde versucht, von uns Ware schnell zu kriegen und wir das auch so bedienen wollen, haben wir diese Prognose die wir haben. Wir müssen irgendwas wissen, was wir eigentlich noch nicht wissen können, weil der Kunde noch nicht bestellt hat.
So, das heißt … Bei einem sehr breiten Sortiment, das wir haben, gibt es ein immenses Risiko, dass wir zwar produzieren, aber halt das Falsche produzieren. Dann kann ich entweder sagen, ich habe dann ein riesengroßes Lager, dann kann ich mir das leisten, dann ist es egal, aber auch das wollen wir nicht. Folge daraus ist, du bist auf eine sehr [00:20:00] gute Planungsgüte am Ende angewiesen und je besser deine Planung ist, desto...
Schneller kannst du den Kunden beliefern, desto weniger Lagerbestand brauchst du auf Fertigartikelseite wie auch auf Einkaufsteilseite und desto besser kannst du auch eine Produktionsplanung genau an den Kundenbedarf ausrichten, was wiederum bedeutet, den richtigen Personalstamm, nicht zu viel, nicht zu wenig, das, was du halt brauchst.
Und wenn man dann das gesamte Unternehmen auf diesen Punkt spitzt und sagt, das ist mein elementares Teil, hier muss ich perfekt sein, dann ist es relativ einleuchtend für die Kollegen gewesen, dass wir mit einer sechsfachen polynomischen Regression in der Excel-Grafik einfach noch nicht perfekt sein können.
Und dieses Optimieren, das multilaterale Optimieren hier eigentlich im Prinzip an vielen Stellen mit einem einzigen Tool besser werden zu können, hat dann im Endeffekt den Ausschlag gegeben, dass man diesem Vorhaben eine Finanzierung quasi zur Verfügung stellt Das war im Grunde genommen die Hypothese hinten dran.
Okay, also du hast einmal Kosteneffekte was Lagerauslastung [00:21:00] angeht was Personalauslastung
Dank.
zum Zeitpunkt die Produkte on Stock sind, die sie dann brauchen oder sehr kurze Lieferzeiten, was dann auch zu einer stärkeren Kundenbindung, höheren Repurchase Rates, solchen Sachen führt.
Und zusätzlich haben wir noch eine Schwestergesellschaft in den USA, die auch quasi von uns beliefert wird. Die produzieren nicht selbst, sondern da sind wir der Produktionsstandort dafür. Man kann sich vorstellen, das sind dann Seefrachten, die da rübergeschickt werden. Laufzeit von Door-to-Door sagen wir jetzt mal 10 Wochen.
Für die ist es natürlich super relevant, dass wir richtig liegen mit unserer Prognose, weil 10 Wochen Versatz plus Produktionszeit etc., ja, die hätten es gerne richtig, richtig gut. Und von dem her, da hatten wir noch ein weiteres Element, was das jetzt nur quasi multipliziert, was du gerade sagst, weil für die ist dann auch das [00:22:00] Stock-Take das Thema, die Geschwindigkeit der Auslieferung usw.
Und da wir da noch viele, viele kleinere Kunden haben, wahrscheinlich noch viel mehr, weil sie sich einfach auf die Logistikdienstleistung, die die Rennfahrt GmbH aufbringen kann, da halt auch verlassen können oder auch müssen. Und dementsprechend hatten wir hier einfach dann mit den Kollegen im Übersee einfach nochmal ein Leverage für das Thema.
ihr das bis auf den letzten Euro errechnet oder hergeleitet und dann in Return on Invest daneben gelegt wo ihr gesagt habt, okay, der muss mindestens X sein, damit wir das Projekt machen?
Ich bin froh dass wir Mittelständler sind und dass wir uns das Errechnen des letzten Centes tatsächlich ersparen konnten. Also, wenn du mich nach meiner persönlichen Meinung fragst ich glaube, diese Business Cases, die kannst du nicht final rechnen. Am Ende ist die Realität eh immer eine andere und das Ex-ante, also vor dem Vorhaben zu tun und dann auch wirklich einzuschätzen, wie groß der Benefit ist.
Das ist so unglaublich schwierig und du lügst dir [00:23:00] notgedrungen so in die Tasche dass ich den Mehrwert gar nicht sehe. Aber da habe ich jetzt als Entscheider einfach den Vorteil gehabt, dass ich mich ein bisschen auf mein eigenes Gefühl und meine eigene Einschätzung verlassen konnte. Dass das jetzt nicht repräsentativ ist und jedes Unternehmen einfach jetzt sagt, ach der Herr Herz, der hat gesagt, das passt schon, das machen wir jetzt.
Das ist auch klar, aber ich glaube, da haben wir den Mittelständler-Bonus an der Stelle gehabt, dass wir einfach da ein gewisses Commitment auch reichen konnten.
Ja, gut, so Business Cases Sache für sich. Ich glaube, die Person, die den Business Case erstellt, hat da einige Möglichkeiten, dann den entsprechend auch zu beeinflussen. Im Endeffekt geht es ja auch darum, oft aus einer Anzahl an Möglichkeiten, die lukrativste auszuwählen und zumindest manchmal auch den eigenen Hintern irgendwie zu schützen.
Aber umso besser, dass ihr dann loslegen konntet und du das Funding dafür hattest, dann seid ihr in den Proof of Concept gegangen. Visa, der Umfang für den Proof of [00:24:00] Concept, aus.
Danke Um bei der einfachen Rechnung von vorhin zu bleiben, sagen wir einfach 1.000 Euro an Personentag hast du weitere 25.000 30.000 Euro investiert in dafür. Und in dem ging es halt im Prinzip dann darum, aus dem Data-Quick-Check mit einem ersten unpräzisen Modell halt einfach tatsächlich die vorhin von mir genannte Aussage besser als bisher auch raus zu iterieren und auch Nachweis dafür zu finden.
Weil es ist ja eine Frage, sprachlich können wir ja schnell sagen, besser. Aber was ist denn besser? Also ist dadurch denn die Varianz kleiner oder willst du das mit Fehlerintegration messen Was ist dein Ziel? Was ist der eigentliche Zielwert? Das war dann noch eine ganz interessante Fragestellung, die wir auch in der Phase raus iteriert haben, weil jetzt gerade bei der Bedarfsplanung, die ja zur Produktion auch herangezogen wird, kann man sich vorstellen, Und wenn ich ganz, ganz präzise bin und ganz, ganz präzise Vorhersage und damit auch noch Recht habe, kann ich in Realität [00:25:00] trotzdem auch was schlechter machen.
Nämlich, kleines Beispiel, wenn ich in der Woche 1 23 Leute brauche zum Produzieren und in der Woche 2 96, in der Woche 3 einen, dann kann ich das auf reiner Zahlenbasis sicher tun. Aber in der Realität eines Businesses ist es am Ende nicht umsetzbar, weil du diese Fluktuation im Wochenrhythmus einfach gar nicht abbilden kannst.
Und deswegen, so der erste Gedanke war tatsächlich Zielbild so präzise wie möglich und von dem sind wir schnell weggekommen, weil wir gesagt haben, das kriegst du in der Realität nicht hin. Also eine gewisse Verschleierung der Realität mit einer Hüllkurve die brauchst du am Ende dann trotzdem Und das war auch so ein Learning, das wir dann da durchiteriert haben.
Jedenfalls haben wir dann den relativen Fehler durchaus als Merkmal angenommen, um dann auch die Güte zu bewerten. Und dann war das eine der traurigsten Erkenntnisse, die sehr schnell rauskamen. Bereits die dritte Version eines Modells hat weniger Fehler aufgewiesen, als wir selber mit unseren eigenen annahmen.
Und das war dann erstmal [00:26:00] schmerzhaft und positiv gleichzeitig, wenn du mich verstehst. Schmerzhaft auf das eigene Tun, positiv auf die Tatsache was die Zukunft bringen kann. Man muss aber halt fairerweise sagen, wenn ich sage, durchschnittlich weniger Fehler, wenn du lieber Felix zwei Millionen Euro verdienst und ich null, sind wir im Durchschnitt auch noch ein Millionär.
Also... Diese Durchschnitte haben dann halt auch ein Problem. Deswegen, wir hatten dann quasi dann trotzdem diese rein mathematische Aussage nach dritten Version schon besser als wir, haben aber dann trotzdem einfach bei einzelnen Artikeln die uns strategische Relevanz abgebildet haben, einfach noch Fehler gefunden, Fehler im Sinne von Abweichung zwischen dem eigentlichen Wert und dem prognostizierten Wert, wo wir gesagt haben, ja, über die gesamte Zeitreihe waren wir zwar weiter weg, aber durch die Differenz die wir erzeugt haben, durch die Hüllkurve die das ergeben hat, haben wir im Querschnitt trotzdem weniger Schaden angerichtet.
Schaden im Sinne [00:27:00] von, ich will nicht sechs Milliarden Stück am Lager liegen haben oder ich will den Kunden nicht 20 Wochen warten lassen. Also haben wir dann bei einzelnen Artikeln dann noch gemerkt, dass das noch nicht so ganz passt und dann hat man nochmal eine Version 4 gemacht, die wir dann schlussendlich als Release Candidate, wenn du willst, akzeptiert haben.
Sprich das ist das Outcome des POC dann geworden.
Und dann hattest du mir vorab schon erzählt, dass ihr dann eine längere Abprobungsphase hattet Gemacht habt, wo ich total erstaunt war, wie lang diese Erprobungsphase ging. Du kannst ja gleich nochmal
Vielen [00:28:00] Dank
in der Geschwindigkeit wie ihr jetzt schon zu guten Ergebnissen gekommen seid, wird das dann immer besser und ihr habt dann bald eine Produktivversion.
So wäre die wunderschöne Utopie und die Realität hat dann ein bisschen anders ausgesehen. Man muss ja fairerweise auch da nochmal auf den Zeitstrahl zurück. Wir hatten gesagt, 2020, irgendwann im Sommer, habe ich mir das ganze Thema angelacht. Und bis wir dann den POC abgeschlossen haben, war das Jahr 2021 auch mal rum.
Also tatsächlich, da verging Zeit. Und ich glaube, das ist tatsächlich so der Corona-Situation geschuldet gewesen, nicht viel anderem. Weil einfach dann zwar viel Zeit war zum Nachdenken, aber wenig Zeit im Geschäft, um das dann auch zu realisieren. Und das war so dieser Offset, was das ein bisschen verzögert hat.
Und dann sind wir dann eben bis, ich sage mal, im Jahre 2022 dann in die Realisierung eingestiegen Dann galt es ja noch, auf der ERP-Seite auch was anzupassen, sodass ich die Daten die ich von dieser KI kriege, ja irgendwie auch verwenden kann. [00:29:00] Und dann hatten wir uns eben... An sich vorgenommen, dass wir diese zwei Jahre, waren eigentlich anderthalb geplante Jahre, uns Zeit nehmen, um das menschliche Misstrauen aus der Sache rauszukriegen.
Weil das Problem ja da hinten dran ist, wir Menschen, wir sind ja nicht so gestrickt dass wir gerne die Kontrolle abgeben an das ominöse Nichts die KI. Ich habe dann gerne mal so in der Realität so die Bilder von Skynet Terminator, Modell T1000, Arnold Schwarzenegger sagt, Gräste im Kopf. Mein Mitarbeiter, mit dem ich das ganze Projekt gemacht habe, Leiter unserer Planungsabteilung, der hat tatsächlich gesagt, du, ich finde toll, dass du so technologiebegeistert bist.
Es nimmt mich mit, aber ich habe echt Schiss, dass das Ding voll daneben liegt. Und genau dieses Element ist super relevant, weil erstens am Ende muss der das nachher anwenden Und dem Ergebnis vertrauen, wenn ich den nicht mitnehmen kann, wenn der nicht. An Bord ist und sagt, jawohl das [00:30:00] passt, dann habe ich gar nichts gewonnen, weil dann wird er die Arbeit, die er heute macht, weitermachen und ich zahle die KI.
Also von dem her, mir war ganz, ganz wichtig, dass er als Person, als Akteur in seiner Rolle auch voll an Bord ist und sicher ist. Sicher, wie gut das Ergebnis ist. Das ist die menschliche Komponente darin. Noch mal auf seinen Grund so unsicher zu sein, zurückzukommen. Ich hatte ja vorhin gesagt, wir brauchten Hüllkurven um nicht zu präzise zu sein, weil diese Personalsituation existiert.
Man stelle sich doch mal vor, ich nutze das Ding jetzt operativ, ich verplane, was da rauskommt, ich stelle Leute ein. Und eine Woche später merke ich, oh, da war ein Fehler im Modell. Ach, na ja, ich brauche zehn von denen nicht mehr. Schade. In der reinen Datenanalyse ist das kein großes Problem. Aber in der Realität ich habe Mitarbeiter eingestellt.
Da sind Menschen, da geht es um deren Arbeitsplatz. Und wenn ich gerade den Schritt andersrum noch sehe, sage ich, ich brauche jetzt weniger Personal, sagt die KI. Ich kündige [00:31:00] Menschen, die verlieren ihren Job, weil eine KI gesagt hat, den braucht man nicht mehr. Und dann liege ich auch noch falsch. Diese Verantwortung sollte man begreifen, wenn man mit so einem Tool rumhantiert, weil es ist halt nicht nur Theorie, das ist nicht nur irgendein Datenmodell für Data Scientists sicher, aber für die Realität nachher nicht.
Und deswegen war mir das unglaublich wichtig. Zweites Element. Das dritte darin ist, wir haben an sich keine sehr große Wertschöpfungstiefe im Haus. Also ich sage jetzt mal von 100 Teilen oder anders, 90 Prozent ist extern. Sehr einfach formuliert. 90 Prozent externe Wertschöpfung. Das bedeutet, ich habe eine Ableitung dieser Bedarfsprognose von dann nachher Endartikel über die Stücklistenauflösung bis runter zu jeder Einkaufskomponente.
Das bedeutet auch, wenn ich einen Fehler hier drin habe und der Fehler heißt, ich habe den falschen Artikel oder eine falsche Menge geplant, dann habe ich bis zum letzten Einkaufsteil die Auswirkungen nachher auszubaden. Jetzt hat man ja in der Corona-Zeit gelernt, [00:32:00] 1000 Schiffe im Hafen vor Shanghai. Ein Artikel zu beschaffen kann ganz ganz schwierig sein mit einer ewig langen Vorlaufzeit.
Und jetzt stelle man sich genau das vor. Ich habe den falschen Artikel geplant Ich habe das, was ich wirklich brauche nicht an Lager und muss eines der tausend Schiffe von Shanghai abwarten. Da bin ich auf einmal ganz weit weg von dem, was ich eigentlich erreichen wollte. Und diese Unsicherheitsfaktoren, die kann dir keiner vorab nehmen.
Das ist eines der großen Probleme dieser Nummer. Du hast einfach diese unglaublich große Unsicherheit wo dir ein natürlich von seiner Arbeit überzeugter Anbieter sagen wird, das kriegen wir in den Griff. Glaubst du dem jetzt nur, weil der das sagt? Rhetorische Frage, das muss ich nicht beantworten. Ich habe es nicht getan und mein Mitarbeiter noch viel weniger.
Und deswegen haben wir gesagt, wir müssen sicher sein. Und deswegen haben wir tatsächlich diese anderthalb Jahre Am Ende sind es wirklich zwei geworden. Schlussendlich Wir müssen hingehen Und wir lassen das separat mitlaufen. Wir haben diese KI-Ergebnisse Woche für Woche mitgeschrieben, haben sie [00:33:00] aber nur als Vergleichs-, als Referenzmaßstab genutzt und noch nicht zur operativen Verplanung.
Was habt ihr als Marke gesetzt, ab wann ihr euch sicher sein könnt?
Ein Zeitpunkt, weil du, also du kannst, das kannst du iterieren, bis du schwarz wirst. Du wirst immer noch ein Argument finden, warum es dann doch noch nicht gut genug ist. Wir haben nur gesagt, mit welchem Zeitraum fühlst du dich denn confident genug? Wir sind so rum rangegangen. Und ursprünglich hatten wir gesagt, eben dann so etwas mehr als ein Jahr und dann wurde es halt aus Gründen dann etwas mehr.
Aber statistisch rein mathematisch war das Ding ja schon zu dem Zeitpunkt besser. Also als wir diese Entscheidung treffen sollten, wie lange wir das noch gar nicht nutzen wollen, war statistisch schon klar, das Ding ist besser wie wir. Und trotzdem ist man ja nicht sicher genug.
ist in den zwei Jahren noch passiert, woraus ihr lernen und auch das Modell verbessern konntet?
Und tatsächlich haben wir, [00:34:00] wenn man sich das im Detail anguckt, dann ist das ja aggregiert nachher ein Modellergebnis gewesen, aber viele, viele Teilmodelle. Teilmodelle, die sich auf gewisse Zeiträume zum Beispiel spezialisiert haben. Und das sind in vielen Fällen Open Source Komponenten gewesen, die eingesetzt wurden.
Und man findet in Open Source Komponenten am Ende auch Fehler. Und das hat zum Beispiel dazu geführt, dass wir gewisse Spikes erlebt haben. Da wurde in einer Woche das Dreifache der Menge prognostiziert. Und wenn ich denselben Datenpunkt nächste Woche nochmal angeguckt habe, ein Drittel. Also da waren riesen Spikes nach oben oder nach unten drin.
Und hätten wir die in der Realität wirklich gehabt, dann hätten wir genau die Probleme, die ich unbedingt vermeiden wollte, uns wirklich zur Tür reingeholt. Also es war ein sehr, sehr weiser Schritt. Ex post würde ich das jedem wieder empfehlen zu sagen. Gönne dir Zeit, kann ja jedes Unternehmen definieren, wie lange diese Zeit sein soll, aber gönne dir Zeit, wirklich zu evaluieren, dass das passt, was da gemacht wird.
Und ich glaube, es gibt keinen Anbieter, der garantieren kann, dass alles perfekt ist und deswegen hat [00:35:00] sich das für mich bewahrheitet an der Stelle, dass wir definitiv noch etliche Fehler ausräumen mussten aber auch konnten in der Zeit wo wir diesen Parallelbetrieb im Prinzip gefahren sind. Das war das eine Learning und das andere Learning war
Und natürlich haben wir eine rudimentäre grafische Oberfläche des Anbieters auch mitbekommen, wo man halt theoretisch ein paar Analysen direkt in der Oberfläche machen konnte und sich nachher anzeigen lassen konnte. Das postulierst du auch wieder up front. Du sagst das glaube ich zu brauchen und du wirst dann schnell merken, dass was du glaubst in die Kirche gehört, aber nicht in dein Business-Alltag, weil das liegt dann häufig falsch.
Und so war es bei uns auch. Wir haben dann gemerkt, wir brauchen andere Metriken, wir brauchen andere Grafiken, wir müssen das nochmal anders bewerten. Und so haben wir das eigentlich nochmal durchiteriert und auch das war wertvoll. Und wenn ich das so sage, dann müsstest du sagen, du hast ja vorhin gesagt, du wolltest nur ein nacktes Ergebnis.
Ja, auch das haben wir dann gelernt, dass ein nacktes Ergebnis alleine eben nicht reicht, sondern das Stichwort Explainable AI. Ich kann zumindest mal in Zügen [00:36:00] verstehen, was dieses Ding bedeutet Tut, weil ich verstehe, warum es das tut. Ich kann Auswirkungen sehen und ich kann Gründe entdecken und so weiter.
Das hat für uns auch schon nochmal einen Change bedeutet, der dann in dieser Phase eben auch erst passierte, weil die Grundhypothese nacktes Ergebnis einfach revidiert wurde. Und dann ist ja die Frage, jetzt könnte man glauben, wir haben hochtechnologische Mittel benutzt um diese Analysen zu machen. Das hochtechnologische Mittel, du ahnst es wahrscheinlich, war wieder Excel und das war am Ende eine richtig schön träge Tabelle, weil zur Überlegung wir prognostizieren 52 Wochen nach vorne, also prospektiv 52 Wochen bei einem, ich sage jetzt mal 1800 Artikel, die wir damit prognostiziert haben und Und 52 Wochen mit jeweils einem wöchentlichen Entry.
Das bedeutet, du hast dann am Ende wirklich, wirklich viele Daten. Und mein Mitarbeiter hat jeden einzelnen dieser Entries in einer Excel-Tabelle mitgenommen und jeden einzelnen nachher zum Vergleich herangezogen. Also diese Excel-Tabelle hat [00:37:00] wahrscheinlich dafür gesorgt, dass das AKW ISA 2 nochmal ein Jahr länger betrieben werden musste, weil es so viele Rechenleistungen gebraucht hat, dass wir noch ein paar Rechner mehr ins Netz nehmen mussten.
Also Spaß beiseite. Das war nicht hochtechnologisch aber es war halt insofern einfach, auch gestaltbar von uns im Unternehmen selbst. Wir mussten den Dienstleister da nicht sonderlich mit behelligen. Und das war was womit wir umgehen konnten, weil wir es kannten. Und ja so haben wir das tatsächlich dann betrieben.
Und über die Zeit ist eine enorm große Excel-Tabelle. Rausgekommen, die man einfach lieber nicht mehr aufmacht.
bin ich ja gespannt, also wenn ich jetzt richtig mitgerechnet habe, dann so Ende letzten Jahres, Ende 2023, wir nehmen jetzt heute übrigens am 9. Dezember 2024 auf, ihr dann den Switch gemacht, ist das richtig?
Bis ein halbes Jahr tatsächlich daneben weil einfach da noch ein Off-Time zwischendrin lag. Aber das konntest du nicht wissen. Von dem her, da wären wir rausgekommen. Wir wollten im Sommer diesen Jahres tatsächlich live gehen. Und wir haben auch ERP-seitig alles dafür getan. In unserem aktuellen ERP-System AX2012 die entsprechende Anbindung aufgebaut.
Wir sind [00:38:00] gerade mitten heute live. Wir wenige Tage vor unserem Go-Live des ERP-Updates. Wir werden zum Januar 25 hin auf Dynamics 365 von Microsoft gehen. Auch in die Cloud damit gehen. Das haben wir auch von vornherein mitrealisiert. Das heißt, wir hatten beide Seiten parallel zu realisieren. Das war eben die Vorbereitungsarbeit, von der ich auch vorhin mal angedeutet habe, dass sie noch anstand.
Und deswegen wollten wir zum Sommer diesen Jahres live gehen. Und... Und dabei blieb es dann tatsächlich in der Theorie auch, weil just in dem Moment, als wir live gehen wollten, hat uns eine sehr, sehr schlechte Nachricht erreicht, nämlich, dass unser Dienstleister, mit dem wir das ganze Spiel die ganzen Jahre voranbringen wollten, dann leider aus dem Markt austreten musste.
ist natürlich, klingt jetzt erstmal nach einem herben Rückschlag. Wie
man so sagen, ja.
um?
Ja gut. Das für mich ist in der Rückschau, das haben mich dann viele gefragt, hast du Geld rausgeworfen? [00:39:00] Da sagt man, nee, wir haben unglaublich viel gelernt. Wir haben ganz viel über dieses Thema AI, wie du an das rangehen kannst, was für Daten brauchst, wie du die qualifizierst Haben wir gelernt und gleichzeitig hat sich ja in der Gesellschaft und in der Technologiegesellschaft ja extrem viel geändert.
Wenn man zurück dann 2020, dann war das ja alles noch explorativ, wenn man das freundlich formulieren möchte. Heute hast du mit ChatGPT, das Large Language Model, das im Prinzip jeder auf dieser Welt kennt, also Gen-AI und ähnliche Thematiken, die überall schon angekommen sind, zumindest mehr oder weniger, hast du ganz andere Möglichkeiten einfach.
Ich bin selber noch nicht der Meinung, dass jedes Unternehmen schon komplett durchdrungen hat, wie man so Gen-AI verwendet und auch Machine Learning überall einfach Usus ist und jeder das einfach macht und das Commodity geworden ist. Das sicher nicht, aber die Möglichkeiten heute sind andere. Vielen Dank Für mich ist ein Thema immer so ein kleiner Dorn im Auge gewesen.
Wir haben in diesem Ansatz mit der AIM immer AWS drin gehabt. Also das komplette [00:40:00] Hosting hat auf AWS-Seite stattgefunden und ich habe es vorhin ja schon mehrfach gesagt, unsere ERP-Landschaft ist Microsoft und unser Kosmos im Prinzip auch. Wir sind von der Unternehmensstrategie her sehr stark Microsoft aufgestellt.
Wir wollen die Synergie darin nutzen. Ja, es gibt ein Abhängigkeitsrisiko, keine Frage, aber das akzeptieren wir und nutzen einfach die hohe Integrierbarkeit von allem. Und dann war mir das ein Dorn im Auge, weil AWS und Microsoft, das sind dann wieder zwei Player und das will ich ja eigentlich nicht haben.
Also habe ich immer damit rumlaboriert, dass wir eben nicht im Microsoft-Kosmos mit der KI-Anwendung waren. Und langfristig war mir klar, ich muss das auflösen. Langfristig wollte ich das immer zurück in den Microsoft-Kosmos bringen. Und Jetzt hat sich dadurch, dass die AIM aussteigen musste, ergeben, dass wir diesen Gedankengang, das in den Microsoft-Kosmos zurückzuholen, dann damit wieder forcieren konnten.
Das ist das, was wir als Benefit rausgezogen haben. Klar, natürlich ist es schade, wenn man dann eine Anwendung über Jahre [00:41:00] entwickelt, die dann so selber nie zum Fliegen kommt, aber das war für uns einfach der Moment, wo wir gesagt haben, und jetzt ziehen wir diesen Schritt vor und jetzt haben wir gelernt, dass es im Microsoft-Kosmos mit dem sogenannten Demand Planning schon ein Onboard-Tool gibt, wo du vieles dieser Data Science, Data Operation schon selber, wenn du es kannst, machen kannst, aber es auf jeden Fall auf einer standardisierten Plattform und nicht rein explorativ stattfinden kann.
Und das ist dann auch nochmal eine Weiterentwicklung des Gedankens weil es damit standardisierter wird, weil es methodischer wird und nicht einfach nur… Nicht böse gemeint nicht abwertend gemeint aber gebastelt. Das ist es dann halt insofern nicht mehr, weil es einfach auf einer größeren Standardplattform basiert.
Und das sagend lautet jetzt dann also quasi das aktuelle Ziel, nehme das, was du von der AIM gekriegt hast und überführe das jetzt in deinen Microsoft-Kosmos
Mit dem Demand Planning Modul was es dort out of the box gibt und das könnt [00:42:00] ihr dann entsprechend eurer Anforderungen einstellen und wahrscheinlich viele der Erkenntnisse aus dem Machine Learning Modell und Projekt dort mit überführen, aber es braucht ja wahrscheinlich doch einen sehr hohen Grad an Anpassung noch nach dem, was du jetzt berichtet hast, oder?
Es ist ganz interessant, weil tatsächlich ist es so, wir haben einfach die Datenbasis die wir damals auch mit dem anderen Anbieter geteilt haben, bereitgestellt und haben gesagt, bitte, hier habt ihr das, baut das mal ein. Das haben wir mit unserem Dienstleister für das gesamte Thema, die Firma Araneo, auch gemacht und die haben das im Prinzip geschnappt, haben das in den Demand Planning erstmal reingezogen.
Das war für sie sehr einfach, weil sie im Prinzip ja aus unserem gesamten Microsoft-Kosmos die Daten ja sowieso schon bereitgestellt hatten. Sie mussten ja nur die Anwendung dafür konfigurieren. Das ging übrigens in wenigen Tagen. Ich hatte jetzt jüngst am Freitag letzte Woche mit selbigen Mitarbeitern das ganze Thema mitbetreut und einer ERP-Kollegin von mir ein Meeting, wo man quasi die ersten Demo-Cases sehen konnte [00:43:00] mit Prognosen, die jetzt natürlich über Standardmodelle, aber die ersten Prognosen die über unsere Daten laufen gelassen wurden, die einfach schon da sind.
Rein theoretisch wenn ich jetzt sagen würde, mir gefällt das, was bei Microsoft da rauskommt, könnte ich per wenigen Klicks das implementieren und würde theoretisch am Montag damit schon zumindest in Dynamics 365 live sein. Ich betone immer so das Wort theoretisch, weil so ist es halt, Theorie. Es gibt natürlich Microsoft-Modelle, die da implementiert sind, die Prognosen machen sollen, aber jetzt wären wir damit ja wieder auf Start gesetzt, weil dann würden wir ja wieder die agnostische Frage stellen.
Ja, genau.
kontrollieren, oder?
Und das ist jetzt nicht so entgegenkommend für jemanden der langsam rechtfertigen muss, warum er da so viel Geld für ausgibt. Also von dem her war für uns ganz spannend die Frage, kannst du ein Custom Model eigentlich mitbringen? Und das ist tatsächlich möglich. Das heißt, unsere jetzige Bestrebung ist eigentlich die Transformation, das Modell, das wir über die Zeit jetzt generiert haben, tatsächlich [00:44:00] jetzt in Microsoft Cosmos zu implementieren und das dann zur Planung zu nutzen.
Das Galante daran ist, du kannst das auch kombinieren Du kannst sagen, ich nehme das für gewisse Time Fences zum Beispiel. Also das nächste Jahr mache ich so oder die nächsten sechs Wochen mache ich so. Den anderen mache ich dann mit einem Microsoft Modell oder ich mache irgendwas zwischen dem Microsoft Modell und unserem Modell.
Da wärst du sehr, sehr frei und das ist auch vergleichsweise einfach zu konfigurieren. Ich würde das einem halbwegs versierten Nutzer auch selber im Unternehmen zutrauen. Aber natürlich gibt es Experten am Markt, keine Frage. Und gerade wenn das der erste Ansatz ist, würde ich, glaube ich, sagen, nicht basteln, sondern machen lassen.
Aber du kannst halt in die Zukunft gesprochen mehr selber dann auch daran machen und musst nicht immer nur quasi einen Dienstleister damit beauftragen. Das ist tatsächlich dann ein angenehmer Punkt, ja.
Ja, das ist ein spannender Punkt, wo ich nochmal kurz darauf eingehen möchte, weil diese Make-or-Buy-Entscheidungen, die hat man ja in jedem IT-Projekt und insbesondere [00:45:00] bei KI ist das sehr spannend, weil ja immer mehr schon Vortrainierte Modelle oder Architekturen für bestimmte Anwendungsgebiete. Und Bedarfsplanung ist ja ein Anwendungsgebiet was irgendwie
Dank.
was schlüsselfertig einkaufen
Dank
hast du ja auch gesagt, ihr habt ja diese ganzen Lernschleifen auf dem Weg gedreht und habt wahrscheinlich extrem viel auch Selbstvertrauen, Erfahrung gesammelt in diese Technologie, um jetzt auch neue Projekte deutlich schneller und zielgerichteter umsetzen zu können. [00:46:00] Hättet ihr das nicht gemacht, dann wärt ihr heute, auch wenn es diese Lösungen gibt, und ich spekuliere jetzt nur, vielleicht gar nicht in der Lage, so ein Projekt umzusetzen, obwohl es auf dem Markt schon Lösungen gibt, die deutlich weiter sind als das, was ihr damals zur Verfügung hattet.
Ja, also ich kann dir nur zustimmen, ich würde auf das Learning und die Erkenntnisse die wir ziehen konnten, echt nicht verzichten wollen. Das ist für uns schon so, ich konnte ja damit ja auch andere KI-Vorhaben die man im Unternehmen hat, mal so ein bisschen referenzieren und konnte sagen, okay, das scheint mir jetzt nicht so realistisch zu sein, dass wir das machen können, weil wir Erfahrung haben, wie man da hinkommt.
Also, alleine die Erkenntnis war sicherlich wertvoll, aber sie würde natürlich nie den gesamten Preis rechtfertigen aber das ist ja auch nicht der Punkt, sondern das ist eine Ergänzung das ist ein nettes Nice-to-have, das du mitnehmen kannst. Die Frage nach dem Make-or-Buy. Nun, ähm. Ich hatte ja vorhin gesagt, Renfert ist so ein 200-Mann-40-Millionen-Umsatz-großes Unternehmen.
Die IT-Abteilung, da rede ich jetzt einmal von dem gesamten Thema [00:47:00] Security, Infrastruktur On-Prem und auf der anderen Seite ERP-slash-Cloud-Themen, also mal die zwei Standbeine, die wir kennen, da reden wir mit mir von am Ende, ich glaube, acht Mitarbeitern. Das ist jetzt nicht 8000 Mitarbeiter und da sind auch keine nativen KI-Experten, Data-Scientists und Sonstiges dabei, sondern das sind halt auf der ERP-Seite tatsächlich ehemalige User, die das ERP-System in- und auswendig gelernt haben, weil sie die Prozesse kennen und dann hat man halt das Theorie-Wissen, wie geht das in das System eigentlich richtig noch oben drauf gesetzt.
Das war einfach, das war so ein Seeding, wenn man so will. Man konnte säen und danach halt mal ernten. Aber das sind alles, da ist kein KI-Experte dabei. Da ist niemand dabei. Der Demand-Planning jetzt in einem konkreten Fall ein- und ausgeatmet hat. Das Tool ist auch noch ziemlich neu. Warum sage ich das alles?
Weil ich sagen will, so ein Mittelständler glaube ich, die Expertise aufzubauen, sowas selber zu machen, Das ist extrem kostspielig und ich glaube nicht, dass das ein Mittelständler wirklich [00:48:00] investieren will, weil du hast viele Projekte, das ist vorhin selber gesagt, du hast viele Projekte, es gibt viele Themen, die gemacht werden wollen.
Du kannst es nicht so mal so nebenbei ich glaube nicht, dass du da ins Ziel kommen wirst, sondern du musst dich tatsächlich fragen, habe ich die Kompetenz dazu? Und meine Antwort für die Rennfahrt GmbH war, nein die Kompetenz dazu haben wir nicht und ich halte es nicht für wirtschaftlich sie aufzubauen.
Also musste ich immer auf eine fertige Lösung von jemandem gehen. Das ist natürlich dann noch die Frage, klar, kann ich es als Commodity betrachten, sagen, hier gibt es einen fertigen Baustein den kaufe ich ein, mache dann KI draus oder ich lasse es von jemandem tatsächlich für mich erstellen und machen.
Und da war halt 2020 die Situation so, das Commodity gab es einfach nicht. Punkt. Das war halt Basteln. Und heute ist es vielleicht, ich würde sagen, so ein Semi-Commodity, es gibt Modelle aber Punkt, Punkt Punkt.
Die durchaus galante Situation, wir haben ein erprobtes und gehärtetes Modell, dem würden wir jetzt auch vertrauen, nach unseren [00:49:00] zwei Jahren der agnostischen Betrachtung. Und das kann ich jetzt in eine Technologie reinschmeißen, die für uns einfach zukunftsträchtig ist, weil auch Microsoft da unglaublich viel investiert.
Und ich hatte mal die Chance, an einem Microsoft-Event teilzunehmen und da hatte jemand mit Microsoft im Titel gesagt, there is no presentation without Copilot. Und das ist der Weg den man bei Microsoft ja auch geht. Ganz immenses Investment in das Thema KI. Und das merkst du, weil du kannst... Auch in unserer Größe, hier in ein Sparings-Gespräch mit Microsoft einsteigen und sie versuchen, deinen Input wertzuschätzen und daraus auch was zu machen, also auch an der Plattform, an dem Tool weiterzuentwickeln und von daher glaube ich, diese Semi-Commodity-Idee, es gibt eine standardisierte Plattform, da kann man über standardisierte Wege was erreichen und du kannst dein Custom-Code mitbringen und Standard gleichzeitig benutzen, das halte ich aktuell für uns jedenfalls.
Ich mag ja nicht für die ganze Welt sprechen, aber für uns jedenfalls für den wahrscheinlich ausgereiftesten Ansatz.
Kurz in eigener Sache. Wenn dir [00:50:00] der AI First Podcast gefällt und du mehr spannende Inhalte und hochkarätige Gäste hören möchtest, dann freue ich mich über deine Unterstützung. Mit einer Fünf-Sterne-Bewertung und einem Abo für den Podcast hilfst du uns sichtbarer zu werden und AI First weiterzuentwickeln.
Für dich und die gesamte Community. Ich danke dir.
eine Frage, bevor wir in die Zukunft schauen. Kannst du sagen, wie viele Montage da jetzt insgesamt reingeflossen sind, bis ihr eigentlich die Lösung fertig hattet und jetzt doch nochmal nachinvestieren müsst, aber bis du gesagt hättest, jetzt hättet ihr live gehen können im Sommer diesen Jahres. Ich hatte den Tracker auf 40 Tage, glaube ich gestellt und danach ist ja noch was passiert, falls du es teilen kannst.
Ja, das kann ich gerne teilen. Aber tatsächlich, man muss beachten, das sind ja nur externe Tage. Das sind ja nur bezahlte Manntage des Dienstleisters. Da sind ja immer noch intern viel, viel mehr hinten dran, weil die ganzen Validierung, [00:51:00] Prüfungen. Wir haben uns ja eine Artikelliste genommen. Wir haben, glaube ich 25 Artikel dann über diese Zeitreihen auch getrackt Also von dem her, das ist auch viel mehr Aufwand auch intern.
Aber extern, glaube ich wenn ich summa summarum zusammenrechne du hast den Tracker auf 40 gestellt. Auf den müssten wir wahrscheinlich nochmal weitere 25 draufstellen. Dann sind wir irgendwo bei 65 plus minus Tage plus noch ein bisschen Aufwand für die ERP-Anpassung. Sagen wir einfach mal 70 Personentage die dafür draufgegangen sein dürften auf der Dienstleisterseite.
Und da wir ja die fiktiven 1.000 Euro angenommen haben, also kann man auch sagen, 70.000 Euro hat das bis dahin mal gekostet. Und das ist das Spannende natürlich, wenn ich sage, so ein Semicommodity wie Demandplaning auf der Microsoft-Seite, das lizenzierst du, wenn du eine entsprechende Lizenz für Dynamics hast, die auch so und so viel Euro kostet, aber dann ist das Tool per se mit dabei.
Das bezahlst du dann nicht nochmal separat. Und das ist natürlich dann auch ein Punkt, da kann man sich fragen, das bietet also eine gewisse Basis die dann auf jeden Fall schon mal da ist, die du nicht nochmal investieren müsstest oder als Neueinsteiger gar nicht [00:52:00] investieren müsstest an der Stelle. Und man muss natürlich auch sehen, unsere bis dato Lösung wäre ja immer ein Managed Service gewesen.
Bedeutet, der AIM-Ansatz, den hätten wir ja jeden Monat bezahlt mit einem gewissen Eurobetrag, was dazu führt, die Running Costs wären dafür tatsächlich dann auch noch höher gewesen, als sie jetzt im Demandplanning sind, weil sie am Ende schlussendlich ja über eine Lizensicherung einfach mitkommen an der Stelle.
Und ich hoffe darauf, ich hoffe darauf, da wir jetzt ja gerade mitten im Go-Live des ERP-Projektes sind, wir werden das erst direkt, also nicht mit dem Go-Live realisieren weil uns dann einfach dann… Das zu kritisch wurde hinten raus, sondern dann irgendwo nach der Hypercare-Phase wird es live gehen und da sind die Kollegen gerade, die das auf der Demandplan-Seite implementieren, gerade eben parallel noch mit am Laufen.
Aber das hat jetzt ein Ende. Also ich will nicht nochmal zwei Jahre weitere Agnostik betreiben müssen, um irgendwo weiterzukommen, sondern das muss jetzt mal live gehen und das ist jetzt als [00:53:00] Zielsetzung nach der Hypercare-Phase. Ich sage mal zum spätestens Ende Q1 2025 dann.
Wir haben zwei Jahre getestet Wenn man sich die anschaut, in welcher Spanne bewegen wir uns da grob was an Einsparungspotenzial durch das Modell erzielt werden kann?
Ja, das ist immer ganz schwierig zu beurteilen, weil eben wie ich ja vorhin auch den Use-Case erklärt habe, ist halt, wie erkläre ich, dass ich durch eine schnellere Belieferung mehr Umsatz gemacht habe. Also den Part kann ich nicht erklären. Ich kann in...
war...
Das ist also unglaublich schwierig. Ich kann es tatsächlich heute gar nicht wirklich in Euros quantifizieren, wenn ich ehrlich bin.
Ich kann nur insofern die Messgröße auf die Planung richten weil ich ja da weiß, je genauer die Planung, desto besser der Effekt. So, mit dem Limiter zu genau, haben wir vorhin gelernt, Personalschwankungen und Co. geht dann auch nicht, also gibt es da so einen Deckel drauf. Es ist schon so, dass wir immer so [00:54:00] bei einer Planungsgenauigkeit von 85% davor waren, also mit unserem eigenen Tun.
Und wir haben mit der KI auf jeden Fall gesehen, dass wir mit dem Release Candidate in dem Moment und der würde ja oder der wird ja auch immer noch weiter trainiert dann, der kriegt mehr Daten und dadurch wird er ja auch noch besser, aber zu dem Zeitpunkt lägen wir bei 93 Prozent. Also da hätten wir auf jeden Fall schon mal nochmal ordentliche Prozentpunkte nach oben gewonnen und tatsächlich, wie gesagt, jeder vermiedene Planungsfehler ist ein guter und es kommt ja noch eins hinzu und das ist, glaube ich noch viel schlagender.
Also dadurch, dass wir das immer manuell machen mussten und einen enormen Aufwand dafür hatten, haben wir das natürlich nicht jeden Tag gemacht, sondern im Grunde genommen war die Aktualisierung der Datenbasis im manuellen Tun quartalsweise. Einmal im Quartal hat man diese Planung dann erneuert So, das bedeutet aber einen gewissen Time-Lag, den du ja hast zwischen einem Ereignis tritt auf, eine Veränderung wird offensichtlich und ich implementiere sie auch.
Mit unserer KI-Lösung sind wir auf einen Wochenrhythmus runtergegangen. Das heißt, jede Woche gibt [00:55:00] es eine Planungsüberarbeitung und das heißt, ich habe damit nicht 4 in einem Jahr, sondern 52 in einem Jahr. Ich habe viel schneller das Ergebnis und das ist tatsächlich was, worauf ich mich in der Realität dann freue, weil wir einfach viel näher an den eigentlichen Veränderungen dran sind, viel besser agieren und reagieren können an der Stelle.
Und das macht sich dann auch in der Beschaffung bezahlt, weil die Kollegen sind ja extrem darauf angewiesen, dass sie Frontloading kriegen. Wenn die Bedarfsplanung ihnen keine Bestellvorschläge generiert, dann tun die halt nichts. Und je besser ich da bin, desto besser ist es in der Realität für uns.
Sehr spannend. Also noch viel mehr Mehrwerte als die reinen Euros am Ende des Tages und ja, scheint als müssen wir noch mal ein Update machen, wenn
seid und du genaueres berichten kannst. Zum Ende frage ich immer noch gerne meine Gäste hier, was du denn glaubst was KI für uns in den nächsten zwölf Monaten bereithältst?
Vielleicht
darüber hinaus, die meisten oder viele [00:56:00] trauen sich ja gar nicht über die nächsten drei Monate hinauszuschauen, aber was glaubst du, wie sich der Markt verändern wird und welchen Einfluss das auf ein Unternehmen wie euch hat?
Danke.
Vielen Dank.
Ich benutze das sehr stark, weil ich das einfach total praktisch finde. Ich kann mir Termine die ich verpasse, in wenigen Prompts so zusammenfassen dass ich nach drei Minuten arbeitsfähig bin und einen Stunden Termin nicht mitgemacht habe. Danke, das optimiert meinen Kalender. Das ist so das eine. Oder halt auch das ganze Thema
Ich kann eine Business-Meeting-Einladung sehr effizient damit machen, wo ich einfach sage, hier ist eine E-Mail auf der Basis, such mal mit den Leuten einen Termin, zack. Also da gibt es ja ganz viel, das man heute schon kann und [00:57:00] das sind ja nicht die Nonplusultra-galaktischen Themen, wo man ganz viel Research noch machen muss, sondern das ist wirklich Commodity.
Das gibt es ausgeliefert per Lizenz in Anführungszeichen und ich glaube, das wird uns erstmal die nächsten Monate noch mehr in der Wirtschaft beschäftigen, dass mehr und mehr Leute mit dem Thema konfrontiert werden oder sich selber damit beschäftigen Und einfach mehr der heute schon verfügbaren Funktionalitäten in der Realität auch ankommen, weil was theoretisch möglich ist und in der Realität auch gemacht wird, sind immer zwei Paar Stiefel.
Ich glaube, da wird dieser Grad an Realitätsnutzung in den nächsten Monaten auch steigen. Aber ich habe noch einen ganz anderen Take, weil… Ich traue mich jetzt mal was, zumindest zu reproduzieren, was ich nie gedacht hätte. Nämlich ich weiß, dass es Anbieter am Markt gibt, die schon ganz intensiv darüber nachdenken, dass die gesamte Idee eines ERP-Systems verändert werden kann mittels KI.
Hinzugehen und zu sagen, in der Zukunft wird es autonom agierende ERP-Systeme geben. Also die Prozesse werden [00:58:00] abgewickelt von dem System selbst. Du als User bist dann noch die Mess- und Steuergröße. Da gibt es einen Fehler, lieber User, guck da mal hin. Oder einer deiner Lieferanten tanzt aus der Reihe, bitte, ich schlage dir hier schon mal Sachen vor, die du mit dem jetzt machen kannst.
Dahin soll die Reise gehen. Ich finde das total spannend, sich das zu überlegen. Und gleichzeitig, ich habe dann so ein bisschen den Film iRobot im Kopf gehabt. Und dann tanzt so ein Ding mal aus der Reihe und die ganze Welt geht unter. Oder Skynet als Beispiel. Wir hatten es von Terminator. Ja
Glaube ich nicht super empfänglich Also der Deutsche per se wird da nicht super empfänglich dafür sein, dass man die Kontrolle so weit aus der Hand gibt. Aber früher oder später wird es kommen, weil technologisch möglich ist es. Davon bin ich überzeugt.
Vielen Dank. [00:59:00] Casts und glaube ich total spannend mal sowohl die Komplexität auch von so einem Use Case zu verstehen, wie ihr vorgegangen seid, was ihr daraus gelernt habt, aber was am Ende tatsächlich auch für ein Potenzial dahinter steht und wenn man sich jetzt diesen Fall mal anschaut, was in der Zwischenzeit schon alles passiert ist, worauf ihr heute aufsetzen könnt und ich glaube, das Thema ist super relevant.
Ich höre es auch von Kunden immer wieder, Bedarfsplanung, Supply Chain Optimierung einfach ein riesengroßer Schmerzpunkt oft noch ist und da viel Potenzial drin liegt und da konnten heute einige hoffentlich was von ihr mitnehmen. Sebastian, vielen, vielen Dank.
Ja, Felix, ich sage dir danke, dass ich heute dabei sein durfte in deinem Podcast. Ich fand es super spannend. Ich habe mich über die Einladung gefreut und ich bin ja deiner Meinung an der Stelle, weil das Thema ist sicher relevant, auch der Use Case ist relevant und ich weiß von vielen Unternehmen, dass sie sich sehr schwer tun, weil sie kein Anpassende haben und klar kann ich keine Blaupause heute liefern, [01:00:00] aber ich kann wenigstens mal so einen Vorhang lüften und jedem mal so einen gewissen Einblick daran geben, was da passiert und von daher danke ich dir auch für diese Chance tatsächlich.
Das hast du ganz wunderbar gemacht.
Super.