No.
Dachser

Vom 1. Leuchtturmprojekt zum KI-Kompetenzzentrum: Nachhaltige KI-Wertschöpfung bei Dachser

Mit
Jürgen Sakry
Lerne von Dachser, wie du KI-Projekte erfolgreich im Unternehmen etablierst: Von der Entwicklung erster Machine-Learning-Use Cases über Citizen Development bis zu GenAI-Rollouts und der Bedeutung starker Datenbasis – praxisnah und inspirierend!

In dieser spannenden Folge des AI FIRST Podcasts spricht Felix Schlenther mit Jürgen Sakry und Florian Zitzler von Dachser, einem der weltweit größten Logistikunternehmen. Die Gäste teilen ihre umfassende Erfahrung mit der Implementierung von KI-Lösungen im Logistikbereich - von den ersten Anfängen mit Machine Learning bis hin zur heutigen Nutzung generativer KI. Jürgen Sakry verantwortet den Fachbereich Shared Services und betreut KI aus der Business-Perspektive, während Florian Zizler als Leiter des Data Science Teams in der Corporate IT die technische Seite vertritt. 

Inhaltsübersicht

  • Die Keimzelle des KI-Engagements 
  • PAnDA One - der erste große Machine Learning Use Case 
  • Datenfundament und Akzeptanz 
  • Entwicklung des Data Science Kompetenzzentrums 
  • Generative KI im Einsatz 
  • Citizen Development mit KI-Unterstützung 
  • Zukunftsausblick und Wettbewerbsvorteile 


Detaillierte Inhaltszusammenfassung

Die Anfänge der KI bei Dachser

Die KI-Reise bei Dachser begann 2017/2018 mit einer Kooperation mit dem Fraunhofer-Institut für Material, Fluss und Logistik in Dortmund. Diese vom CDO Stefan Hohm initiierte Zusammenarbeit brachte Wissenschaft und Praxis zusammen und fokussierte sich auf Predictive Analytics für die Logistik.

Das PAnDA One Modell - Der erste große Machine Learning Use Case

Das erste Prognosemodell PAnDA One entstand aus der Forschungskooperation und kann die Eingangstonnage für Niederlassungen bis zu 25 Wochen in die Zukunft vorhersagen. Als Unterstützungswerkzeug konzipiert, hilft es den Disponenten bei der Planung, ohne sie zu ersetzen.

  • Viertmeist geklickter operativer Bericht im Unternehmen
  • Europaweit in allen Niederlassungen im Einsatz
  • Prognosegenauigkeit: stabil unter 5% Abweichung
  • Monatliche Aktualisierung der Vorhersagen

Von Daten zu Entscheidungen

Dachser profitiert von einem selbstentwickelten Transportmanagement-System (TMS), das volle Kontrolle über die Unternehmensdaten ermöglicht. Die Herausforderung lag weniger bei den Daten selbst als bei der richtigen Technologie und Methodik. Besonders bemerkenswert: Die Offenheit der Mitarbeiter gegenüber den KI-Lösungen, was auch durch die frühzeitige Einbindung der Praktiker in den Entwicklungsprozess gefördert wurde. 

Vom Prototyp zum Produktivbetrieb 

2020 wurde PandaOne in den produktiven Betrieb überführt und in über 100 Niederlassungen ausgerollt. Dachser entschied sich bewusst dafür, die notwendigen Kompetenzen intern aufzubauen, statt die Implementierung an externe Partner zu delegieren. Die Corona-Pandemie stellte dabei eine besondere Herausforderung dar, da die plötzlichen Veränderungen im Markt die Zeitreihen für die Prognosemodelle verzerrten. Das Team musste schnell Lösungen finden, um die Modelle trotz der "verunreinigten" Daten stabil zu halten.

Aufbau des Data Science Kompetenzzentrums

Das interdisziplinäre Kompetenzzentrum verbindet technische Expertise, Forschung & Entwicklung sowie Business-Know-how. Dachser pflegt einen "Innovations-Kosmos" mit Kunden, Universitäten und Technologiepartnern, um stets über neue Entwicklungen informiert zu bleiben und relevante Lösungen zu identifizieren.

Generative KI im Einsatz 

Mit dem Aufkommen generativer KI hat sich das Berufsbild im Data Science Team stark verändert. Dachser pilotiert aktuell den Microsoft 365 Copiloten mit 800 Nutzern.

  • Wöchentliche Engagement-Sessions für verschiedene Anwendungsfälle
  • Office Hours für Fragen und Best-Practice-Austausch
  • Eigenes Teams-Team für Community-Building
  • Praktisches Beispiel: Erstellung eines Quiz für eine Kundenpräsentation in unter 10 Minuten

Citizen Development mit KI-Unterstützung 

Die "Weg vom Klemmbrett"-Initiative ersetzt Papierformulare durch selbstentwickelte Apps. Eine Community von 1.000+ Citizen Developern nutzt eine No-Code-Plattform, die seit 1,5 Jahren mit generativer KI ausgestattet ist. Die KI schlägt komplette App-Strukturen vor und liefert oft innovative Funktionen, an die die Entwickler selbst nicht gedacht hätten. Jährlicher Durchsatz: 3,5 Millionen Datensätze, die früher auf Papier erfasst wurden.

Zukunftsausblick und strategische Überlegungen 

Florian Zizler wirft die strategische Frage auf: Wenn alle Unternehmen durch KI produktiver werden, wo liegt dann der Wettbewerbsvorteil? Neben generativer KI dürften Technologien wie Computer Vision und vor allem die Beherrschung der eigenen Daten entscheidend sein. Jürgen Sakry betont die Notwendigkeit, offen für neue Entwicklungen zu bleiben und kritisch zu prüfen, welche KI-Lösungen echten Mehrwert bringen.


Kernaussagen:


"Nutzen ist die stärkste Währung des Zuhörers" - KI-Lösungen werden dann akzeptiert, wenn sie einen klaren Mehrwert bieten, unabhängig von der dahinterstehenden Technologie.


"Die Betroffenen zu Beteiligten machen" - Der Erfolg von PAnDA One lag auch darin begründet, dass die Anwender von Anfang an in die Entwicklung einbezogen wurden, statt die Lösung "im Keller zu entwickeln".


"Vermeintlich ist heute unser Gehirn das, was limitiert, was eigentlich möglich ist" - Die größte Herausforderung bei der Nutzung von generativer KI liegt darin, die eigenen Denkmuster zu erweitern und neue Anwendungsmöglichkeiten zu erkennen.


"Wer seine Daten beherrscht, hat einen Wettbewerbsvorteil" - In Zukunft wird nicht nur die Nutzung von KI-Tools entscheidend sein, sondern vor allem die Qualität und Verfügbarkeit der eigenen Daten.

Fazit und Takeaways

Die KI-Reise von Dachser zeigt exemplarisch, wie ein großes Logistikunternehmen schrittweise KI-Kompetenzen aufbaut und erfolgreich in die Praxis bringt. Beginnend mit einem klar definierten Business-Problem (Mengenprognose) hat das Unternehmen nicht nur technologische Lösungen implementiert, sondern auch organisatorische Strukturen geschaffen, die kontinuierliche Innovation ermöglichen.

Für deine eigene KI-Reise kannst du folgende Erkenntnisse mitnehmen:

  • Starte mit einem konkreten Business-Problem, nicht mit der Technologie
  • Beziehe die späteren Anwender frühzeitig in die Entwicklung ein
  • Baue interne Kompetenzen auf, aber scheue dich nicht vor externer Expertise
  • Schaffe Strukturen für den Wissensaustausch (wie Dachsers Community für den Copiloten)
  • Denke über die Produktivitätssteigerung hinaus - wo kann KI echte Wettbewerbsvorteile schaffen?

Die Erfahrungen von Dachser zeigen, dass der erfolgreiche Einsatz von KI ein kontinuierlicher Lernprozess ist, der sowohl technologisches Verständnis als auch organisatorischen Wandel erfordert. Mit dem richtigen Mindset und der Bereitschaft zum lebenslangen Lernen können Unternehmen jeder Größe die Chancen der künstlichen Intelligenz für sich nutzen.


Links:

Zum Gast: ⁠⁠⁠⁠Jürgen Sakry
Zum Host: ⁠⁠⁠⁠Felix Schlenther

Herzlich willkommen zum AI-First-Podcast. In dieser Folge habe ich mit Jürgen Sakre und Florian Zitzler von DAXA gesprochen, einem der weltweit größten Logistikunternehmen. Und wir haben über die Anfänge von KI bei DAXA gesprochen, wie sie den ersten großen Machine Learning Use Case gefunden, entwickelt und dann auch im gesamten Unternehmen skaliert und in den Produktivbetrieb bekommen haben. Wir haben Wie sich dann im Laufe der Jahre ihre KI-Organisation entwickelt hat, welche Kompetenzen sie aufgebaut haben, was sie auch auf diesem Weg über künstliche Intelligenz gelernt haben, wie sie heute auf Gen-AI und die neuen KI-Anwendungsformen blicken und wie sich damit auch ihr Ansatz verändert hat, diese Technologie in die Organisation zu bringen. Hier ist eine ganze Menge dabei, auch technisch Andere Themen, die wir in anderen Folgen so noch gar nicht behandelt haben. Und ich wünsche dir ganz viel Spaß dabei. AI FIRST Podcast - Dachser - 2025_05_07 17_08 CEST – Recording: Hallo Jürgen hallo [00:01:00] Florian, schön, dass ihr da seid. Grüß dich Felix. Hallo Felix, grüß dich. Ja, wir sprechen heute über eure Arbeit rund um Daten und KI und welchen Weg ihr bei DAXA gegangen seid. Wir haben ja vorher schon gesprochen. Ich weiß, dass es da eine ganze Menge zu lernen gibt. Aber bevor wir loslegen, wollen wir noch etwas mehr über euch erfahren. Und Jürgen, ich werfe den Ball zum Start mal zu dir. Erzähl doch einmal kurz, wer du bist und was du bei DAXA machst. Ja vielen Dank, Felix. Gut, dass wir vorher gesprochen haben, das Ganze einzugrenzen. Wie du sagst, die Themen sind vielfältig um künstliche Intelligenz. Ja, ich bin Jürgen Sakri, bin seit 27 Jahren bei DAXA und verantworte den Fachbereich Shared Services, wo wir uns unter anderem um die künstliche Intelligenz von der Business-Perspektive kümmern. Und ich würde mal an meinen geschätzten Kollegen Florian weitergeben. Ja, hallo von meiner Seite. Mein Name ist Florian Zitzler. Ich arbeite Ich bin bei DAX im Analytics-Umfeld vorwiegend [00:02:00] aktiv, seit über zehn Jahren bei der Company. Seit sieben Jahren, acht Jahren beschäftige ich mich zunehmend mit dem Themengebiet Data Science, Machine Learning, Künstliche Intelligenz und bin mittlerweile in der Corporate IT gelandet wo ich das Team Data Science leiten darf. Perfekt genau die richtigen Leute hier für einen guten Podcast. Was war denn die Keimzelle für euer heute schon sehr, sehr großes, umfangreiches Competence Center für Data Science und Machine Learning? Wie hat das Ganze seinen Anfang genommen vor sieben, acht Jahren oder vielleicht schon früher, wie du gerade meintest, Florian? Ja, ich fange mal an. Wir haben natürlich als Unternehmen Als großer Konzern im Analytics-Umfeld schon unterschiedlichste Fragestellungen rund um Statistik Data Science immer beantworten müssen. Die Keimzelle, wie du es genannt hast, war eigentlich dann [00:03:00] 2017, 2018, als wir als Firma dann eine Kooperation mit dem Straunhofer-Institut verabschiedeten Für Material, Fluss und Logistik in Dortmund eingegangen sind, das sogenannte Enterprise Lab, damals stark initiiert von unserem CDO, Stefan Hohm, und da haben wir uns zum ersten Mal dann auch mit Fragestellungen beschäftigt, die wohl dann immer mehr in Richtung Data Science, Künstliche Intelligenz gewandert sind. Es ging um Predictive Analytics, Prognosemodelle für die Logistik und Logistik Das war so dann der erste Start auf unserer Journey. Warum habt ihr euch damals für die enge Zusammenarbeit entschieden mit einer Forschungseinrichtung? Ja, ich glaube, die Kunst ist bei der Sache auch, dass man immer mal den Blick nach außen wirft. Und gerade mit dem Fraunhofer-Institut als eines mit der [00:04:00] renommiertesten, mit Blick auf die Logistik War da unsere Meinung auch, um zu sagen, wir bringen Wissenschaft und die Praxis zusammen und arbeiten da eben an Zukunftsthemen, wo beide Welten aufeinandertreffen. Und da haben wir eben, wie Flo schon erwähnte, mit unserem CDO Stefan Hohm zusammengearbeitet Jemanden gefunden, der da auch dran geglaubt hat und genauso auf der damaligen Seite beim Fraunhofer-Institut auf Professor Ten Hompel, der das auch somit sehr visionär verfolgt hat und die beiden da am Ende auch die Treiber waren, dass wir da gemeinsame Wege gehen. Und so war es eben dann 2017, dass in dieser Zusammenarbeit das erste Prognosemodell, nennt sich Panda One, entstanden ist, mit dem wir in Niederlassungen in unserem Geschäftsfeld der Road Logistics eine Eingangstonnage Prognose [00:05:00] können, die in 25 Wochen in die Zukunft reicht. Und das ist aber auch ein ganz entscheidender Punkt. Das wird hier nicht einem Disponenten Erledigen, sondern ihn in der Planung unterstützen und das zeigt eben auch, dass das auch damals schon eher in die Richtung ein Assistent ist, eine Unterstützung, aber nicht die AI wird hier den Menschen quasi erlösen, sondern es wird die Arbeitsweise eben verändern und was heute total spannend ist, dass in unserem operativen Berichtswesen dieses PandaOne-Modell der viertmeist geklickte operative Bericht ist, Der in ganz Europa in den Niederlassungen auch ausgerollt ist und da eben Unterstützung für den Disponenten im Nahverkehr bringt. Ich würde da gerne nochmal ein bisschen tiefer reingehen in den Anwendungsfall, weil wahrscheinlich auch vielen, die hier zuhören jetzt noch gar nicht genau klar ist, was ihr da macht. Kannst nochmal auf das Problem eingehen was ihr [00:06:00] identifiziert hattet was ihr dann lösen wolltet und vielleicht auch so ein bisschen auf den Weg, wie ihr vom Problem dann auf eine KI-Lösung gekommen seid? Seid und welche Aufgabe das KI-System in dem aktuellen Prozess ausführt. So, jetzt habe ich dir drei Fragen entgegengeworfen. Jürgen, möchtest du oder soll ich? Ich glaube, Flo, du warst von Anfang an dabei. Fang du mal an. Okay, also Ja es geht los wie meistens mit einer Planungsunsicherheit und bei der Logistik oder in unserem Geschäft ist es halt auch so, dass unglaublich viel planen müssen, auch auf der taktischen Ebene. Also bei uns sitzen Speditionsmanager und die wollen schlicht wissen, was in der Zwei Wochen, in drei Wochen, in zehn Wochen oder in 25 Wochen, welche Menge man zu bewältigen hat. Ja man muss dann seine Schichtpläne schreiben, [00:07:00] man muss vielleicht Fahrzeuge beschaffen, mit Fuhrunternehmern sprechen. Also eine urlogistische Planungssituation. Und dem wollten wir was entgegenstellen, damit wir einfach den Planern in der Operative auch beobachten können Eine Hilfestellung geben können und lustigerweise war unser Ziel nie, ja wir müssen jetzt irgendwas mit KI machen, weil die anderen tun es ja auch, also unser Ansatzpunkt war und ist, welche Herausforderungen im Betrieb sind gerade aktuell und wie können wir hier quasi mit Technologie unterstützen und am Ende war die Antwort für diesen Use Case eben Machine Learning, hätten aber auch einfache Arima-Modelle aus der Statistik wenn die gut genug gewesen wären, dann hätten wir auch die Technologie hier genutzt. Und am Ende war es Machine Learning. Am Ende waren dann auch die Algorithmen [00:08:00] zum Beispiel Light GBM oder XGBoost, waren dann auch die richtigen Algorithmen, die wo auch zu unseren Daten gepasst haben. Und... Präzise Vorhersagemodelle lassen sich eben nur erstellen, wenn du auch die richtige Datenbasis hast und dann die Algorithmen, das sage ich immer, die sind einfach da. Also die Algorithmen sind nicht das Problem oder die Herausforderung mittlerweile bei uns im Alltag, sondern es ist nach wie vor datengetrieben. Also wenn wir die richtigen Daten haben, wir erkennen die Muster, dann kann man sich relativ sicher sein, dass man schon mal einen guten Prototyp Also wir wollten einfach den Entscheidern, den Planern im operativen logistischen Umfeld ein cooles nützliches Instrument an die Hand geben und das ist uns ganz gut gelungen. Wo standet ihr denn datenseitig vor acht Jahren? Also für diesen [00:09:00] Anwendungsfall hattet ihr damals schon eine zentrale Datenplattform, auf der diese Daten einfach zugänglich waren? Oder wie habt ihr die Daten vorbereitet, um das Modell dann trainieren zu können? Und was habt ihr vielleicht auch auf dem Weg damals schon gelernt, was euch heute hilft? Wir bei DAXA wir haben das die Besonderheit wir Wir entwickeln unser TMS-System, also unser ureigenes Betriebssystem, Transportmanagement-System selbst. Damit sind wir, glaube ich, Jürgen, in Europa, auf der Welt relativ einzigartig Das heißt, wir haben eine sehr hohe Kontrolle was die Daten betrifft. Das sind unsere ureigenen Systeme entwickelt von DAXer für DAXer. Und das macht schon mal das ganze Datenmanagement Unglaublich leicht. Das Neue für uns war nicht die Daten, die kannten wir davor auch. Das [00:10:00] Neue für uns war damals auch eher die Technologie, die Methodik der Werkzeugkasten. Der war für uns neu und da kam dann eben auch diese Kooperation eben mit externen dann voll zum Tragen, weil die dann eben uns auch vielleicht an der richtigen Stelle auch mal darauf hinweisen, Mensch, ihr habt hier So gute Daten, ja, über mehrere Ländergrenzen hinweg alles gut harmonisiert, einheitliches Datenmodell, wenn er die und die Technologie vielleicht nutzt, ja, dann können wir hier auch ganz gut Potenziale abschöpfen und so ging das damals los. Also die Daten waren da, die mussten natürlich dann auch entsprechend aufbereitet werden, aber das ist dann ganz normales Data Science, ja, am Ende des Tages. Wie habt ihr es geschafft, dass, also wenn dieser Bericht und die Prognosen die heute rauskommen, so tiefgreifend in den Arbeitsalltag integriert sind und so stark [00:11:00] genutzt werden, müssen die Prognosen ja sehr präzise sein. Welches Level erreicht ihr da ungefähr? Auf der taktischen Ebene wenn wir auf Wochenbasis prognostizieren, unsere Prognosen eine, Eine Abweichung die liegt stabil unter 5%. Und das ist eine Prognosegüte, wird von den Entscheidern in der Logistik in der Fläche draußen auch akzeptiert. Wenn die Prognosen... Zu schlecht wären, dann hätte auch das Thema nie die Akzeptanz, weil dem Logistiker in der Fläche ist es eigentlich egal, mit welcher Technologie wir Mengenprognosen erstellen. Am Ende möchte er nur eine gute Prognose haben. Weil wenn die schlecht ist, dann wird er sich diesen Report nie wieder anschauen. Das ist auch ein Gesetz. Und die Prognosequalität ist Gott sei Dank über die Jahre hinweg stabil gut Ich hatte mal einen Podcast mit jemandem [00:12:00] wo im Unternehmen eine KI-gestützte Bedarfsplanung entwickelt wurde und da gab es eine Übergangsphase von ungefähr einem Jahr, wo man das alte, die sechsfach-polynomische Regression in Excel gegen das Machine Learning Modell hat laufen lassen, bis, und das war eine ganz große Herausforderung das fand ich sehr spannend, bis ausreichend Vertrauen im Team gab Für das Machine Learning Modell und diese Prognosen gegeben waren. Wie seid ihr denn damit umgegangen weil bei euch werden ja, also da hängt ja viel dran an diesen Prognosen und dann nochmal 25 Wochen im Voraus ist ja auch ein, Längerer Zeitraum, wo man nicht so kurzfristig reagieren kann. Ja, aktualisieren die Prognosen monatlich Also bei uns bekommen die Betriebsstätten dann aktualisierte Prognosen, also rollierend dann über die nächsten 25 Wochen. Zur Akzeptanz Felix, ich war immer überrascht [00:13:00] wie... Wie leicht das Thema eigentlich aufgenommen wird, also wie weit eigentlich dann die Praktika schon waren, also da waren die allerwenigsten gingen da mit der Attitüde an das ich bin 30 Jahre lang in der Logistik ich weiß schon, was da kommt, ja, also mein Bauchgefühl ist immer noch um einiges besser wie euer Algorithmus. Nee, die waren völlig offen, Die haben gesagt, jawohl, dankeschön ich nehme das gerne ergänzend mit in meinen Entscheidungsprozess mit auf. Also ich kann da wirklich nur sagen, das war echt eine tolle Erfahrung und auch wieder, wie offen dann die Leute mit Technologie umgehen können. Und am Ende ist es aber wirklich so, die Prognosen müssen einfach gut sein. Aber ich war überrascht, wie offen die Leute da und wie vorbehaltslos Leute hier mit neuer Technologie dann auch in Berührung kamen weil es war wirklich auch von uns auch Bedenken. Ja, wir müssen da Überzeugungsarbeit [00:14:00] leisten. Es gibt Vorbehalte. Und in dem Fall war es wirklich eine sehr positive Erfahrung. War richtig gut. Ist das die DAXA-Kultur oder habt ihr da noch irgendetwas getan, um das zu fördern? Die DAXer-Kultur spielt ja mit Sicherheit eine Rolle, aber ich glaube entscheidend war auch, Dass wir den Algorithmus nicht im Keller entwickelt haben. Also nur ein kleines Spezialistenteam von DAXA. Die fahren regelmäßig nach Dortmund hoch und machen da was mit den Wissenschaftlern von Fraunhofer. Ab Tag 1 waren eigentlich die Praktiker einzeln hier auch mit eingebunden. Also wir haben das hier nicht im Keller entwickelt und dann den Leuten präsentiert, sondern die waren eigentlich auch immer Teil von dem Ganzen vom Anfang bis zum Ende. Und Felix, ich habe letzte Woche einen neuen Satz gelernt, den finde ich eigentlich ziemlich cool, der trifft auf vieles so zu, aber ich glaube, der war da schon auch ganz gut. Nutzen ist die stärkste Währung des Zuhörers. Und ich glaube, als mal dieses [00:15:00] Vertrauen gestärkt wurde, was Flo vorhin erwähnt hatte, hat man relativ schnell gemerkt, aha, da ist was für mich drin, also hilft es mir, die Technologie ist mir vielleicht egal, aber ich habe damit einfach einen Vorteil. Und wenn man mal zurück überlegt wie sich das jetzt über die Jahre entwickelt hat, und wenn man mal sagt, naja, 2022 ging mal in die breite Masse das ganze Thema Künstliche Intelligenz erst Über als JetGPT so für jeden greifbar war. Wenn man da mal zurückdenkt da waren wir der Zeit schon so ein bisschen voraus und hatten damals schon die Idee, darauf einzuzahlen, wie es denn so ist, wenn es vielleicht nicht mehr den Logistikexperten gibt, der da seit 30 Jahren Bauchgefühl hat. Denn auch die werden uns begegnen. Der klassische Disponent im Nahverkehr, also in der letzten Meile war vielleicht früher Fahrpersonal-Experte Darum kannte der in München jede Straße, das braucht man aber heute nicht mehr, ist natürlich noch toll, wenn man das weiß, aber das braucht man vielleicht gar nicht mehr so sehr, sondern der Job hat [00:16:00] sich eben auch Verändert. Und der wird sich auch nach wie vor verändern, weil wir vielleicht ja gar nicht mehr die Fachkräfte finden. Oder man könnte ja sagen, nicht nur Fachkräfte findet man nicht, sondern man findet Leute nicht. Wobei es sich auch wieder ein bisschen wandelt. Aber umso mehr man von diesem klassischen Weg eines Disponenten vielleicht abkommt, umso eher ist es ja super, wenn ich Technologien habe, die mich unterstützen und vielleicht sogar mein Bauchgefühl eben Und das war eben ein ganz guter Ansatz um zu sagen, für diesen einen Anwendungsfall eben auch mit Aufklärung Erklärung, natürlich auch mit entsprechender Power, die hier die operativen Einheiten mitgeleistet haben, um das in die Fläche zu bringen, zeigte das aber, was da für ein Nutzen eben dahinter ist. Und ich glaube, das ist so bei allem, was man neu anschleppt und egal, wie man das auch nennt wenn da der Nutzen da ist und das ist halt dann vielleicht zufällig mit KI so, Dann findet das schon Anklang. [00:17:00] Ich glaube, was halt das Entscheidende ist, dass man so neue Dinge halt auch erklärt, dass sie sich halt zur klassischen Art und Weise verändern, zum klassischen Algorithmus der halt vielleicht auf Ja, Nein oder Wenn, Dann basiert sind halt solche Dinge vielleicht ein bisschen unterschiedlich also gerade wenn man dann nachher nochmal über Generative KI sprechen, dann ist ja das auch wichtig, dass man sowas mit begleitet und die Leute aufklärt und nicht nur wegen dem EU-AI-Act, sondern eben auch um da einen Mehrwert zu stiften für das Unternehmen und nicht nur Geld für was auszugeben weil halt gerade AI fancy ist. Ja, also stimme ich dir zu. Ich kann es natürlich nur bestätigen und gleichzeitig seid ihr wirklich stark vom Problem gekommen und ihr habt die Betroffenen zu Beteiligten gemacht. Das ist das, was ich mit raushöre und ich glaube, das sind zwei ganz wichtige Klare Erfolgsfaktoren, damit solche Lösungen dann am Ende auch in die breite produktive Nutzung kommen und eben nicht irgendwo im stillen Kämmerlein entwickelt worden sind und dann [00:18:00] verstauben, weil sie am Nutzer vorbei entwickelt worden sind. Und ihr hattet ja jetzt damit einen mega ersten Leuchtturm-Case etabliert oder? Man kann sagen, Felix, dieses PandaOne-Projekt war Es die Keimzelle, also es war wirklich die Initialzündung auch technologisch es dann wirklich in die entscheidende Phase ging, aus dem Lab dann in die Produktion zu bringen. Und jeder weiß, wer schon mal Datenprodukte entwickelt hat, ja, der Prototyp ist vielleicht ganz... Ganz einfach, ja, wenn es dann in Richtung Produktion geht, dann kommen andere Skills dann mehr zum Tragen, ja, dann muss man die Sachen anders bauen, stabiler bauen, also ganz einfach Engineering-Aspekte, wo dann wieder mehr vielleicht so Software-Developer-Skills dann mit sich bringen. Ja, man muss sich dann mit Containern auseinandersetzen und auch da, also der [00:19:00] finale Schritt dann hin zur fertigen Lösung war dann auch nochmal eine sehr spannende Reise, weil damit haben wir dann auch einen wichtigen Grundstein gelegt, um hier bei DAX dann auch den Data Science Deck, Zu etablieren Und der beginnt eben nicht nur mit dem oder von externen Experten oder mit der Identifikation von internen Talenten. Die besten Data Scientists können auch nur so gut sein, wie der Werkzeugkasten und wie die Daten es hergeben. Und diese Sachen halt in den Eingang zu bringen, da Ist es auf jeden Fall hilfreich, wenn man da auch mal so ein initiales Erfolgsprojekt dann hat, was auch dann vom C-Level auch her dann auch nochmal auch entsprechend nochmal unterstützt wird. Also das war wirklich sehr, sehr gut damals. Wie seid ihr denn von da aus weitergegangen? Also oder nochmal vorher gefragt, wo sind wir jetzt zeitlich in welchem Jahr, wo PandaOne in den wirklich Produktivbetrieb [00:20:00] gegangen ist? Wir sind hier im Jahr 2020 und haben damals dann auch die Entscheidung getroffen, okay, In der Fläche bei DAXA den Leuten zur Verfügung stellen. Also der Prototyp das waren dann meinetwegen 20 Niederlassungen. Am Ende müssten wir mehr als 100 Niederlassungen monatlich mit guten Prognosen versorgen und das war der Auftrag. es war auch das Bekenntnis, dass man selber bei DAXA diese Kompetenz besitzen möchte, um solche Produkte auch zu bauen. Also das war dann auch nochmal eine wichtige Entscheidung. Eben dass man das dann nicht dem Frauenhof überlässt oder einer externen Firma, dass die den Produktivbetrieb dann quasi abnehmen und das Ding deployen sondern das Bekenntnis, diese Kompetenz möchte man bei DAX haben und weiter ausbauen, die wurde dann eröffnet 2019, 2020 [00:21:00] getroffen. Du merkst vielleicht, unser Timing war unfassbar schlecht. Es kam dann Corona und wir sprechen hier über Zeitreihenprognosen. Also du kannst dir bestimmt vorstellen, dass dann durch Corona dann auch unsere Zeitreihen dann nicht mehr so gut waren und dann war es eigentlich auch ganz spannend, dass wir dann auch dann sofort dann mit den verunreinigten Zeitreihen-Daten waren, weil die Mengen tatsächlich Und, wo wir dann hatten, oder diese Saisonalitäten, diese Muster, die ja für solche Modelle so wichtig sind, die waren dann erstmal zerstört. Und wir mussten uns dann auch gleich mal die ersten Tricks überlegen, wie kommen wir jetzt eigentlich die Zeit rein, dann wieder stabil, geglättet. Um dann weiterhin gut die Prognosen machen zu können. Also 2020 war eine aufregende Zeit, ja, und dann 2021 dann eben die Hintergründung des Kompetenzzenters Data Science und Machine Learning wurde dann alles entsprechend auch dann manifestiert. Das waren so die [00:22:00] ganz spannenden Zeiten damals. Mittlerweile schon und Jahre her. Wahnsinn. Ja, zeigt aber auch, dass solche Lösungen zu entwickeln und diese Themen im Unternehmen aufzubauen auch einfach Zeit benötigen. Also es ist nicht aus dem Regal gegriffen und eingestöpselt sondern es steckt halt mehr dahinter. Ich meine, ihr seid jetzt natürlich auch eine große Organisation. Ja, sehr, sehr spannend. Und wir weitergehen Wie ihr jetzt heute aufgestellt seid und was in den letzten Jahren passiert ist, wie ihr auf generative KI schaut, wo ihr dort die Unterschiede sind, da habe ich noch einige Fragen dazu. Ich würde aber noch mal gerne auf eure Forschungspartnerschaft eingehen. Denn aktuell stehen viele, auch insbesondere Mittelständler, mit denen ich hier so spreche, vor der Herausforderung dass sie nicht die Kompetenzen intern haben, was Data Science angeht was AI Engineering angeht oder vielleicht auch Softwareentwicklung. Würdet ihr sagen, dass... Die Zusammenarbeit mit [00:23:00] Forschungseinrichtungen, Instituten Universitäten ein guter Start ist, um ins Doing zu kommen und um sich dort externen Kompetenzen reinzuholen, die man selbst nicht im Unternehmen hat, um dabei zu lernen und auch Wissen zu transferieren ins eigene Unternehmen und dann parallel diese Strukturen intern aufzuziehen? Oder wie denkt ihr heute nach den Erfahrungen, die ihr gesammelt habt, darüber nach? Ich glaube, das Entscheidende ist, dass man über den Tellerrand hinausschaut Natürlich wie organisiere ich mich selbst, irgendwo mal zu beginnen? Dazu brauche ich halt Leute, die es umsetzen können, aber natürlich auch Leute, die Die das Business-Wissen haben und überführen können, weil am Ende ist es natürlich dieser Dreiklang, ja, Mathematik und Tools und Coding, aber das Business-Knowledge brauche ich unbedingt und das passt auch super in unser Credo Logistics People Business. Wenn ich niemanden habe, der diesen Use Case aus einer Business-Sicht beschreiben kann, dann weiß die IT halt auch nicht, was sie umsetzen soll, aber gleichzeitig muss ich ja auch [00:24:00] vielleicht irgendwo mal Wissen erst aufbauen. Natürlich waren wir jetzt in so einem Guten Ausgangslage, dass wir Flo und Team in einem Kompetenzzenter, so als interdisziplinäres Team hatten, die damit loslegen konnten, auch mit der externen Unterstützung. Aber es ist auf jeden Fall sehr ratsam, dass man, ob das jetzt mit der Universität ist, ob das jetzt mit Startups ist oder Technologieanbietern oder genauso auch mit den Kunden in Austausch geht. Wir sagen immer so, das ist unser DAX Innovation Kosmos, wo wir eben auch Kunden mit einbinden natürlich unsere Niederlassungen Forschung und Entwicklung, ja, wir haben eine eigene Forschungs und Entwicklungsabteilung, die sind da immer relativ früh dran, wo man schon auch mal vielleicht ein Gefühl dafür kriegt welche Richtung es einschlagen kann, mit denen wir natürlich auch sehr eng im Austausch sind, weil sie teilen Das Kompetenzzenters auch sind. Aber das Wichtige ist einfach, dass man damit offen umgeht. Und wir sehen ja, wie schnelllebig die Welt ist, wie sich manche Modelle wöchentlich verändern, besser werden und dergleichen Und man kann da gar nicht mehr sagen, ich schreibe das jetzt [00:25:00] mal zwei, drei, fünf Jahre fest und so bleibt es immer. Das funktioniert überhaupt nicht mehr. Und von daher sollte man da schon offen unterwegs sein, natürlich auch schauen, was da zur eigenen Firmenstrategie passt, weil am Ende ist ja Digitalisierung nicht nur AI oder AI ist nicht nur Digitalisierung und AI kann auch nicht überall alles besser machen. Man muss halt schon genauer hinschauen, wo ist vielleicht eine einfache Automatisierung relevant oder wo brauche ich wirklich Digitalisierung Generative KI oder Machine Learning und da ist es ihnen durchaus sehr hilfreich, in den Austausch zu gehen und wie gesagt, es ist auch sehr hilfreich, wenn man das mal mit Kunden tut und so kamen wir am Ende auch zusammen, Felix, mit einem anderen Interviewpartner im Podcast, die auch DAXer-Kunde sind. Mit denen wir da auch mal im Austausch waren, weil am Ende Digitalisierung, der eine mag ein bisschen weiter vorne sein, der andere ein bisschen hinten, aber irgendwo sind wir dann doch in einem Boot auf unterschiedlichen Decks wie es so schön heißt. Und [00:26:00] manchmal klappt halt so auch nach dem Geberprinzip Digitalisierung dann gemeinsam doch besser. Wie ist denn euer Kompetenzzentrum für Daten und KI heute aufgestellt? Ja ich hätte mal gesagt, wir haben da eine ganze Bandbreite. Also zum einen das Team von Flo, wo wir die Technik verstehen und umsetzen können, wo wir aber auch genauso den gemeinsamen Austausch haben mit, was braucht eigentlich das Business. Wo drückt wirklich der Schuh und was ist dann am Ende wirklich in Richtung künstliche Intelligenz auch relevant? Das ist so ein bisschen unser Fahrwasser. Dann habe ich schon erwähnt mit R&D arbeiten wir eng zusammen, die auch Teil des Competence Centers sind, die dann am Ende auch mal in den ersten Kontakt mit Technologiepartnern kommen oder auch mit neuen Technologien, wenn man sich das mal anschaut was da so alles Um das Thema AI rumschwirrt vielleicht gerade so am Hype of [00:27:00] Expectation ist oder im Tal der Tränen schon ist, wenn man sich mal den Gartner Hype-Cycle zur Rande zieht. Und genauso muss man da halt auch mal viele Dinge, wie Flo schon erwähnt hat, halt einfach mal ausprobieren mit einem Prototypen, der vielleicht sofort scheitert aber einfach, um es mal greifbar zu machen, oder der vielleicht das nächste Level erreicht Herbeiführt, um zu sagen, oh, das fühlt sich aber ganz gut an, dass man es mal Stakeholdern auch zeigen kann, um zu sagen, ja, so könnte das ausschauen und vielleicht muss man es dann von einem Vorprojekt in ein richtiges Projekt überführen und genauso, wie es auch Flo erwähnt hatte, zu professionalisieren, dass es halt ein stabiles Produkt ist und nicht nur ein Prototyp. Und so ist es halt eine ganze Bandbreite an Personen die hier involviert sind, Dass wir solche Anwendungsfälle dann auch gut beschreiben können und dann eben auch überlegen, macht man das selber oder gibt es halt dazu Produkte, die das out of the box liefern, weil das wäre jetzt vermessen wenn wir irgendwie so einen persönlichen Assistenten da [00:28:00] entwickeln, den es aber von dem einen oder anderen Anbieter ja im Produkt gibt. Klar muss man dafür zahlen, aber warum nicht gleich sowas halt nutzbar machen? Felix Schlenther: Kurz in eigener Sache. Wenn dir der AI First Podcast gefällt und du mehr spannende Inhalte und hochkarätige Gäste hören möchtest, dann freue ich mich über deine Unterstützung. Mit einer Fünf-Sterne-Bewertung und einem Abo für den Podcast hilfst du uns sichtbarer zu werden und AI First weiterzuentwickeln. Für dich und die gesamte Community. Ich danke dir. AI FIRST Podcast - Dachser - 2025_05_07 17_08 CEST – Recording: Habt sich irgendwas verändert oder habt ihr eure Herangehensweise an die Projekte verändert, seitdem generative KI so niedrigschwellig zugänglich ist? Gute Frage. Meinst du Felix, eher in die Richtung, wie sehr beeinflusst generative KI das Projektmanagement selbst oder wie In welche Richtung denkst du hier? Ja, also ich meine bei eurem Machine Learning Case, den ihr [00:29:00] jetzt geschildert habt, da habt ihr ja ein Projektteam zusammengestellt, einen externen Partner gesucht und hattet dann ein Entwicklungsprojekt über längere Zeit. Jetzt haben wir Werkzeuge, die jeder nutzen kann, um sehr niedrigschwellig auch selbst Use Cases umzusetzen. Und das sind sicherlich nicht diese Moonshots, von denen ihr jetzt berichtet habt, die wirklich einen riesen Impact auch auf die Wertschöpfung haben, aber die ganz viele kleine Potenziale in allen möglichen Bereichen heben können und da wird ja so ein... Kompetenzzenter eher zum Flaschenhals, wenn ihr jetzt all diese Anfragen aus allen Bereichen irgendwie verarbeiten und priorisieren und dann managen müsst. Könnte ich mir vorstellen. Die Kunst ist eben genau, dieses Bottleneck zu vermeiden. Es wird nicht einfacher, weil die Technologie gefühlt immer sich schneller entwickelt. Also die Veränderungszyklen, die sind schon [00:30:00] sehr kurz, was ich zum Beispiel bei uns im Data Science Team feststelle, also die Art und Weise, wie wir heute arbeiten. Unser ganzes Berufsbild hat sich ja auch massiv verschoben. Also wir uns vor fast sieben acht Jahren Oder sechs Jahre noch mit dem sogenannten klassischen Machine Learning beschäftigt. Und wir mussten uns auch erst dann quasi Richtung Channel I dann auch nochmal neu qualifizieren. Also diese Entwicklung, die wohl in den letzten zwei, drei Jahren stattgefunden hat, die mussten wir als Entwicklerteam auch erstmal entsprechend absorbieren, um dann auch eben in der Lage zu sein, neue Produkte zu bauen. Und manche Sachen sind mittlerweile weg abstrahiert. Die haben uns vor vier, fünf Jahren noch erhebliches Kopfzerbrechen bereitet, Felix. Also das ganze Thema Infrastruktur Modelle deployen auf einer [00:31:00] Kubernetes-Plattform und solche Geschichten. Also das waren richtig harte Sachen, die mittlerweile auch ein Stück weit demokratisiert sind. Das ist meine Perspektive, wenn ich Sachen bauen muss. Als Spezialist aber ich glaube, deine Frage ging dann auch noch mehr in die Richtung, wie bekomme ich dann vielleicht KI in die Unternehmen, in die Prozesse rein, wo Leute mit weniger Kenntnissen vielleicht auch schon mittlerweile in der Lage sind, entsprechende Prozesse zu bauen. Ich glaube, da kann ich vielleicht was ganz Gutes dazu beisteuern wo das so ein Beispiel ist, wie sich halt Leute mit kleinen Anwendungsfällen tagtäglich helfen können. So ist es eben, dass wir gerade so persönlichen Assistenz einführen, eben auch mit dem Hintergrund die Leute da langsam ranzuführen, eben mit Schulungen zu untermauern. Und so ist es eben, dass wir gerade... [00:32:00] In einer Pilotphase mit 800 Usern den M365 Co-Piloten in die Welt bringen, von DAXA. Und das haben wir uns jetzt mal bis September als ein Pilotprojekt auf die Fahne geschrieben, dass wir hier wöchentlich Engagement Sessions anbieten, immer mit einem Blick auf andere Use Cases wo der M365 Co-Pilot helfen kann. Und gleichzeitig auch mit so Ganz einfachen Office Hours, wo sich halt die Leute einwählen können und dann ihre Fragen stellen können, ihre Best Practices teilen können. Dazu gibt es dann eben auch ein eigenes Teams Teams mit einem entsprechenden Kanal, wo auch alle Teilnehmenden da ihre Best Practice teilen können. Und das ist schon erstaunlich was da so für Themen aufkommen. Wie so ein persönlicher Assistent einem das Leben einfacher machen kann. Also ich hatte heute zum Beispiel auch einen total spannenden Fall, das für eine Präsentation, ich habe [00:33:00] erwähnt wir machen das ja auch öfter mal mit Kunden hier in den Austausch und da steht im Mai eine Kundenpräsentation an in unserer Niederlassung in Straßburg. Die Präsentation steht soweit und jetzt haben Sie heute eine Abstimmung Die Verkaufsteams in der Niederlassung gewünscht dass wir doch den Einstieg mit einer kleinen Umfrage und einem Quiz machen. Jetzt kann ich das natürlich in Mentimeter oder Microsoft Forms mal schnell zusammenbauen. Fünf sechs Fragen. Aber da ja die PowerPoint fertig ist, habe ich halt dann einfach über den Co-Piloten gesagt, basierend auf dieser PowerPoint-Präsentation, stell mir doch bitte ein Forms-Quiz und nicht mehr als sieben Fragen. Und siehe da, es war halt ein erstes Ergebnis mit 85 Prozent. Ich habe dann halt zwei Fragen rausgelöscht und zwei angepasst aber ich war im Nu fertig. Jetzt kann man natürlich sagen, Naja, wird nicht der größte Use Case, aber so hat es mir halt irgendwo 10, 15 Minuten gespart. Ich hatte erst mal einen guten Grundstock und konnte halt [00:34:00] weiterarbeiten und das war etwas, das man mit Sicherheit nicht im Kopf hat, wenn man sowas einführt, wenn es darum auch geht, wie viel Geld gibt man dafür aus, sondern das kam halt so nebenbei. Und genauso teilen da die Teilnehmenden da, wo wir auch die Idee haben zu sagen, Wir erstellen da so eine Community, dass das halt eben miteinander wächst. So kommen dann die Leute auch auf solche Ideen. Und ein Kollege hat letztens mal gesagt, naja, vermeintlich ist heute unser Gehirn das, was limitiert was eigentlich möglich ist, wenn ich halt einfach mal darüber denke, wie kann ich das für mich nutzbar machen. Und das geht halt nicht von heute auf morgen und das geht auch nicht mit einer Anleitung wo man sagt, lies nach, das steht da drin. Weil das kannst du alles gar nicht aufschreiben, das ist auch total unsinnig sondern man muss es halt einfach für sich nutzbar machen und vielleicht ist jetzt meine Story total langweilig für manche, aber vielleicht für den einen oder anderen ist es etwas, wo man sagt, hey stimmt, habe ich noch gar nicht daran nachgedacht und ich wäre davor auch nicht auf die Wege gekommen, das so zu [00:35:00] tun, sondern wahrscheinlich hätte ich halt einfach diese Umfrage ganz klassisch halt gebaut mit den Gedanken die ich habe oder hätte mich eh nochmal an meiner Präsentation orientiert aber so war das halt in unter zehn Minuten fertig und also... Ja, ja, ist spannend, was du beschreibst. Also das erlebe ich ja auch immer wieder und Und ich glaube auch, und deswegen, darauf wollte ich auch so ein bisschen hinaus, beziehungsweise hat mich interessiert wie ihr genau damit jetzt umgeht, weil ich glaube nicht, dass man da top-down sehr strukturiert über alle Abteilungen hinweg diese Anwendungsfälle finden kann, weil ich glaube, dass das durch die Nutzung kommt und wir unsere Hände daran bekommen müssen und ausprobieren und dann teilen was wir lernen, um andere dabei zu inspirieren. Und ihr habt es ja auch schon gesagt, in alle Paar Wochen werden die Modelle irgendwie wieder leistungsfähiger und können irgendetwas Neues, was wir dann wieder für uns adaptieren müssen. Seht ihr denn neben dieser individuellen Produktivitätssteigerung so ein paar [00:36:00] sehr große Gen-AI-Cases in der Logistik, die ihr euch anschaut? Oder sind wir da doch eher bei traditionellen Machine Learning und Data Science-Arbeiten und Vorhersage-Modellen? Ja Also ich hätte vielleicht noch einen ganz spannenden Fall, den wir bei uns in der Logistik jetzt schon länger verfolgen. Und zwar haben wir so eine Initiative, die nennt sich Weg vom Klemmbrett, dass wir quasi papierbasierte Prozesse in Apps über den Citizen-Developer-Ansatz relativ schnell und einfach selber hinkriegen, ohne jetzt Ressourcen in der IT zu beanspruchen. Wohlwissend dass natürlich so ein Ansatz über sogenannte No-Code-Plattformen auch irgendwo Sein Ende findet oder eben den Weg aufzeigt, wo man vielleicht was bauen muss, ob es in einer Low-Code-Plattform ist oder im ERP-System integrieren oder wie auch immer. Und da haben wir eine Community von über 1.000 Leuten weltweit, die eben diese Apps in der Low-Code-Plattform bauen können. Und das hat man halt [00:37:00] bis vor eineinhalb Jahren einfach mit Bausteinen gemacht, die man aneinandergereiht hat und sich dann einen Prozess gebaut hat. Ja, klar. Also einer der ersten war die Fahrzeugkontrolle für Gefahrgut. Das war halt vorhin eine DIN-A4-Seite basierend auf einer Word-Datei wo man halt dokumentarisch was prüfen muss, ausrüstungstechnisch und wie das Fahrzeug die Beschaffenheit ist, ob man halt überhaupt Gefahrgut verladen darf oder nicht. Eine rechtliche Vorgabe und war halt sehr papierbasiert und gerade wenn es danach noch eine Auswertung brauchte oder man vielleicht von einem mangelnden Foto gemacht hat, dann muss man das zusammenbringen. Und das war so einer der ersten Fälle, den wir überführt haben in diese No-Call-Plattform. Und wir waren damals tatsächlich so mit fast, Fünf Wochen Zeitersparnis in einer Niederlassung, was wir sehr moderat gerechnet haben, besser und zwar nicht am Ende mit in der Kontrolle selbst, sondern am Ende die Datenverfügbarkeit und dass wir eben Medienbrüche vermieden haben. Und das war schon mal ein ganz toller Wurf und seit eineinhalb Jahren hat diese Plattform [00:38:00] auch eben generative KI integriert, dass ich quasi mit einem Prompt sagen kann, ähm Welchen Use Case ich habe und mit dem prompt eben sage, erstelle mir eine App zum Thema Containerprüfung für Seekontainer zum Beispiel und dann macht die KI, basierend halt auf der Lernmenge, die da vorhanden sind in dieser Plattform Mir einen ersten Vorschlag, den ich dann natürlich wieder verwerfen kann oder sage, mach länger, mach kürzer, aber ich habe einen ersten Wurf. Und wenn man sich mal überlegt diese Community von den 1000 Citizen Developern, die haben wir seit 2017, die ist stetig gewachsen und Und mittlerweile haben wir so im Jahr dreieinhalb Millionen Datensätze, die darüber abgewickelt werden, was dann so moderat gerechnet dreieinhalb Millionen Seiten Papier auf Klemmbrettern war. Vielleicht mehr, aber moderat, sagen wir mal, dreieinhalb Millionen Datensätze, entsprechend dreieinhalb Millionen Seiten Papier. Und dass hier diese Integration stattgefunden hat, hat dann nochmal einen ganz anderen Hebel, [00:39:00] weil wenn ich, Vorher jetzt so auf einmal in diese Welt des Citizen Development abtauchen konnte, dann, klar, habe ich mich mit der Plattform beschäftigt habe mal erste kleine Apps gebaut, habe die Bausteine aneinandergereiht und jetzt habe ich halt die Möglichkeit mit Prompt schon mal so ein fertiges Konstrukt zu bekommen, wo auf einmal Regeln schon drin sind oder mir sogar Bausteine vorgeschlagen werden, wo ich gar nicht auf die Idee kam, dass die Sinn ergeben in meinem Prozess und das hat nochmal eine ganz andere Befähigung und wir haben uns das mal als das vorgestellt wurde von dem Anbieter, mit dem arbeiten wir schon einige Jahre zusammen, das ist die Firma SnapBondi diese No-Code-Plattform ähm Zur Verfügung stellt mit Software-as-a-Service und dieser KI-Integration. Und als wir uns das das erste Mal vorgestellt haben, haben wir halt gedacht, komm, das probieren wir jetzt mal mit ein bisschen Unfug aus. Und haben gesagt, bau uns mal eine App zur Bewertung eines Pizza-Tastings. Und dann kam da halt so ganz klassisch der Baustein für [00:40:00] Sternebewertung, wie war die Pizza, Freitextfeld, beschreib mal, wie die Pizza geschmeckt hat und Mehrfachauswahl was war denn das für eine Pizza. Und was war drauf und dergleichen Und dann war aber noch die Idee von der KI, den Fotobaustein einzubauen um zu sagen, mach doch noch ein Bild von der Pizza. Da ist natürlich fragwürdig am Ende, wenn die Pizza schon gegessen wurde wie du noch ein Bild machst. Aber auf die Idee wäre man gar nicht gekommen. Und das zeigt eben auch vielleicht genau das, was... Für Möglichkeiten es gibt, wenn KI mich unterstützt. Ich weiß meinen Use Case, ich bin dieser Citizen Developer, ich habe einen Plan, wie der Prozess aussah aber ich weiß ihn halt auch, wie er papierbasiert war. Jetzt kann ich mir natürlich Gedanken machen, wie mache ich den digital besser und nicht nur eins zu eins kopieren, sondern wie kann die KI mir helfen und in dem Fall halt Gen-AI, dass ich den Prozess wirklich besser mache, weil da was halt aufkommt, was ich gar nicht vorher gedacht habe zu kombinieren. Also hier habt ihr dann eure Citizen-Developer, die alle anderen Mitarbeitenden [00:41:00] beschleunigen nochmal mit KI weiter beschleunigen können oder besser gemacht. Absolut, ja. Die Frage, wo ich total spannend finde, ist, wenn wir uns auf ein Gedankenexperiment einlassen und wir gehen jetzt mal davon aus, Wir und unsere Wettbewerber wir machen alle unsere Hausaufgaben, wir machen alle unseren Job und es gelingt uns, die Produktivität unserer Knowledge-Worker in den nächsten fünf Jahren um 20 Prozent zu erhöhen. Das ist ja das... Das sich allein betrachtet eine Riesensache. Also Software-Development, alles wird produktiver und wir gehen da schön mit unseren Wettbewerbern im Gleichschritt weil jeder einfach die Sachen, die seine Leute einführen. Ich frage mich, und die Frage können wir uns dann auch gerne alle stellen, wo liegt hier am Ende noch der Wettbewerbsvorteil? Also wie können wir mit künstlicher [00:42:00] Intelligenz vielleicht Wettbewerbsvorteile generieren und damit verbunden die Frage, was kann man schwer zur Commodity machen, weil viele Sachen, wo wir in den letzten Monaten, in den letzten Jahren gesehen haben, die waren erst wow, super schwer und in einem halben Jahr oder noch kürzer war das Thema Commodity und jedes Kleinkind konnte das benutzen. Und das sind die spannenden Fragen, auch in der Logistik weil... Wir ein zutiefst physisches Geschäft haben. Also wir sind Logistik, wir lagern Waren und wir transportieren Waren. Wir haben Umschlagsterminals und ich glaube, Gen AI wird natürlich eine sehr wichtige Rolle spielen, aber ich denke auch an andere Technologien im Umfeld der künstlichen Intelligenz, auch Computer Vision und solche Geschichten. Also ich glaube, wer Solche Technologien beherrscht wer seine Daten beherrscht [00:43:00] Datenmanagement, das sind die Sachen die wohl wahrscheinlich auch dann eine Firma ausmachen und Diese Disziplinen müssen wir auch erfolgreich gespielen, weil das sind wahrscheinlich dann am Ende dann die Treiber wo dann vielleicht den Unterschied ausmachen. Ich unterstelle einfach mal dass wir alle es schaffen werden, quasi die Office-Produktivität entsprechend zu erhöhen aber ich glaube, am Ende werden andere Sachen vielleicht entscheidender sein. Und ich glaube auch, wir müssen immer im Blick behalten, was da noch so kommt. Also wenn man jetzt mal schaut, was seit 2022 so passiert ist und das Thema Artificial Intelligence ist ja jetzt nicht seit 2022 da. Also wenn man schaut, so in den 50er Jahren gab es ja schon mal erste Beschreibungen dazu, wenn es technologisch noch nicht so ganz funktioniert hat oder überhaupt denkbar war. Aber was da seit drei Jahren alles passiert und passiert ist und wir haben es auch gerade gesagt, Wöchentlich [00:44:00] verändern sich manche Dinge und wenn man mal bei uns in die Pipeline schaut, was R&D hier so alles auf dem Radar hat, wo wir heute noch gar nicht so richtig Ahnung haben, also nur ein paar so Wörter in den Raum zu werfen mit Artificial General Intelligence oder Argentic AI, Edge AI oder AI Wearables, Da gab es ja jetzt auch so ein Unternehmen, das da so ein kleines Gadget mal gedacht hat, wo man erst mal gar nicht wusste für was brauche ich das oder ist es überhaupt gut oder nicht. Oder aber gleichzeitig eben, was noch so in Richtung auf dem Weg des Wissensaufbau ist, also generative KI sind wir ja auch gerade mal. So am Anfang, was da noch kommt und Flo hat es ja auch gerade erwähnt mit Computer Vision und dergleichen also da werden mit Sicherheit noch ganz, ganz viele Dinge passieren und wahrscheinlich ist auch so eins der Dinge, das man hier einfach nur mal so mit den Zuhörern, den Zuhörerinnen so mitgeben kann, man muss [00:45:00] offen sein für Neues und lebenslanges Lernen steht mit Sicherheit noch viel größer im Vordergrund und es gibt eigentlich gar nichts mehr, Wo man sagt, ja, da schaue ich jetzt mal weg. Irgendwann kommt es schon. Sondern das könnte unter Umständen noch viel schneller da sein, als man denkt. Und das ist natürlich immer die Frage, wie ist man organisiert und welche Möglichkeiten hat man? Aber wir haben es ja vorhin auch schon gesagt, einfach offen sein für solche Sachen. Und wenn man Möglichkeiten hat, um auf irgendwelche Messen Kongresse zu gehen, mit Universitäten in Austausch zu gehen, mit Kunden sich auszutauschen. Es gibt ja auch viele Möglichkeiten Auf Plattformen, wo man gratis E-Trainings machen kann, dass man einfach auch dafür offen ist, weil es wird da noch ganz, ganz viel kommen und man muss am Ende auch mal schauen, ist das jetzt halt was, was Verrücktes und ganz Nettes oder wie Flo halt sagte, ändert das wirklich vielleicht sogar mein Geschäftsmodell macht mich das wirklich besser oder ist es jetzt nur was nice to have [00:46:00] und wir sehen das ja auch. Und nahezu überall schreibt man gerade AI drauf, künstliche Intelligenz und dergleichen. Manche Sachen sind ganz nette Features, kosten Geld und bringen wenig. Andere Sachen bringen halt viel. Gleichzeitig gibt es halt Dinge, wo man sich fragt entwickelt man sowas selber? Hat man überhaupt die Möglichkeit oder kauft man das zu? Und am Ende ist es aber halt nicht nur AI und Machine Learning, sondern da gibt es ja noch ganz, ganz viele Unterscheidungen. Und darüber sollte man sich schon Gedanken machen und sich auch aufschlauen. Genau damit beenden wir diesen Podcast. Neugierig bleiben, anpassungsfähig bleiben und das, was KI uns für Chancen bietet, natürlich kritisch hinterfragen und dann nutzbar machen. Immer zur Unterstützung des Menschen. Ihr habt wunderbar gezeigt, wie dieser Weg aussehen kann. Echt tolle Insights. War auch spannend, mit euch mal über ein paar Nicht-Gen-AI-Cases zu sprechen, die wir hier doch sehr oft in dem Podcast haben. Interessant, wie ihr da natürlich auch alle [00:47:00] unterschiedlichen Themen so auf dem Schirm habt und ja, ich wünsche euch weiterhin ganz, ganz viel Erfolg auf dieser Reise und wer weiß, wenn wir dann wann wir das nächste Mal über Edge AI Variables oder AGI bei euch sprechen. Danke für eure Zeit. Danke Felix für die Einladung hat uns gefreut. Danke Felix, hat Spaß gemacht. Felix Schlenther: Kurz in eigener Sache. Wenn dir der AI First Podcast gefällt und du mehr spannende Inhalte und hochkarätige Gäste hören möchtest, dann freue ich mich über deine Unterstützung. Mit einer Fünf-Sterne-Bewertung und einem Abo für den Podcast hilfst du uns sichtbarer zu werden und AI First weiterzuentwickeln. Für dich und die gesamte Community. Ich danke dir. Herzlich willkommen zum AI-First-Podcast. Was für eine Folge mit DAXA, einem der größten Logistikunternehmen der Welt. Ich hatte Jürgen Sakri und [00:48:00] Florian Zitzler zu Gast, mit denen wir über die erste produktive... Herzlich willkommen zum AI-First-Podcast. In dieser Folge habe ich mit Jürgen Sakre und Florian Zitzler von DAXA gesprochen, einem der weltweit größten Logistikunternehmen. Und wir haben über die Anfänge von KI bei DAXA gesprochen, wie sie den ersten großen Machine Learning Use Case gefunden, entwickelt und dann auch im gesamten Unternehmen skaliert und in den Produktivbetrieb bekommen haben. Wir haben Wie sich dann im Laufe der Jahre ihre KI-Organisation entwickelt hat, welche Kompetenzen sie aufgebaut haben, was sie auch auf diesem Weg über künstliche Intelligenz gelernt haben, wie sie heute auf Gen-AI und die neuen KI-Anwendungsformen blicken und wie sich damit auch ihr Ansatz verändert hat, diese Technologie in die Organisation zu bringen. Hier ist [00:49:00] eine ganze Menge dabei, auch technisch Andere Themen, die wir in anderen Folgen so noch gar nicht behandelt haben. Und ich wünsche dir ganz viel Spaß dabei. Herzlich willkommen zum AI-First-Podcast. Was für eine Folge mit DAXA, einem der größten Logistikunternehmen der Welt. Ich hatte Jürgen Sakri und Florian Zitzler zu Gast, mit denen wir über die erste produktive... Herzlich willkommen zum AI-First-Podcast. In dieser Folge habe ich mit Jürgen Sakre und Florian Zitzler von DAXA gesprochen, einem der weltweit größten Logistikunternehmen. Und wir haben über die Anfänge von KI bei DAXA gesprochen, wie sie den ersten großen Machine Learning Use Case gefunden, entwickelt und dann auch im gesamten Unternehmen skaliert und in den Produktivbetrieb bekommen haben. Wir haben Wie sich dann im [00:50:00] Laufe der Jahre ihre KI-Organisation entwickelt hat, welche Kompetenzen sie aufgebaut haben, was sie auch auf diesem Weg über künstliche Intelligenz gelernt haben, wie sie heute auf Gen-AI und die neuen KI-Anwendungsformen blicken und wie sich damit auch ihr Ansatz verändert hat, diese Technologie in die Organisation zu bringen. Hier ist eine ganze Menge dabei, auch technisch Andere Themen, die wir in anderen Folgen so noch gar nicht behandelt haben. Und ich wünsche dir ganz viel Spaß dabei. Herzlich willkommen zum AI-First-Podcast. Was für eine Folge mit DAXA, einem der größten Logistikunternehmen der Welt. Ich hatte Jürgen Sakri und Florian Zitzler zu Gast, mit denen wir über die erste produktive... Herzlich willkommen zum AI-First-Podcast. In dieser Folge habe ich mit Jürgen Sakre und Florian Zitzler von [00:51:00] DAXA gesprochen, einem der weltweit größten Logistikunternehmen. Und wir haben über die Anfänge von KI bei DAXA gesprochen, wie sie den ersten großen Machine Learning Use Case gefunden, entwickelt und dann auch im gesamten Unternehmen skaliert und in den Produktivbetrieb bekommen haben. Wir haben Wie sich dann im Laufe der Jahre ihre KI-Organisation entwickelt hat, welche Kompetenzen sie aufgebaut haben, was sie auch auf diesem Weg über künstliche Intelligenz gelernt haben, wie sie heute auf Gen-AI und die neuen KI-Anwendungsformen blicken und wie sich damit auch ihr Ansatz verändert hat, diese Technologie in die Organisation zu bringen. Hier ist eine ganze Menge dabei, auch technisch Andere Themen, die wir in anderen Folgen so noch gar nicht behandelt haben. Und ich wünsche dir ganz viel Spaß dabei.
This is a success message.
This is an error message.