No.
19
LAUDA

76% tägliche Nutzung: So gelingt KI-Adoption im Mittelstand

Mit
Florian Grunwald
Suchst du den Schlüssel zur erfolgreichen KI-Integration? Entdecke im AI First Podcast, wie Lauda 70.000 KI-Anfragen generiert und Prozesse revolutioniert. Mit praktischen Insights für deinen Mittelstand.

In dieser Folge des AI First Podcasts spricht Felix mit Florian Grunwald, Director IT bei Lauda, über die erfolgreiche Integration von KI in einem mittelständischen Unternehmen. Lauda, ein weltweit führender Hersteller von innovativen Temperiergeräten und Anlagen, zeigt beispielhaft, wie auch kleinere Unternehmen den Weg zur KI-gestützten Prozessoptimierung erfolgreich gehen können.

Inhaltsübersicht: 

  1. Vorstellung von Lauda und Florian Grunwalds Rolle
  2. KI-Strategie und -Integration bei Lauda
  3. Entwicklung und Implementierung des Lauda GPT
  4. Machine Learning Use Cases
  5. Nutzungszahlen und Kosteneinsparungen durch KI
  6. Zukunftsausblick für KI bei Lauda


Detaillierte Inhaltszusammenfassung:

1. Vorstellung von Lauda und Florian Grunwalds Rolle

Lauda ist ein weltweit führender Hersteller von Temperiergeräten und Anlagen mit 620 Mitarbeitern global. Das Unternehmen ist in verschiedenen Branchen tätig, was die Vielseitigkeit ihrer Produkte unterstreicht. Florian Grunwald verantwortet die gesamte IT-Strategie und Digitalisierung bei Lauda, eine Schlüsselposition für die technologische Zukunft des Unternehmens.


2. KI-Strategie und -Integration bei Lauda

KI wird bei Lauda als strategisches Thema zur Steigerung der Wettbewerbsfähigkeit eingesetzt. Die Integration erstreckt sich über Unternehmenskommunikation, Marketing, Softwareentwicklung und IT-Security. Bei der Strategieentwicklung verfolgt Lauda einen kombinierten Top-Down- und Bottom-Up-Ansatz, der Management, IT, Strategieabteilung und Fachbereiche einbezieht.


3. Entwicklung und Implementierung des Lauda GPT

In Partnerschaft mit dem Startup Select Code entwickelte Lauda eine multimodale KI-Plattform. Verschiedene Apps und Funktionen wurden implementiert, darunter Übersetzungen mit DeepL und Transkription von Meetings. Ein Fokus liegt auf Multistep-Workflows für komplexe Aufgaben. Eine innovative IT-Support-App zur Automatisierung von Supportanfragen wurde ebenfalls entwickelt.


4. Machine Learning Use Cases

Lauda setzt Machine Learning vielfältig ein:

  • Ein Predictive Maintenance Projekt in Zusammenarbeit mit der Hochschule Aalen
  • Einsatz von GitHub Copilot in der Softwareentwicklung
  • Implementierung von Dark Trace für verbesserte E-Mail-Sicherheit


5. Nutzungszahlen und Kosteneinsparungen durch KI

Die KI-Implementierung bei Lauda zeigt beeindruckende Ergebnisse:

  • 400 registrierte Nutzer, 76% tägliche Nutzung
  • Über 70.000 Prompts insgesamt, 350-450 Prompts täglich
  • Geschätzte Einsparung von 1000 Stunden monatlich durch Lauda GPT
  • Jährliche Gesamteinsparung von 1,62 Millionen Euro nach Abzug der Kosten


6. Zukunftsausblick für KI bei Lauda 

Lauda plant weitere KI-Entwicklungen mit Fokus auf RAC, Agentensysteme und Live Searches. Ab Februar 2025 soll ein neuer Data Vault implementiert werden. Zudem sind die Entwicklung von Advanced Voice Agentensystemen, die Integration autonomer Agenten für spezifische Aufgaben und der Einsatz von Live-Searches in Produktentwicklung und Forschung geplant. Diese Vorhaben unterstreichen Laudas Engagement, KI als langfristigen strategischen Vorteil zu nutzen und kontinuierlich weiterzuentwickeln.


Kernaussagen:

"KI ist kein reines IT-Thema. Sie betrifft das gesamte Unternehmen und verändert Geschäftsprozesse, Entscheidungswege oder sogar Geschäftsmodelle."

"Wir sparen uns dadurch 15.000 Stunden im Jahr an manueller E-Mail-Verwaltung. Und die Software läuft ohne Betriebsaufwand."

"Von der Automatisierung bis hin zur strategischen Entscheidungsfindung, es ist ein sehr spannender Weg, der sowohl unsere internen Prozesse als auch das gesamte Kundenerlebnis hoffentlich auf das nächste Level heben wird."


Fazit und Takeaways:

Die Episode zeigt eindrucksvoll, wie ein mittelständisches Unternehmen KI erfolgreich implementieren und davon profitieren kann. Wichtige Erkenntnisse sind:

  • Eine klare KI-Strategie, die in die Gesamtunternehmensstrategie integriert ist, ist entscheidend
  • Die Kombination aus eigenen Entwicklungen und der Nutzung bestehender Lösungen kann sehr effektiv sein
  • Mitarbeitereinbindung und kontinuierliche Schulung sind wichtig für die Akzeptanz
  • KI kann in verschiedenen Unternehmensbereichen signifikante Effizienzsteigerungen und Kosteneinsparungen bringen
  • Flexibilität und Anpassungsfähigkeit sind wichtig, um mit der schnellen Entwicklung im KI-Bereich Schritt zu halten


Links:

Zum Gast: ⁠⁠⁠⁠Florian Grunwald

Zum Host: ⁠⁠⁠⁠Felix Schlenther

[00:00:00] Herzlich willkommen zum AI First Podcast. Heute bekommst du konkrete Einblicke in den KI-Einsatz in einem mittelständischen Unternehmen. Wir sprechen über Strategie, Anwendungsfälle, das technische Setup dahinter, Siege, Niederlagen, alles was so dazu gehört. Und für diesen Deep Dive habe ich Florian Grunwald an meiner Seite, Director IT bei Lauda. Florian, hol uns doch mal kurz ab, was Lauda macht, wie groß ihr seid. Und wofür du verantwortlich bist.  Florian: Hi Felix, vielen Dank für die Einladung. Schön hier sein zu dürfen. Ja, was macht Lauda? Wir sind weltweit führende Hersteller von innovativen Temperiergeräten und Anlagen. Also unsere Produkte kommen in zahlreichen Branchen zum Einsatz. Zum Beispiel von der Automobil- und Chemieindustrie bis hin zur Biotechnologie und Pharma. Mit über 620 Mitarbeitern weltweit [00:01:00] sorgen wir dafür, dass unsere präzise Temporärlösung die Forschung und Produktion unserer Kunden optimal unterstützen. In meiner Aufgabe bei Lauda bin ich verantwortlich für die komplette IT. für die Gesamt-IT-Strategie, Infrastruktur, die Digitalisierung im Unternehmen. Mein Team und ich kümmern uns um den sicheren und effizienten Betrieb unserer IT-Systeme, treiben die digitale Transformation voran und unterstützen Fachbereiche mit modernen IT-Lösungen. So, das ist so unsere Kernkompetenzen, so sind wir aufgestellt. Felix: Sehr spannend, damit seid ihr ja für mich der Parademittelständler in Deutschland, der Marktführer in einer Nische. Ansässig in Süddeutschland, in irgendeinem Ort, den man sonst nicht kennt. Ein paar hundert, äh, Mitarbeitende und ich frage mich ja, ähm, immer, weil es so viele Mittelständler gibt, die auch KI als [00:02:00] Thema noch gar nicht so richtig auf dem Schirm haben und wir ja heute noch von dir lernen werden, was ihr schon alles in dem Bereich macht. Was würdest du denn so grundsätzlich sagen, warum ist, Künstliche Intelligenz sind auch für so einen Mittelständler, für so einen Hidden Champion, für einen Marktführer in einem Bereich, um, so ein wichtiges Thema.  Florian: Genau das ist der Punkt, Felix. Als Hidden Champion und Marktführer in unserer Nische müssen wir uns natürlich kontinuierlich weiterentwickeln, um wettbewerbsfähig zu bleiben. Künstliche Intelligenz ist hier für uns natürlich nicht nur eine technische Spielerei, sondern soll auch ein wirklicher Business Enabler sein. Wir setzen zum Beispiel KI gezielt ein in der Unternehmenskombination und in Marketing, um noch gezielter mit unseren Kunden und Partnern interagieren zu können. Auch in der Softwareentwicklung spielt KI für uns immer eine größer werdende Rolle, sei es zum Beispiel bei der Automatisierung von Tests oder in der Code-Optimierung. Ein weiteres wichtiges Thema ist IT Security. [00:03:00] KI hilft uns dabei, Bedrohungen in Echtzeit zu identifizieren, Sicherheitslücken proaktiv zu schließen. Das ist natürlich gerade im Mittelstand, bietet hier die KI enormes Potenzial, weil sie hilft, begrenzte Ressourcen effektiver einzusetzen und gleichzeitig ermöglicht es uns, mit großen Playern mitzuhalten. Deshalb ist es für uns ein strategisches Thema, bei dem wir nicht nur mitsehen wollen, sondern auch aktiv vorangehen wollen. Felix: Also geht KI auch nicht an Marktführern dran vorbei und auch ihr habt mit Wettbewerbsdruck zu kämpfen, Mitarbeiterdruck zu kämpfen und KI hilft hier auf beiden Seiten einfach enorm. Effizienzen zu heben und gleichzeitig aber auch das beste Produkt zum bestmöglichen Preis an den Kunden zu liefern. Florian: Absolut, genau das ist der Grund, warum wir das Thema KI so strategisch angehen. Also der, der Wettbewerbsdruck steigt, Kundenerwartungen verändern [00:04:00] sich und auch der Fachkräftemangel ist eine Herausforderung. KI kann hier in vielen Bereichen entlasten und gleichzeitig Mehrwert schaffen. Auf der einen Seite hilft uns KI. effizienter zu arbeiten, indem sie zum Beispiel Routineaufgaben automatisiert, Entscheidungsprozesse beschleunigt oder, äh, datengetriebene Einblicke gibt und auf der anderen Seite unterstützt sie uns dabei, unsere Produkte und Dienstleistungen noch besser auf unsere Bedürfnisse unserer Kunden zuzuschneiden, sei es durch personalisierte Kommunikation, smarte Softwarelösungen oder verbesserte Sicherheitsmechanismen, ne? Also letztendlich geht es darum, KI Selbstzweck einzusetzen, sondern sie gezielt dort einzusetzen, wo sie auch wirklich echten Mehrwert stiftet.  Felix: Jetzt wird ja immer darüber gesprochen und auch ich habe das schon auf LinkedIn gepostet, dass KI kein [00:05:00] Jetzt bist du ja trotzdem für die IT verantwortlich und treibst ja auch KI bei euch voran. Welche Rolle, du hast es gerade schon mal so angeschnitten, dass ihr euch als Enabler sieht, aber wie siehst du die IT im Rahmen der KI-Integration oder Transformation innerhalb eines Unternehmens?  Florian: Genau, KI ist kein reines IT-Thema. Sie betrifft das... gesamte Unternehmen und verändert Geschäftsprozesse, Entscheidungswege oder sogar Geschäftsmodelle. Also, die IT spielt dabei aber eine entscheidende Rolle, natürlich als Enabler und strategischer Partner. Unsere Aufgabe ist es, die technologische Grundlage für KI zu schaffen, sei es jetzt durch die richtige Infrastruktur, Datenarchitektur, die Sicherheitsmaßnahmen, DSVGO-Bestimmung, aber mindestens genauso wichtig ist es, dass die, die Fachbereiche zu unterstützen.[00:06:00]  Das Wissen über die KI-Technologien mit und die Fachbereiche helfen uns, helfen uns bei der Auswahl und Implementierung passender Lösungen, sorgen dafür, dass die KI nicht isoliert in der IT bleibt, sondern auch wirklich einen Mehrwert im ganzen Unternehmen geschaffen wird. Also letztendlich geht es um eine enge Zusammenarbeit zwischen der IT, den Fachabteilungen und dem Management. KI ist natürlich immer dann am erfolgreichsten, wenn sie nicht als reines Tech-Projekt angesehen wird, sondern als integraler Bestandteil. der Unternehmensstrategie.  Felix: Lass uns mal in die strategische Richtung weitergehen. Du hast jetzt eure Digitalstrategie und KI-Strategie angesprochen. Wie greift denn beides ineinander und wo siehst du die KI-Strategie lokalisiert? Florian: Also generell sehe ich es, ähm, also die KI-Strategie muss in Höchster Hebele lokalisiert sein, ganz klar. Also, ähm, die [00:07:00] KI-Strategie ist bei uns Teil unserer Digital-Strategie, die wir im Mitte 2023 erarbeitet haben. Das heißt, wir haben uns... gewisse Initiativen ausgedacht, beschrieben von, wir möchten unsere Produkte digitaler gestalten, alles, was wir, um, an unseren Industrien, an unseren Produkten, um, digitalisieren möchten, um, wir möchten neue Geschäfts, um, Zweige evaluieren und wir möchten aber auch, AI den Mitarbeitern zur Verfügung stellen, den Mitarbeiter enablen, dass er die Möglichkeit hat, aber auch unsere Kunden damit enablen. Sprich Chatbots auf der Webseite, Voice Assistenten, Service Assistenten etc., was da hingehend eingeht. Und da dafür haben wir uns eine. Umfangreiche Strategie ausgedacht. Wir haben uns das bewertet nach Kosten-Nutzen. Wir haben auch intern eine Kampagne gestartet, um, wo wir die Mitarbeiter, Mitarbeiterinnen gefragt haben, äh, was sind denn für [00:08:00] euch Technologien und Produkte und Themen, ähm, wie wir sie unterstützen können im Alltag? Das heißt, äh, diese Themen sind auch direkt in unsere, ich sag mal, wenn ich, äh, in der heilklimatischen Sprache in unser Lastenheft eingeflossen, was wir erarbeiten wollten. Und, ähm, ja, das hat sich auch absolut gezeigt, dass es die richtige Entscheidung war.  Felix: Wen hattet ihr noch involviert in diesen Prozess der Strategieentwicklung? Also, ihr habt dann, ähm, habt ihr so einen Top-Down, Bottom-Up-Ansatz gemacht? Also, sowohl von den Mitarbeitenden, euch, äh, Input? und Feedback geholt, als auch dann von der übergeordneten Digitalstrategie dann, ähm, konkrete Anwendungsfälle und Potenziale abgeleitet? Oder wie kann ich mir das vorstellen?  Florian: Ja, also wir haben tatsächlich einen kombinierten Top-Down- und Bottom-Up-Ansatz verfolgt, weil wir davon überzeugt sind, dass, ähm, KI-Strategie sowohl eine klare unternehmerische Vision als auch [00:09:00] das Know-how und die Ideen der Mitarbeitenden braucht. Also auf der einen Seite wurde KI in unserer übergeordneten Digitalstrategie integriert, um sicherzustellen, dass sie unsere Geschäftsziele unterstützt. Äh, hier waren natürlich das Management, die IT, die Strategieabteilung involviert. Gleichzeitig haben wir aber bewusst auch die Fachbereiche und Mitarbeitenden früh mit einbezogen, denn letztendlich sind Sie diejenigen, die den größten Mehrwert aus KI-Wendung, KI-Anwendungen ziehen können. Wir haben, äh, Key User Workshops durchgeführt, um Potenziale zu identifizieren, Use Cases zu sammeln und Akzeptanz zu schaffen. So konnten wir nicht nur die technologische Möglichkeiten bewerten, sondern auch konkrete Anwendungsfälle entwickeln, die wirklich praxisnah und relevant für unser Geschäft sind. Also der Mix aus strategischer Steuerung und operativer Beteiligung hat sich für uns als sehr wertvoll erwiesen.  Felix: Kannst du die benennen? [00:10:00]  Florian: Ja, sehr gerne. Um, drei Ziele kann ich gerne benennen. Und zwar, um, braucht es natürlich die, die Grundlage, und das war für uns, äh, äh, äh, klar, Compliance und Datenschutz. Also bevor wir mit irgendwelchen KI-Use-Cases überlegen. Projekten beginnen wollten, mussten wir sicherstellen, dass natürlich alles, was wir tun, den gesetzlichen Anforderungen entspricht, insbesondere zu DSVG und Datenschutz, die absolute Grundlage und auf Basis dessen die Entscheidung, möchten wir einen Company GBT bauen, also wenn man sich das Thema general anschauen Die Entscheidung Company GPT versus eine Plattform am Markt, die die Möglichkeit verschiedene Modelle zu beherbergen. Und das dritte Ziel war das Thema Machine Learning. Hier haben wir uns zum Ziel gesetzt drei Machine Learning Use Cases in den nächsten drei Jahren. Umzusetzen. Ja, hier die [00:11:00] Realität uns eingeholt im positiven Sinne. Wir konnten drei Use Cases in sechs Monaten umsetzen, was auch ein Stück weit für die Technologie spricht. Felix: Bevor wir darauf eingehen. Ich möchte nochmal verstehen, wie du zu dem Thema stehst, dass KI, nennen wir es mal KI-Integration, ja kein Projekt an sich ist, sondern es wird ja über die nächsten Jahre ein völliger Wandel sein, der Art und Weise, wie Unternehmen funktionieren. Wenn man sich vorstellt, dass künstliche, insbesondere generative künstliche Intelligenz, immer mehr von den Aufgaben übernehmen wird, die heute Menschen machen, die am PC sitzen und sich, ich glaube überhaupt nicht daran, Das sind alle Jobs abgelöst werden. Ich glaube aber, die Art und Weise, was wir konkret tun über den Tag, das wird sich verändern, wenn man sich jetzt mal in der Vergangenheit anschaut, wie sich die Arbeitszeit entwickelt hat. Durch immer mehr Technologie Einfluss haben wir immer mehr gearbeitet. [00:12:00] Warum sollte sich das jetzt unbedingt ändern? Aber. Jetzt bin ich etwas abgeschwiffen, äh, wie stehst du dazu oder wie, wie managt ihr das, KI nicht nur in Projekten zu denken, sondern auch als einen ganzheitlichen Wandel der Art und Weise, wie eigentlich gearbeitet wird, wie ihr eure Wertschöpfungskette versteht, wie Prozesse gedacht werden und auch wie Menschen in ihrem Arbeitsalltag  Florian: Ich stimme dir vollkommen zu, Felix. Also KI ist kein einmaliges Projekt, sondern eher ein kontinuierlicher Wandel, der die Art und Weise, wie wir im Unternehmen arbeiten, grundlegend verändern wird. Die Integration von KI betrifft nicht nur technologische Systeme, sondern auch die gesamte Unternehmenskultur und Arbeitsweise. Es geht darum, KI nicht als isoliertes Tool zu betrachten, sondern als einen strategischen Hebel. der die, die Wertschöpfungskette und Geschäftsprozess in jeder Abteilung transformiert. Also bei Lauda haben wir den Ansatz, KI als [00:13:00] integralen Bestandteil unserer gesamten digitalen Transformation zu stehen, zu stehen. Wir denken KI jetzt nicht nur in Projekten, sondern eher als, als langfristiger Prozess, der in verschiedenen Bereichen von Produktentwicklung bis hin zu Kundeninteraktion, von der Produktion bis zur Verwaltung Anwendung findet. Es geht darum, die Technologie so zu nutzen, dass sie tat täglich Arbeitsabläufe effizienter gestaltet und den Mitarbeitenden neue Freiräume für kreativere und wertschöpfendere. Tätigkeiten schafft. Dabei glauben wir, also ich glaube daran, dass das KI jetzt nicht nicht alle Jobs ersetzen wird. Also stattdessen wird sie eher den Arbeitsalltag der Mitarbeitenden verändern und auch oft erleichtern, indem sie repetitive, repetitive Aufgaben übernimmt oder Prozesse automatisiert. Also wir sehen es eher als Chance, um den Fokus auf strategischere und und wertschöpfendere Aufgaben zu entwickeln. Tätigkeiten zu legen. Wenn [00:14:00] wir jetzt weiter über den Wandel sprechen, der durch diese KI-Integration entsteht, müssen wir natürlich auch die Rolle von KI-Agenten berücksichtigen. Also diese Agenten, also KI-gesteuerte Softwaresysteme, die jetzt selbständig Aufgaben Entscheidungen treffen, werden halt natürlich zunehmend jetzt in 2025 eine zentrale Rolle in vielen Bereichen spielen. Sie können sowohl interagieren mit dem Kunden, aber auch intern mit Prozessen eigenständig als Mitarbeiter agieren. Also vielleicht so ein paar Beispiele, so ein KI-Agent im Kundenservice, der als erste Anlaufstelle dient und selbstständig Anfragen beantwortet, Probleme löst oder sogar vorhersehbare Prozesse steuert, um, die können rund um die Uhr in Echtzeit arbeiten mit großen Datenmengen, autonom, um, sind da drauf ausgelegt, menschliche Eingriffe zu minimieren. Aber nicht zu ersetzen, wenn es darum geht komplexere und strategische Aufgaben zu übernehmen. Ne, also für uns als Lauda wird der [00:15:00] Ersatz von KI-Agenten sowohl Chancen, aber auch natürlich Herausforderungen mit sich bringen, ne? Wir wollen natürlich Effizienzen steigern, Routineaufgaben, Standardprozesse, die dadurch durch die Agenten übernommen werden können. Auf der anderen Seite bedeutet es natürlich auch, dass wir als Unternehmen in der Lage sein müssen, diese Agenten nahtlos in unsere bestehenden Systeme zu integrieren, sodass natürlich diese effektiv mit dem Faktor Mensch dann auch natürlich zusammenarbeiten können.  Felix: Ja, das ist ja ein total spannender Gedanke. Und genau diese, nennen wir es mal AI Workforce Mitarbeiter, die künstlich da sind und verschiedene. Verschiedenes Wissen haben, verschiedene Aufgaben bearbeiten können, Zugriff auf Systeme haben, ja, und in Teams integriert sind. Das verändert ja die Art und Weise, wie so ein Unternehmen funktioniert und auch an Dinge herangeht, total. Wie habt ihr das auch reflektiert in eurer, eurer Strategie oder das hat ja auch [00:16:00] viel mit Kultur. Um, zu tun. Wie geht ihr damit um?  Florian: Ja, Kultur, riesiges Thema, fast noch größer wie die Technologie. Um, also wir bei Lauda mit der Einführung von KI insbesondere mit Gen AI begonnen haben, natürlich ein häufiges Thema bei den Mitarbeitenden, DSVO Konformität, wie viele weitere, aber jetzt mal Als eins als Beispiel zu nennen, viele wollten sicherstellen, dass auch natürlich der Umgang mit ihren Daten den höchsten Sicherheitsstandards entspricht, ähm, unseren Kronjuwelen des Unternehmens, ähm, dass, äh, deswegen haben wir frühzeitig ein Zusammenspiel zwischen IT-Abteilung, Geschäftsführung, Fachbereichen aufgebaut, so dass wir sicherstellen, gestellt haben, dass diese ganzen KI-Initiativen, Gen-AI-Initiativen vollständig DSVG-unkonform sind. Es gab Schulungen für die Mitarbeitenden, die das Verständnis gefördert haben, wie wir unsere Daten sicher und verantwortungsvoll [00:17:00] nutzen. Und ich glaube, die Transparenz und die Kommunikation darüber, wie wir bei uns KI eingesetzt haben, waren ebenfalls entscheidend. Also durch die frühe Einbindung und die kontinuierliche Aufklärung konnten wir Bedenken einiger ausräumen. Und, äh, auch eine Kultur des Vertrauensaufbauens, ne, die er das ermöglicht hat, dann diese KI verantwortungsvoll und erfolgreich zu integrieren.  Felix: Wie lange hat dieser Prozess gedauert, von Skepsis hin zu dem internen Hype und diesem Engagement auch der Teams?  Florian: Äh, ich würde so sagen, so sieben bis acht Monate. Also wir haben unsere Plattform Piloten im August, September, Oktober eingeführt, 2023. Im April war unser MVP bereit für die Mitarbeitenden. Und ja, ich würde sagen, so zwei, drei Monate hat es gebraucht. Bis wir dann auch das Feedback aus diesen [00:18:00] KI-Kampagnen, aus diesen Schleifen mit eingearbeitet haben und dann auch neue Features alle zwei Wochen deployed haben in der Plattform. Und das war dann so dieses, was gekippt ist und die Mitarbeitenden dann, ja, unfassbar viel Spaß und Freude hatten, unseren Lauda GPT zu nutzen.  Felix: Dann lass uns genau mal auf den Lauda GPT eingehen. Heute aber nicht nur über generative KI, sondern mich interessieren natürlich auch eure Machine Learning Use Cases, ähm, vor allem, was ihr da in sechs Monaten auf die Beine gestellt habt. Aber lass uns mal über den Lauda GPT sprechen, weil wir gerade schon in dem Thema, ähm, sind. Was ist eure technologische Grundlage dafür? Wie sieht so gerade das Feature Set aus? Was machen Leute damit? Wie habt ihr es eingeführt? Lass uns mal so durch die Reise durchgehen.  Florian: Also wie viele Firmen in Mitte, Ende 2023 haben uns die Frage gestellt, ob wir, um, welche Art [00:19:00] der, um, welche Art des Deployments für uns, um, in Frage kommt, um, und, um, äh, natürlich haben wir unseren ersten Piloten auf Basis, äh, OpenAI, ähm, gebaut. JetGP 3.5 damals war ein Pilot, haben wir in drei Stunden deployed und einfach mal in die in die Menge geschwissen und testet mal, guckt mal, was für Mehrwerte werden generiert, aber mir und auch meinen Kollegen war es von vornherein klar, dass Wir müssen eine Plattform schaffen, die multimodal ist. Das heißt, die nicht nur LGBT, sondern auch andere KI Modelle beherbergen kann. Warum war  Felix: das für euch wichtig? Weil den Punkt finde ich, finde ich sehr relevant.  Florian: Wie  Felix: kamen  Florian: Sie auf den  Felix: Gedanken?  Florian: Weil es sich für mich schon in der Zeit, ähm, für mich ganz klar war, dass irgendwann ein Rat kommt der Spezialisierung. Das heißt, dass es Modelle gibt, die sich auf spezielle Themen, ähm, [00:20:00] konzentrieren, äh, die mit unterschiedlichen Custom Instructions ankommen und, ähm, wir uns nicht wieder die nächste, äh, Abhängigkeit eines Big Techs, äh, Kompanie, äh, begeben wollten und, ähm, daher absolut, äh, Offenheit gegenüber dieser Plattform, um, haben wollten. Und das war für uns elementar, dass wir nicht wieder am Fliegenfinger hängen. Das heißt, wenn irgendwie OpenAI die Preise Microsoft, die Preise erhöht, dass dann wieder wir wieder in Themen reinkommen, wo wir einfach. Nicht skalieren können, das heißt, ähm, wir haben uns dann dafür entschieden, ähm, am Markt eine Plattform zu suchen, weil wir selbst zwar knapp an die 30 Entwickler im Haus haben, die entwickeln aber Software, also Embedded Software, äh, für unsere Produkte, sprich kein Wissen, wie man ein Frontend für, äh, eine KI Plattform entwickelt, ähm, auch [00:21:00] nicht, wie die Azure Backend Services etc. funktionieren und, ähm, deshalb war aber der Markt damals an Plattformen nicht da, ne? Also es gab diese Plattformen noch nicht. Das heißt, man hat sich dann, um, es war sein JGPT-Account, der natürlich, es gab damals auch noch keinen Business- oder Enterprise-Account, um das Thema Datenschutz zu beherbergen. Anthropic hat die ersten Modelle veröffentlicht. Ich glaube, Gemini war noch gar nicht so weit. Aber... Das war so die, die Grundzüge, ähm, wir möchten dann nach und nach Modelle tagesaktuell in die Plattform bringen können, ähm, und ähm, daher, wie gesagt, dieser offene Kontext, ähm, diese Schwarznutzung der, äh, Mitarbeitenden so gut wie es geht vermeiden, was brauchst du dazu, eine Plattform, die alle aktuellen Technologien tagesaktuell beherbergt. Also, wenn, äh, es muss, also, wir wollten, dass ein Mitarbeiter heimgeht und sagt, ich muss vielleicht noch was gucken, ähm, ich guck mal, [00:22:00] ich will mal JetGPT nutzen, dann, dann, dass er dann sagt, nein, ich gehe, äh, ich wähle mich über ein VPN in die Firma ein und nutze meine LaudaGPT dafür, weil der einfach dafür geeignet ist und die besten Technologien vorweist, ne? Und, äh, Dann können wir nämlich die schwarze Nutzung auf Null reduzieren und dann wandern auch keine Firmengeheimnisse in irgendwelche privaten Chatbots. Also  Felix: schwarze Nutzung, meinst du die Schatten-KI, dass ihr intern eine Lösung habt, aber Mitarbeiter dann trotzdem wieder ihre privaten Accounts nutzen, weil die interne Lösung von den Features den Modellen nicht ansatzweise mithalten kann mit dem, was es vor allem bei JTPT gibt. Ja, das ist ja dann noch immer die Benchmark.  Florian: Korrekt, also was ich glaube, was so bei Wahrscheinlich 80, 90 Prozent der typischen Mittelstandskunden der Fall ist, dass ein, ein Firmen, äh, Chat GPT entwickelt wurde auf Basis, ähm, von den OpenAI-Services und man dann ein Stück weit verhaftet ist in diesen Services und dann weniger wieder [00:23:00] raus, oder weniger Möglichkeiten hat, da wieder rauszukommen. Wenn man einmal seine Firmenprozesse angepasst hat, einmal seine Rack-Funktionalitäten da drin ist, ist das extrem schwierig, dann auch die, die, die JNR-Plattformen dazu zu wechseln.  Felix: Da haben sich Dutzende, wenn nicht hunderte Unternehmen mit in die Nesseln gesetzt. Ja. Und ich kenne keins, was wirklich zufrieden ist mit der Lösung. Weil keiner, auch die mit großen Tech-Teams nicht hinterher kommen mit der Weiterentwicklung von dieser Plattform und da extrem viele Ressourcen reinfließen müssen, um halbwegs Schritt halten zu können mit dem, was der Markt so vorgibt. Und das ist ja wirklich verrückt, wenn man sich das mal anschaut, was da im Wochentakt an neuen Modellen, neuen Features rauskommt. Und das ist halt immer wieder der Vergleichswert für die Mitarbeiter. Und da kann man noch so sehr mit Sicherheit und Datenschutz und was weiß ich was argumentieren. interessiert dann auch nicht so viele Leute, die einfach gelernt haben, dass ihnen diese Tools dabei helfen können, viele Aufgaben deutlich [00:24:00] schneller und besser zu erledigen und das wollen sie halt auch weiterhin haben. Und jetzt bin ich natürlich ganz gespannt, wie habt ihr das denn gelöst?  Florian: Genau, wir haben uns mit einem Startup zusammengetan, ähm, äh, nennt sich, äh, die Startup by Select Code. Ähm, äh, lustigerweise kam damals das Gespräch mit unserem CFO, ähm, äh, zustande, der im hochbegabten Gründerwettbewerb, äh, ähm, den, äh, Geschäftsführer dieser Firma, äh, kennengelernt hat. Ähm, und, ähm, dementsprechend kam der Kontakt zustande. Wir haben einen Termin vereinbart und haben gefühlt genau zum selben Moment gleich die Gedanken gehabt. Und, ähm. Es ist extrem viel von von lauter Wissen in die YGBT-Plattform geflossen. Welche dann auch die Plattform unserer Lauda GPT Plattform ist. Und, ähm, ja, so ist das entstanden. Wir haben, ich glaube, drei Monate war Entwicklungszeit bei Select Code. [00:25:00] Ähm, wie gesagt, weil wir keine Entwickler hatten, diese, dieses Braindump, was wir hatten, zu so einer Lösung, äh, in die Tat umzusetzen, ähm, hat es dann die Select Code für uns getan. Ähm, wohl wissend, dass das dann auch, ähm, ich sag mal, äh, Äh, die Select Code natürlich ist aber als Geschäftsmodell nutzt, um auch weitere Kunden in dieser Plattform zu bekommen, was aber, was wir von vornherein wussten, was auch gut ist. Auch wir profitieren natürlich von dieser Community und von diesen Use Cases, die dann da entwickelt werden. Und ähm, innerhalb dieser Plattform haben wir eigene Use Cases entwickelt, die nur für Lauda entwickelt wurden. Wir konnten aber auch von Workflows und Use Cases profitieren, die jetzt Select Code entwickelt hat und uns deployed hat. Also das war ein gegenseitiges Geben und Nehmen. Und ja, wir sind super happy. Meines Erachtens gibt es zwei Anbieter in Deutschland. die solch eine Lösung anbieten. Mittlerweile ist LangDoc, glaube ich, und MeinGPT aus [00:26:00] Berlin, München. Und meines Erachtens ist das die absolut perfekt geeignete Variante. eben Ende 2024 solche Modelle, wie sie heute am Markt gängig sind, auch tagesaktuell nutzen zu können. Und wir sind super happy mit der Lösung. Wir haben mittlerweile, ich glaube, die siebte oder achte App innerhalb dieser Plattform laufen. Also wir können alles, was so. an Modellen am Markt gängig ist, sind bei uns auch gängig. Das heißt, die ganz normalen Chat-Funktionen, wir können mit Daten umgehen. Das heißt, wir können Daten integrieren, wir kriegen sie rein, raus. Um, und wir haben jetzt, für uns war es zum Beispiel extrem wichtig, dass wir DeepL integrieren als Übersetzungslösung und nicht über die herkömmliche Übersetzung gehen. Das heißt, wir haben eine Integration zu DeepL und wir können da nicht nur Dokumente manuell übersetzen, sondern wir können komplette... [00:27:00] Bücher hinterlegen, die dann direkt übersetzt werden für die Mitarbeiter. Das ist halt absolut, das war das Monster Gimmick für die Kollegen, die dann komplette Arbeitsanweisungen, Verfahrensanweisungen oder aber auch Marketingdokumente. ähnlich dort reinklatschen und aber dann das komplett gleiche Format wieder in einer anderen Sprache rausbekommen. Das, was wir an, das haben wir alles in Agenturen rausgegeben. Diese ganzen Themen sparen wir uns Zeit ohne unfassbar viel Kohle. Und ähm, ähm, im Bereich der Transkript Apps haben wir uns Gedanken umgemacht, dass wir gewohnte Teams-Sessions aufnehmen, transkribieren, aber auch dann mit Gemini dann entsprechend zusammenfassen lassen, Action-Items. Das heißt, wir haben da customised, dass wir eine bestmögliche Zusammenfassung bekommen, deutlich besser, wie das von Microsoft-Botmitteln mit Teams kommt. [00:28:00] Oder ein anderer Use Case war, um, die Geschäftsführer sitzen zusammen einmal in der Woche und nehmen ein On-Site-Meeting auf und das war natürlich, äh, der Endgegner, äh, so ein gutes Mikrofon, On-Site-Meeting in der Mitte aufstellen und dann transkriptieren lassen und, ähm, entsprechend dann, äh, ein vollständiges Protokoll, ähm, zu bekommen, also keine Zusammenfassung, sondern wirklich ein runtergeschriebenes Protokoll, was jetzt keine, äh, Transkript ist, sondern auch wirklich eine Zusammenfassung der Themen, aber ohne Themen auszulassen. Und, ähm, da, da hat zum Beispiel die Select Code ein Startup, äh, äh, evaluiert, äh, nennt sich Cladia, ähm, und, ähm, äh, die nutzen, äh, von GitHub das WhisperX-Modell, was aber, äh, Das ist das State-of-the-Art-Sprachmodell gerade ist und damit haben wir es geschafft, dass wir, um unfassbar viel Zeit uns einsparen, um für diese KF-Aufnahmen abzuhören in der Assistenz und manuell [00:29:00] abzuschreiben, sondern aber durch die Software eine tolle Lösung zu machen. Vielen Dank. Um, äh, ja, ein komplett vollständiges Protokoll eines On-Site-Termins aufzunehmen. Das erkennt dann, wer spricht, ne, also das Speaker erkennt noch mit dieser NLP, Natural Language Processing Technologie. Ähm, und das war zum Beispiel eine der Apps, die jetzt am neuesten released wurden. Ähm, wir haben eine IT-Support-App zum Beispiel, ähm, wo die Mitarbeiter den Mitarbeitenden, ähm, Fragen können, dass sie haben ein IT-Problem, packen das dort rein, es kann ein Service-Request, kann aber auch ein Incident oder ein Problem sein. Die KI erkennt das, was es ist, weist den Mitarbeitern drauf hin, was er tun kann, um das Problem zu lösen. Alles, was Internet verfügbar ist und auch teilweise Live-Suche, zum Beispiel mit Perplexities hinterlegt und dann noch aus Firmenwissen, um, uh, Handlungsempfehlungen, Verfahrenseinweisungen und wenn das das Problem immer noch [00:30:00] nicht löst, kannst du ein Ticket aufmachen, wird dann direkt erstellt und der IT-Mitarbeiter kriegt das Ticket mit der kompletten Kategorisierung aus diesem Chat-Verlauf mit allem, was dazugehört, mit Lösungsvorschlägen aus dem Tool heraus und so weiter, an den richtigen, an das richtige, an die richtige Queue, an den richtigen Mitarbeiter und so weiter. Untertitel der Amara.org-Community Also es sind so Dinge, wo wir gebaut haben, um, die, die absolut fliegen, absolut toll sind und jetzt auch nach und nach noch weitere Erfahrungen da rein, rein wachsen.  Felix: Großartig, mir geht das Herz auf, wenn ich dir zuhöre, weil das brauchen wir ja genau diese konkreten Use Cases, um, glaube ich sofort daran, dass das, das ist was wirklich echten Mehrwert schafft. Und auch über jetzt dieses. Was man so kennt, ja, man nutzt so einen GPT dann als Sparrings-Partner im Arbeitsalltag, was ja sicherlich auch gemacht werden kann, aber es ein paar Handweste-Use-Cases gibt, die extrem gut mit einer hohen Qualität, hohen Zuverlässigkeit für eure Bedürfnisse Ergebnisse liefern.[00:31:00]  Florian: Definitiv. Und als Kirsche sozusagen in dieser Plattform gibt es die Möglichkeit für Multistep-Workflows, das heißt ich kann ganze KI-Automatisierung bauen, das heißt alles, was wir jetzt im normalen Chatverlauf kennen, also ähnlich wie Agents, ein Stück weit, kann ich ein Modell wählen, kann meinen Um dann aber auch weitere Schritte hinzufügen. Das heißt, ich kann wirklich jetzt der Partie für Tagesaufgaben mehr, ähm, Fachbereichs spezifisch aufbauen und kann unterschiedliche Modelle für abfragen. Zum Beispiel ist ein Thema, was wir jetzt gepackt haben, ist, ähm, also welchen Einfluss hat die US-amerikanische Wahl und die Entscheidung, dass Trump Präsident ist, auf uns als Lauder. Dann könnte ich sagen, okay, im ersten Schritt wird analysiert, um, wird sein Programm analysiert und geht in die konkrete [00:32:00] Branche rein, wie viel Umsatz machen wir in Amerika mit unseren Produkten, geht in die Branche rein, analysiert das, strukturiert das und dann geht's weiter mit per Black-Seat-Sitzung. Beispiel, der hat schon die Firmen, die, die Ergebnisse der Wahl, ne, der AI First, äh, äh, sorry, der, der, äh, äh, der, wie heißt's, America First Strategie von, von Trump. Er sollte  Felix: eigentlich auch AI First Strategie. Also für Deutschland wünsche ich mir die AI First Strategie, ja, dann kommen wir da vorne.  Florian: Ja, und so kann ich dann iterativ unterschiedliche Schritte mit unterschiedlichen Modellen, bis dass ich zum Schluss ein Executive Paper bekomme, für die Geschäftsführung, welche Auswirkungen die Wahl auf unsere Produkte hat, also mit welchem Firmenwissen und Daten, wo ich dann komplette Analysen treffen kann. Jetzt drücken wir neu jetzt, Chatty PT 01 review mit rein. Das heißt ich kann dann auch natürlich solche schwierigeren Themenfelder [00:33:00] mit reingehen, wo auch wirklich Gedankenketten abgebildet werden müssen und können. Wir hatten extrem viel Potenzial in diesen Themen. Und da haben wir jetzt in den Abteilungen konkret gesagt wir wollen fünf bis zehn Workflows in diesem Monat. Und dann haben alle Schweißperlen auf der Stirn gehabt. Aber das war so der Punkt, wo so alle... so ein bisschen aufgestreckt sind. Okay, ähm, jetzt haben wir die Funktionalitäten. Und jetzt, okay, jetzt gehe ich mal wirklich ins Team. Ich gehe in die Teammitglieder und frage, was macht ihr tagtäglich? Ähm, was kann ich, äh, damit automatisieren? Was kann ich nach vorne bringen? Wer macht das? Das sind bei uns die Key-User. Also, wir haben eine, äh, Key-User, unsere AI-Investors. Wir sitzen einmal im Monat zusammen und gucken uns die neuen Technologien an. Ich, die Releases, was aus der Plattform kommt. Und, äh, sie geben konkrete Themen mit, sagen, hey, bei uns in der Abteilung ist das und das, können wir das mit dem Workflow bauen, können wir die KI damit verwenden und so weiter. Und anschließend gehen sie wieder zurück in ihre Bereiche, ähm, wir [00:34:00] entwickeln, wir stellen kleine Business Case auf, ähm, macht das Sinn oder nicht, packen wir das in die Plattform, entwickeln wir das nach, ähm, bauen wir das Interface in die, in die KI Plattform mit rein oder in das Modell mit rein und, ähm, ja. Kurze Zeit später ist es meist aktiv, die Kollegen können das nutzen, also jetzt zum Beispiel Zeugnis, na, also Zeugniserstellung, sowas, also damit aus dem Personalbereich, zum Beispiel, wie können wir das verbessern, ne, ähm, gibt's ja diese unsäglichen, äh, Zeugnisgeneratoren, wo die Zeugnisse eigentlich immer relativ ähnlich aussehen, können wir das nicht mit natürlicher Sprache, auch mit NLP-Technologie, das ein bisschen, äh, schöner gestalten und ein besserer Prozess dahin bieten, ja. Ja. So kommen unterschiedliche Anforderungen auf uns zu, die wir zusammen evaluieren in der IT mit unserem Dienstleister zusammen und dann kommt meist was, was sehr gutes raus, was auch produktiv, dann auch in den Einheiten nutzbar ist und dann auch anderen Abteilungen zugeordnet werden kann und nutzbar gemacht werden kann. Felix: [00:35:00] Ja, und vieles ist davon wahrscheinlich auch ohne Programmierung umsetzbar, oder? Wenn ich diese Workflows habe und dann verschiedene Schritte aneinanderketten kann, dann kommt es da dann doch wieder aufs Prompting an.  Florian: Genau. Ich kann mir diesen Workflow auch mit KI erstellen lassen. Na, also wenn ich jetzt nicht weiß, wie, wie setze ich meinen Prompt zusammen, dass er den Kontext erfasst und das Ergebnis liefert, kann ich auch mit KI diesen Prompt mir vorgenerieren lassen. Also diesen Workflow, wie müssten diese 5, 6, 8, 10 Schritte aussehen? Mit welchem Modell? Dann kriege ich den Vorschlag und dann kann ich relativ gut... Diesen Vorschlag anpassen und customisen und das kriegt man auch ohne Programmierkenntnisse hin.  Felix: Wie sehen eure Nutzungszahlen vom Lauda GPT aus?  Florian: Ja, in der ersten Woche nach der Einführung wurden bereits 2000 Promts abgesetzt. Mittlerweile haben wir die magische Marke von 70.000 Promts überschritten. Aktuell. [00:36:00] wird circa zwischen 350 und 450 Prompts am Tag abgesetzt. In produktionsnahen Bereichen sind natürlich die, die Nutzerzahlen verständlicherweise geringer, aber die Akzeptanz wächst auch da kontinuierlich. Besonders spannend ist natürlich die Einführung von Multisteps Workflow, die ist noch recht frisch, auch der ein oder anderen App innerhalb der Plattform. Und trotzdem sehen wir schon einen starken Anstieg der Nutzung. Bei wie vielen  Felix: Nutzern?  Florian: Von unseren... 630 Mitarbeitern, ähm, haben wir 400 registrierte Nutzer und von diesen 400 prompten 76 Prozent täglich. Also, wir haben auch einen speziellen KI-basierten Algorithmus entwickelt, der automatisch berechnet, wie viel Zeitersparnis so ein KI-gestützter Workflow, so ein Multistep Workflow oder auch ein Chat mit sich bringt. Aber generell kann ich, ähm, [00:37:00] vielleicht ein paar Daten zu den Kosteneinsparungen durch KI bei Lauda, äh, mitbringen. Also im Dezember hatten wir nämlich diesen Jahres eine detaillierte Kosten-Nutzen-Analyse unserer KI-Projekte durchgeführt. Und ich glaube auch da entsprechen die Ergebnisse für sich. Also, ähm. Auf Basis der Zahlen von 2024, um, im Hinblick auf das, was wir 2025 erwarten, was sich auch zeigt, um, sehen wir, dass wir circa 1000 Stunden monatlich durch die Lauda GPT Plattform einsparen werden. sind ca. 12.000 Stunden im Jahr, sind umgerechnet ca. 7,5 FTE, also Full-Time-Employees. Dann unsere App, unsere DPL-Integration mit dem Consumption-Modell, bringt uns, um, Eine Einsparung externer Agenturkosten und auch DPL-Kosten für [00:38:00] Accounts, circa 25.000 Euro im Jahr. Und auch die speziell entwickelnden Apps innerhalb der Lauda GPT-Plattform bringen uns weitere 450 Stunden Ersparnis monatlich, was uns nochmal drei FTE, ähm, einspart. Und durch die Einführung von, ähm, Der später sicherlich erwähnten, äh, Machine Learning Use Cases, ähm, zum Beispiel in der Softwareentwicklung, aber auch, ähm, im Bereich Security sparen wir uns auch nochmal 5 bis 10 FTE im Jahr, was so unterm Strich, also wenn man jetzt mal so eine betriebsschwersthaftliche Betrachtung macht, Um, erwarten wir eine Gesamteinsparung dieser KI-Projekte von 1,62 Millionen Euro jährlich nach Abzug der Kosten. Das zeigt, dass KI längst kein Experiment mehr ist, sondern ein zentraler Faktor für Effizienz und Wettbewerbsfähigkeit für uns. [00:39:00]  Felix: Ja, glaube ich sofort. Also, Grüße gehen raus an Florian Bader. Ich würde sagen, hier habt ihr ein tolles Testimonial, super spannende Insights und wirklich beeindruckend, was ihr in der kurzen Zeit auf die Beine gestellt habt, zeigt aber nochmal wieder, man muss halt alles mitdenken, Strategie, Technologie, Menschen und man braucht vor allem eine Plattform, auf der man die Anforderungen, die aus den Teams kommen, dann sehr flexibel und auch schnell umsetzen kann. Das habe ich jetzt so sehr empfohlen. rausgenommen, dass das euer Erfolgsfaktor war, ja, dass ihr sehr schnell auf Anforderungen reagieren konntet und super flexibel wart und nicht in einem Co-Pilot zum Beispiel eingesperrt war, der heute wahrscheinlich noch nicht mal einen Bruchteil von dem abdecken könnte, was ihr braucht und dann nutzt es halt auch keiner und die Leute lernen von Anfang an, das funktioniert irgendwie nicht und dann haben sie auch keine Lust mehr und dann schläft dieses ganze Thema ein. Florian: Ja, absolut. Und wenn man jetzt nur Co-Pilot betrachtet, also wir sind, wir sind noch nicht in einem Microsoft [00:40:00] Enterprise Agreement, wir sind noch CSP-Partner. Sprich, um wir Co-Pilot-Lizenzen, also es braucht, um jeder das natürlich nutzbar zu machen, braucht jeder eine Co-Pilot-Lizenz. Wir alle wissen, was die kostet. Wenn wir jetzt dann noch mit Dokumenten arbeiten, dann heißt das, dass die Dokumente in der Cloud liegen müssen. Sprich, Data-Lay-Kosten, wir müssen unseren kompletten File-Share transferieren und so weiter. Also wenn ich allein diese Kosten betrachte, ist es in keinem Verhältnis zu dem, was wir heute haben. Felix: Kurz in eigener Sache. Wenn dir der AI First Podcast gefällt und du mehr spannende Inhalte und hochkarätige Gäste hören möchtest, dann freue ich mich über deine Unterstützung. Mit einer 5-Sterne-Bewertung und einem Abo für den Podcast hilfst du uns, sichtbarer zu werden und AI First weiterzuentwickeln. Für dich und die gesamte Community. Dann lass uns mal rübergehen zum Machine Learning. Du hattest gesagt, äh, drei Use Cases in drei Jahren, die habt ihr dann im ersten halben Jahr abgefackelt. [00:41:00] Äh, was sind das denn für Use Cases und... Ja, was seht ihr da für Ergebnisse?  Florian: Ja, also, ähm, es sind drei, ähm, größere Themen. Also, wir haben, äh, einmal das Thema, dass wir mit der, äh, Hochschule Aalen an einem Predictive Maintenance, ähm, Forschungsprojekt arbeiten. Das heißt, wir möchten, äh, unsere Geräte, äh, zukünftig schlauer machen. Wir wollen Predictive sagen können, wann, äh, äh, äh. Äh gewisse Bauteile ähm verschleißen, wenn gewisse Viskositäten in der Kühltechnik ähm sich verändert etc. pp. Das heißt, wir sind. Wir, wir sind da mit extrem vielen Sensoren unterwegs, das heißt es werden Vibrationssensoren, Viskositätsensoren an die Geräte angebracht und, ähm, wir wollen, dass unsere Geräte dadurch natürlich noch langlebiger laufen, ähm, ja, das ist das eine Großprojekt, wo wir 2023 gestartet haben und, ähm, ja, Anfang 2025 ist das, ähm, soll das abgeschlossen [00:42:00] sein und wir werden dann entscheiden, inwiefern wir diese neue Technologie, äh, Um einsetzen werden, was da dahinter, also da ist Machine Learning, Deep Learning oder halt neuronale Netz dahinter. Das heißt, es werden große Datenmengen miteinander verglichen und gewisse Anomalien erkannt und dementsprechend dann Entscheidungen getroffen. Deep Learning halt aktiv selbst getroffen und halt oder mit Machine Learning halt der Mensch entscheidet, was dann ein gewisser Predictiv dann getan werden soll. Also so eine Mischung davon. Und ja, das ist das eine Thema. haben wir zwei Themen, also wir nutzen da natürlich Tools am Markt. Wir haben die KI nicht selbst entwickelt, aber wir nutzen natürlich auch für unsere Softwareentwicklung haben wir den GitHub Copilot, weil meines Erachtens, wenn man sich die ganzen Copilot am Markt anschaut, ist der GitHub Copilot der absolut umsetzen kann. performanteste und beste Co-Pilot [00:43:00] und mittlerweile ja auch nicht nur proprietär mit OpenAI KI Modell nutzbar, sondern ich kann da auch unterschiedliche Modelle hinterlegen. Das heißt jetzt für uns in der Embedded Software Entwicklung kommt ein anderes KI Modell in Frage, wie jetzt, wie jetzt zum Beispiel für eine .NET Implementierung, ne? So bietet es uns die Flexibilität aus der GitHub-Community. Alle unsere Softwareprojekte haben wir innerhalb von einem halben Jahr dorthin umgezogen. Wir haben auch kleinere Töchterfirmen und so weiter, die auch Software produzieren. Und wir haben jetzt alles zusammengefasst unter einem Hut. Und ja, so können wir gegenseitig profitieren. Haben wir jetzt eigentlich eine eigenständige Softwareentwicklung und nutzen halt den Co-Piloten. Um Code für uns erstellen zu lassen, Code Proof zu legen, Code zu dokumentieren, was, ähm, ein großes Thema ist und, ähm, ja, [00:44:00] Kollegen schwärmen davon, wenn man sich betrachtet, dass weltweit ja knapp 40 Prozent von dem, äh, aktuell, ähm, von dem gebliebenen, ähm, Code von KI erstellt werden, sind wir, glaube ich, da auch auf dem richtigen Dampfer, eher Tendenz steigend. Also NVIDIA baut eigene GPUs, die sicherstellen, dass der Code von Programmierern, äh, nicht mehr von Programmierern kommt, sondern von, äh, von KI geschrieben wird. Also da sieht man einfach, welche Richtung es geht. Also dass das Thema Softwareentwicklung ganz stark in Richtung KI abwandert. Da sind wir jetzt auf dem, auf dem richtigen Weg. Ist ja auch eine Machine Learning Technologie.  Felix: Würdest du das unter Machine Learning einkategorisieren oder generativer KI?  Florian: Ähm, also es bedient sich, also generative KI kategorisiert sich ja in Deep Learning und Machine Learning sind ja Teile davon. Deswegen, ähm, würde ich's, ähm, äh, weder noch sagen. Also, ähm, generative KI kommt halt bei diesen Vorschlägen, ne? Also, äh, zeigen wir mal die Funktionen, äh, tun wir mal die [00:45:00] Variable erstellen, etc. Also da kommt es zum Einsatz, aber Machine Learning generell, dieser Co-Pilot, um, also da sind wir gut dabei, um, und, um, können dadurch auch schneller und effektiver Code schreiben und so Produkte und Software-Versionen sind natürlich auch deutlich schneller fertig. Äh, und das dritte Thema, was wir machen. Wir haben, ähm, extrem mit unseren, ähm, E-Mail-Security-Lösungen haben wir extrem viele grey E-Mails, also grey E-Mails ist ja so ein Begriff für Junk, äh, für Phishing-E-Mails, alles was so böse und schadhaft ist und, ähm, hier haben wir uns auch evaluiert am Markt, welche Möglichkeiten gibt es, ähm, äh, einfach die Ursache stärker zu bekämpfen. Das heißt, wir wollen nicht darauf eingehen, dass natürlich Mitarbeiter Complaint-Schulungen brauchen, Datenschutz-Schulungen, Phishing-Schulungen und Phishing-Tests gemacht werden und so weiter. Aber viel, viel wichtiger war für mich, die Ursache zu bekämpfen, dass diese E-Mail-Systeme gar nicht ins Unternehmen eintreffen.[00:46:00]  Und da haben wir eine Software evaluiert, äh, nennt sich Dark Trace. Äh, basiert auch auf KNLP-Technologie. Und diese Software, äh, äh, äh, äh, äh. Sichtet E-Mails wie ein Mensch, also sie bewertet es mit so einem Scoring, so einem Punktesystem, liest die Mail und gibt dann im Prozentsatz heraus, wie schädlich oder nicht schädlich diese E-Mail ist. Also seit wann ist dieser Domain registriert, Echtheitszertifizierung. Inwiefern ist der Text mit KI geschrieben? Inwiefern hat es ein Mensch geschrieben? Wie oft habe ich mit dem Absender schon mal kommuniziert und so weiter? So ein, so ein, so ein Storing dahinter. Und, ähm, das unterscheidet halt die Lösung zu wahrscheinlich 99 Prozent aller anderen, ähm, End-User-Protection-Systeme, weil die halt immer auf Basis Virus-Total guckt und guckt, was da aktuell an Phishing-E-Mail und staathaft Viren-Software oder Viren, ähm, ankommt. Und durch das, dass [00:47:00] mittlerweile KI halt, äh, ein Stück weit, ähm, diese E-Mails gestaltet, muss es dann halt natürlich auch mit KI bekämpft werden und, ähm, Dark Trace macht das. Und seither haben wir keinen einzigen Fall von Phishing bei uns mehr gehabt, ähm, seit Einführung. Und wir sparen uns dadurch, ähm, 15.000 Stunden im Jahr an manueller, äh, E-Mail-Verwaltung. Und die Software läuft ohne Betriebsaufwand, also das ist echt, echt toll, was die Software mitbringt.  Felix: Okay, ja, zeigt für mich ganz schön, dass es oft gar nicht darum geht, die besten Entwickler zu sein oder zu haben, um selbst KI-Anwendungen zu programmieren, sondern dass es da draußen einfach Für ganz konkrete Probleme, die es in Unternehmen gibt, fertige Lösungen gibt, die man auch datenschutzkonform sicher einführen, in die eigene Landschaft, in einen Prozess integrieren und laufen lassen kann, ohne eben den Aufwand zu haben. Dann hat man [00:48:00] zwar Lizenzkosten, aber auch da kann man ja ein Case draus bauen und gleichzeitig. zeigt ihr ja auch sehr schön, wenn es dann an die eigene Wertschöpfungskette, das eigene Produkt geht, dann eben auch Partnerschaften zu schnüren, zum Beispiel mit mit einer Hochschule, um eine eigene Lösung zu entwickeln, die ihr selbst auch stark beeinflussen, auf euch Maß schneidern und auch besitzen könnt. Florian: Das unterstreiche ich zu 100 Prozent, weil, ähm, es gibt ja unterschiedliche Ansätze, wie ich eine IT-Struktur wäre, organisiere Aufbau und wir sind jetzt zum Beispiel 17 ITler bei uns, ähm, vor vier Jahren waren es noch drei, also ein starker Zuwachs durch die Einführung von Salesforce, ERP und so weiter, KI, Daten, vor allem Datenanalysten und, ähm, Es ist natürlich so, dass wir oft nur Generalisten bei uns haben, ne, weil die viele Technologien beherbergen müssen in so einem Unternehmen, in so einem Mittelstandsunternehmen. Ähm, von Workplace bis Netzwerk bis Security bis Data Center [00:49:00] Management bis Cloud bis whatever, ähm, gibt es extrem viele Technologien, die sie beherrschen müssen. Und, ähm, mit einer kleineren Mannschaft und, ähm, deswegen ist es natürlich auch Gold wert, dann solche Partner zu finden, die dann natürlich die Entwicklungspower dahinter bieten können. Und, ähm, Custom Apps, Custom Anwendungen für uns bauen können. Und, ähm, ja, das ist immer die, die Entscheidung, was, was gebe ich raus, was bleibt im Haus? Und, ähm, ja, da haben wir, glaube ich, einen guten Zwischenweg dafür gefunden.  Felix: Lass uns zum Abschluss nochmal den Blick in die Zukunft werfen. Ich versuche von den Gästen immer ein bisschen was zu entlocken, auch wenn es sehr schwer ist, was deine Thesen sind. Jetzt, wenn wir jetzt mal aufs Jahr 2025 schauen, ähm, was glaubst du, was... die KI-Welt für uns bereithalten wird? Was sind deine Thesen? Und was habt ihr vor im Jahr 2025?  Florian: Ja, sehr gerne, Felix. Ja, wenn ich in [00:50:00] die, in die Zukunft blicke, dann sehe ich besonders jetzt im Jahr 2025 spannende Entwicklungen in der KI-Welt, vor allem im Bereich RAC, Retrieval Augmented Generation, Agentensysteme, autonome Systeme, Live Searches. Also speziell bei Lauda stehen wir natürlich auch vor einem entscheidenden Schritt. Diese Technologien optimal zu nutzen und, äh, ich sag mal, auf das richtige Pferdchen, auf die richtigen Pferdchen zu setzen. Ab Februar 2025 werden wir unseren neuen Data Vault in Betrieb nehmen. Der wird sowohl unsere On-Prem, Data Lakes, aber auch unsere Azure in auch in unserer Azure Cloud fungieren wird und damit schaffen wir die Grundlage, um unsere Rack Daten, unsere Daten im Unternehmen effizient zu nutzen, äh, Data Pools bereitzustellen, die dann mit der generativen KI verarbeitet werden können mit den Large Language Models [00:51:00] innerhalb unseres Lauda GPTs. Also diese Datenpools ermöglichen uns dann nicht nur eine bessere Datenintegration und Analyse, sondern auch die Nutzung von RAC-Technologien in Echtzeit, relevante Informationen abzureifen zu können. Das wird sicherlich besonders, um, in den Bereichen, äh, Kundensupport, Vertrieb, ähm, IT, ähm, Forschung, Entwicklung, äh, große Potenziale eröffnen. Zudem werden wir natürlich uns auch die Advanced Voice ermöglichen. Agentensysteme anschauen. Wir werden diese entwickeln, evaluieren, auch natürlich als Abnehmer, Service, Vertrieb, Empfang. Diese Agenten werden in der Lage sein, mit dem Kunden in natürlicher Sprache zu interagieren und dabei sogar Custom Instructions hinterlegt haben, um so die Kommunikation natürlich auch zielgerichtet und effektiver für die Abnehmer, Anwender zu gestalten. Das Ziel ist es [00:52:00] natürlich, die Agenten zu empfangen. den Kundenservice, ähm, weiter zu automatisieren und gleichzeitig aber auch die Benutzererfahrung auf ein höheres Niveau zu heben. Ähm, ein weiteres spannendes Thema sind natürlich zum Beispiel den Einsatz von autonomen Agenten, äh, wie zum Beispiel eine juristische KI. Also es gibt ja auch eine deutsche rechtssichere KI namens Noxtour, ähm, welche ist ein Berliner Startup, ähm, ähm, mit der größten deutschen Anwaltskanzlei gebaut hat. Und, ähm, äh, hier, das ist vielleicht auch ein Beispiel für viele weitere, äh, autonome Agenten, ähm, die man dementsprechend dann in bestehende Prozesse einbinden könnte, integrieren in die, in die GNI-Plattform und, ähm, äh, diese Agenten werden in der Lage sein, äh, rechtliche Dokumente zu prüfen, Verträge zu analysieren und rechtliche Empfehlungen abzugeben, alles unter strenger Beachtung der [00:53:00] Compliance- und DSVGO-Vorgaben. Untertitel der Amara.org-Community Dann natürlich hat es Perplexity vorgemacht oder die Google Search, ähm, ähm, sorry, die Chat-GPT-Search. Auch Google hat jetzt ihr Modell veröffentlicht. Das alles, was die Live-Searches angeht, erwarten wir, ähm, äh, dass wir in der Lage sein werden, durch den Einsatz von dieser Echtzeit-Suchen, die ja schon heute in unseren Plattformen aktiv ist, ähm, äh, dass wir da besonders den Produktentwicklungen im Bereich Forschung uns auch da Vorteile, Patente, äh, ähm, äh, äh, ähm. Rechtsthemen und so weiter verschaffen können. Zusammenfassend lässt sich sagen, dass das Lauda 2025 in einer Position sein wird, in der KI nicht nur als Werkzeug, sondern als integraler Partner fungiert. Von der Automatisierung bis hin zur strategischen Entscheidungsfindung, also es ist ein sehr, sehr spannender Weg. Der uns, der sowohl unsere internen Prozesse [00:54:00] als auch das gesamte Kundenerlebnis hoffentlich auf den, auf ein, auf das nächste Leben Level heben wird. Felix: Vielen Dank, Florian, für deine ganzen Insights. Ich nehme mit, All in on AI, auch im Mittelstand. Ihr seid tolles Beispiel dafür, was man in überschaubarer Zeit alles erreichen kann und wie man das Fundament dafür hinstellt, um auch vor allem die Teams für die Technologie zu gewinnen, um genau dieses Momentum zu erzeugen, was ihr jetzt habt und darauf dann immer neue Use Cases aufbauen zu können und für mich wieder die Bestätigung, dass gerade bei generativer KI so ein Top-Down-Ansatz nur von Use Cases oder Business-Problemen zu kommen, nicht funktioniert, wenn die Leute nicht verstanden haben, was kann ich damit eigentlich machen, sondern man auch also, ich bin super stolz auf mich, dass ich da heute mit euch hier im Publikum bei der ZEIT konnte. Und ich hoffe, dass wir uns nächste Woche wiedersehen. Tschüss. Ich brauche erst die Kompetenz und diese Erfahrung im Team, um daraus dann anhand der konkreten Abläufe im Team und auch Engpässe und so weiter Use Cases abzuleiten, die man mit [00:55:00] den Fähigkeiten von KI generativer KI umsetzen kann. Und zweites großes Learning. Wir müssen das Rad nicht immer neu erfinden. Wir müssen vor allem Weltmeister werden in der Anwendung von künstlicher Intelligenz. Und es gibt tolle Produkte da draußen, die wir kaufen, einsetzen und nutzen können. ohne selbst alles entwickeln zu müssen. Gerade aber, wenn es um die eigene Wertschöpfung, eigenen Produkte geht, dann macht es Sinn, diese Lösung auch selbst aufzubauen und am Ende zu besitzen. Vielen, vielen Dank, Florian. Ich will auf jeden Fall noch ein Follow-up mit dir machen. Vielleicht finden wir in einem Jahr noch mal die Gelegenheit dazu. Und ja, bis zum nächsten Mal.  Florian: Vielen Dank, hat Spaß gemacht. Felix, mach's gut.
This is a success message.
This is an error message.