
#1ogGPT trifft Großkonzern: Wie Otto 30.000 Mitarbeiter AI-fit macht
Intro
In dieser Episode des AI FIRST Podcast spricht Felix Schlenther mit Florian Leuerer, Senior Expert Generative AI bei der Otto Group, über die Einführung und den Betrieb von OGGPT – dem hauseigenen KI-Assistenten für 26.000 Mitarbeitende. Florian war federführend an der Entwicklung und Implementierung beteiligt und gibt tiefe Einblicke, wie ein Großkonzern generative KI unternehmensweit ausrollt, welche Schulungsformate die Adoption fördern und warum heute bereits 7.000 monatliche Nutzer über 200.000 Nachrichten pro Monat verarbeiten. Ein ehrlicher Blick hinter die Kulissen einer der ambitioniertesten Gen-AI-Initiativen im deutschen Mittelstand.
Inhaltsübersicht
- Florians persönlicher Weg von SAP zu Machine Learning und generativer KI
- Die strategische Entscheidung für eine Eigenentwicklung statt ChatGPT oder Microsoft Copilot
- Funktionsumfang von OGGPT: Von RAG über Custom GPTs bis zu Function Calling
- Das Adoption-Konzept: Schulungen, Communities und eine jährliche interne AI-Konferenz
- Nutzungszahlen und messbare Zeitersparnis: 30 Minuten bis 4 Stunden pro Woche
- Organische Use-Case-Entwicklung durch die Mitarbeitenden selbst
- Die Rolle von Halluzinationen und warum Prozesse wichtiger sind als perfekte Modelle
- Zukunftsvision: Gen-AI als integraler Bestandteil von Unternehmensprozessen
Über den Gast
Florian Leuerer ist Senior Expert Generative AI bei der Otto Group und Tech-Lead für KI- und Machine-Learning-Projekte. Ursprünglich aus dem SAP-Umfeld kommend, wechselte er 2018 seinen Schwerpunkt zu Deep Learning und Natural Language Processing, als diese Technologien an Bedeutung gewannen. Heute verantwortet er die technische Entwicklung des OGGPT – des unternehmensweiten KI-Assistenten der Otto Group – und arbeitet mit einem sechsköpfigen Team an der kontinuierlichen Weiterentwicklung der Plattform. Seine Expertise liegt in der praktischen Implementierung von Gen-AI-Lösungen in Großkonzernen und der Vermittlung von KI-Kompetenzen an nicht-technische Zielgruppen.
Detaillierte Zusammenfassung
Vom SAP-Experten zum AI-Pionier
Florian Leuerers beruflicher Werdegang begann im SAP-Umfeld, doch 2018 entschied er sich für einen Richtungswechsel. "Die Liebe zu SAP ist irgendwann geschwunden", erklärt er, und genau zu diesem Zeitpunkt kam das Thema Deep Learning und Natural Language Processing (NLP) richtig in Fahrt. Diese Koinzidenz nutzte Florian, um sich ein neues Herzensthema zu suchen: Machine Learning und alles, was mit Textverarbeitung und multimodalen Modellen zu tun hat. Diese Entscheidung sollte sich als wegweisend erweisen, denn nur wenige Jahre später wurde generative KI zum dominierenden Technologietrend.
Bei der Otto Group fand Florian das ideale Umfeld, um seine neu erworbenen Fähigkeiten einzusetzen. Als einer der führenden E-Commerce-Player in Deutschland erkannte die Otto Group früh das Potenzial von KI-Technologien und investierte in den Aufbau entsprechender Kompetenzen. Florians technischer Hintergrund kombiniert mit seinem Verständnis für Geschäftsprozesse machte ihn zum idealen Kandidaten, um die Gen-AI-Initiative des Konzerns voranzutreiben.
Die Geburtsstunde von OGGPT
Am 18. September 2023 ging OGGPT (Otto Group GPT) live – genau ein Jahr vor diesem Gespräch. Die Entscheidung für die Entwicklung eines eigenen KI-Assistenten fiel zu einem Zeitpunkt, als ChatGPT bereits durch die Decke ging und jedes Unternehmen sich fragte, wie es mit dieser Technologie umgehen sollte. "Das Naheliegendste war einfach, die Technologie und so was wie ChatGPT jedem Mitarbeitenden irgendwie zugänglich zu machen", erklärt Florian die damalige Überlegung.
Die Otto Group verfolgte dabei eine Doppelstrategie: Einerseits arbeitete die Otto Group Digital Solutions an strategischen Use Cases mit dem größten erwarteten Impact – etwa im Customer Support oder der Produktentwicklung. Andererseits wollte man allen Mitarbeitenden die Möglichkeit geben, selbst mit der Technologie zu experimentieren und herauszufinden, wie sie ihre persönliche Produktivität steigern können.
Die Wahl fiel auf eine Eigenentwicklung, obwohl diese ressourcenintensiver war als die Nutzung bestehender Lösungen. Der Hauptgrund waren Datenschutzbedenken: ChatGPT war zu diesem Zeitpunkt keine Option, da die Daten in den USA verarbeitet und gespeichert wurden. Zudem gab es noch keine ausgereiften europäischen Alternativlösungen auf dem Markt. "Es war hauptsächlich daran, dass es zu dem Zeitpunkt noch nicht so viele Standardlösungen neben ChatGPT tatsächlich gab", so Florian.
Funktionsumfang: Vom einfachen Chat zum Multi-Tool-Assistenten
OGGPT startete als klassischer Chat-Klon von ChatGPT, entwickelte sich aber kontinuierlich weiter. Heute umfasst die Plattform ein breites Spektrum an Funktionen, die weit über einfache Textgenerierung hinausgehen.
Die Basis bildet der klassische Chat mit einem Large Language Model, der Standard-Use-Cases wie Übersetzungen, Brainstorming oder Textzusammenfassungen abdeckt. Relativ früh integrierte das Team Retrieval Augmented Generation (RAG), was es Nutzern ermöglicht, eigene Dokumente hochzuladen und gezielt Informationen daraus abzufragen. "Wir hatten auch keine Größenbegrenzung eingebaut", erklärt Florian – ein wichtiges Detail, das OGGPT von vielen Konkurrenzlösungen unterscheidet.
Ein Lernprozess war die ursprüngliche Implementierung von Projekten und Modellen, in die Nutzer Dateien hochladen konnten. "Das war konzeptionell nur ein bisschen zu weit gesprungen", gibt Florian zu. Die Usability war nicht intuitiv genug, weshalb diese Funktionen später in Custom GPTs überführt wurden – spezialisierte Assistenten mit Agentenfunktionalität und Function Calling.
Die Custom GPTs können nicht nur auf hochgeladene Dokumente zugreifen, sondern auch verschiedene Tools nutzen. Die erste implementierte Funktion war echte Dokumentenzusammenfassungen, da RAG allein keine zufriedenstellenden Gesamtzusammenfassungen längerer Dokumente liefern konnte. Weitere Tools sind der Code Interpreter (auch Data Analyzer genannt), der Python-Code ausführt, um beispielsweise Tabellen zu analysieren, und eine Internetsuche.
Ein besonderes Feature ist der Prompt-Marktplatz, über den Mitarbeitende erfolgreiche Prompts teilen können. "Das ist noch so ein Format, um eben das Wissen und vielleicht gute Prompts besser teilen zu können", erklärt Florian. Dieser Community-Ansatz fördert nicht nur die Adoption, sondern beschleunigt auch die Lernkurve aller Nutzer.
Die Vision: Integration in die Systemlandschaft
Die nächste Entwicklungsstufe von OGGPT ist die Integration mit bestehenden Unternehmenssystemen. Das Team arbeitet daran, strukturierte Datenquellen anzubinden und Aktionen in anderen Systemen über OGGPT auszuführen. "Die Vision ist, dass der KI-Assistent in der Mitte vom Unternehmen sitzen kann und immer mehr Zugriff auf bestimmte Unternehmensdatenquellen bekommt", fasst Felix zusammen.
Erste geplante Integrationen umfassen einen Online-Zugriff auf die IT-FAQs der Otto Group sowie die Möglichkeit, Daten aus Jira abzufragen. Florian gibt jedoch zu bedenken: "Das ist nicht trivial, weil wir schon irgendwie die Herausforderung haben, ein System zu bauen, das für alle Use Cases gut funktioniert." Manchmal stoßen klassische Function-Calling-Systeme an ihre Grenzen, und es sind komplexere Agenten-Architekturen oder sogar hartcodierte Logik erforderlich.
Ein wichtiger strategischer Entscheidungspunkt ist die Anbieterunabhängigkeit. OGGPT kann verschiedene Sprachmodelle anbinden – ein bewusster Schritt, um sich nicht auf einen einzigen Anbieter zu verlassen. "Wir wollen uns jetzt nicht irgendwie auf einen Anbieter verlassen, weil das Ganze eben noch relativ dynamisch ist", erklärt Florian. Diese Flexibilität ermöglicht es, stets das für einen Use Case am besten geeignete Modell zu nutzen und auf neue Entwicklungen schnell zu reagieren.
Das Adoption-Konzept: Mehr als nur ein Tool bereitstellen
Die technische Implementierung war nur die halbe Miete. "Ich glaube, das Wichtigste ist da wirklich irgendwie ein Team aufzustellen, das sich explizit darum kümmert", betont Florian die Bedeutung organisatorischer Maßnahmen. Die Otto Group etablierte ein dediziertes Adoption-Team und Schulungsteam, das verschiedene Formate anbietet.
Die Schulungsarchitektur umfasst mehrere Ebenen: Halbtages-Workshops vermitteln grundlegende Prompting-Fähigkeiten – nicht nur für OGGPT, sondern vergleichend mit anderen Tools wie ChatGPT. Dieser übertool-orientierte Ansatz hilft Mitarbeitenden zu verstehen, wie verschiedene KI-Assistenten arbeiten und wo ihre jeweiligen Stärken liegen.
Für die Einführung neuer Features gibt es "My Sessions" – einstündige oder halbstündige Formate, in denen erklärt wird, wie man technisch auf OGGPT zugreift und neue Funktionen nutzt. Diese niedrigschwelligen Angebote senken die Hemmschwelle, sich mit Updates und neuen Möglichkeiten auseinanderzusetzen.
Ein zentrales Element ist die "Discover AI Community" – eine interne Community über Microsoft Teams, in der sich Anwender und AI-Experten austauschen. "Man versucht sich einfach selbst zu helfen und Erfahrungen auszutauschen", beschreibt Florian das Konzept. Diese peer-to-peer Unterstützung ist oft effektiver als top-down Schulungen, da sie praxisnah und direkt auf konkrete Probleme eingeht.
Jährlich veranstaltet die Otto Group die "Discover AI" – eine interne KI-Konferenz, bei der das gesamte Thema AI und Generative AI bespielt wird. Mitarbeitende können ihre Use Cases vorstellen, es gibt Input von außen, und es entsteht eine Energie und Sichtbarkeit für das Thema, die weit über klassische Schulungsformate hinausgeht. Wie Felix anmerkt, schaffen selbst Unternehmen mit nur 200 Mitarbeitenden solche Formate erfolgreich: "Das hat wirklich gezeigt, dass man so schafft, wirklich nicht nur alle Leute mitzunehmen, sondern echt zu involvieren."
Nutzungszahlen und messbare Effekte
Die Zahlen sprechen für den Erfolg des Adoption-Konzepts: Zum einjährigen Geburtstag von OGGPT hatten sich etwa 13.500 Nutzer angemeldet – bei insgesamt 26.000 potenziellen Nutzern in der Otto Group. Monatlich sind circa 7.000 Mitarbeitende aktiv und verarbeiten über 200.000 Nachrichten.
Besonders bemerkenswert: Die Nutzungszahlen steigen kontinuierlich. "Gefühlt ist der Hype irgendwie vorbei. Jeder hat schon mal was von OGGPT gehört. Aber trotzdem steigen die Zahlen eigentlich stetig an", beobachtet Florian. Dieser Trend deutet darauf hin, dass OGGPT nicht nur eine vorübergehende Spielerei ist, sondern sich als produktives Werkzeug im Arbeitsalltag etabliert hat. Mitarbeitende probieren das Tool vielleicht zunächst aus, sind möglicherweise enttäuscht, kehren später zurück, sehen Verbesserungen und bauen es dann schrittweise in ihren Arbeitsalltag ein.
Die Zeitersparnis wird über User-Umfragen ermittelt, da detaillierte Nutzerdaten aus Datenschutzgründen nicht getrackt werden. Die Ergebnisse zeigen bei durchschnittlichen Nutzern eine Zeitersparnis von 30 Minuten bis zu einer Stunde pro Woche. Bei den Power-Usern – den Top 5% der aktivsten Nutzer – liegt die Ersparnis bei etwa einem halben Tag pro Woche. Florian betont jedoch, dass dies keine repräsentative Umfrage ist und Unschärfen enthält.
Interessanterweise ist die Messung des Return on Investment kein explizites Ziel von OGGPT. "Wir messen keine Zeiten, wir versuchen da nicht irgendwie gegenzurechnen, ob sich das Ganze lohnt", stellt Florian klar. Das primäre Ziel ist es, allen Mitarbeitenden die Möglichkeit zu geben, datenschutzkonform mit der Technologie zu arbeiten und Kompetenzen aufzubauen. Die langfristigen strategischen Vorteile – etwa die Fähigkeit, auf zukünftige KI-Entwicklungen schnell zu reagieren – sind ohnehin schwer zu quantifizieren.
Von der Spielerei zum Produktivwerkzeug: Use Cases aus der Praxis
Ein faszinierender Aspekt der OGGPT-Story ist, wie Use Cases entstanden sind. "Es war wirklich sonst das größte Problem, Use Cases zu finden", erinnert sich Florian an frühere KI-Projekte. Bei traditionellen Machine-Learning-Anwendungen wie Textklassifikation oder Named Entity Recognition war es extrem schwierig, Fachabteilungen zu vermitteln, wo genau die Technologie ihnen helfen könnte.
Mit OGGPT hat sich das fundamental geändert: "Die letzten drei, vier, fünf, sechs Monate war eigentlich so das Spannendste, dass jetzt die Use Cases zu uns kommen." Mitarbeitende, die eine Zeit lang mit dem Tool experimentiert haben, identifizieren selbst Anwendungsfälle in ihrem Arbeitsalltag und kommen mit konkreten Ideen zur Prozessautomatisierung.
Ein frühes Beispiel ist der Bonprix Language Converter des Otto-Group-Unternehmens Bonprix. Dieses Custom GPT übersetzt normale Mitarbeitersprache in die spezifische Bonprix Brand Language und entlastet damit Marketing- und PR-Teams. Ein anderer Use Case ist ein AI-Coach für interne Schulungen: Mitarbeitende können mit dem Assistenten über ihre Weiterentwicklungswünsche sprechen, er stellt Rückfragen und schlägt dann passende interne oder externe Schulungen vor.
In rechtlichen Abteilungen wird OGGPT eingesetzt, um große Mengen an Vertragsdokumenten zu analysieren – etwa um bestimmte Klauseln oder Konditionen über 20 verschiedene Verträge hinweg zu identifizieren. "Das waren alles Use Cases, wo wir nicht aktiv auf die Fachbereiche und Kolleginnen zugegangen sind, sondern das sind die Use Cases, die uns zugeflogen sind", betont Florian den Bottom-up-Charakter dieser Entwicklung.
Besonders wertvoll: Oft geht es nicht nur um KI-Technologie, sondern um die Optimierung ganzer Prozesse. "Man kommt vielleicht an Prozesse, die insgesamt noch besser werden können", erklärt Florian. Manchmal identifizieren Mitarbeitende Prozessschritte, die per API abgebildet oder durch RPA (Robotic Process Automation) automatisiert werden können. OGGPT fungiert hier als Katalysator für eine umfassendere digitale Transformation.
Eigenentwicklung vs. Standardlösungen: Eine fortlaufende Abwägung
Die Otto Group hinterfragt seit Tag 1, ob die Eigenentwicklung der richtige Weg ist. Microsoft Copilot wäre naheliegend, da die Otto Group im Microsoft-Ökosystem arbeitet – mit M365, Teams und der gesamten Office-Palette. Tatsächlich ist die Otto Group auch Pilotkunde von Microsoft mit etwa 300 Test-Usern.
Florian selbst hat Copilot nicht getestet, aber das Feedback zeigt: "Es funktioniert noch nicht so, wie man es sich vielleicht wünschen würde." Gleichzeitig sieht er die grundsätzliche Idee von Microsoft als richtig an: "Eigentlich muss Gen AI eben dahin, wo die Prozesse sind, wo die Daten sind." Microsoft wird über die Zeit sicherlich aufholen, wie es bereits bei Teams geschah, das anfangs ebenfalls problematisch war, sich aber kontinuierlich verbesserte.
Der große Vorteil der Eigenentwicklung ist die Kontrolle über Usability und Features. "Das wirklich auf die Anwender und Anwenderinnen wirklich zuschneiden zu können", nennt Florian als Kernvorteil. Features wie der Prompt-Marktplatz oder die spezifische Integration mit Otto-Group-Systemen wären mit Standardlösungen schwer umzusetzen.
Für Unternehmen, die nicht die Ressourcen der Otto Group haben, empfiehlt Florian jedoch einen pragmatischen Ansatz: "Wenn man jetzt deutlich weniger hat, glaube ich, ist sicher auf dem Markt umzuschauen und nach einer fertigen Lösung zu gucken, zu schauen, was auf die eigenen Anforderungen passt, absolut eine Option." Ab einer Größenordnung von 26.000 potenziellen Nutzern kann eine Eigenentwicklung auch wirtschaftlich sinnvoll sein.
Ein weiterer strategischer Vorteil: Die Möglichkeit, verschiedene Sprachmodelle zu integrieren. "Wir wollen uns nicht auf einen Anbieter verlassen, weil das Ganze eben noch relativ dynamisch ist", erklärt Florian. Diese Flexibilität erlaubt es, stets das für den jeweiligen Use Case am besten geeignete Modell zu nutzen und auf Marktentwicklungen schnell zu reagieren.
Spezialisierte Assistenten statt Alleskönner
Eine interessante strategische Entscheidung der Otto Group ist der Fokus auf spezialisierte Co-Pilots statt eines universellen Alleskönners. "Ich glaube, das ist auch so ein bisschen Erwartungsmanagement", erklärt Florian. Wenn ein Tool potenziell alles kann, erwarten Nutzer auch, dass es alles kann – und sind schnell enttäuscht, wenn dem nicht so ist.
Kleinere, auf spezifische Aufgaben zugeschnittene Assistenten setzen realistischere Erwartungen: "Wenn man den Scope ein bisschen kleiner schneidet und sagt, du hast hier einen Assistenten, der dich zu Schulungen berät, und hier hast du einen, der die Bonprix Brand Language versteht, dann ist da glaube ich das Erfolgserlebnis näher."
Dieser Ansatz unterscheidet sich fundamental von der Microsoft-Copilot-Strategie, die eher auf einen universellen Assistenten setzt, der in alle Office-Anwendungen integriert ist. Die Otto-Group-Philosophie lautet: Lieber kleine Co-Pilots, die einen relativ kleinen Funktionsumfang haben, "aber den dann auch beherrschen, oder dass es auch tatsächlich gut funktioniert."
Ich glaube nicht, dass es Modelle geben wird, die nur faktisch richtige Antworten geben. Und ich finde das eigentlich auch gar nicht schlimm. Viel wichtiger als zu hoffen auf technische Lösungen, die Halluzinationen ausschließen, ist es eigentlich, die Prozesse so zu bauen, dass es trotzdem funktioniert.
Kernaussagen
- Frühe Adoption als strategischer Imperativ: Generative AI und KI-Assistenten sind keine vorübergehende Erscheinung. Je früher Unternehmen sich damit auseinandersetzen, desto besser – der Kompetenzaufbau ist wichtiger als sofortige ROI-Messung.
- Use Cases kommen von selbst: Die wertvollsten Anwendungsfälle entstehen nicht durch strategische Top-down-Analyse, sondern durch Mitarbeitende, die nach einer Phase des Experimentierens eigene Ideen zur Prozessautomatisierung entwickeln.
- Prozesse vor Perfektion: Statt auf Modelle zu hoffen, die keine Halluzinationen produzieren, sollten Unternehmen ihre Prozesse so gestalten, dass sie mit imperfekten Outputs umgehen können.
- Nicht-technische KI-Experten als Multiplikatoren: Durch Schulungen und Communities entstehen KI-Experten in Fachabteilungen, die verstanden haben, wie die Technologie Nutzen stiftet – und die ihr Wissen organisch weitergeben.
- Spezialisierung schlägt Universalität: Kleinere, auf spezifische Aufgaben zugeschnittene Co-Pilots setzen realistischere Erwartungen und liefern schnellere Erfolgserlebnisse als ein Alleskönner-Tool.
Fazit und Takeaways
Für Entscheider: Der strategische Wert früher Adoption
Die Erfahrungen der Otto Group zeigen deutlich: Die Investition in unternehmensweite KI-Assistenten zahlt sich nicht nur durch direkte Zeitersparnis aus, sondern vor allem durch den strategischen Kompetenzaufbau. Unternehmen, die heute beginnen, ihre Mitarbeitenden AI-literate zu machen, schaffen die Grundlage, um auf zukünftige Entwicklungen schnell und flexibel zu reagieren.
- Kompetenzaufbau ist wichtiger als ROI-Optimierung: Der langfristige Wert liegt nicht in messbaren Zeitersparnissen, sondern in der Fähigkeit der Organisation, KI-Potenziale selbstständig zu identifizieren und umzusetzen
- Bottom-up schlägt Top-down: Die wertvollsten Use Cases entstehen nicht durch strategische Analyse, sondern durch Mitarbeitende, die die Technologie in ihrem Arbeitsalltag erleben
- Anbieterunabhängigkeit als strategischer Vorteil: Die Möglichkeit, verschiedene Modelle zu integrieren, schützt vor Vendor Lock-in und ermöglicht optimale Tool-Auswahl für jeden Use Case
- Investition in Adoption ist kritisch: Technologie bereitzustellen reicht nicht – dedizierte Teams für Schulung, Support und Community-Building sind erfolgsentscheidend
Für technische Teams: Architektur und Implementierung
Die technische Umsetzung erfordert nicht zwingend große Teams, aber die richtigen Skills und strategische Entscheidungen über Eigenentwicklung versus Standardlösungen.
- Eigenentwicklung lohnt ab bestimmter Größe: Bei mehreren tausend Nutzern kann eine maßgeschneiderte Lösung wirtschaftlich und strategisch sinnvoller sein als Standardprodukte
- Fullstack-Kompetenz plus AI-Expertise: Ein kleines Team von circa sechs Personen mit App-Entwicklung, Frontend/Backend und AI-Kenntnissen kann eine leistungsfähige Plattform betreiben
- Iterative Entwicklung basierend auf Nutzerfeedback: Features wie der Übergang von Projekten/Modellen zu Custom GPTs zeigen, dass Usability-Learnings kontinuierliche Anpassungen erfordern
- Function Calling als Extensibility-Layer: Die Integration verschiedener Tools und Datenquellen über Function Calling ermöglicht flexible Erweiterung ohne Kernarchitektur-Änderungen
Für Mitarbeitende: Der neue Skill "Prompting"
Die Fähigkeit, effektiv mit KI-Assistenten zu kommunizieren, wird zur Kernkompetenz. Die Otto Group zeigt, wie diese Fähigkeit systematisch aufgebaut werden kann.
- Prompting ist eine erlernbare Fähigkeit: Halbtages-Workshops und kurze Sessions reichen, um die Grundlagen zu vermitteln und den Einstieg zu ermöglichen
- Community-Learning beschleunigt Kompetenzerwerb: Der Austausch mit anderen Nutzern über Prompt-Marktplätze und interne Communities ist oft effektiver als formale Schulungen
- Experimentieren ist erlaubt und erwünscht: Die Phase des Ausprobierens ist notwendig, um die Stärken und Grenzen der Technologie zu verstehen
- Spezialisierung auf eigenen Bereich: Man muss kein KI-Experte im technischen Sinne werden, sondern verstehen, wie KI im eigenen Arbeitsbereich Nutzen stiftet
Ausblick: Die Integration-Phase beginnt
Florians Zukunftsvision ist klar: "Aus meiner Sicht ist der wichtigste Punkt, AI und Gen-AI muss eigentlich in die Prozesse rein." Die nächste Phase geht über isolierte Tools hinaus hin zur Integration in bestehende Workflows und Systeme.
Die Otto Group steht exemplarisch für eine neue Generation von Unternehmen, die generative KI nicht als experimentelles Add-on betrachten, sondern als fundamentale Technologie, die Arbeitsweisen grundlegend verändern wird. Die Investition in die frühzeitige Adoption, den systematischen Kompetenzaufbau und die technische Infrastruktur schafft einen nachhaltigen Wettbewerbsvorteil in einer zunehmend AI-getriebenen Wirtschaft.
Zum Gast: Florian Leuerer



