
#28Das AI Adoption Playbook: Einblicke aus über 550 Kunden von Langdock
Intro
In dieser Episode spricht Felix Schlenther mit Lennard Schmidt, Mitgründer und CEO von Langdock, über die erfolgreiche Implementierung von KI in Unternehmen. Basierend auf Erfahrungen mit über 70 aktiven Unternehmenskunden – darunter DAX-Konzerne wie Merck, Scale-ups wie GetYourGuide und Medienunternehmen wie der Spiegel – teilt Lennard konkrete Einblicke in Best Practices der KI-Adoption. Das Gespräch zeigt: Der Schlüssel zum Erfolg liegt nicht in theoretischen Use-Case-Workshops, sondern in der praktischen Befähigung der Mitarbeitenden. Lennard erläutert, warum KI-Adoption primär ein Change-Management-Thema ist, welche messbaren Produktivitätsgewinne bereits heute möglich sind und wie die Zukunft mit KI-gesteuerten Workflows aussieht.
Inhaltsübersicht
- Vorstellung von Langdock als Plattform für zentralisierten und sicheren Zugang zu Sprachmodellen mit über 450 Kunden
- Aktueller Stand der KI-Nutzung in deutschen Unternehmen: hohe Präsenz, aber geringe produktive Nutzung
- Empfohlener hybrider Ansatz aus Top-Down-Mandat und Bottom-Up-Adoption durch Mitarbeitende
- Die Rolle von Power-Usern als interne Multiplikatoren und Champions
- Strukturelle und menschliche Herausforderungen bei der KI-Implementierung
- Drei Kategorien von Use Cases: Ad-hoc-Aufgaben, wiederkehrende generische Aufgaben und domainspezifische Prozesse
- Messbare Produktivitätsgewinne von durchschnittlich drei Stunden pro Woche pro Nutzer
- Change-Management-Strategien und konkrete Aktivierungsmaßnahmen
- Entwicklung von Chat-Assistenten zu automatisierten Workflows und Agents
- Ausblick auf die nächsten zwölf Monate: Reasoning-Fähigkeiten und Tool-Integration
Über den Gast
Lennard Schmidt ist Mitgründer und CEO von Langdock, einem vor anderthalb Jahren gegründeten Unternehmen, das eine Plattform für zentralisierten und sicheren Zugang zu Sprachmodellen anbietet. Mit über 450 Kunden, darunter mehr als 70 Unternehmen mit ernsthafter AI-Adoption-Strategie, unterstützt Langdock Organisationen von DAX-Konzernen bis zu Scale-ups bei der produktiven Nutzung generativer KI. Lennard bringt tiefe Einblicke in die praktischen Herausforderungen und Erfolgsfaktoren der KI-Implementierung mit und nutzt selbst intensiv KI für Datenanalysen, Code-Refactoring und Prozessoptimierung in seinem Unternehmen.
Detaillierte Zusammenfassung
Langdock und die persönliche KI-Nutzung
Langdock startete Mitte 2023 mit der Ambition, Unternehmen bei der KI-Adoption zu unterstützen. Die Plattform adressiert die damals präsente Dualität aus Begeisterung für die Möglichkeiten von KI und Angst vor den Implikationen für Daten, Jobs und Veränderungen. Zu den Kunden zählen der DAX-Konzern Merck aus Darmstadt, der Spiegel Verlag aus Hamburg sowie zahlreiche Scale-ups wie Personio, GetYourGuide, Bubbel, Forto und SumUp.
Lennard nutzt KI intensiv für Analysen, die früher eine halbe bis ganze Stunde benötigten und jetzt in Minuten erledigt sind. Er hat Assistenten konfiguriert, die SQL-Queries gegen Datenbankschemas generieren. Bei einem kürzlichen Code-Refactoring mussten über 2.000 Dateien angepasst werden – eine Aufgabe, die vor GenAI einen halben bis ganzen Tag gekostet hätte, jetzt aber in 15-20 Minuten erledigt war.
Diese kleinen Sachen werden über Zeit und mit der Vielzahl einfach sehr, sehr groß in der Summe und in der Menge.
Das Team nutzt Assistenten auch für kommerzielle Aufgaben: Ein Assistent mit hinterlegter Wissensbasis beantwortet RFP-Dokumente und Kundenfragen. Ein anderer durchsucht die Kundenbasis nach Referenzkunden in spezifischen Branchen oder Regionen. Diese Anwendungen werden mit Blick auf Skalierung entwickelt – bei 700 statt 70 Kunden wird die Relevanz deutlich größer.
Der aktuelle Stand der KI-Nutzung in Unternehmen
Wir sehen im Prinzip gerade, dass das Thema super präsent ist und dass sich jeder damit beschäftigt, aber was wirklich irgendwie flächendeckend sinnvoll produktiv eingesetzt wird, da sind wir noch sehr weit am Anfang.
Während Umfragen häufig von 80% KI-Nutzung in deutschen Unternehmen sprechen, sieht die Realität anders aus. Diese Zahlen umfassen vermutlich DeepL-Accounts und Spam-Filter, nicht aber ernsthafte generative KI-Nutzung.
Langdock hat einen natürlichen Bias, da sich primär Firmen melden, die bereits Affinität zum Thema haben. Dennoch zeigt sich: Die meisten Unternehmen sind noch in der Phase, das Thema überhaupt einzuordnen. Wo liegt es organisatorisch? Wer ist verantwortlich? Wie geht man mit Datenschutz und rechtlichen Fragen um? Die wenigsten arbeiten bereits produktiv mit Assistenten, Agents oder KI-gesteuerten Workflows.
Lennard betont: "Innovation is tech-driven, but change is people-driven." Der technologische Fortschritt ist rasant, aber die Veränderung in Organisationen braucht Zeit. Menschen sind schlecht darin, sowohl kurzfristige als auch langfristige Effekte einzupreisen. Nach dem Launch von ChatGPT existierte die Angst, dass in einem halben Jahr niemand mehr arbeiten muss – die Realität zeigt, dass wir erst am Anfang verstehen, was mit dieser Technologie möglich wird.
Top-Down-Mandat und Bottom-Up-Adoption
Langdock empfiehlt einen hybriden Ansatz: Ein Top-Down-Mandat ist notwendig, damit das Thema KI in der Organisation als wichtig wahrgenommen wird. Normalerweise gibt es auf Vorstandsebene jemanden, der das Thema sponsert – spätestens nach eigenen Erfahrungen mit ChatGPT, etwa beim Helfen mit Hausaufgaben der Kinder. Die operative Verantwortung liegt meist beim CTO, Chief Data Officer oder im Transformation Team. Bei kleineren Unternehmen übernimmt oft eine Chief of Staff oder Founders Associate Person diese Rolle.
Entscheidend ist jedoch die Bottom-Up-Komponente: Wenn Unternehmen zentralisierten, sicheren Zugang zu KI-Tools geben, holen sie die Nutzung aus der Shadow-IT. Mitarbeitende nutzen ohnehin ChatGPT – besser, sie tun es in einer kontrollierten, datenschutzkonformen Umgebung. Dadurch entstehen schnell Power-User, die bereits intensive Erfahrungen mit KI gemacht haben und diese nun legal teilen dürfen.
Eine der effektivsten Methoden, um sinnvolles Onboarding zu machen, ist eigentlich, diese Nutzenden, die schon super am Start sind, eine Bühne zu geben, ihren Kolleginnen und Kollegen zu zeigen, wie sie AI eigentlich gerade schon nutzen.
Use Cases versus Use: Praxis schlägt Theorie
Ein Vorstand einer Firma mit über 20.000 Mitarbeitenden formulierte es treffend: "Use Case, fokussiere dich auf das Use, die Cases kommen von allein." Theoretische Whiteboard-Sessions zur Use-Case-Identifikation führen oft zu enttäuschenden Ergebnissen. Teams ohne praktische KI-Erfahrung überschätzen, was bereits möglich ist, und unterschätzen die Komplexität der Umsetzung. Ein Customer-Support-Automation-Projekt klingt auf dem Papier einfach, ist in der Realität aber um ein Vielfaches komplexer.
Wenn dagegen hunderte Mitarbeitende täglich mit KI arbeiten, entstehen organisch Use Cases aus dem realen Arbeitsalltag. Diese lassen sich niedrigschwellig umsetzen und standardisieren. Der Return on Investment ergibt sich dann von selbst – ähnlich wie bei Excel vor 30-40 Jahren. Niemand hätte in theoretischen Strategieprojekten die Bandbreite von Excel-Anwendungen vorhersagen können: von Einkaufslisten bis zu komplexen Finanzmodellen.
Bei Langdock-Kunden wächst die Nutzung kontinuierlich. Mehr Seats werden aktiviert, mehr Mitarbeitende nutzen die Plattform aktiv. Die Diskussion über ROI kommt später, wenn die Frage lautet: Wie können wir noch mehr machen? Wie integrieren wir KI tiefer in unsere Prozesse?
Strukturelle und menschliche Herausforderungen
Die Hürden bei der KI-Adoption sind zweigeteilt: strukturell und menschlich. Strukturell stellt sich die Frage: Wie ordnet man das Thema ein? Welche bestehende Infrastruktur existiert? Nutzt man bereits Cloud-Dienste, auf denen man aufbauen kann? Cloud-Affinität ist ein wichtiger Indikator, denn KI-Modelle sind letztlich ausgelagerter Compute mit entsprechenden Vertragswerken – ähnlich wie andere Cloud-Services, nur mit höheren Betriebskosten.
Rechtliche und datenschutzrechtliche Fragen müssen geklärt werden. Die EU AI Act kommt, ist aber noch schwammiger als die DSGVO, die sehr klare Anforderungen definiert. Unternehmen müssen verstehen, welche Compliance-Anforderungen gelten und wie sie diese erfüllen.
Die menschliche Komponente ist mindestens ebenso wichtig. Ein reines Top-Down-Mandat à la "Wir automatisieren jetzt diese Arbeitsbereiche" ist disruptiv und führt zu Widerstand. Ein organischerer Weg über Change Management funktioniert besser: KI als neue Fähigkeit zu etablieren, die jeder lernen muss – ähnlich wie Computer-Kompetenz in den 1990ern. Unternehmen stellen Tooling bereit, damit alle mit der Zeit gehen können.
Lennard empfiehlt, proaktiv den Betriebsrat einzubeziehen: "Das ist ein Thema, das wird für uns alle extrem wichtig werden – nicht nur für unsere Unternehmen, sondern auch für unsere Gesellschaft." Mit einer alternden Gesellschaft werden in einigen Jahren deutlich weniger Arbeitnehmende verfügbar sein. Weniger Menschen müssen mehr leisten – und Technologie kann dabei helfen. Eine sinnvolle Weiterbildungsumgebung zu schaffen, ist Teil der Lösung.
Die drei Kategorien von Use Cases
Lennard teilt Use Cases in drei Kategorien ein:
- Ad-hoc-Aufgaben — Einmalige oder unregelmäßige Aufgaben wie Textanalysen, Zusammenfassungen, Übersetzungen oder schnelle Datenauswertungen. Der Nutzer kommt mit einer konkreten Anfrage in den Chat und erhält sofort eine Antwort.
- Wiederkehrende generische Aufgaben — Aufgaben, die regelmäßig anfallen, aber nicht unternehmensspezifisch sind. Beispiele: Formale Übersetzungen von Deutsch nach Englisch, Rechtschreib- und Grammatikprüfung, Anpassung von Schreibstilen. Hier lohnt sich die Investition in einen Assistenten mit einem gut konfigurierten Prompt, der als wiederverwendbares Tool zur Verfügung steht.
- Domainspezifische Aufgaben — Diese sind tief in Arbeitsprozesse integriert. Ein Sales-Assistent beantwortet Sicherheitsfragen potenzieller Kunden basierend auf der Wissensbasis des Unternehmens. Ein anderer sucht Referenzkunden in bestimmten Branchen oder Regionen. Ein dritter hilft bei der Formulierung von Antworten auf typische Einwände (Objections). Solche Assistenten reduzieren Recherchezeiten von vielen Minuten auf wenige Augenblicke.
Messbare Produktivitätsgewinne
Was wir so sehen ist, grob bei Kunden mit über 1.000 Userinnen und Usern bei uns, dass so im Schnitt, glaube ich, Leute angegeben haben, dass sie so ungefähr drei Stunden die Woche sparen.
Diese Zahl basiert auf qualitativem Feedback und betrifft die reine Chat-Nutzung. Lennard ist vorsichtig mit solchen Zahlen, da die Bewertung von Zeitersparnissen schwierig ist.
Als Faustregeln haben sich etabliert:
- Pro Chat-Nachricht: 2-3 Minuten Zeitersparnis
- Pro gut konfiguriertem Assistenten-Einsatz: ca. 10 Minuten Zeitersparnis
Diese Annahmen nutzen Kunden, um hochzurechnen, welchen Wert sie aus der KI-Nutzung ziehen. Noch besser messbar werden Produktivitätsgewinne, wenn KI tiefer in Prozesse integriert wird und end-to-end optimiert, augmentiert oder automatisiert. Das sieht Langdock aktuell noch nicht in nennenswertem Umfang, aber der Trend geht klar in diese Richtung.
Change Management und Aktivierung in der Praxis
Erfolgreiche KI-Rollouts bei Langdock-Kunden folgen einem Muster: Es gab immer zwei Personen. Eine auf Vorstands-/Board-Ebene, die das Thema sponserte oder zumindest unterstützte. Und eine auf operativer Ebene, die das Mandat erhielt und loslegte. Diese Person muss nicht hochgradig technisch sein – wichtiger ist, dass sie für das Thema brennt, selbst nutzt und anderen zeigen kann, was möglich ist.
Diese Person kann intern sein – jemand, der aus einem anderen Bereich kommt, sich aber früh für KI begeistert hat. Oder extern: ein Berater oder Freelancer, der Best Practices aus mehreren Projekten kennt und gezielt mit Unternehmen arbeitet, um Rollouts zu strukturieren, Use-Case-Mappings zu erstellen und interne Champions zu identifizieren.
Konkrete Aktivierungsmaßnahmen umfassen:
- Zentralisierter, sicherer Zugang für alle Desktop-Mitarbeitenden als Grundlage
- Interne Community in Slack, Teams oder einem anderen Tool, in der sich Nutzende austauschen können
- Workshops mit 20-70 Teilnehmenden, die kurzen Input zu Prompting und Assistenten geben, dann aber schnell zu Austausch und Aktivierung übergehen
- Power-User als Vorbilder: Menschen, die bereits intensiv nutzen, zeigen ihren Kolleg:innen ihre konkreten Anwendungsfälle
- Regelmäßige Formate zur Vorstellung neuer Use Cases, Features und Möglichkeiten
Merck ist mit fast 50% monatlich aktiven Desktop-Nutzenden (über 23.000 Menschen) ein Beispiel für erfolgreiche Adoption. GetYourGuide erreicht 40% tägliche Nutzung bei rund 1.000 Mitarbeitenden. Diese Zahlen zeigen: Wenn der Rahmen stimmt, ist das Interesse der Mitarbeitenden enorm – das Thema ist durch mediale Präsenz, Diskussionen in Schulen und Familien bereits im Bewusstsein verankert.
Von Chat-Assistenten zu Workflows und Agents
Langdock startete 2023 mit einem Chat-Produkt, das technisch nicht hochkomplex war, aber genau das Problem löste, das viele Firmen spürten: sicherer, zentralisierter Zugang zu Sprachmodellen. Dieses Produkt ist die Grundlage, auf der alles andere aufbaut. Wer so ein Tool einkauft, hat bereits wichtige Schritte gemacht: Einordnung des Themas, Klärung von Vereinbarungen, Befähigung der Mitarbeitenden.
Der nächste Schritt ist die Integrationsplattform, die Langdock gelauncht hat. Sie unterstützt nativ viele gängige Software-Systeme und ermöglicht es Unternehmen, auch eigene Integrationen zu bauen und nutzbar zu machen. Damit schafft Langdock Zugriff auf interne Daten und Datenquellen – eine Voraussetzung für sinnvolle Prozess-Automatisierung.
Aktuell testet Langdock mit Beta-Nutzern Workflows. Die Idee: Ein Unternehmen braucht einen gut definierten Prozess, einen sinnvollen System Prompt und die passenden Tool-Integrationen. Wenn diese drei Elemente vorhanden sind, kann ein Sprachmodell viele Aufgaben ausführen, die bisher nicht möglich waren. Workflows können über Trigger gestartet werden: eine neue E-Mail, eine neue Zeile in einem Excel-Sheet, ein Eintrag in einer Datenbank.
Damit vollzieht sich der Wechsel von synchroner zu asynchroner Arbeit mit KI. Statt einer Frage-Antwort-Interaktion im Chat laufen Prozesse im Hintergrund ab. Menschen überwachen, ob das gewünschte Ergebnis eintritt, reagieren bei Bedarf – aber müssen nicht mehr aktiv jede einzelne Aktion anstoßen.
Wir sind sehr, sehr klar darin, dass wir am Ende gucken, wie können wir Menschen dabei helfen, ihre Prozesse zu bauen.
In Workflows gibt es immer die Möglichkeit, dass Menschen an definierten Punkten eingreifen, Ergebnisse prüfen oder Freigaben erteilen.
Ein interessantes Beispiel kommt aus Hamburg: Eine Behörde hat 750 "Fachverfahren" – also zu Ende gedachte, gut dokumentierte Prozesse. Solche dokumentierten Prozesse sind ideal für KI-Integration. Viele Unternehmen haben solche Prozesse nur implizit, nicht explizit niedergeschrieben. Die Dokumentation ist der erste Schritt. Dann kann geprüft werden: Welche Teilaspekte oder ganzen Prozesse können an Sprachmodelle ausgelagert werden?
Ausblick: Die nächsten zwölf Monate
Die Entwicklung von Sprachmodellen verläuft entlang mehrerer Vektoren:
- Pre-Training — Wie teuer und groß ist das initiale Training?
- Reasoning — Anpassung existierender Modelle, sodass sie mehr Zeit bekommen, über Aufgaben nachzudenken
- Multimodalität — Welche Input-Formate (Text, Bild, Video, Audio) und Output-Formate sind möglich?
- Tool-Integration — Wie können Modelle mit externen APIs, Datenbanken und Software-Systemen arbeiten?
Das Scaling Law (mehr Daten + mehr Compute = bessere Modelle) lief vor einigen Monaten in Limits. Seitdem gibt es einen starken Fokus auf Reasoning – mehr Zeit in der Inferenz führt zu besseren Ergebnissen. Multimodalität ist weitgehend gelöst. Tool-Integration wird von allen großen Anbietern vorangetrieben.
In den nächsten sechs bis zwölf Monaten erwartet Lennard:
- Verbesserte Reasoning-Fähigkeiten: Modelle verstehen Intent und Instruktionen besser
- Bessere Tool-Nutzung: Modelle werden geschickter darin, die richtigen Tools (Websuche, File-Zugriff, API-Calls) zur Lösung einer Aufgabe auszuwählen
- Von Wissensmaschine zu Denkapparat: Modelle entwickeln sich von Frage-Antwort-Systemen zu Systemen, die Instruktionen erhalten, überlegen, welche Tools sie brauchen, und dann eigenständig Lösungen erarbeiten
Lennard ist besonders gespannt auf die Intersektion von Reasoning und Tools im Unternehmenskontext. Hier sieht er enormes Potenzial für die kommenden Monate.
Kernaussagen
- KI-Präsenz vs. Produktivität — "Wir sehen im Prinzip gerade, dass das Thema super präsent ist und dass sich jeder damit beschäftigt, aber was wirklich irgendwie flächendeckend sinnvoll produktiv eingesetzt wird, da sind wir noch sehr weit am Anfang."
- Technologie vs. Menschen — "Innovation is tech-driven, but change is people-driven."
- Use vor Cases — "Use Case, fokussiere dich auf das Use, die Cases kommen von allein. Wenn du Use hinbekommst und Menschen anfangen zu nutzen, dann kannst du viel sinnvoller und besser verstehen, was geht eigentlich schon, was geht noch nicht."
- Messbare Zeitersparnis — "Was wir so sehen ist, grob bei Kunden mit über 1.000 Userinnen und Usern bei uns, dass so im Schnitt, glaube ich, Leute angegeben haben, dass sie so ungefähr drei Stunden die Woche sparen."
- Interne Champions — "Eine der effektivsten Methoden, um sinnvolles Onboarding zu machen, ist eigentlich, diese Nutzenden, die schon super am Start sind, eine Bühne zu geben, ihren Kolleginnen und Kollegen zu zeigen, wie sie AI eigentlich gerade schon nutzen."
Fazit und Takeaways
Für Entscheider und Führungskräfte
- Top-Down-Mandat ist unverzichtbar: KI muss auf Vorstandsebene als wichtig erkannt und kommuniziert werden, damit das Thema in der Organisation Gewicht bekommt.
- Operative Verantwortung klar zuweisen: Eine Person – intern oder extern – braucht das Mandat und die Ressourcen, um KI-Adoption voranzutreiben.
- Change Management vor Use-Case-Listen: KI-Adoption ist primär ein Change-Thema, kein IT-Projekt. Menschen befähigen und mitnehmen ist wichtiger als theoretische Whiteboard-Sessions.
- Betriebsrat und Interessengruppen frühzeitig einbinden: Proaktive Kommunikation über KI als neue Fähigkeit – nicht als Job-Killer – reduziert Widerstände.
Für KI-Verantwortliche und Transformation Teams
- Sicherer, zentralisierter Zugang als Basis: Holen Sie KI-Nutzung aus der Shadow-IT und geben Sie allen Desktop-Mitarbeitenden Zugang zu einer kontrollierten, datenschutzkonformen Plattform.
- Power-User identifizieren und befähigen: Finden Sie interne Champions, die bereits intensiv mit KI arbeiten, und geben Sie ihnen eine Bühne, um ihr Wissen zu teilen.
- Praxis vor Theorie: Lassen Sie Mitarbeitende experimentieren und lernen Sie aus deren realer Nutzung, statt theoretische Use Cases top-down zu definieren.
- Community und Austausch fördern: Schaffen Sie Räume (Slack, Teams, Workshops), in denen sich Nutzende austauschen, Fragen stellen und voneinander lernen können.
- Integration und Workflows vorbereiten: Schaffen Sie technische Voraussetzungen für Datenintegration und API-Zugriff, um später in Prozess-Automatisierung einsteigen zu können.
Für alle Mitarbeitenden
- Messbare Produktivitätsgewinne sind real: Durchschnittlich drei Stunden Zeitersparnis pro Woche sind bei konsequenter Nutzung realistisch – pro Chat-Nachricht 2-3 Minuten, pro Assistenten-Einsatz ca. 10 Minuten.
- Von Ad-hoc zu Assistenten: Beginnen Sie mit einfachen Chat-Anfragen, identifizieren Sie wiederkehrende Aufgaben und bauen Sie dafür Assistenten mit optimierten Prompts.
- KI als Werkzeug verstehen: Wie Excel vor 30 Jahren entwickelt sich KI von einer Nischentechnologie zu einem universellen Produktivitätswerkzeug – je früher Sie einsteigen, desto größer Ihr Vorsprung.
KI-Adoption ist eine Reise, kein Sprint. Unternehmen, die heute mit sicherem Zugang und Mitarbeitenden-Befähigung beginnen, schaffen die Grundlage für die nächste Welle: automatisierte Workflows und intelligente Agents, die tief in Prozesse integriert sind. Die Technologie entwickelt sich rasant weiter – aber der limitierende Faktor ist nicht die Technologie, sondern die Fähigkeit von Organisationen, Veränderung zu gestalten und Menschen mitzunehmen.
Zum Gast: Lennard Schmidt



