
#27KI-Roadmaps für Unternehmen: Wie du profitable Use Cases findest und umsetzt
Intro
In dieser Episode des AI FIRST Podcast teilt Tobias Zwingmann, Gründer der Rapyd.ai GmbH und einer der profiliertesten KI-Berater im deutschsprachigen Raum, seine Expertise zur erfolgreichen Implementierung von KI-Projekten in Unternehmen. Mit über 70.000 LinkedIn-Followern und seinem Newsletter "The Augmented Advantage" bekannt, bietet Tobias wertvolle Einblicke in die Realität jenseits des KI-Hypes. Felix und Tobias diskutieren die häufigsten Fehler bei KI-Initiativen, den pragmatischen 10K-Threshold-Ansatz und warum die meisten Unternehmen nicht Google sind – und es auch nicht sein sollten. Eine Episode voller umsetzbarer Strategien für den profitablen Einsatz von KI im Unternehmenskontext.
Inhaltsübersicht
- Die Diskrepanz zwischen KI-Hype und Umsetzungsrealität in Unternehmen
- Warum die meisten KI-Projekte scheitern und wie übertriebene Erwartungshaltungen entstehen
- Der 10K-Threshold-Ansatz: Profitabilität von Anfang an sicherstellen
- Schrittweise KI-Integration am Beispiel eines Callcenters: Von interner Nutzung bis zum Voicebot
- KI-Agenten vs. augmentierte Lösungen: Wo die Technologie heute wirklich steht
- Organisatorische Aspekte: Warum KI kein reines IT-Projekt ist
- Die Bedeutung von Daten für Evaluation und Iteration statt für Training
- Der 20-20-Regel-Ansatz für schnelle Iterationszyklen
- Warum Unternehmen sich nicht an Google orientieren sollten
- Ausblick auf 2025: Effizienz statt Supermodelle
Über den Gast
Tobias Zwingmann ist Gründer und Geschäftsführer der Rapyd.ai GmbH, einer auf KI-Consulting spezialisierten Beratung. Mit über 70.000 Followern auf LinkedIn und seinem Newsletter "The Augmented Advantage" zählt er zu den einflussreichsten Stimmen der deutschen KI-Szene. Tobias verfügt über mehrjährige Erfahrung als Data Scientist bei einer großen Messegesellschaft in Hannover, wo er verschiedene Data-Analytics-Use-Cases im Kundenbereich umsetzte. Im Juli 2022 veröffentlichte er sein Buch "AI Power Business Intelligence" bei O'Reilly – das letzte große Fachbuch, das noch vor dem ChatGPT-Boom erschien. Heute berät er Unternehmen vom Mittelstand bis zum Konzern bei der Identifikation und Implementierung profitabler KI-Anwendungsfälle, mit besonderem Fokus auf Chatbots, generative KI-Lösungen und integrierte Systeme.
Detaillierte Zusammenfassung
Die Realität hinter dem KI-Hype
Während OpenAI, Google, Microsoft, Meta und Anthropic wöchentlich neue Modelle und Tools präsentieren, kommt die Mehrheit der Unternehmen mit KI nicht voran. Tobias beobachtet, dass viele Firmen sich in Datenschutz-Diskussionen verlieren, kein klares Zielbild entwickeln oder ihre hundert identifizierten Use Cases nicht in die Umsetzung bringen. "Der MVP-Friedhof wird immer größer", fasst Felix die Situation zusammen.
Die zentrale Herausforderung liegt im Übergang von der ersten Ideation und dem Prototyping hin zu profitablen Anwendungsfällen. Tobias stellt fest: "Von der ersten Ideation, wirklich in irgendwas hineinzukommen, was noch nicht mal unbedingt transformatorisch ist für ein Unternehmen, aber zumindest irgendwie profitabel – das ist das, wo ich gesehen habe, wo immer mehr Unternehmen jetzt gerade strugglen."
Auf der Technologieebene gab es in den letzten zwölf Monaten keine grundlegenden Überraschungen. Die Reasoning-Modelle brachten Verbesserungen, aber alle aktuellen Modelle haben noch die gleichen Schwachstellen wie ChatGPT 3.5 – insbesondere die Tendenz zur Halluzination. Augmentierte Use Cases, bei denen Menschen im Loop bleiben, sind daher nach wie vor der erfolgversprechendste Ansatz.
Todsünde Nr. 1: Übertriebene Erwartungshaltungen
Die erste große Falle bei KI-Projekten beginnt mit unrealistischen Erwartungen, die oft durch Marketing der Tech-Industrie geschürt werden. Tobias zeigt gerne das Werbevideo von Microsoft Copilot, in dem Fenster durch die Gegend fliegen und auf Zuruf komplette Apps entstehen. "Anspruch und Wirklichkeit klaffen da halt schon irgendwie auseinander", kommentiert er trocken.
Diese übertriebene Erwartungshaltung wird von mehreren Seiten befeuert. Ausgangspunkt sind die großen AI-Labs und die massiven Investitionen dahinter: Die Bewertungen von OpenAI und Anthropic, Microsofts Multi-Milliarden-Investments und die Marktkapitalisierung von NVIDIA schaffen enorme Hoffnungen, die sich durch die gesamte Wirtschaft kaskadieren.
"Die gucken sich gar keine Use Cases an unter ein paar hundert Millionen im Jahr, was da an Profitabilität rauskommt."
Tobias erinnert sich an ein Panel mit einem der Top-3-Consulting-Häuser in Deutschland. Solche Messlatten setzen eine Erwartungshaltung, die für die meisten Unternehmen unrealistisch ist.
Die Lösung liegt darin, einen Schritt zurückzugehen und sich auf die eigenen Kernprobleme zu konzentrieren: "Was sind denn wirklich so in meinem Business eigentlich so die Kernprobleme, die ich gerade sehe?" Geht es um Wachstum oder um Kostenreduktion? Welche kritischen Hebel müssen in den nächsten ein bis fünf Jahren bewegt werden?
Todsünde Nr. 2: KI als reines IT-Projekt behandeln
Ein fataler Fehler entsteht, wenn Business-Leader von KI begeistert sind, das Thema aber dann einfach an den CIO oder Chief Digital Officer delegieren. "KI-Projekte werden häufig dann aus dem Business initiiert. Aber im Gegensatz zu einem klassischen IT-Projekt kann das dann eben nicht wegdelegiert werden", warnt Tobias.
Der fundamentale Unterschied: KI-Projekte haben nicht nur eine hohe IT-Komponente, sondern auch eine starke Daten- und Algorithmus-Komponente. Wenn bereits klassische IT-Projekte hohe Scheiterungsraten haben, potenziert sich dieses Risiko bei KI-Projekten durch die zusätzliche Komplexität.
Am Beispiel eines Customer-Support-Chatbots wird dies deutlich: Man könnte eine fertige Chatbot-Lösung einkaufen, die Wissensdatenbank übergeben und erwarten, dass IT oder der externe Anbieter den Bot aufsetzt. Doch es braucht kontinuierlich Fachexperten, die bewerten, ob die Antworten korrekt und vollständig sind. "In aller Regel sind zumindest die ersten paar Wochen oder die ersten paar Sprints Teammitglieder beider Seiten" – sowohl aus dem Business mit Domain-Wissen als auch Techniker oder KI-Experten – "notwendig."
Unternehmen, die bereits etabliert haben, cross-funktionale Teams schnell aufzusetzen, haben einen klaren Vorteil. Doch für die Mehrheit ist dies noch eine Ausnahmeerscheinung. Häufig braucht jedes Projekt eine klare Abteilungszuordnung – und landet dann in der IT, wo es schwer wieder herauszuholen ist.
Der 10K-Threshold-Ansatz: Profitabilität von Anfang an
Eine der praktischsten Methoden, die Tobias in seiner Beratung einsetzt, ist der 10K-Threshold-Ansatz. Die zentrale Idee: Alle starten mit unterschiedlichen Erwartungen – manche wollen das Geschäftsmodell transformieren, andere sind froh über einen funktionierenden Use Case. Um alle auf eine Linie zu bringen, braucht es eine gemeinsame Messlatte.
Der Threshold definiert, dass jede KI-Initiative mindestens 10.000 Euro Profitabilität erreichen muss. Die entscheidende Frage: Pro was? "Pro Jahr? Pro Quartal? Pro Monat? Pro Tag?" Die Spanne ist enorm: Von einem Projekt, das sich gerade selbst trägt (10.000 Euro/Jahr) bis zu einem ambitionierten Case mit 3,6 Millionen Euro Jahreswirkung (10.000 Euro/Tag).
In der Praxis einigt man sich oft auf 10.000 Euro pro Quartal, manchmal sogar nur pro Jahr. Tobias führt in Workshops ein "Threshold-Poker" durch: Alle Teilnehmer schreiben verdeckt ihren gewünschten Threshold auf, dann werden die Karten aufgedeckt und diskutiert.
Der Ansatz hat mehrere Vorteile: Er holt KI aus der reinen Investment-Perspektive heraus und zwingt zu profitablem Denken von Anfang an. Er führt zu realistischeren Use-Case-Scopes und fördert schnelle, messbare Iterationen. Ambitionierte Unternehmen mit 10.000 Euro/Monat-Zielen schlagen automatisch einen anderen Pfad ein – mit komplexeren, stärker geplanten Projekten, die in kleinere Iterationen heruntergebrochen werden müssen.
Schrittweise Integration: Das Callcenter-Beispiel
Tobias illustriert den Ansatz der schrittweisen KI-Integration anhand eines mittelständischen Callcenter-Betreibers. Der Moonshot: Ein eigener AI-Voicebot, der 24/7 auf eigenen Daten basiert und Kundenanrufe beantwortet. Ein attraktiver, aber riskanter und teurer Einstieg.
Stattdessen entwickelte Tobias eine mehrstufige Roadmap:
- Interner Chatbot — Das Team startet mit einem einfachen Tool zum Transkribieren von Teams-Meetings. Mitarbeiter können dem Bot Fragen zu Meeting-Inhalten stellen. Diese niedrigschwellige Anwendung schafft erste Berührungspunkte mit der Technologie und zeigt, was KI kann und was nicht – ohne externes Risiko.
- Live-Transkription — Die gleiche Plattform wird an die Call-Center-Software angedockt. Während Kundenanrufe laufen, transkribiert der Bot live mit (nach Einwilligung), sodass Agenten auf dem Bildschirm mitlesen können. Dies testet, ob die KI verschiedene Dialekte, gebrochenes Deutsch oder Mehrsprachigkeit versteht – essentiell für einen späteren Voicebot.
- Automatische Antwortvorschläge — Jetzt schlägt die KI nicht nur mit, sondern gibt den Agenten live Antwortvorschläge, um schneller zur Case-Resolution zu kommen. Wenn diese Vorschläge für bestimmte Themen konstant gut sind, zeigt das, wo die KI besonders zuverlässig arbeitet.
- Pilotierung eines Voicebots — Erst wenn klar ist, bei welchen Themenbereichen die KI exzellent funktioniert, wird im Pilotbetrieb ein tatsächlicher Voicebot für diese spezifischen Themen gestartet.
Dieser Ansatz folgt dem Prinzip: "Sehr stark augmentiert, also nicht integriert und nicht automatisiert am Anfang, mit wenig Risiko nach und nach stärker zu skalieren." Skalieren bedeutet hier, Stück für Stück mehr zu automatisieren und zu integrieren.
KI-Agenten: Hype vs. Realität
Das Thema KI-Agenten dominiert aktuell viele Diskussionen. Wöchentlich erscheinen Meldungen, welche Berufsgruppe nun durch autonome Agenten überflüssig wird. Doch Tobias und Felix sehen in der Realität sehr, sehr wenig davon.
"Das Konzept AI Agents an sich ist schon revolutionär, das wird auch sehr gut funktionieren, aber ich glaube nicht in dem Umfang, wie man das jetzt gerade versucht", erklärt Tobias. Die Erwartungen sind häufig überzogen – etwa bei CRM-Agenten, die automatisch alle Daten pflegen sollen.
Wo Agenten heute schon gut funktionieren, sind sehr spezifische, abgegrenzte Aufgaben. Tobias nennt das Beispiel der automatischen Präsentationserstellung: Ein Agent erhält eine Outline und ein Template-Set. Während ein einfaches System für jeden Slide-Typ vordefinierte Prompts braucht, kann ein Agent selbstständig Templates anpassen, Headlines formatieren oder Links einfügen. "Es ist einfach ein bisschen intelligenter, aber nicht so intelligent, dass du dem Agent jetzt sagst 'ey, bau die Präsentation'", präzisiert er.
Ähnlich im Bereich Softwareentwicklung: Agenten können eigenständig neue Files anlegen, bestehende updaten oder umbenennen – für Prototypen und Gaming-Anwendungen funktioniert das erstaunlich gut. Doch für komplexe Produktionsanwendungen geht es eher darum, "in der IDE dir noch mehr ein bisschen Arbeit abzunehmen durch Coding Agents".
Die erfolgversprechendere Strategie bleibt: Augmentierte Lösungen, die menschliche Arbeit unterstützen statt zu ersetzen, mit menschlicher Kontrolle und Freigabe im Prozess.
Die 20-20-Regel: Schnelle Iterationen als Erfolgsfaktor
Tobias schwört auf kurze Iterationszyklen und arbeitet mit der 20-20-Regel: Eine Iteration darf nicht mehr als 20.000 Euro kosten oder 20 Arbeitstage dauern – je nachdem, was für das Unternehmen einfacher zu realisieren ist.
"Wenn du in der Denke drin bist und sozusagen immer guckst, sozusagen monatliche Sprints zu haben und da wirklich immer was abzuliefern, was dich irgendwie... einen Case vielleicht auch sogar fertig ist nach diesem Zeitraum, dann hat man schon mal echt viel gewonnen."
Diese Regel erzwingt fokussierte, schlanke Projekte. Statt Jahre an einem großen Transformationsprojekt zu arbeiten, werden Use Cases so zugeschnitten, dass sie schnell ausgerollt und gemessen werden können. Das ermöglicht kontinuierliches Lernen, frühes Scheitern mit geringen Kosten und die Möglichkeit, schnell zu pivotieren.
Die unterschätzte Rolle von Daten
Ein verbreitetes Missverständnis: "Wir brauchen Daten, um KI zu machen." Das klingt richtig, wird aber häufig falsch interpretiert. Tobias stellt klar: "Du brauchst keine Daten, um deine eigene KI zu trainieren" – dafür gibt es vortrainierte Modelle. "Du brauchst Daten und eine gewisse Datenkompetenz, um deine Iterationen zu überwachen."
Konkret am Chatbot-Beispiel: Wenn ein neues Dokument in die Wissensdatenbank geladen wird, muss sichergestellt werden, dass der Bot alte Fragen weiterhin korrekt beantwortet. Dies erfordert Evaluation – ein reines Datenanalytik-Thema. Die Antworten müssen gespeichert, ausgewertet und in einen Score übersetzt werden. Nur so lässt sich messen, ob ein Update den Bot verbessert oder verschlechtert hat und in welchen Themenbereichen.
Tobias nennt ein konkretes Beispiel aus dem Messe-Bereich: Der Begriff "Services" ist semantisch nah an vielen anderen Begriffen, weil fast alles ein Service ist. Aussteller meinen damit aber sehr spezifisch Strom- und Logistikbestellung. Wenn ein neues Dokument hinzugefügt wird, kann es diese Semantik verwässern. "Das kriegst du eigentlich immer nur mit einem Stakeholder aus dem Business raus, weil am Ende des Tages muss da irgendjemand sagen, hey, diese Antwort war gut oder diese Antwort war nicht gut."
Ein initiales System aufzusetzen ist einfach. Die Herausforderung liegt darin, eine Infrastruktur zu schaffen, die Responses speichert, Metriken berechnet und diese mit spezifischen Releases verknüpft – um bei Bedarf zurückrollen zu können. Das erfordert Datenkompetenz, muss aber nicht sofort ein eigenes Daten-Team bedeuten. Erst wenn der Use Case Traktion zeigt und Kunden ihn nutzen, macht es Sinn, diese Kompetenz gezielt aufzubauen oder einzukaufen.
Organisatorische Einbettung: Kein separates KI-Team nötig
Die Frage nach der organisatorischen Verankerung von KI beschäftigt viele Unternehmen. Tobias' klare Empfehlung für KMUs mit 500 bis 1.000 Mitarbeitern: "Brauchst aus meiner Sicht keine eigene KI-Abteilung."
Sinnvoll ist eine Koordinationsstelle, die Überblick behält, was im Unternehmen passiert – aber nicht in der Erwartung, dass diese Stelle KI für alle löst. Der Fokus liegt auf Befähigung der einzelnen Abteilungen, selbst Use Cases zu identifizieren, und auf Wissenstransfer zwischen Abteilungen.
Tobias warnt vor dem CDO-Effekt: Als vor einigen Jahren Chief Digital Officers oder Chief Data Officers eingeführt wurden, führte dies oft dazu, dass Digitalisierung an diese delegiert und nicht mehr als eigene Verantwortung gesehen wurde. "Endlich haben wir jemanden, der KI für uns macht. Jetzt muss ich das nicht mehr tun" – dieser Fall darf nicht eintreten.
Lieber etwas Chaos am Anfang mit verschiedenen Personen, die erste Berührungspunkte mit KI machen, als eine zentrale Abteilung, die Use Cases entgegennimmt und nicht ins Doing kommt. Wichtig sind klare Guidelines und Rahmenbedingungen von der Unternehmensführung: Welche Tools dürfen eingekauft werden? Welche Plattform nutzen wir? Tobias empfiehlt, zentral eine Plattform bereitzustellen – etwa einen Azure OpenAI Endpoint – und darauf erste Use Cases zu entwickeln, statt parallel fünf verschiedene Modelle hochzufahren.
"Ihr müsst eigentlich erstmal schaffen, in die Anwendung reinzukommen. Es ist immer einfach, über KI zu reden, aber es ist wirklich, du musst es einfach testen, du musst Sachen experimentieren, du musst in kurze Iterationszyklen kommen."
Der größte Fehler: Sich an Google orientieren
Abschließend gibt Tobias einen Rat, der gegen den Mainstream geht: "Ihr seid nicht Google, ich bin nicht Google und wahrscheinlich ist niemand da draußen auch, sonst Google." (Google steht stellvertretend für alle Big-Tech-Unternehmen.)
Viele Unternehmen schauen über den Teich zu den Innovatoren – Google, Amazon, Facebook – und versuchen, deren KI-Strategien zu kopieren. Doch Tobias warnt eindringlich: "Diese Firmen haben auch bis heute selber noch nicht hundertprozentig gut verstanden, wie man diese Technologie überhaupt einsetzt." Ein Blick auf die Fails von Google Generative AI in der Search Engine verdeutlicht das Problem.
Diese Unternehmen sind Technologieanbieter, nicht Lösungsanbieter. Sie haben keine 40 Milliarden Dollar Venture Capital für KI-Experimente, keine 1.000 AI Engineers, um neue Modelle zu trainieren, und Geoffrey Hinton als "Godfather of AI" im Team. "Das ist ein anderes Game, was da einfach gespielt wird."
Stattdessen: "Konzentriert euch auf euch selbst und dann nutzt die Technologie, die da bereitgestellt wird, um damit halt das Beste rauszuholen für euch." Fokus auf echte, existierende Probleme, nicht auf hypothetische Probleme in drei bis fünf Jahren. Der Schmerz sollte aktuell groß sein oder in den nächsten sechs bis zwölf Monaten definitiv kommen.
Ausblick auf 2025: Effizienz statt Supermodelle
Für das laufende Jahr erwartet Tobias keine fundamentalen technologischen Durchbrüche, sondern einen Fokus auf Kosten und Effizienz. Einer der großen Provider – ob Anthropic, OpenAI oder XAI – wird voraussichtlich Federn lassen. Ein nächstes großes Supermodell sieht er nicht kommen.
Stattdessen geht es darum, bestehende Use Cases kostengünstiger und skalierbarer umzusetzen: schnellere Latenz, größere Verlässlichkeit, geringere Ausfallzeiten. Unternehmen, die bereits Use Cases haben und nur darauf warten, dass Modelle günstiger und zuverlässiger werden, werden 2025 einen enormen Vorteil haben.
Abseits vom Business erwartet Tobias den Durchbruch bei Video-KI-Generierung. Thora war mit den ersten Announcements enttäuschend, aber der Space hat noch enormes Potenzial nach oben.
Technisch interessant: Die mögliche Übertragung von Diffusion-Modellen (aus der Bildgenerierung) auf Textmodelle. Statt Token für Token vorherzusagen (was zu Halluzinationen führt), würde ein verrauschter Absatz schrittweise "entrauscht" – ähnlich wie bei der Bildgenerierung ein verrauschtes Bild nach und nach zum finalen Bild wird. Das könnte Halluzinationen reduzieren und Zuverlässigkeit erhöhen, wäre aber deutlich teurer als aktuelle Next-Token-Prediction.
Tobias schließt mit einer Warnung zur Terminologie: "Wenn es eine Sache gibt, die absolut underwhelming ist im Bereich AI, ist es Terminologie." Jeder versteht etwas anderes unter Begriffen wie Agentic AI oder Large Concept Models. Viele angeblich "agentische" Lösungen sind in Wahrheit simple Prompt Chains ohne echte Autonomie. Man muss genau hinschauen, was wirklich dahintersteckt.
Kernaussagen
- Keine Delegation — "KI-Projekte werden häufig dann aus dem Business initiiert. Aber im Gegensatz zu einem klassischen IT-Projekt kann das dann eben nicht wegdelegiert werden." Cross-funktionale Teams, Business-Ownership
- Anwendung vor Theorie — "Ihr müsst eigentlich erstmal schaffen, in die Anwendung reinzukommen. Es ist immer einfach, über KI zu reden, aber es ist wirklich, du musst es einfach testen, du musst Sachen experimentieren, du musst in kurze Iterationszyklen kommen." Testen, Experimentieren, Iterieren
- Erwartungen vs. Realität — "Anspruch und Wirklichkeit klafft da halt schon irgendwie auseinander und damit geht es halt los, mit übertriebener Erwartungshaltung, die halt sehr häufig auch geschürt wird von der Industrie, die darauf ab ist, hier Lösungen zu verkaufen." Realistische Ziele, eigene Probleme
- Nicht Google kopieren — "Ihr seid nicht Google, ich bin nicht Google und wahrscheinlich ist niemand da draußen auch. Diese Firmen haben auch bis heute selber noch nicht hundertprozentig gut verstanden, wie man diese Technologie überhaupt einsetzt." Eigener Fokus, eigene Probleme
- Agenten mit Augenmaß — "Das Konzept AI Agents an sich ist schon revolutionär, das wird auch sehr gut funktionieren, aber ich glaube nicht in dem Umfang, wie man das jetzt gerade versucht." Spezifische Aufgaben, Augmentierung
Fazit und Takeaways
Für Führungskräfte und Entscheider
- Erwartungen kalibrieren: KI ist keine Wundertechnologie. Definiert gemeinsam realistische Ziele mit dem 10K-Threshold-Ansatz (10.000 Euro Profitabilität pro Jahr/Quartal/Monat) als Einstiegshürde.
- Nicht an Big Tech orientieren: Google, Amazon und Co. sind Technologieanbieter, keine Vorbilder für KI-Implementierung. Fokussiert euch auf eure eigenen Probleme und Schmerzen.
- Profitabilität von Anfang an: Verlasst die reine Investment-Perspektive. Selbst kleine Use Cases sollten positiven Deckungsbeitrag bringen, um KI aus der Experimentalphase herauszuholen.
Für Projektverantwortliche und Umsetzer
- 20-20-Regel befolgen: Keine Iteration darf mehr als 20.000 Euro oder 20 Arbeitstage kosten. Monatliche Sprints mit messbaren Ergebnissen schaffen Momentum und minimieren Risiken.
- Schrittweise skalieren: Startet augmentiert (Menschen im Loop), nicht automatisiert. Erst wenn ein Bereich nachweislich gut funktioniert, automatisiert und integriert ihr weiter.
- Cross-funktionale Teams: KI ist kein IT-Projekt. Business-Stakeholder mit Domain-Wissen müssen kontinuierlich in der Entwicklung und Bewertung involviert sein, nicht nur am Anfang.
- Daten für Evaluation, nicht Training: Baut Infrastruktur auf, um KI-Outputs zu speichern, zu bewerten und zu tracken. Das ist wichtiger als eigene Modelle zu trainieren.
Für alle KI-Interessierten
- Augmentieren statt automatisieren: Die erfolgreichsten KI-Lösungen unterstützen Menschen, statt sie zu ersetzen. KI-Agenten funktionieren heute in eng abgegrenzten Aufgaben, nicht als autonome Wunderwaffe.
- Keine separate KI-Abteilung nötig: Besonders im Mittelstand reicht eine Koordinationsstelle zur Befähigung und Wissenstransfer. Vermeidet Delegation nach dem CDO-Muster.
- Terminologie kritisch hinterfragen: "Agentic AI", "Large Concept Models" und andere Buzzwords werden inflationär genutzt. Schaut genau hin, was technisch wirklich dahintersteckt.
Die zentrale Botschaft: "Ihr müsst eigentlich erstmal schaffen, in die Anwendung reinzukommen." Weniger reden, mehr testen, schnell iterieren – und dabei immer mit dem Blick auf echte Probleme und messbare Profitabilität. KI-Integration ist kein Sprint zu einem fernen Moonshot, sondern ein Marathon mit vielen kleinen, erfolgreichen Etappen.
Zum Gast: Tobias Zwingmann



