Unser Ziel: halluzinationsfreie KI in komplexen Wissensumfeldern – bei 100.000 Dokumenten, nicht nur zehn Demo-PDFs. Denn der Unterschied zwischen einer guten Demo und einem produktiven System, das wirklich funktioniert, liegt genau da.
Sushel Bijganath
CEO & Co-Founder
Octonomy
Sushel Bijganath

#83Wie KI in Enterprise-Umgebungen komplexe Wissensfragen beantwortet (ohne zu halluzinieren)

Anhören
0:00
0:00

Intro

In dieser Episode ist Sushel Bijganath zu Gast — CEO & Co-Founder von Octonomy. Im Gespräch geht es um eines der größten ungelösten Probleme in Enterprise AI: Halluzinationen. Sushel erklärt, warum klassische RAG-Chatbots in komplexen Wissensumfeldern (10.000+ Dokumente, technische Zeichnungen, Tabellen, Querverweise) schnell an Grenzen stoßen — und wie Octonomy Informationen so vorverarbeitet und verdichtet, dass LLMs deutlich zuverlässiger antworten können. Außerdem sprechen Felix und Sushel über Buy-vs-Build, typische Muster erfolgreicher KI-Einführungen und warum der US-Markt nicht „weiter“ ist, sondern nur früher gelernt hat, was in der Praxis nicht funktioniert.


Inhaltsübersicht

  • Warum Halluzinationen der zentrale Blocker für produktionsreife KI in Enterprise-Umgebungen sind
  • RAG in der Demo vs. RAG in der Realität: was bei 10.000–100.000 Dokumenten passiert
  • Octonomy-Ansatz: Dokumente „wie das menschliche Auge“ verstehen und Kontext radikal reduzieren
  • Automatisierung im (technischen) Support: typische Quoten, Messgrößen und Hebel
  • KI-Transformation in Unternehmen: Team, IT, Wissen, Integrationen und kontinuierliches Optimieren nach Go-live
  • DACH vs. USA: unterschiedliche Erfahrungsstände und warum viele US-Teams früher „auf die Nase gefallen“ sind
  • AI-native Organisation: wie Octonomy intern KI/Agenten nutzt und welche Profile sie einstellen

Über den Gast

Sushel Bijganath ist CEO & Co-Founder von Octonomy. Octonomy baut KI-Systeme für komplexe Wissensumfelder, um Antworten in produktiven Prozessen möglichst zuverlässig und halluzinationsarm zu machen — insbesondere dort, wo klassische Ansätze in großen Dokumentbeständen stark an Genauigkeit verlieren.


Detaillierte Zusammenfassung

Warum RAG in komplexen Wissensumfeldern scheitert

Sushel beschreibt, dass RAG-Chatbots in Demos oft gut funktionieren, die Antwortqualität aber bei großen, heterogenen Wissensbeständen stark abfällt. Sobald Unternehmen nicht mit 10 Dokumenten, sondern mit 10.000–100.000 Dokumenten arbeiten (inkl. Tabellen, Zeichnungen, Manuals und Querverweisen), entstehen falsche oder unvollständige Antworten — und genau das verhindert, dass KI echte Geschäftsprozesse zuverlässig automatisiert.

Der Hebel: Kontext radikal reduzieren

Ein zentraler Punkt: Nicht „mehr Kontext“ ins Modell schieben, sondern möglichst wenig — aber genau den richtigen. Sushel erklärt, dass Halluzinationen deutlich seltener werden, wenn ein System die relevanten Inhalte so präzise auswählt und vorbereitet, dass das LLM nur wenige, wirklich passende Seiten/Abschnitte sieht. Die eigentliche IP liegt damit weniger im LLM selbst, sondern in den Schritten davor und danach.

Produktionsreife KI ist ein System — nicht nur ein Chat-Interface

Damit KI in Unternehmen wirklich funktioniert, reicht eine Chat-Oberfläche nicht aus. Es braucht saubere Prozesse für Wissenszugang, Preprocessing, ggf. Systemintegrationen sowie einen Betrieb, der nach Go-live weiter optimiert: Konversationen auswerten, Cluster erkennen (wo fehlt Wissen?), zusätzliche Artikel/Antworten ableiten und gezielt Integrationen nachziehen, um die Automatisierungsquote datengetrieben zu erhöhen.

Automatisierung im Support & was erfolgreiche Teams anders machen

Sushel berichtet von Automatisierungsquoten, die je nach Use Case variieren (oft eher ein Spektrum als ein fester Wert). Entscheidend ist, dass Unternehmen Zeit/Ownership im Fachbereich haben, die IT früh einbinden und das Team mitnehmen. Wichtig ist auch das Erwartungsmanagement: Go-live ist nicht „fertig“, sondern der Start eines kontinuierlichen Verbesserungsprozesses.

DACH vs. USA: nicht weiter, sondern früher gelernt

Im US-Markt sieht Sushel weniger „magische Reife“, aber häufig mehr praktische Erfahrung — inklusive Fehlschläge. Viele Teams seien früher gestartet und dadurch früher an den Grenzen klassischer Ansätze (v.a. Antwortqualität) gescheitert. Für Octonomy ist das hilfreich, weil die Problemwahrnehmung bereits da ist.


Kernaussagen

  • Halluzinationen sind oft der Hauptgrund, warum KI-Piloten nicht in produktive Prozesse skalieren.
  • In großen, heterogenen Wissensbeständen fällt klassische RAG-Antwortqualität stark ab.
  • Der Schlüssel ist, Kontext nicht zu maximieren, sondern radikal zu reduzieren und präzise vorzuselektieren.
  • Produktionsreife KI braucht Betrieb: Auswertung, Wissensaufbau, Integrationen und kontinuierliches Optimieren.
  • „USA vs. DACH“ ist weniger Reifegrad als Zeitvorsprung — inklusive früherer Fehlschläge.

Fazit und Takeaways

Die Folge zeigt, dass Enterprise AI nicht am Modell scheitert, sondern an Daten, Kontext, Prozessen und Betrieb. Wer produktionsreife KI will, braucht ein System, das Wissen zuverlässig auffindbar macht, Kontext präzise zuschneidet und nach dem Go-live kontinuierlich aus den echten Nutzerinteraktionen lernt.

Felix Riedl

Erfahre jeden Freitag aus erster Hand, wie Unternehmer und Führungskräfte AI einsetzen.