Wer KI ohne Datenstrategie einführt, baut ein Haus ohne Fundament. Der erste Schritt ist nicht das Modell – sondern die Daten dahinter.
Timo Buck
Head of Data und AI
Teva Pharmaceuticals
Timo Buck

#10Keine KI ohne Datenstrategie: Ein Praxis-Guide für Unternehmen

Anhören
0:00
0:00

Intro

In dieser Episode spricht Felix Schlenther mit Timo Buck, Head of Data und AI bei Teva Pharmaceuticals, dem Unternehmen hinter der bekannten Marke RatioPharm. Timo teilt seine umfassenden Erfahrungen bei der Entwicklung und Implementierung einer unternehmensweiten Datenstrategie und erklärt, warum diese für die erfolgreiche Integration von KI unerlässlich ist. Von der initialen Ist-Analyse über den Aufbau eines Data Lakehouse bis hin zu konkreten Use Cases mit messbarem ROI – Timo liefert einen praxisnahen Blueprint, wie Unternehmen ihre Daten strategisch nutzbar machen können. Dabei wird deutlich: Ohne solide Datengrundlage bleibt das volle Potenzial von KI ungenutzt.


Inhaltsübersicht

  • Definition und Bedeutung einer Datenstrategie als übergeordneter Plan für das Sammeln, Managen und zielgerichtete Einsetzen von Daten
  • Warum die großen Tech-Konzerne wie Google, Amazon und Meta ihre KI-Erfolge auf jahrzehntelanger Datenarbeit aufbauen
  • Die drei Phasen der Datenstrategie-Entwicklung: Ist-Analyse, Priorisierung und Implementierung
  • Erstellung eines Datenkatalogs mit Metadaten und Entwicklung einer Datenlandkarte zur Visualisierung der Datenverteilung
  • Pragmatische Ansätze zur Reifegradbestimmung ohne wissenschaftliche Verkomplizierung
  • Technische Infrastruktur: Vom Data Warehouse über Data Lake zum modernen Data Lakehouse mit Bronze-, Silver- und Gold-Layer
  • Data Governance als Bibliothekssystem: Prozesse, Standards und Rollen für den strukturierten Umgang mit Daten
  • Kulturwandel und Change Management als kritische Erfolgsfaktoren
  • Konkrete Use Cases aus der Pharmaindustrie: Preisvorhersage, Bestellverhalten-Prediction und automatische Nebenwirkungserkennung
  • ROI-Messung und Business-Case-Entwicklung für datengetriebene Initiativen

Detaillierte Zusammenfassung

Was ist eine Datenstrategie und warum ist sie unverzichtbar?

Eine Datenstrategie ist weit mehr als ein IT-Projekt – sie ist ein übergeordneter Plan, der festlegt, wie Unternehmen ihre Daten sammeln, managen und zielgerichtet einsetzen können. Timo macht deutlich: "Ohne solide Datenstrategie ist keine effektive KI-Nutzung möglich." Er vergleicht die Situation mit einem einfachen Beispiel: Je mehr Sprachen man spricht, desto mehr Menschen kann man ansprechen und desto wertvoller wird diese Fähigkeit. Genauso verhält es sich mit Daten – je mehr qualitativ hochwertige Daten ein Unternehmen nutzen kann, desto größer der potenzielle Mehrwert.

Die zehn größten Unternehmen der Welt – Google, Amazon, Meta, Apple und andere – haben eines gemeinsam: Sie haben ihre Hausaufgaben bei den Daten schon vor Jahren und Jahrzehnten gemacht. Ihre KI-Systeme funktionieren so gut, weil sie auf einer soliden Datengrundlage aufbauen. Facebook (Meta) mit WhatsApp und Instagram sammelt riesige Mengen an Nutzerdaten – dieser Datenschatz ist die Basis für ihre erfolgreichen KI-Systeme. Für Unternehmen, die heute mit KI arbeiten wollen, führt kein Weg an einer durchdachten Datenstrategie vorbei.

Phase 1: Ist-Analyse – Den Überblick gewinnen

Der erste Schritt einer Datenstrategie-Entwicklung ist die sogenannte Discovery-Phase. Hier geht es darum, zunächst Transparenz zu schaffen: Welche Daten existieren bereits im Unternehmen? Wo sind sie gespeichert? Wer nutzt sie? Timo beschreibt den systematischen Ansatz: "Niemand kennt sich so gut mit den Daten aus wie die Menschen, die täglich damit arbeiten."

Das zentrale Instrument ist der Datenkatalog – eine umfassende Übersicht aller vorhandenen Daten, angereichert mit Metadaten. Metadaten sind Attribute, die die Daten im Detail beschreiben: Welches Format haben sie? Wann wurden sie zuletzt aktualisiert? Wer ist verantwortlich? Aus welcher Quelle stammen sie? Moderne Technologie kann diesen Prozess unterstützen, aber der menschliche Faktor ist entscheidend.

Der Aufbau des Datenkatalogs erfolgt durch strukturierte Interviews mit den Subject Matter Experts – den Fachbereichs-Experten, die täglich mit den Daten arbeiten. Timo empfiehlt einen pragmatischen Ansatz: Mitarbeiter werden gebeten, im Arbeitsalltag zu beobachten, welche Daten sie nutzen, und diese aufzuschreiben. In den Interviews wird dann systematisch nachgehakt. Bei Teva im Pharma-Kontext bedeutet das beispielsweise: Wenn ein Mitarbeiter mit Verschreibungsdaten arbeitet, welche weiteren verbundenen Daten gibt es? Krankenkassen-Rabattverträge? Arzneimittel-Zulassungen?

Wichtig ist dabei die Priorisierung: Es geht nicht darum, wirklich jedes Datenfeld zu erfassen – beispielsweise den Datensatz, der protokolliert, wann jemand mit seinem Ausweis ein Gebäude betritt. Der Fokus liegt auf Daten mit echtem Business Impact. Eine erste pragmatische Scope-Definition hilft: Statt das gesamte Unternehmen auf einmal anzugehen, startet man mit ausgewählten Business-Einheiten und erweitert iterativ.

Aus dem Datenkatalog entsteht dann die Datenlandkarte – eine Visualisierung, die zeigt, wie Daten über verschiedene Systeme verteilt sind. Typischerweise haben Unternehmen eine heterogene Applikationslandschaft: ein ERP-System für Geschäftsprozesse, ein CRM-System für Kundenbeziehungen, spezialisierte Fachsysteme und möglicherweise zugekaufte Marktdaten. Die Datenlandkarte macht diese Komplexität sichtbar und offenbart auch Ineffizienzen – etwa wenn dieselben Daten in zwei verschiedenen Systemen eingekauft werden.

Reifegradbestimmung: Objektiv bewerten statt Bauchgefühl

Auf Basis des Datenkatalogs und der Datenlandkarte erfolgt die Reifegradbestimmung über ein strukturiertes Modell. Timo beschreibt einen pragmatischen Ansatz, der verschiedene Dimensionen betrachtet:

Datenkonsolidierung: Wie ist das Verhältnis von Applikationen zu Datensätzen? Wenige Applikationen mit vielen Daten sind besser als viele verstreute Systeme mit wenigen Daten – letzteres bedeutet hohen Integrationsaufwand.

Data Governance: Sind für Datensätze klare Verantwortlichkeiten definiert? Im Datenkatalog gibt es eine Spalte "Data Owner" – wenn dort ein Name oder Team steht, ist das positiv. Ein leeres Feld (Missing Value) bedeutet, niemand fühlt sich verantwortlich, was negativ in den Score einfließt.

Analytics-Reifegrad: Wie viele Dashboards und Reports existieren bereits auf den Daten? Werden Daten aktiv genutzt oder liegen sie nur passiv in Systemen?

Dieser objektive Score hilft nicht nur zu verstehen, wo das Unternehmen steht, sondern zeigt auch konkret, wo die größten Hebel für Verbesserungen liegen. Es entsteht ein datenbasiertes Fundament für die strategische Weiterentwicklung.

Phase 2: Priorisierung – Mit dem größten Hebel starten

Nach der Bestandsaufnahme folgt die entscheidende Frage: Wo fange ich an? "Der größte Mehrwert entsteht durch die Verknüpfung verschiedener Datenquellen", erklärt Timo. Daten in isolierten Silos haben oft nur begrenzten Mehrwert – die Magie entsteht durch intelligente Kombination.

Die Priorisierung erfolgt entlang zweier Achsen: Business Impact und Unternehmensstrategie. Ein konkretes Beispiel von Teva Deutschland verdeutlicht das Vorgehen: Die Geschäftsführung hatte Customer Centricity – Kundenzentrierung – als zentrale strategische Priorität definiert. In einer zunehmend digitalisierten und wettbewerbsintensiven Pharmabranche ist der Kunde König geworden. Entsprechend wurden Kundendaten bei der Priorisierung höher gewichtet als etwa Zugangsprotokolle von Gebäuden.

Diese strategische Ausrichtung bedeutet nicht, dass andere Daten unwichtig sind – aber ressourcenorientiert wird dort begonnen, wo der größte Hebel auf die Unternehmensziele besteht. Der iterative Ansatz ermöglicht es, schnell erste Erfolge zu zeigen und dann kontinuierlich zu erweitern.

"Der größte Mehrwert entsteht durch die Verknüpfung verschiedener Datenquellen. Daten in isolierten Silos haben oft nur begrenzten Mehrwert – die Magie entsteht durch intelligente Kombination."

Phase 3: Technische Infrastruktur – Das Data Lakehouse als moderne Lösung

Nach Ist-Analyse und Priorisierung starten parallel mehrere Umsetzungsstränge. Der technische Strang befasst sich mit der Datenarchitektur: Wie bringe ich die priorisierten Daten an einen Ort, wo ich sie effizient nutzen kann?

Timo beschreibt die Entwicklung der Dateninfrastruktur: Seit 40-50 Jahren gibt es Data Warehouses – strukturierte Datenbanken für strukturierte Daten, typischerweise in Tabellenform wie Excel. Vor 20-30 Jahren kam mit Big Data der Data Lake auf: ein Speicherort für alle Arten von Daten – strukturiert, semi-strukturiert und unstrukturiert (Bilder, Videos, Texte). Der Vorteil: Flexibilität. Der Nachteil: Es entsteht schnell ein "Data Swamp" – ein Datensumpf, in dem niemand mehr den Überblick hat.

Die moderne Lösung ist das Data Lakehouse – eine Kombination der Stärken beider Ansätze. Es besteht aus drei Layern:

Bronze Layer: Hier landen zunächst alle Rohdaten in ihrer ursprünglichen Form – strukturiert oder unstrukturiert, es spielt keine Rolle. Dies ist quasi die Eingangshalle des Systems.

Silver Layer: In dieser Schicht werden die Daten strukturiert, angereichert und in Datenqualität gebracht. Über ein semantisches Layer werden Geschäftslogiken angewendet, Datenmodelle entwickelt, Konsistenz hergestellt und domänenspezifisches Wissen integriert. Verschiedene Datenquellen werden über klare IDs gemappt und verknüpft. Die Speicherung erfolgt effizient, oft in der dritten Normalform.

Gold Layer: Dies ist die "Schaufenster"-Ebene mit spezifischen Views für verschiedene Nutzergruppen. Ein Beispiel aus dem Pharmakontext: Ein Mitarbeiter interessiert sich nur für verschreibungspflichtige Produkte in der Schweiz, nicht für frei verkäufliche Medikamente in Deutschland. Er bekommt eine maßgeschneiderte View, die genau diese Daten zeigt – nicht mehr und nicht weniger.

Verschiedene Anbieter wie Databricks, Snowflake oder Microsoft Fabric bieten Data-Lakehouse-Lösungen an. Entscheidend ist: Das Data Lakehouse ermöglicht es, die Daten nicht nur zu speichern, sondern intelligent miteinander zu verknüpfen und zielgruppengerecht bereitzustellen.

Data Governance: Die Bibliothek für Unternehmensdaten

Ein Data Lakehouse ohne klare Regeln wird schnell chaotisch. Hier kommt Data Governance ins Spiel. Timo nutzt einen anschaulichen Vergleich: "Man muss sich das so vorstellen wie eine Bibliothek. Ich habe nicht irgendwie Bücher alle auf einem Haufen, sondern schöne Kategorien, Öffnungszeiten, und nicht jede Person darf jedes Buch einsehen, weil manche Sachen confidential sind."

Data Governance umfasst drei zentrale Säulen:

Prozesse: Wie werden Daten aktualisiert? Wie kann jemand Zugang zu neuen Daten beantragen? Wie werden Datenqualitätsprobleme gemeldet und behoben? Klare Prozesse schaffen Struktur und Verlässlichkeit.

Standards: Welche Namenskonventionen gelten für Datenfelder? Wie werden Datumswerte formatiert? Welche Qualitätskriterien müssen erfüllt sein? Standards verhindern Wildwuchs und fördern Konsistenz.

Rollen und Verantwortlichkeiten: Wer ist Data Owner für welche Datenkategorie? Wer agiert als Data Steward und kümmert sich um die operative Datenpflege? Klare Verantwortlichkeiten sind essentiell – denn wenn sich niemand verantwortlich fühlt, passiert nichts.

Wichtig dabei: Data Governance bedeutet nicht automatisch neue Stellen schaffen. Oft existieren diese Funktionen bereits implizit. Ein BI-Entwickler, der Dashboards pflegt, agiert faktisch bereits als Data Steward – er sorgt dafür, dass Daten regelmäßig aktualisiert werden und eine gewisse Qualität haben. Es geht darum, diese Rollen explizit zu machen, zu kommunizieren und organisatorisch zu verankern.

Rollen und Kompetenzen: Wer macht eigentlich was?

Eine der häufigsten Fragen lautet: Brauche ich jetzt ein eigenes Data Team? Timo differenziert: Es muss nicht zwangsläufig eine zentrale Datenabteilung geben. Ein dezentraler Ansatz kann ebenfalls funktionieren – mit datenaffinen Mitarbeitenden in verschiedenen Fachbereichen, die sich in einer Community of Practice oder einem virtuellen Center of Excellence regelmäßig austauschen.

Entscheidender als Jobtitel ist, dass Menschen vorhanden sind, die datengetrieben denken und die Brücke zwischen Business und IT schlagen können. Die Kombination ist essentiell: Technisches Know-how allein reicht nicht, Domänenwissen ist genauso wichtig.

Ein Beispiel verdeutlicht das: Bei der Datenqualitätsprüfung kann ein IT-Experte technisch überprüfen, ob ein Datenfeld leer ist (Missing Value). Aber ob der vorhandene Wert sinnvoll ist, kann oft nur jemand mit Fachwissen beurteilen. Wenn bei einem Krankenkassen-Rabattvertrag ein Wert steht, der besagt, dass die AOK Krankenkasse bei einem Wettbewerber eingekauft hat – ist das plausibel? Das kann nur jemand beantworten, der den Pharmamarkt versteht.

Deshalb sind Subject Matter Experts aus den Fachbereichen unverzichtbar. Sie bringen das Geschäftswissen ein, verstehen die Prozesse und kennen die Daten aus dem täglichen Gebrauch. Die technisch versierten Kollegen – seien es Data Engineers, BI-Entwickler oder Digital Experts – schaffen die Plattform und die technische Umsetzung. Nur in enger Zusammenarbeit entsteht echter Mehrwert.

Kulturwandel: Mindset kommt vor Skillset

"Change Management ist einer der wichtigsten Erfolgsfaktoren bei der Implementierung einer Datenstrategie", betont Timo. Die beste technische Infrastruktur und die klügste Strategie nützen nichts, wenn die Menschen im Unternehmen nicht mitziehen.

Der Kulturwandel hin zu einer datengetriebenen Organisation – oft als Data Literacy oder Data and AI Literacy bezeichnet – beginnt beim Mindset, nicht beim Skillset. Zunächst müssen Ängste abgebaut und Verständnis geschaffen werden. Viele Mitarbeiter haben noch immer ein Science-Fiction-Bild von KI: Roboter, die durchs Büro laufen und Jobs übernehmen. Die Realität ist deutlich nüchterner: In den meisten Fällen sind es Softwarelösungen und Algorithmen, die Menschen bei ihrer Arbeit unterstützen, ähnlich wie Excel vor 30 Jahren.

Timo beschreibt erfolgreiche Ansätze zur Mobilisierung des Mindsets:

Konkrete Use Cases zeigen: Abstrakte Erklärungen verpuffen. Aber wenn Mitarbeiter sehen, wie eine konkrete Aufgabe – etwa die manuelle Zusammenstellung eines Reports – durch Datenautomatisierung von zwei Stunden auf fünf Minuten reduziert wird, entsteht Begeisterung.

Aufklärung über Möglichkeiten und Grenzen: Was kann Datenarbeit wirklich leisten? Wo sind die Grenzen? Realistische Erwartungen vermeiden Enttäuschungen.

Bottom-up-Einbindung: Die besten Ideen kommen oft von den Menschen, die täglich mit Daten arbeiten. Ihre Perspektive einzubeziehen schafft nicht nur bessere Lösungen, sondern auch Akzeptanz.

Nach dem Mindset folgt das Skillset: Kontinuierliches Upskilling wird immer wichtiger. Ein Controller von heute muss deutlich mehr Datenkompetenz haben als vor zehn Jahren – er wird faktisch zum Data Scientist. In Schulen ist Informatik längst kein optionales Wahlfach mehr, sondern oft Pflicht. Diese Entwicklung setzt sich in Unternehmen fort.

Konkrete Use Cases: Vom Proof of Concept zum Business Impact

Timo teilt mehrere Use Cases aus der Praxis bei Teva, die den Weg von der Datenstrategie zum messbaren Geschäftserfolg zeigen:

Preisvorhersage im Generikamarkt: Einer der ersten selbst entwickelten KI-Use-Cases bei Teva betraf Preisvorhersagen. Im deutschen Generikamarkt dürfen bei bestimmten Arzneimitteln aufgrund der Regulatorik nur die vier günstigsten Anbieter (gemessen am Listenpreis) in Apotheken abgegeben werden. Diese Rangfolge kann sich alle zwei Wochen ändern. Ein Machine-Learning-Modell sagt voraus, welcher Preis optimal ist, um einerseits im Markt zu bleiben, andererseits nicht unnötig Marge zu verschenken. Menschen treffen die finale Entscheidung – das System unterstützt sie mit datenbasierten Empfehlungen.

Eine wichtige Lektion: Der erste Ansatz scheiterte, weil der Fachbereich zu wenig eingebunden war. Das Data-Science-Team entwickelte sechs Monate im Kämmerlein eine Lösung – nur um dann festzustellen, dass wichtige Anforderungen nicht berücksichtigt wurden. Die Erkenntnis: Immer vom Business-Prozess ausgehend entwickeln, nicht von der Technologie.

Kundenbestellverhalten-Prediction: Der erfolgreichste Use Case bei Teva sagt voraus, wann welcher Kunde (typischerweise Apotheken) welches Produkt in welcher Menge bestellen wird. Diese Information hat vielfältigen Nutzen: Kunden können erinnert werden, wenn sie nicht bestellt haben, obwohl ihr Lager zur Neige geht – ein Frühwarnsystem gegen Abwanderung zur Konkurrenz. Die Produktion kann besser geplant werden, um Out-of-Stock-Situationen zu vermeiden. Wenn Wettbewerber nicht lieferfähig sind, kann Teva proaktiv Bestände erhöhen. Dieser Use Case ist mittlerweile nicht nur in Deutschland, sondern auch in der Schweiz, Österreich, England und Spanien live, weitere Länder folgen.

"Change Management ist einer der wichtigsten Erfolgsfaktoren bei der Implementierung einer Datenstrategie. Die beste technische Infrastruktur nützt nichts, wenn die Menschen im Unternehmen nicht mitziehen."

Pharmakovigilanz und Nebenwirkungserkennung: Pharmazeutische Unternehmen sind gesetzlich verpflichtet, alle Nebenwirkungsmeldungen innerhalb von 24 Stunden zu erfassen und zu reporten. Nebenwirkungen können über viele Kanäle gemeldet werden: Amazon-Produktbewertungen, E-Mails, Chat-Nachrichten, Social Media. Ein KI-System erkennt automatisch, ob eine Nachricht eine Nebenwirkung beschreibt, und klassifiziert diese. Der Proof of Concept wurde erfolgreich abgeschlossen – ein Beispiel dafür, wie KI regulatorische Compliance effizienter macht.

Marketing-Optimierung: Weitere Use Cases betreffen die Frage, welche Marketingaktivitäten auf welcher Plattform für welche Zielgruppe am besten funktionieren – klassisches datengetriebenes Marketing.

Lieferfähigkeit und Wettbewerbsanalyse: Durch Datenanalyse können Out-of-Stock-Situationen bei Wettbewerbern frühzeitig erkannt werden, was strategische Vorteile bei der eigenen Produktions- und Lagerplanung ermöglicht.

ROI und Business Case: Wie zahlt sich die Datenstrategie aus?

Die zentrale Frage jeder Investition: Lohnt sich das? Timo ist realistisch: "Eine Datenstrategie rechnet sich vielleicht nicht nach sechs oder zwölf Monaten, die rechnet sich mittel bis langfristig – aber da rechnet sie sich richtig. Da habe ich dann die exponentiellen Wettbewerbsvorteile."

Der Schlüssel liegt in Quick Wins zu Beginn: Durch den Datenkatalog und das Reifegradmodell lassen sich gezielt Low-hanging Fruits identifizieren – Bereiche, wo Daten bereits in guter Qualität vorliegen und mit wenig Aufwand ein KI-Use-Case mit direktem Business Impact umgesetzt werden kann. Diese frühen Erfolge rechtfertigen weitere Investments und öffnen Türen für größere Initiativen.

Wichtig ist eine standardisierte Business-Case-Rechnung: Wie wird der Mehrwert gemessen? Welche Metriken gelten? Dies ermöglicht den Vergleich verschiedener Initiativen und macht den Impact transparent. Timo betont, dass konkrete Zahlen zwar vertraulich sind, aber die Use Cases bei Teva nachweislich deutlich mehr Unternehmensmehrwert generieren, als sie Kosten verursachen.

Der ROI zeigt sich in verschiedenen Dimensionen: Kosteneinsparungen durch Automatisierung, Umsatzsteigerungen durch bessere Kundenbindung und Marktbearbeitung, Risikominimierung durch bessere Compliance, Effizienzgewinne durch schnellere Entscheidungen. Der Hockeystick-Effekt tritt ein, wenn die Datengrundlage steht und darauf aufbauend immer mehr Use Cases schneller und effizienter umgesetzt werden können.

Data Mesh: Der dezentrale Ansatz für Konzerne

Für Großkonzerne mit Hunderttausenden Mitarbeitenden kann ein zentraler Data-Lakehouse-Ansatz an Grenzen stoßen. Hier kommt Data Mesh ins Spiel – ein modernerer, dezentraler Ansatz, den Timo erwähnt.

Die Grundidee: Statt alle Daten zentral zu sammeln, bleiben Daten in verschiedenen Domänen – aber nach einheitlichen Standards. Zentral wird eine Computational Federated Governance definiert: technische Standards, Datenformate, Qualitätskriterien, Schnittstellen. Die Domänen bieten ihre Daten als Data Products an – verpackt, dokumentiert, qualitätsgesichert.

Der Vorteil: Höhere Flexibilität und schnellerer Speed to Value in den einzelnen Bereichen. Der Nachteil: Es erfordert eine hohe organisatorische Reife und funktioniert nur, wenn die Standards konsequent eingehalten werden. Für die meisten Unternehmen, die am Anfang ihrer Data Journey stehen, empfiehlt Timo den zentraleren Lakehouse-Ansatz: "Kontrolle ist besser als Vertrauen" – zumindest bis die Organisation die nötige Reife erreicht hat.


Kernaussagen

  1. Keine KI ohne Datenstrategie — Ohne solide Datenstrategie ist keine effektive KI-Nutzung möglich. Die zehn größten Unternehmen der Welt haben ihre Hausaufgaben schon vor Jahren und Jahrzehnten gemacht – sie haben eine Datengrundlage geschaffen, um KI-Systeme erfolgreich zu trainieren. Datenstrategie, Datengrundlage, KI-Integration
  2. Datenverknüpfung schafft Mehrwert — Der größte Mehrwert entsteht durch die Verknüpfung verschiedener Datenquellen. Daten in isolierten Silos haben oft nur begrenzten Mehrwert – die Magie entsteht durch intelligente Kombination. Datensilos, Datenintegration, Kombination
  3. Change Management als Erfolgsfaktor — Change Management ist einer der wichtigsten Erfolgsfaktoren bei der Implementierung einer Datenstrategie. Die beste technische Infrastruktur nützt nichts, wenn die Menschen im Unternehmen nicht mitziehen. Kulturwandel, Data Literacy, Mindset
  4. Subject Matter Experts sind unverzichtbar — Niemand kennt sich so gut mit den Daten aus wie die Menschen, die täglich damit arbeiten. Subject Matter Experts aus den Fachbereichen bringen das Geschäftswissen ein, das rein technische Experten nicht haben können. Domänenwissen, Fachbereichs-Expertise, Zusammenarbeit
  5. Langfristiger ROI mit exponentiellem Effekt — Eine Datenstrategie rechnet sich vielleicht nicht nach sechs oder zwölf Monaten, die rechnet sich mittel bis langfristig – aber da rechnet sie sich richtig. Da habe ich dann die exponentiellen Wettbewerbsvorteile, wenn ich das Thema richtig angehe. ROI, Quick Wins, Hockeystick-Effekt

Fazit und Takeaways

Für Unternehmen am Anfang ihrer Data Journey

  • Pragmatischer Start statt Perfect Planning: Beginnen Sie mit einem überschaubaren Scope – ausgewählte Business-Einheiten oder Fachbereiche – statt das gesamte Unternehmen auf einmal anzugehen. Schnelle erste Erfolge schaffen Momentum.
  • Datenkatalog als Fundament: Investieren Sie Zeit in einen strukturierten Datenkatalog mit Metadaten. Nutzen Sie Interviews mit Subject Matter Experts, um wirklich alle geschäftsrelevanten Daten zu erfassen.
  • Reifegradbestimmung mit einfachen Mitteln: Sie brauchen keine komplexen wissenschaftlichen Modelle. Pragmatische Metriken – Verhältnis Applikationen zu Datensätzen, Vorhandensein von Data Ownern, Anzahl aktiver Dashboards – liefern schnell wertvolle Einblicke.
  • Priorisierung nach Business Impact: Nicht alle Daten sind gleich wichtig. Fokussieren Sie auf Daten, die den größten Hebel auf Ihre Unternehmensstrategie haben – etwa Kundendaten bei Customer-Centricity-Fokus.
  • Buy-in vom Top-Management: Ohne klares Commitment und hohe Priorisierung von der Geschäftsführung wird eine Datenstrategie nicht erfolgreich. Die Botschaft muss sein: Daten sind strategisch wichtig für unser Unternehmen.

Für die technische Umsetzung

  • Data Lakehouse als State of the Art: Kombinieren Sie die Flexibilität eines Data Lakes (alle Datenformate) mit der Struktur eines Data Warehouses. Bronze-, Silver- und Gold-Layer schaffen eine saubere Architektur von Rohdaten über strukturierte Datenmodelle bis zu nutzergruppen-spezifischen Views.
  • Data Governance von Anfang an: Etablieren Sie klare Prozesse, Standards und Rollen, bevor Chaos entsteht. Data Owner und Data Stewards sind keine Luxus-Rollen, sondern essentiell für nachhaltige Datenqualität.
  • Integration vor Perfektion: Starten Sie mit der Integration priorisierter Datenquellen, statt auf die perfekte Gesamtlösung zu warten. Iteratives Vorgehen ermöglicht kontinuierliches Lernen und Anpassen.

Für Rollen und Kompetenzen

  • Bestehende Mitarbeiter einbinden: Sie brauchen nicht zwangsläufig neue Stellen. Oft erfüllen BI-Entwickler oder Business-Analysten bereits Stewardship-Funktionen – machen Sie diese Rollen explizit und kommunizieren Sie sie klar.
  • Kombination aus Technik und Business: Erfolgreiche Datenarbeit entsteht nur durch enge Zusammenarbeit zwischen technisch versierten Mitarbeitenden und Subject Matter Experts mit Domänenwissen. Keine Seite kann es allein.
  • Kontinuierliches Upskilling: Datenkompetenz wird zur Basisfähigkeit. Investieren Sie in Data Literacy Programme – Mindset kommt vor Skillset, aber beides ist wichtig.

Für Kulturwandel und Change Management

  • Ängste durch konkrete Beispiele abbauen: Zeigen Sie Use Cases aus dem eigenen Unternehmenskontext, bei denen Daten und KI Menschen bei ihrer Arbeit unterstützen, nicht ersetzen.
  • Bottom-up-Ansatz fördern: Die besten Ideen für Use Cases kommen oft von den Menschen, die täglich mit Daten arbeiten. Ihre Perspektive einzubeziehen schafft bessere Lösungen und Akzeptanz.

Zum Gast

Timo Buck ist Head of Data und AI bei Teva Pharmaceuticals, einem der weltweit führenden Pharmaunternehmen, das in Deutschland vor allem durch die Marke RatioPharm bekannt ist. Timo hat bei Teva das Thema Data Science und AI von Grund auf vorangetrieben und einen Blueprint für eine unternehmensweite Datenstrategie entwickelt, der mittlerweile über mehrere Länder ausgerollt wurde. Mit seiner Expertise in der Verbindung von technischer Infrastruktur, Data Governance und Change Management hat er konkrete Use Cases mit messbarem Business Impact implementiert – vom Bestellverhalten-Prediction bis zur KI-gestützten Nebenwirkungserkennung. Seine pragmatische Herangehensweise zeigt, wie Unternehmen die Grundlage für erfolgreiche KI-Integration schaffen können.


Zum Gast: Timo Buck

Felix Riedl

Erfahre jeden Freitag aus erster Hand, wie Unternehmer und Führungskräfte AI einsetzen.