
#15Make AI Fun Again: 6 Learnings für produktive KI-Nutzung im Unternehmen
Intro
In dieser Episode spricht Felix Schlenther mit Aram Azimi, Innovation Manager bei I.K. Hofmann, über seine sechs wichtigsten Learnings bei der unternehmensweiten Einführung von generativer KI in einem mittelständischen Personaldienstleister. Von der ersten ChatGPT-Prompt-Challenge über einen Voice-Bot, der die Bearbeitungszeit von Tagen auf sechs Minuten reduzierte, bis hin zum strukturierten Rollout einer KI-Plattform für 700 Mitarbeitende — Aram gibt ungeschminkte Einblicke in den Weg von der Experimentierphase zur produktiven Nutzung. Ein praxisnahes Gespräch darüber, warum AI-Adoption kein IT-Projekt ist, sondern ein Organisationsprojekt, das Spaß machen muss.
Inhaltsübersicht
- I.K. Hofmann als internationaler Personaldienstleister mit 90 Niederlassungen und 20 Marken — ein typischer Mittelständler auf dem KI-Weg.
- Der Voice-Bot "Jamie" als Durchbruch: Von 4-5 Tagen Bearbeitungszeit auf 6 Minuten bei der Vorqualifizierung von 2.000 Bewerbern.
- Learning 1: Die richtige Zusammensetzung der Testgruppe entscheidet über Erfolg oder Misserfolg der Pilotphase.
- Learning 2: "Make AI Fun Again" — spielerische Herangehensweise statt technischer Überfrachtung.
- Learning 3: Killer-Use-Cases finden, die jeder im Unternehmen versteht und die direkt auf die Wertschöpfung einzahlen.
- Learning 4: Mitarbeitende befähigen, eigene KI-Assistenten für reale Probleme zu bauen.
- Learning 5: Wissen systematisch teilen über Prompt-Guides, Plattform-Features und Community-Calls.
- Learning 6: Eine klare Vision geben — auf Unternehmensebene und für die persönliche Karriere.
- LangDoc als KI-Plattform für den Mittelstand: Warum die großen Anbieter anfangs keine Option waren.
- Der Quelle-Turm in Nürnberg als Mahnmal für fehlende digitale Transformation.
Über den Gast
Aram Azimi ist Innovation Manager bei I.K. Hofmann, einem internationalen Personaldienstleister mit Hauptsitz in Nürnberg. Das Unternehmen ist in acht Ländern aktiv, betreibt rund 90 Niederlassungen in Deutschland und beschäftigt etwa 700 interne Mitarbeitende. Aram leitet die interne KI-Initiative und hat den Weg von den ersten ChatGPT-Experimenten Anfang 2023 bis zum strukturierten Rollout einer unternehmensweiten KI-Plattform gestaltet. Dabei kombiniert er einen pragmatischen Mittelstandsansatz mit einem klaren Fokus auf messbare Ergebnisse und Mitarbeiterbegeisterung.
Detaillierte Zusammenfassung
Vom Experiment zum Leuchtturmprojekt: Der Voice-Bot "Jamie"
Die KI-Reise bei I.K. Hofmann begann wie in vielen Mittelstandsunternehmen: mit internen Guidelines für die ChatGPT-Nutzung und dem bewussten Entscheid, das Tool nicht zu verbieten. Bereits im März 2023 — nur vier Monate nach dem ChatGPT-Release — startete das Unternehmen eine Prompt Challenge auf der internen Innovationsplattform. Mitarbeitende teilten Prompts für unterschiedlichste Anwendungsfälle: vom Verbessern von Englischkenntnissen über das Formulieren von Kundenanschreiben bis zur tabellarischen Darstellung von Zeitarbeitsregelungen in verschiedenen Ländern.
Der eigentliche Durchbruch kam durch den Voice-Bot "Jamie", der im US-Geschäft eingesetzt wurde. Die Herausforderung: 2.000 Bewerbungen auf 100 Stellen im High-Volume-Recruiting. Bisher telefonierten Recruiter in einem Büro in Südafrika alle Bewerber durch und stellten sechs bis acht K.O.-Fragen — ein Prozess, der vier bis fünf Tage dauerte. Jamie reduzierte diese Zeit auf sechs Minuten. Der Bot führte die Interviews, fragte Qualifikationen und Soft Skills ab, berechnete einen Fit-Score und lud bei Überschreitung eines Schwellenwerts automatisch zum Onboarding ein.
"Ich bin fast vom Stuhl gefallen", beschreibt Aram seine Reaktion auf die Ergebnisse der Testphase.
Der Case gab dem gesamten KI-Vorhaben massiven Rückenwind — insbesondere weil die Juniorchefin, die für das US-Geschäft verantwortlich war, die Ergebnisse aus erster Hand kannte. Der Beweis für profitablen Gen-AI-Einsatz musste nicht mehr erbracht werden.
Die KI-Plattform: Warum der Mittelstand eigene Wege braucht
Nach den ersten erfolgreichen Cases — neben Jamie auch WhatsApp-basierte Chatbots und Video-Avatare im Recruiting — stellte sich die Frage nach einer skalierbaren Basis. Die großen Anbieter wie Microsoft waren zu dem Zeitpunkt überlastet mit Anfragen und verlangten Mindestabnahmen von 300 Lizenzen zu Preisen, die für den Mittelstand nicht tragbar waren.
Die Lösung fand I.K. Hofmann in LangDoc, einer Plattform, die Zugriff auf verschiedene LLMs bietet und gleichzeitig hohe Sicherheitsstandards erfüllt — ISO-Zertifizierung, SOC2 Type 2 und Compliance mit den Anforderungen des EU-AI-Acts. Damit war die Grundlage geschaffen, um von der Experimentierphase in den strukturierten Rollout überzugehen. Alles, was die Mitarbeitenden vorher gelernt hatten, konnte nun in die Plattform einfließen.
Die sechs Learnings im Detail
Learning 1 — Choose your enemies and friends wisely: Die Zusammensetzung der Pilotgruppe ist entscheidend. Aram empfiehlt rund 20 Personen mit einem Mix aus verschiedenen Hierarchieebenen — vom Personaldisponenten bis zum Vorstandsmitglied — und Abteilungen. Besonders wichtig: Potenzielle Kritiker wie Datenschutz, Betriebsrat, Controlling und Einkauf bewusst einbinden. "Wenn wir zwei, drei Leute aus der Vorstandsebene mit drin haben, sind das natürlich potenziell sehr große Fürsprecher." Bei I.K. Hofmann war die Aufteilung 50/50 zwischen Headquarter und operativen Niederlassungen.
Learning 2 — Make AI Fun Again: Der Onboarding-Prozess darf nicht technisch überfrachtet werden. Statt von Context Windows und Token-Limits zu sprechen, setzt Aram auf Storytelling und spielerische Elemente. Bei den monatlichen Community-Calls gibt es Tippspiele, bei denen Mitarbeitende die Anzahl der ausgetauschten Prompts schätzen — mit Nürnberger Lebkuchen als Gewinn. Die Kochanalogie: "Wir gehen nicht hin und sagen, das ist eine Aubergine und das ist Tomatensauce, sondern wir müssen ein Gericht kreieren, das der Zielgruppe schmeckt."
Learning 3 — Killer-Use-Cases vorbereiten: Für die Pilotphase wurden bewusst Anwendungsfälle gewählt, die jeder im Unternehmen versteht. Der stärkste: die automatisierte CV-Transformation. Bei 200.000 Bewerbungen pro Jahr in Deutschland und 15 bis 30 Minuten pro manueller Profilerstellung ergab eine grobe Hochrechnung sofort einen klaren Business Case. Aram betont: Die Use Cases müssen nicht perfekt funktionieren, aber die Richtung zeigen. "Wir brauchen ein, zwei Killer-Use-Cases, die zeigen können, in welche Richtung es geht und wie das auf die Wertschöpfung schlägt."
Learning 4 — Empower them to find their own solutions: Der entscheidende Schritt von der zentralen zur dezentralen KI-Nutzung: Mitarbeitende befähigen, eigene KI-Assistenten zu bauen. Ein Beispiel: Eine Kollegin aus der Arbeitssicherheit baute selbständig einen Assistenten zur Ermittlung von Gefährdungen am Arbeitsplatz — multimodal, mit Foto-Upload. "Da wäre ich aus der Zentrale niemals drauf gekommen", gibt Aram zu. Der Wow-Effekt entsteht, wenn nicht der Innovation Manager, sondern "Heidi aus HR" oder "Christoph aus dem Controlling" eigene Assistenten auf der Bühne präsentieren.
Arams Empfehlung zur Reihenfolge: Zuerst mit dem Chat starten, ein Gefühl für die Interaktion mit LLMs entwickeln und an Grenzen stoßen. Erst dann KI-Assistenten für wiederkehrende Aufgaben aufsetzen. Nicht jeder muss Assistenten bauen können — es gibt zentrale Assistenten für alle, teamspezifische für kleine Gruppen und individuelle für Einzelpersonen.
Learning 5 — Share the Knowledge: Wissen systematisch teilen über die Plattform: Prompts für den gesamten Workspace freigeben, Assistenten veröffentlichen und Feedback ermöglichen. Ergänzt durch Prompt-Guides, Erklärvideos und die Community-Calls, bei denen Mitarbeitende ihre Lösungen selbst vorstellen. Wichtig: Nicht nur zeigen, dass ein Assistent funktioniert, sondern auch erklären, warum er funktioniert — damit andere daraus lernen können.
Learning 6 — Give them a vision and a reason to invest their time: Die Vision muss auf zwei Ebenen funktionieren. Auf Unternehmensebene: Wohin wollen wir uns entwickeln? Wo setzen wir Technologie ein, wo bleibt menschliche Interaktion wichtig? Aram verweist auf den Quelle-Turm in Nürnberg als Mahnmal: "Das ist das Mahnmal für fehlende digitale Transformation." Während Quelle den Anschluss verlor, hat die Otto Group mit OGGPT gezeigt, wie es besser geht.
Auf persönlicher Ebene: Wer Fachwissen mit AI-Skills kombiniert, kann beim Jobwechsel aktuell 20 bis 40 Prozent mehr Gehalt erzielen. "Eine Person wird nicht durch AI ersetzt werden, sondern durch eine Person, die AI nutzt" — und wer sich jetzt nicht bewegt, riskiert, den Anschluss zu verlieren. Die Hawkeye-Technologie im Tennis, die Linienrichter ersetzt hat, zeigt: Wenn eine Aufgabe durch Technologie präziser, besser und günstiger erledigt werden kann, wird sie automatisiert.
Kernaussagen
- AI ersetzt keine Menschen — "Eine Person wird nicht durch AI ersetzt werden, sondern durch eine Person, die AI nutzt." AI-Adoption, Wettbewerbsfähigkeit
- Niedrigschwelliger Einstieg — "Der erste Schritt ist immer, Menschen die Möglichkeit und den Raum zu geben, diese Technologie kennenzulernen — auf spielerische, ganz niedrigschwellige Art und Weise." Onboarding, Spielerisch
- Integration als Pflicht — "Wer AI nicht in seine Teams, Prozesse und Produkte schafft zu integrieren, wird an Wettbewerbsfähigkeit verlieren." Strategie, Transformation
"Stell dir vor, du könntest 1.000 Recruiter über Nacht in deinem Team hinzufügen — das sind die Visionen, die begeistern, nicht Token-Limits und Context Windows."
- Transformation braucht Taten — "Das ist das Mahnmal für fehlende digitale Transformation — es langt nicht, sich AI auf die Fahne zu schreiben und irgendein Lab zu haben." Vision, Umsetzung
Fazit und Takeaways
Für die Pilotphase und den Rollout
- Testgruppe bewusst zusammenstellen: 20 Personen, verschiedene Hierarchieebenen und Abteilungen. Kritiker wie Datenschutz und Betriebsrat einbinden — sie werden zu den stärksten Fürsprechern, wenn sie früh überzeugt werden.
- Killer-Use-Cases vorbereiten: Anwendungsfälle wählen, die jeder versteht und deren Wertschöpfungspotenzial sich grob beziffern lässt. Sie müssen nicht perfekt funktionieren, aber die Richtung zeigen.
- Spielerisch starten, nicht technisch: Geschichten erzählen statt Architekturen erklären. Community-Events mit Gewinnspielen, Tippspiele und unterhaltsame Formate senken die Einstiegshürde massiv.
- Plattformwahl pragmatisch treffen: Für den Mittelstand gibt es Alternativen zu den großen Anbietern, die Compliance-Anforderungen erfüllen und bezahlbar sind.
Für nachhaltige Adoption und Skalierung
- Vom Chat zum Assistenten: Mitarbeitende zuerst mit der Chat-Funktion vertraut machen, dann schrittweise zu maßgeschneiderten KI-Assistenten für wiederkehrende Aufgaben übergehen.
- Fachbereiche befähigen, nicht bedienen: Die besten Use Cases kommen von den Mitarbeitenden selbst, wenn man ihnen die Werkzeuge und Anleitung gibt, eigene Lösungen zu bauen.
- Wissen systematisch teilen: Prompt-Guides, veröffentlichte Assistenten, Erklärvideos und regelmäßige Community-Calls schaffen eine lernende Organisation. Nicht nur zeigen, was funktioniert, sondern warum.
Für die strategische Ausrichtung
- Vision auf zwei Ebenen: Unternehmen brauchen eine klare Antwort auf die Frage, wo Technologie und wo menschliche Interaktion zum Einsatz kommt. Mitarbeitende brauchen einen persönlichen Grund, ihre Zeit zu investieren.
- AI-Skills als Karrierehebel: Fachwissen plus KI-Kompetenz ist aktuell die stärkste Kombination auf dem Arbeitsmarkt. Wer jetzt Praxiserfahrung aufbaut, hat einen Vorsprung, der sich nicht durch Zertifikate ersetzen lässt.
AI-Adoption ist kein Sprint, sondern ein strukturierter Prozess, der mit niedrigschwelligem Ausprobieren beginnt und über systematische Befähigung zur produktiven Nutzung führt. I.K. Hofmann zeigt, dass auch ein Mittelständler ohne großes Budget und dediziertes Tech-Team in sieben Monaten von der Experimentierphase zum unternehmensweiten Rollout kommen kann — wenn man die Leute mitnimmt und ihnen Spaß dabei lässt.



