
#12KI im Recruiting: Von 45 auf 3 Minuten für eine Stellenanzeige mit 30% mehr Conversion
Intro
In dieser Episode spricht Felix mit Shezan Kazi, Head of AI Strategy bei Randstad, über den tiefgreifenden Wandel, den künstliche Intelligenz in der Personaldienstleistungsbranche auslöst. Shezan gibt praxisnahe Einblicke, wie Randstad bereits seit über einem Jahrzehnt KI einsetzt und wie generative KI die Branche fundamental verändert – von der Reduktion der Erstellungszeit für Stellenanzeigen von 45 auf 3 Minuten bis hin zur Vision einer „Trust Native“-Organisation, in der administrative Aufgaben automatisiert werden und der Fokus auf menschlicher Interaktion liegt. Das Gespräch beleuchtet konkrete Use Cases, Implementierungsherausforderungen und die zentrale Frage: Wie bringt man KI-Tools tatsächlich produktiv in ein Unternehmen mit zehntausenden Mitarbeitern?
Inhaltsübersicht
- Shezans persönlicher Weg zur KI: Vom BWL-Studium über die Gründung einer Personalberatung bis zur Entwicklung eigener KI-gestützter Systeme
- KI-Einsatz bei Randstad: Über zehn Jahre Erfahrung mit prädiktiven Modellen, Market Insights und generativer KI
- Der Stellenanzeigengenerator: Ein Leuchtturmprojekt mit 93% Zeitersparnis und 30% höherer Conversion Rate
- Human vs. Machine: Warum der Faktor Mensch im Recruiting nicht ersetzbar ist und wie KI die menschliche Interaktion stärkt
- User Adoption als größte Herausforderung: Strategien für Training, Compliance und die Implementierung von KI-Tools in großen Organisationen
- Die Zukunft der Human-Machine-Interaction: Von komplexen Benutzeroberflächen zu natürlichsprachlichen Interfaces
- Praktische Ratschläge für KMUs: Wie kleinere Unternehmen KI-Strategien mit Bordmitteln entwickeln können
- Von 80% auf 100%: Die Herausforderungen bei der Produktionisierung von KI-Lösungen
- Vision für die Branche: Von „Muscle“ über „Brains“ zu „Heart“ – der Wandel der Arbeitswelt
Über den Gast
Shezan Kazi ist Head of AI Strategy bei Randstad, einem der weltweit größten Personaldienstleister mit über 48.000 Mitarbeitern. Nach seinem Studium der Betriebswirtschaft mit Schwerpunkt Wirtschaftsinformatik gründete er eine Personalberatung und entwickelte aus Unzufriedenheit mit bestehenden Lösungen ein eigenes CRM- und ATS-System mit KI-Funktionen. Bereits 2019 setzte er erste generative KI-Modelle für das Schreiben von Kunden-E-Mails ein – lange bevor ChatGPT die Technologie in den Mainstream brachte. Bei Randstad verantwortet er die strategische Implementierung von KI-Lösungen über verschiedene Geschäftsbereiche und Länder hinweg, von prädiktiven Analysen bis zu generativen Anwendungen. Seine Expertise liegt in der praktischen Umsetzung von KI-Projekten und der Überführung von Proof of Concepts in produktive, skalierbare Systeme.
Detaillierte Zusammenfassung
Der Weg zur KI: Vom Gründer zum Strategen
Shezans Weg zur künstlichen Intelligenz begann unkonventionell. Als studierter Betriebswirt mit Schwerpunkt Wirtschaftsinformatik gründete er nach dem Studium eine Personalberatung. Die damals verfügbaren Software-Lösungen für Customer Relationship Management (CRM) und Applicant Tracking Systems (ATS) entsprachen jedoch nicht seinen Anforderungen, sodass er kurzerhand beschloss, ein eigenes System zu entwickeln. „Wenn man das dann macht, dann kann man ja auch gleich künstliche Intelligenz mit einbinden“, erklärt er pragmatisch. Zunächst setzte er traditionelle Machine-Learning-Algorithmen für Matching und CV-Parsing ein, also Computer Vision Modelle zur automatischen Auswertung von Lebensläufen.
Der eigentliche Durchbruch kam 2019 mit den ersten GPT-Modellen. Shezan gehörte zu den Pionieren, die generative KI für das Schreiben von Kunden-E-Mails einsetzten – Jahre bevor ChatGPT das Thema in den Mainstream katapultierte. Der Sprung von GPT-1 zu GPT-3 und später GPT-4 war gewaltig: „Wenn du dann mal rauskramst, eine E-Mail die du 2020 geschrieben hast und eine, die heute GPT-4 schreibt oder Gemini oder Claude, da liegen nicht vier Jahre dazwischen gefühlt, sondern da liegen halt irgendwie 50 Jahre dazwischen.“ Diese exponentielle Entwicklung faszinierte ihn so sehr, dass er die Position als Head of AI Strategy bei Randstad annahm – für ihn der spannendste Bereich, in dem man aktuell arbeiten kann.
KI bei Randstad: Eine über zehnjährige Geschichte
Anders als viele andere Unternehmen ist künstliche Intelligenz für Randstad kein neues Thema. Die Personaldienstleistungsbranche, obwohl oft als Old Economy wahrgenommen, nutzt KI-Systeme bereits seit über einem Jahrzehnt. Shezan stellt klar: „Personaldienstleistung ist ja wirklich Old Economy, die verwenden künstliche Intelligenz seit über einem Jahrzehnt, da gibt es keine Zweifel.“ Dennoch hat sich das Kerngeschäft in den letzten 30 bis 40 Jahren fundamental nicht verändert – der Faktor Mensch spielt nach wie vor die zentrale Rolle.
Das Randstad Market Insights Tool, früher unter dem Namen Signal bekannt, später umbenannt in Value-Based Pricing und heute als Randstad Market Insights im Einsatz, ist ein Paradebeispiel für den langjährigen KI-Einsatz. Dieses Tool basiert auf klassischer Data Analytics und prädiktiven Algorithmen, nicht auf generativer KI. Es analysiert Marktdaten und trifft Vorhersagen darüber, wo in den nächsten sechs Monaten Personalbedarf entstehen könnte und in welchen Regionen dieser Bedarf auch tatsächlich gedeckt werden kann. Seit über zehn Jahren nutzt Randstad zudem Search and Match-Systeme – nicht nur keyword-basiertes, sondern semantisches Matching mit Deep Learning-Technologie. Unternehmen wie Textkernel waren und sind in diesem Bereich führend.
Bereits 2019 verabschiedete Randstad seine AI Principles, die definieren, wie das Unternehmen zu künstlicher Intelligenz steht. Diese Prinzipien basieren auf den Geschäftsgrundsätzen „To Know, To Trust, To Serve“ und wurden im Juni 2024 in einer neuen Fassung veröffentlicht. Neben prädiktiven Modellen setzt Randstad auch KI-basierte Trainingsoptimierungen ein, bei denen Gesprächszeiten von Mitarbeitern analysiert und Prozesse in der Tiefe untersucht werden, um Delivery-Pipelines zu verkürzen und das Pricing zu optimieren.
Die Zukunft: Trust Natives vs. Digital Natives
Trotz der langjährigen KI-Nutzung sieht Shezan eine fundamentale Transformation bevorstehen. Was bisher noch nicht stattgefunden hat, ist ein echtes Überdenken der Branchenstruktur: „Was macht KI mit den Menschen und nicht nur für den Menschen?“ Randstad positioniert sich bewusst als „Trust Native“ im Gegensatz zu „Digital Natives“ wie LinkedIn, Xing, Honeypot oder Foskotti. Während digitale Plattformen versuchen, ihre Daten zu monetarisieren, setzt Randstad darauf, Vertrauen zu monetarisieren.
„Wir verbringen den Großteil unserer Zeit in der Arbeit und dann möchte ich eben auch eine First-Hand-Experience haben. Ich möchte aus erster Hand wissen, wer ist diese Firma eigentlich? Und die Firma ist ja nicht nur die Aufgabenstellung, sondern es sind vor allem die Menschen, die dahinter stecken.“
Der Faktor Mensch bleibt aus Shezans Sicht unverzichtbar im Bewerbungsprozess. Das bedeutet nicht, dass Automatisierung vermieden wird – im Gegenteil. Administrative Tätigkeiten und einfache Aufgaben werden automatisiert, wie in jeder anderen Industrie auch. Der entscheidende Unterschied: Die dadurch freigesetzte Zeit fließt in Gespräche zwischen Menschen, in Beziehungsaufbau, Vertrauen und emotionale Intelligenz.
Shezan fasst diese Vision in einem prägnanten Zitat zusammen: „In der Vergangenheit ging es bei Jobs um Muskelkraft (Muscle), heute geht es um Hirn (Brains), und in der Zukunft geht es um Herz.“ Diese Verschiebung von physischer Arbeit über Wissensarbeit hin zu empathiebasierter Interaktion definiert für ihn die Zukunft der Personaldienstleistung.
Der Stellenanzeigengenerator: Ein Leuchtturmprojekt
Der erste große generative KI Use Case bei Randstad war der Stellenanzeigengenerator, bei dem Shezan als Tech Lead die Entwicklung verantwortete. Traditionell werden Stellenanzeigen entweder mit viel Liebe, Hingabe und SEO-Optimierung erstellt – oder als schnelle Freitagnachmittag-Lösung hingeworfen. Ersteres ist aufwendig und erfordert Expertise in Keyword Research und Suchmaschinenoptimierung. Letzteres führt zu minderwertigen Anzeigen mit schlechter Performance.
Der KI-basierte Ansatz revolutionierte diesen Prozess. Statt mit einem Baukasten-System, bei dem Module manuell ausgewählt und zusammengesetzt werden müssen, generiert das KI-Tool komplette Stellenanzeigen auf Basis weniger Eingaben. Die Ergebnisse sind beeindruckend: Die durchschnittliche Erstellungszeit sank von 35 bis 45 Minuten auf nur 3 Minuten – eine Zeitersparnis von über 90 Prozent. Noch wichtiger: Die Conversion Rate stieg um durchschnittlich 30 Prozent. Das Tool ist mittlerweile in über zehn Ländern im Einsatz.
Die quantitativen und qualitativen Verbesserungen sind messbar und signifikant. Auf die Frage, was Mitarbeiter mit der gewonnenen Zeit machen, lautet die Antwort: Sie führen mehr Gespräche mit Bewerbern. Genau das ist die beabsichtigte Transformation – Automatisierung von repetitiven Aufgaben zugunsten menschlicher Interaktion. „Eine Aufgabe, wo du immer wieder copy-pasten musst, die sollte es eigentlich nicht mehr geben. Die solltest du automatisieren. Aber was, wo du wirklich dein Gehirn anstrengen musst, wo du wirklich mit Menschen interagieren musst, da müssen wir uns drauf konzentrieren.“
Die harte Realität der Produktionisierung
Die Entwicklung des Stellenanzeigengenerators war kein einfacher Spaziergang, sondern ein intensiver, iterativer Prozess. Das Projekt startete lean mit einer einfachen Chrome Extension – weit entfernt vom heutigen ausgereiften Produkt. Der Test begann mit lediglich zwölf Nutzern, aber mit einer beeindruckenden Release-Frequenz von vier bis fünf Updates pro Woche. Das Team sprach täglich mit den Usern, sammelte Feedback und iterierte kontinuierlich. In den ersten drei Monaten gab es etwa 80 Releases – kleine, inkrementelle Verbesserungen, die das Produkt Schritt für Schritt optimierten.
Shezan beschreibt ehrlich die größte Herausforderung: „Die ersten 80 Prozent sind total easy. Also so ein 80%-Ergebnis kriegt man easy hin. 90 Prozent dann mit ein bisschen Aufwand auch, aber um sowas wirklich über zehn Länder, tausende von Nutzer, zehntausende von Abfragen auszurollen, dann wird es hart.“ Der entscheidende Schritt war ein komplettes Refactoring der Applikation. Viele KI-Projekte starten als Pilot oder Proof of Concept und funktionieren bis zu den 80 Prozent so gut, dass das Leadership Team sie sofort ausrollen will. Plötzlich wird aus dem Piloten ein Release Candidate – und das Team muss erkennen, dass die Basis nicht für den Produktivbetrieb ausgelegt ist.
Der Weg von 80 auf 100 Prozent Qualität ist nicht linear, sondern exponentiell schwieriger. Shezan betont: „Es geht nicht darum, von 80 auf 100 Prozent zu kommen. Das kriegst du ja auch nicht hin. Es geht darum, von 80 auf 81, von 81 auf 82 zu kommen.“ Diese Reise erfordert Geduld und die Bereitschaft, das anfängliche exponentielle Wachstum zu verlangsamen. Essenzielle Basics wie Prompt Management, LLM Ops (Large Language Model Operations) und richtiges Logging müssen implementiert werden. Randstad arbeitet hier eng mit Partnern zusammen – Google, Accenture und der Machine-Learning-Boutique MR6 helfen dabei, diese letzten entscheidenden Prozentpunkte zu erreichen.
Als das Projekt 2023 startete, gab es MLOps (Machine Learning Operations), aber LLMOps-Tools, die Prompts Seite an Seite vergleichen und über die Zeit hinweg Modellversionen überwachen können, existierten kaum. Heute gibt es Lösungen wie GenKit von Firebase oder LangChain, die diese Prozesse deutlich vereinfachen.
User Adoption: Die unterschätzte Herausforderung
User Adoption ist laut Shezan „der schwierigste Teil“ bei der Einführung von KI-Tools. Es geht nicht nur darum, dass Mitarbeiter die Tools verwenden, sondern auch darum, wie sie sie verwenden. Hinzu kommen Compliance-Herausforderungen, da man möglichst wenig von den Konversationen und Interaktionen aufzeichnen möchte – ein Spagat zwischen Monitoring, Optimierung und Datenschutz.
Für den Rollout des internen Randstad GPT startete das Unternehmen einen Piloten mit einigen tausend Nutzern, bevor Ende 2024 alle 48.000 Mitarbeiter Zugang erhalten. Die Adoption-Strategie ist vielschichtig:
- Community-Building: Gruppen, in denen sich Pilotnutzer austauschen können
- Walk-In Sessions: Wöchentliche „Ask Me Anything“-Formate, in denen Best Practices geteilt werden
- Training Program: Ein globales „Gen AI Fundamentals Training Program“ befähigt Mitarbeiter im Umgang mit der neuen Technologie
- Metriken-Analyse: Nicht nur die Anzahl der Nutzer ist relevant, sondern auch die Länge der Interaktionen, die Anzahl der Iterationen und die Art des Feedbacks
Ein kritischer Punkt: Die meisten negativen Feedbacks stammen von „Single Shot“-Nutzern – Personen, die eine Frage stellen, keine zufriedenstellende Antwort erhalten und sofort aufgeben. Diese Nutzer benötigen intensives Training und Upskilling. Shezan kritisiert die unrealistischen Versprechungen mancher Anbieter: „Wenn ich auf LinkedIn schon wieder einen Post gesehen habe, wo jemand einen Kurs geteilt hat: in zwei Stunden zum Prompt-Engineer.“ Seine Realität: Er promptet seit 2019 intensiv und lernt immer noch ständig dazu. „Ein halbes Jahr braucht man schon, um da wirklich reinzukommen.“
Die Aufgabe von Unternehmen ist es, Mitarbeitern die Zeit und Ressourcen zu geben, sich intensiv mit der Technologie auseinanderzusetzen. Shezan hätte das Training gerne „generative KI-Führerschein“ genannt, weil die Lernkurve vergleichbar ist – man kann es nicht von heute auf morgen beherrschen.
Ein weiteres Adoption-Thema ist Schatten-KI (Shadow AI) – die unkontrollierte Nutzung von Tools wie ChatGPT durch Mitarbeiter. Besonders im HR-Bereich, der durch den EU AI Act als High-Risk klassifiziert ist, birgt dies Compliance-Risiken. Wenn jemand einen Lebenslauf bei ChatGPT hochlädt und das Modell darauf trainiert, ist das problematisch. Shezans Ansatz: Nicht sperren, sondern schulen. „Das ist einfach die neue Wissensarbeit, die hier entsteht und die muss man auch allen zugänglich machen.“ Die Compliance-Abteilung muss einen Rahmen schaffen, der weder IT noch Business einschränkt, sondern beiden Parteien ermöglicht, produktiv zu arbeiten.
Die Neuerfindung der Human-Machine-Interaction
Generative KI ermöglicht eine fundamentale Neugestaltung der Schnittstellen zwischen Mensch und Maschine. Am Beispiel des Randstad Market Insights Tools illustriert Shezan diese Transformation. Das Tool bietet umfassende Marktanalysen und Arbeitskräftedaten – eine der größten Datenbasen zum Arbeitsmarkt. Allerdings ist die Benutzeroberfläche komplex, mit zahlreichen Dropdown-Menüs, Filtern und Stellrädern. Neue Nutzer sind oft überfordert: „So viel Wald, da sehe ich die Bäume nicht mehr.“
Durch Integration eines Large Language Models wird die Komplexität radikal reduziert. Nutzer können jetzt in natürlicher Sprache Anfragen stellen: „Ich brauche für den Kunden ACME Inc. einen Vorschlag für einen Standort basierend auf diesen Parametern.“ Sie können handschriftliche Notizen aus einem Meeting oder ein Google Doc hochladen. Das Sprachmodell wertet die Anfrage aus, erstellt im Hintergrund die notwendigen SQL-Queries und generiert die relevanten Ansichten – alles unsichtbar für den Nutzer. Der Personalberater, der möglicherweise keine technischen Kenntnisse hat, erhält direkt die Daten, die er dem Kunden vorlegen kann.
Shezan geht noch einen Schritt weiter: „Muss das denn eigentlich ein separates Tool sein? Oder ist das einfach nur ein Microservice, eine API, die du abrufst?“ Da die meiste Arbeit bei Randstad in Google Workspace stattfindet (vergleichbar mit Microsoft 365), liegt die Lösung nahe: Das KI-Tool wird direkt in Google Chat integriert. Mitarbeiter können das System wie einen Kollegen anschreiben – keine zusätzliche Webanwendung, keine separate Login-Prozedur, keine weitere URL, die man sich merken muss.
„Es wird nicht so sein, dass wir für jeden Edge-Case ein eigenes Tool bedienen, sondern es wird halt einen Orchestrator geben, das ist dann dein Agent, dein Assistent, dein Butler, dein Concierge.“
Er verweist auf Pop-Kultur-Referenzen wie Jarvis aus Iron Man, die KI aus der Serie Person of Interest oder den Film Her. Einzelne Apps mit dedizierten Benutzeroberflächen werden zunehmend durch Skills ersetzt – ähnlich dem frühen Alexa Skills-Konzept von Amazon. Agenten wie Siri, Google Assistant oder Bixby werden orchestrieren und verschiedene Skills aufrufen, um Aufgaben zu erledigen.
Shezan sieht auch Produkte wie das Rabbit R1 – ein physisches Gadget mit einem Large Action Model, das End-to-End-Aktionen wie Urlaubsbuchungen durchführen kann – als Indikatoren dieser Entwicklung. Die Herausforderung: Smartphone-Hersteller werden solche Funktionen bald nativ anbieten. Aber die Richtung ist klar: Weg von Button-basierten Interfaces, hin zu natürlichsprachlicher Interaktion und agentenbasierter Orchestrierung.
KI-Strategie für KMUs: Bootstrapping statt Big Consulting
Auf die Frage, wie ein mittelständisches Unternehmen mit 500 Mitarbeitern, ohne Datenteam oder Entwicklungsabteilung, KI-Themen angehen sollte, hat Shezan eine klare Meinung: Skills über Qualifikationen. Das Thema ist so neu und entwickelt sich so schnell, dass fast jeder mit echtem Interesse in kurzer Zeit mitreden und einen Beitrag leisten kann. Der Schlüssel liegt in der intrinsischen Motivation.
Seine Empfehlung: Das Thema nah an der Geschäftsführung aufhängen, weil KI die gesamte Organisation übergreift. „KI macht IT zu einem Tool und nicht zu einem Skill.“ Ein reiner IT-Fokus greift zu kurz. Man muss verstehen, wie Prozesse im Einkauf, Vertrieb, in der Produktion, im Marketing und im Operations-Bereich aussehen. Bei einem Maschinenbauer mit 500 Mitarbeitern sind technikaffine Personen bereits vorhanden – eine hervorragende Voraussetzung.
Shezan betont: „Ich muss da auch nicht eine große Beratung anheuern.“ Er erwähnt, dass McKinsey mittlerweile 40 Prozent seines Umsatzes mit KI macht – vor wenigen Jahren war es noch ein einstelliger Betrag. Aber für den Start und den Aufbau von Kompetenzen sind große Beratungen nicht notwendig. Es gibt reichlich Austausch auf LinkedIn, in verschiedenen Foren und bei Meetups in fast allen Städten. Wenn später echte Transformationsprozesse oder große Skalierung anstehen, können Beratungen sinnvoll sein – aber nicht für die Anfangsphase.
Das Schöne an einem neuen Thema: Man kann es bootstrappen und wie ein Corporate Startup behandeln. Mit Bordmitteln ist sehr viel erreichbar. Das Randstad GPT wurde von nur drei Personen in zwei Wochen entwickelt – neben ihrer regulären Arbeit, weil sie die Idee „geil“ fanden und erst umsetzen wollten, bevor sie einen großen Approval-Prozess durchlaufen. Viel der Entwicklung kann mit KI selbst gemacht werden, was den Aufwand weiter reduziert.
Shezan nennt auch das Beispiel einer Freundin, die sich mit drei Partnerinnen selbstständig macht. Auch sie haben eine „KI-Beauftragte“, die sich um Personas und Marketing-Collateral kümmert. Der Kernpunkt: „Jemanden zu finden, der Lust drauf hat.“ Mit dieser Grundlage entwickelt sich eine gesunde Eigendynamik – wie er auch beim OGGPT-Projekt von Otto beobachtet hat, wo die Begeisterung von Florian und dem Team spürbar war.
Compliance, Ethics und der EU AI Act
KI im HR-Bereich ist besonders sensibel. Der EU AI Act klassifiziert HR-Use-Cases zunächst als High-Risk, was besondere Compliance-Anforderungen mit sich bringt. Bei Randstad sind daher Legal, Data Ethics und Data Protection feste Bestandteile des KI-Strategie-Teams – nicht nur IT und Business.
Ein konkretes Beispiel: Wenn ein Mitarbeiter einen Lebenslauf bei ChatGPT hochlädt und das Modell darauf trainiert, entstehen Datenschutz- und Compliance-Probleme. Die Lösung ist jedoch nicht, ChatGPT oder ähnliche Tools zu sperren, sondern Mitarbeiter zu schulen. Shezan argumentiert: „Es hat nie jemand darüber gesprochen, Yahoo zu sperren oder Google zu sperren oder Wikipedia zu sperren.“ Diese Tools sind Wissensquellen, und generative KI ist die neue Form der Wissensarbeit – sie muss allen zugänglich gemacht werden.
Die Rolle der Compliance-Abteilung ist es, einen Rahmen zu schaffen, der Entwickler und Mitarbeiter nicht einschränkt, sondern ihnen ermöglicht, produktiv zu arbeiten. „Die Mitarbeiter sollten sich darauf konzentrieren können, wie sie an die Informationen kommen, die sie brauchen. Die Entwickler sollten sich darauf konzentrieren können, wie sie Lösungen dafür bereitstellen. Und die Compliance-Abteilungen, die müssen sich darauf konzentrieren, wie sie einen Rahmen schaffen, der für die anderen beiden Parteien passt.“
Randstad hat seine AI Principles bereits 2019 verabschiedet und im Juni 2024 aktualisiert. Diese Prinzipien basieren auf den Unternehmenswerten „To Know, To Trust, To Serve“ und definieren den verantwortungsvollen Umgang mit KI – ein zentraler Baustein für die langfristige, nachhaltige Implementierung der Technologie.
Die realistische Erwartungshaltung
Zum Abschluss liefert Shezan einen wichtigen Reality-Check: Mit generativer KI kann man unfassbare Dinge bauen, aber diese in Produktion zu bringen und eine zuverlässig hohe Qualität zu gewährleisten, ist nicht trivial. „Das ist auch eben mal nicht einfach so gemacht, indem ich die GPT-4-API anbinde und irgendein Prompt reinschreibe.“ Es gehört deutlich mehr dazu – von sauberem Prompt Management über LLMOps bis hin zu einem iterativen Optimierungsprozess.
Shezan vergleicht die abnehmende Begeisterung für neue iPhone-Generationen mit der Erwartungshaltung an KI-Produkte: „Ich bin jetzt mit den neuen iPhone da bin ich auch nicht mehr so leicht zu begeistern wie das früher mal war. Jetzt kann ich auf zwei Generationen warten und das ist bei allen Produkten so. Nur bei generativer KI sind die Erwartungen in der Regel so hoch, dass sie halt dann auch sehr schnell enttäuscht werden.“
Die Kunst liegt darin, sich auf die Reise von 80 auf 81, von 81 auf 82 Prozent einzulassen – und zu akzeptieren, dass das exponentielle Anfangswachstum sich verlangsamt. Wer diese Geduld aufbringt und die notwendigen Grundlagen schafft, kann KI-Lösungen bauen, die nicht nur beeindruckende Demos sind, sondern tatsächlich im Produktivbetrieb zuverlässig funktionieren.
Kernaussagen
- Muscle, Brains, Heart — „In der Vergangenheit ging es bei Jobs um Muskelkraft (Muscle), heute geht es um Hirn (Brains), und in der Zukunft geht es um Herz.“ Empathie als Zukunftskompetenz
- Faktor Mensch — „Der Faktor Mensch ist aus dem Bewerbungsprozess nicht wegzudenken – wir verbringen den Großteil unserer Zeit in der Arbeit und möchten aus erster Hand wissen, wer die Menschen hinter der Firma sind.“ First-Hand-Experience
- Selbstbefähigung — „Bei KI geht es viel um Selbstbefähigung – man sollte nicht nach Qualifikationen suchen, sondern nach Menschen mit intrinsischer Motivation.“ Skills über Qualifikationen
- Trust Natives — „Es gibt die Digital Natives wie LinkedIn und Xing – und es gibt uns, die Trust Natives. Wir monetarisieren nicht unsere Daten, sondern unser Vertrauen.“ Vertrauen als Differenzierung
- 80-Prozent-Falle — „Die ersten 80 Prozent kriegt man easy hin. Aber um sowas wirklich über zehn Länder, tausende von Nutzer, zehntausende von Abfragen auszurollen – dann wird es hart.“ Produktionisierung
- User Adoption — „User Adoption ist der schwierigste Teil von einer Tool-Einführung mit generativer KI. Es geht nicht nur darum, dass die Leute es verwenden, sondern auch darum, wie sie es verwenden.“ Training, Compliance, Metriken
- Orchestrator-Vision — „Man muss sich von dem Gedanken verabschieden, dass wir für jeden Edge-Case ein eigenes Tool bedienen. Es wird einen Orchestrator geben – deinen Agent, deinen Assistenten, deinen Butler, deinen Concierge.“ Agentenbasierte Interfaces
- Neue Wissensarbeit — „Das ist einfach die neue Wissensarbeit, die hier entsteht, und die muss man auch allen zugänglich machen. Die Compliance-Abteilung muss einen Rahmen schaffen, der die anderen nicht einschränkt.“ Enablement statt Restriktion
Fazit und Takeaways
Für Personaldienstleister und HR-Verantwortliche
- Automation trifft Empathie: KI wird administrative Aufgaben automatisieren, sodass mehr Zeit für menschliche Interaktion, Beziehungsaufbau und Vertrauen bleibt – das einzige nachhaltige Differenzierungsmerkmal gegenüber digitalen Plattformen
- Vom Baukasten zur KI-Generation: Stellenanzeigen können mit KI in 3 statt 45 Minuten erstellt werden – bei 30% höherer Conversion Rate, weil Qualität und SEO-Optimierung automatisch mitgeliefert werden
- Inklusion durch Technologie: KI kann Bewerbungsprozesse inklusiver gestalten – zeitlich flexibler, sprachlich barrierefreier und unabhängiger von formalen Schreibfähigkeiten
- Trust Natives vs. Digital Natives: Die Zukunft der Personaldienstleistung liegt nicht in der Monetarisierung von Daten, sondern von Vertrauen und menschlicher Expertise
Für Unternehmen bei der KI-Implementierung
- Die 80-20-Regel gilt nicht: Die ersten 80% eines KI-Projekts sind einfach. Die Herausforderung liegt im Weg von 80 auf 90 und 90 auf 95



