Wir müssen KI-Agenten mit menschlicher Akkuratität vergleichen – nicht mit deterministischen Systemen. Menschen machen auch Fehler, das ist der neue Maßstab.
Malte Kosub
Gründer & CEO
Parloa
Malte Kosub

#30KI-Transformation im Kundenservice: Wie KI-Agenten das Kundenerlebnis verbessern

Intro

In dieser Folge des AI FIRST Podcast spricht Felix mit Malte Kosub, dem Gründer und CEO von Parloa, über den Einsatz von KI-Sprachagenten im Kundenservice. Parloa, eines der führenden deutschen Startups im Bereich generativer KI, entwickelt eine Plattform für die größten Call-Center und Contact-Center weltweit. Mit 300 Mitarbeitern, 100 Millionen Dollar Funding und Büros in Berlin, München und New York transformiert das Unternehmen, wie große Enterprises mit ihren Kunden kommunizieren. Malte erklärt, wie Unternehmen schrittweise KI-Agenten implementieren können, welche technologischen Durchbrüche die natürliche Konversation erst möglich gemacht haben und warum wir vor einer der größten Customer Experience Transformationen der letzten 20 Jahre stehen.


Inhaltsübersicht

  • Die Entstehungsgeschichte von Parloa: Von der Agentur "Future of Voice" zur Enterprise-Plattform für KI-Agenten
  • Technologische Evolution: Vom regelbasierten Bot zum Large Language Model-basierten Agenten
  • Der strategische Einstieg: Warum einfache Use Cases wie Routing und Authentifizierung der beste Startpunkt sind
  • Vertrauensbildung durch Simulation: Wie zehntausende Testfälle vor dem Produktivbetrieb Sicherheit schaffen
  • Multi-Agent-Systeme: Ein persönlicher Agent pro Kunde mit verschiedenen spezialisierten Agenten im Hintergrund
  • Messbare Mehrwerte: Von Effizienzsteigerung bis zu 60% verbessertem Markenverhältnis
  • Die Zukunft des Kundenservice: Persönliche KI-Agenten auf allen Kanälen, 24/7 verfügbar
  • Veränderte Rollen: Vom Level-1-Support zum Supervisor für KI-Agenten

Über den Gast

Malte Kosub ist Gründer und CEO von Parloa, einer führenden Plattform für KI-Agenten im Kundenservice. Seine Reise begann 2017 mit der Gründung der Agentur "Future of Voice", als Spracherkennung erstmals menschliches Niveau erreichte. Während andere auf Chatbots setzten, fokussierte sich Malte früh auf Voice-Interaktion, da die meisten Kundeninteraktionen nach wie vor telefonisch stattfanden. Aus den Agenturprojekten entstand Parloa, das heute 300 Mitarbeiter beschäftigt und einige der größten Enterprise-Unternehmen weltweit betreut. Das Unternehmen hat in nur drei Finanzierungsrunden zwischen 2022 und 2024 insgesamt 100 Millionen Dollar eingesammelt und konzentriert sich auf Kunden mit hunderttausenden bis Millionen von Telefonaten pro Jahr.


Detaillierte Zusammenfassung

Von der Agentur zur Plattform: Parloas Entstehungsgeschichte

Die Geschichte von Parloa begann 2017 mit einem technologischen Durchbruch: Spracherkennungssysteme erreichten erstmals eine Genauigkeit von über 95 Prozent. In diesem Jahr gründete Malte Kosub die Agentur Future of Voice, um großen Enterprise-Unternehmen bei der Integration von Conversational AI zu helfen. Die strategische Entscheidung, sich auf Voice statt auf Chatbots zu konzentrieren, erwies sich als wegweisend: "Wir haben damals schon gesagt, wir glauben an das Medium Voice oder Telefonie, weil wir diese großen Unternehmen gesehen haben und auch die Customer Support Volumina gesehen haben. Und da war es halt relativ klar, die meisten Interaktionen finden halt noch in der Telefonie statt."

Parallel zum Hype um Alexa und Google Assistant, die Conversational AI in die Wohnzimmer der Verbraucher brachten, arbeitete das Team an Enterprise-Lösungen für den Kundenservice. Aus den zahlreichen Projekten entstand schließlich eine Plattform, die es großen Unternehmen ermöglicht, KI in Skalierung in der Kundeninteraktion einzusetzen. Heute beschäftigt Parloa 300 Mitarbeiter in Büros in Berlin, München und New York. Das rasante Wachstum zeigt sich auch in der Finanzierungshistorie: Nach langem Bootstrapping folgte 2022 die Seed-Runde, 2023 die Series A und 2024 die Series B – alle zwölf Monate eine neue institutionelle Finanzierungsrunde, insgesamt 100 Millionen Dollar.

Die technologische Revolution: Vom Bot zum intelligenten Agenten

Die Entwicklung von Voice-Bots zu intelligenten Agenten markiert einen fundamentalen Paradigmenwechsel. Malte erklärt die technologische Evolution anschaulich: Bis 2023 bestand ein Voice-Bot aus drei getrennten Komponenten – Speech-to-Text (Spracherkennung), Natural Language Understanding (NLU) und Text-to-Speech (Sprachausgabe). Die NLU funktionierte nach einem starren Prinzip: Entwickler definierten sogenannte Intents (Absichten) wie "Where is my order?" und hinterlegten dazu hunderte von Utterances (Varianten), wie ein Kunde diese Frage stellen könnte. Wurde eine Intention erkannt, folgte ein deterministisches Regelwerk: Erst Kundennummer abfragen, dann Geburtsdatum, dann API triggern.

Das Problem: "Eine Konversation ist viel zu komplex", wie Malte betont. Es gibt nicht 100 oder 200 klar definierte Intentionen, sondern unzählige Nuancen und Zwischenintentionen. Man versuchte, die Komplexität menschlicher Kommunikation in ein Excel-Schema zu pressen – mit bekannten Ergebnissen. Jeder kennt die frustrierende Antwort: "Ich hab's leider nicht verstanden, fang von vorne noch mal an."

Der Durchbruch kam mit Large Language Models. Diese brachten ein deutlich umfangreicheres Weltverständnis mit und ersetzten die rigiden Intent-basierten NLU-Systeme. Statt starrer Regelwerke können LLMs natürliche Konversationen führen und auf unvorhergesehene Situationen reagieren. Der nächste Entwicklungsschritt sind End-to-End-Audio-Modelle, die Speech-to-Text und Text-to-Speech in einem einzigen Modell vereinen. Diese können nicht nur auf Text reagieren, sondern auch auf Emotionen, Pausen und Hintergrundgeräusche – ein weiterer Schritt hin zu wirklich natürlicher, menschlicher Kommunikation.

Strategischer Einstieg: Mit einfachen Use Cases beginnen

Parloa empfiehlt Unternehmen einen schrittweisen, pragmatischen Einstieg. Malte nutzt die klassische Einteilung in Level 1, Level 2 und Level 3 Customer Support, wobei die Komplexität mit jedem Level steigt. Seine klare Empfehlung: "Fangt mit Level 1 an." Der einfachste und zugleich hochrelevante Use Case ist das Routing. Jeder kennt die veraltete Ansage "Drücken Sie die 1 für A, drücken Sie die 2 für B" oder leicht modernere Systeme, die nach ein oder zwei Worten scheitern. Dabei ist korrektes Routing entscheidend: Kunden müssen mit der richtigen Abteilung sprechen, um ihre Probleme zu lösen.

Der zweite Schritt ist die Authentifizierung. In fast jedem Kundenservice-Telefonat werden 30 bis 60 Sekunden für die Kundenidentifikation benötigt – ein perfekter Kandidat für Automatisierung. Im dritten Schritt folgen dann branchenspezifische Use Cases: In der Utility-Industrie sind das Zählerstandsmeldungen, im E-Commerce Bestellstatusabfragen, in der Versicherungsbranche Auskünfte zum Schadensstatus. Das Faszinierende: Diese relativ simplen Level-1-Anwendungsfälle machen in den meisten Unternehmen einen Großteil des Anrufvolumens aus.

"Fang mit einem AI-Agent einfach an, ein AI-Agent geht ran und versucht, das Problem zu lösen, und dann Woche für Woche kannst du Anwendungsfälle hinzufügen. Fang nicht an, direkt alles auf einmal zu erschlagen."

Unternehmen sollten nicht versuchen, alles auf einmal zu erschlagen, sondern einmal starten und dann über die nächsten drei Jahre kontinuierlich neue Anwendungsfälle implementieren. Dieser iterative Ansatz minimiert Risiken und ermöglicht kontinuierliches Lernen.

Voraussetzungen für den Einsatz: APIs, Daten und Infrastruktur

Welche Grundlagen müssen Unternehmen schaffen, bevor sie KI-Agenten einsetzen können? Die gute Nachricht: "Man kann relativ schnell anfangen, auch wenn man noch eine alte Telefonanlage hat, wenn man noch relativ alte Backends hat." Eine kleine Prozentzahl an Anwendungsfällen ist oft sofort umsetzbar. Für wirkliche Transformation nennt Malte jedoch klare Voraussetzungen: Die wichtigste technische Grundlage sind gute Backend-APIs. KI-Agenten sollen End-to-End-Anwendungsfälle händeln, was nur möglich ist, wenn sie auf relevante Systeme zugreifen können.

Die zweite kritische Dimension ist Datenqualität, und hier unterscheidet Malte zwei Arten: Erstens Wissensdaten für FAQ-Beantwortung. Auch bei vermeintlich vorhandenen Wissensdatenbanken widersprechen sich häufig Informationen. Malte warnt: "Wenn ich mir eine RAG-Pipeline aufbau, auch die beste der Welt, wenn die Daten dahinter widersprüchlich sind, dann wirst du halt keine guten Antworten von dem Agent bekommen." Zweitens Transaktionsdaten aus APIs: Wenn das System nicht weiß, wann eine Bestellung kommt, kann auch der beste Agent keine relevante Antwort geben.

Interessanterweise berichtet Malte von Kunden, die selbst bei unvollständigen Daten einen Mehrwert sehen: Wenn der KI-Agent nach 15 Sekunden sagt "Sorry, ich hab die Daten nicht", ist das immer noch besser, als nach zehn Minuten Wartezeit die gleiche Antwort von einem Menschen zu bekommen. Diese 5-10% der Fälle sind auch ohne perfekte Backend-Anbindung umsetzbar. Ein spannender Ausblick: Zukünftig werden KI-Agenten auch in Frontend-Systemen arbeiten können, wenn keine API vorhanden ist – ähnlich wie der OpenAI Operator, der auf Webseiten agiert. Dies öffnet neue Möglichkeiten für Legacy-Systeme ohne moderne Schnittstellen.

Implementierung: Von der Persona zum produktiven Agent

Die Implementierung eines KI-Agenten auf der Parloa AI Agent Management Plattform folgt einem strukturierten Prozess, der sich an der Einarbeitung menschlicher Mitarbeiter orientiert. Der erste Schritt ist die Definition der Agent-Persona: Wie soll sich der Agent verhalten, wenn er bei Firma XY ans Telefon geht? Diese Instruktionen bilden einen Teil des System-Prompts, der dem Agenten seine grundlegende Identität gibt.

Im zweiten Schritt werden Skills hinzugefügt – genau wie Menschen verschiedene Fähigkeiten haben. Für das Routing-Beispiel definiert man ein Routing-Skill und hinterlegt verschiedene Routing-Ziele. Bei einer Adressänderung routet der Agent an Ziel A (mit spezifischer Telefonnummer oder SIP-Ziel in der Telefonanlage), bei Vertragsänderungen an Ziel B. Diese Ziele können 20, 30, 50 oder 100 sein. Die Aufgabe des KI-Agenten: Im Gespräch herausfinden, was der Kunde wirklich möchte, besonders wenn mehrere Ziele in Frage kommen oder das Anliegen nicht klar ist.

Was die Lösung besonders macht: Der Agent routet nicht nur, sondern übergibt Kontext an den menschlichen Kollegen. Wenn dieser abnimmt, weiß er bereits: "Moin Felix, du hattest eine Frage zu deinem Vertrag, lass uns direkt starten." Im besten Fall ist das Kundenprofil bereits auf dem Bildschirm des Agenten. Neue Use Cases werden in Versionen entwickelt: Die produktive Version läuft weiter, während in einer Staging-Version neue Skills hinzugefügt und getestet werden. Sind alle Tests erfolgreich, wird die neue Version live geschaltet und übernimmt automatisch Anwendungsfälle, die vorher noch an Menschen weitergeleitet wurden.

Qualitätssicherung: Simulation und Evaluation im großen Maßstab

Die größte Herausforderung beim Übergang von deterministischen zu autonomen Systemen ist Vertrauen. Malte betont: "Das Erste, das relevant ist, ist, dass du Transparenz schaffen musst, wie ein AI-Agent funktioniert." Die Lösung von Parloa: Umfangreiche Simulation und Evaluation vor dem Produktivbetrieb. Dieser Prozess ist einer der zeitaufwendigsten, aber kritischsten Schritte.

Unternehmen bauen zunächst Testcases – vergleichbar mit Unit-Tests im Software-Engineering. Diese können aus tatsächlichen Transkripten vergangener Unterhaltungen stammen oder synthetisch erstellt werden. Die Größenordnung ist beeindruckend: Zehntausende von Simulationen werden durchgeführt. Parloa kreiert einen AI-Customer und einen AI-Agent und lässt beide miteinander sprechen. Dabei werden verschiedenste Szenarien abgedeckt: wütende und glückliche Kunden, Standardfälle und Edge Cases. Über synthetische Daten werden sogar Situationen simuliert, die in der Vergangenheit noch nie aufgetreten sind.

Im zweiten Schritt folgt die Evaluation durch einen AI Judge, der bewertet, ob die Gespräche wie gewünscht verlaufen sind. Dieses Vorgehen ermöglicht eine Quantifizierung: Funktioniert der AI-Agent so, wie beabsichtigt? Ab welcher Erfolgsquote ist man confident genug für den Produktivbetrieb? Die Antwort: Es kommt auf den Use Case an. Beim Routing sind niedrigere Standards akzeptabel – im schlimmsten Fall geht ein falscher Agent ran und leitet weiter. Bei finanziellen Transaktionen gilt hingegen: So nah wie möglich an 100%. Entscheidend ist: KI-Agenten werden mit menschlicher Akkuratheit verglichen, nicht mit deterministischen Systemen. Menschen machen auch Fehler – der neue Maßstab ist nicht Perfektion, sondern Vergleichbarkeit mit der bisherigen Lösung.

Multi-Agent-Architektur: Ein persönlicher Agent mit vielen Spezialisten

Die Architektur moderner KI-Kundenservice-Lösungen ist subtiler, als man zunächst denken mag. Malte erklärt das Konzept der persönlichen Agenten: Aus Kundensicht gibt es idealerweise einen einzigen Agent – Felix' persönlichen Agent, der immer gleich klingt und den kompletten Kontext kennt. "Im besten Fall hast du einen AI-Agent, den Personal AI-Agent, der Felix AI-Agent, der ist immer das eine Stimme zum Kunden."

Im Hintergrund arbeitet jedoch ein Multi-Agent-System. Für verschiedene Use Cases werden verschiedene spezialisierte Agenten orchestriert – der Kunde merkt davon nichts, da die Persona und Stimme konsistent bleiben. Je komplexer die Anwendungsfälle werden, desto mehr spezialisierte Agenten sind im Hintergrund aktiv. Dieses Design kombiniert das Beste aus beiden Welten: Die Einfachheit und Kontinuität einer einzigen Kundenbeziehung mit der Effizienz und Expertise spezialisierter Backend-Agenten.

Auch Outbound-Telefonie ist technisch bereits möglich und wird zunehmend relevant. Allerdings gibt es zwei Herausforderungen: Erstens rechtliche Fragen – darf ein Unternehmen überhaupt aktive Outbound-Calls mit KI durchführen? Zweitens die Identifikation relevanter Use Cases. Malte sieht besonders Potenzial bei komplexen Anwendungsfällen: Ein Agent triggert mehrere Anrufe an Supplier, bestellt ein Taxi und ruft den Kunden dann zurück mit der Nachricht: "Alles erledigt." Die Technologie ist da – die rechtlichen Rahmenbedingungen und Use Case-Definitionen entwickeln sich nach.

Messbare Mehrwerte: Effizienz und Kundenzufriedenheit

Die Auswirkungen von KI-Agenten gehen weit über reine Kosteneinsparungen hinaus. Malte betont beide Dimensionen: "Klar können Unternehmen Effizienzsteigerungen erreichen, auf der anderen Seite können sie aber auch klare Customer Satisfaction Steigerungen erwarten." Ein besonders eindrucksvolles Beispiel: Bei manchen Kunden hatten 60% der Nutzer nach Gesprächen mit dem KI-Agent ein besseres Verhältnis zur Marke als vorher. Dies ist kein Automatisierungsprojekt mit negativen Nebeneffekten auf die Customer Experience – es ist ein genuines Customer Experience Improvement.

"Wir stehen vor wahrscheinlich einer der größten Customer Experience Transformationen, die es in den letzten 20 Jahren gegeben hat. Jede Homepage, jede App, jeder Touchpoint wird in irgendeiner Weise ein Gespräch beinhalten."

Seine Vision: Jede Homepage, jede App, jeder Touchpoint wird künftig eine Konversation beinhalten. Warum durch komplizierte Menüs klicken, wenn man einfach mit der App sprechen kann? Der persönliche Agent von Felix wird zum durchgängigen Touchpoint, egal ob auf der Website, in der App oder am Telefon.

Diese Transformation ermöglicht eine völlig neue Beziehungsqualität: Wenn ein Kunde für einen Anzug zur Hochzeit des besten Freundes kauft und der persönliche Agent beim nächsten Kontakt fragt "Wie war's denn?", baut das eine Beziehung auf, die über Transaktionen hinausgeht. Diesen Kontext kann ein klassisches Formular auf einem E-Commerce-Store niemals erfassen. Im Gespräch erfährt der Agent Details, die es ihm ermöglichen, Felix optimal zu helfen. "Das ist viel, viel mehr als jetzt irgendwie bisschen Automation zu starten", so Malte.

Die Zukunft in drei Jahren: Persönliche Agenten für jeden Kunden

Maltes Vision für die nächsten drei Jahre ist konkret und ambitioniert: "In drei Jahren werden die führenden Enterprise-Unternehmen einen persönlichen AI-Agent pro Kunden haben." Dieser Agent verfügt über den kompletten Kundenkontext, ist 24/7 erreichbar und kennt alles, was vom Unternehmen für den Kunden relevant ist. Entscheidend: Dieser Agent ist wirklich omnipräsent – am Telefon, über WhatsApp, auf der Homepage, in der App. Überall ist der gleiche persönliche Agent erreichbar.

Die Interaktion wird so natürlich sein, dass kein Unterschied mehr zu einem menschlichen Gespräch spürbar ist. Die Technologie ist bereits auf dem Weg dorthin – End-to-End-Audio-Modelle wie der Advanced Voice Mode von OpenAI zeigen, wohin die Reise geht. Parloa profitiert von diesen Entwicklungen, da sie ihren Kunden kontinuierlich bessere Experiences ermöglichen.

Die Rolle menschlicher Mitarbeiter verändert sich fundamental: Sie konzentrieren sich auf Level 2 und Level 3 Support – die komplexeren, emotionaleren Themen. Zusätzlich werden sie zu Supervisoren für KI-Agenten. Wenn ein Agent an seine Grenzen stößt – sei es ein Edge Case, fehlende Backend-Daten oder Compliance-Anforderungen – holt er einen menschlichen Supervisor hinzu. Der Agent könnte sagen: "Hey Felix, gib mir mal ganz kurz, ich muss das mit einem Supervisor klären. Während ich das mache, übrigens, hast du schon gehört, wir haben eine super starke neue Kollektion für den Sommer" oder "Soll ich dich in drei Minuten zurückrufen?"

Diese Transformation erfordert massives Upskilling und Reskilling. Mitarbeiter müssen nicht nur für komplexere Aufgaben ausgebildet werden, sondern auch lernen, als Supervisoren für Agenten zu arbeiten – ein völlig neues Skillset. Die Herausforderung ist groß, aber auch die Chance: Mitarbeiter können sich von repetitiven Level-1-Aufgaben zu wertvolleren, anspruchsvolleren Tätigkeiten entwickeln.


Kernaussagen

  1. Customer Experience Transformation — "Wir stehen vor wahrscheinlich einer der größten Customer Experience Transformationen, die es in den letzten 20 Jahren gegeben hat. Jede Homepage, jede App, jeder Touchpoint wird in irgendeiner Weise ein Gespräch beinhalten." Conversational AI, Touchpoints
  2. Iterativer Einstieg — "Fang mit einem AI-Agent einfach an, ein AI-Agent geht ran und versucht, das Problem zu lösen, und dann Woche für Woche kannst du Anwendungsfälle hinzufügen. Fang nicht an, direkt alles auf einmal zu erschlagen." Level 1, Use Cases, Skalierung
  3. Persönliche AI-Agenten — "In drei Jahren werden die führenden Enterprise-Unternehmen einen persönlichen AI-Agent pro Kunden haben. Der hat den ganzen Kontext des Kunden, der ist 24-7 erreichbar, weiß alles vom Unternehmen, das relevant ist für den Kunden." Personal Agent, Omnichannel, 24/7
  4. Neue Qualitäts-Baseline — "Wir müssen AI-Agents mit menschlicher Akkuratität vergleichen, weil das ist die neue Baseline. Du kannst nicht mit einem Software-System vergleichen, weil ein Software-System, das deterministisch ist, das macht immer das Gleiche – die Qualität ist aber halt auch nicht gut." Akkuratheit, Evaluation, AI Judge
  5. Messbare Kundenzufriedenheit — "60% der Kunden, die mit dem AI-Agent gesprochen haben, hatten danach ein besseres Verhältnis zur Brand als vorher. Es ist nicht nur Effizienzsteigerung, es ist auch Customer Experience Improvement." CSAT, Brand Loyalty, CX

Fazit und Takeaways

Für Customer-Support-Verantwortliche

  • Niedrigschwellig starten: Beginnen Sie mit einfachen Level-1-Use-Cases wie Routing und Authentifizierung, die oft einen Großteil des Volumens ausmachen
  • Iterativ skalieren: Fügen Sie Woche für Woche neue Anwendungsfälle hinzu, statt alles auf einmal zu automatisieren – dieser Ansatz minimiert Risiken und ermöglicht kontinuierliches Lernen
  • Vertrauen durch Transparenz: Nutzen Sie umfangreiche Simulationen (zehntausende Testfälle) und Evaluationen, um Qualität zu sichern, bevor Agenten in Produktion gehen
  • Kontext weitergeben: Implementieren Sie Systeme, die bei Eskalation relevante Informationen an menschliche Agenten übergeben, um nahtlose Übergänge zu gewährleisten

Für IT- und Technologie-Verantwortliche

  • API-First-Strategie: Investieren Sie in gute Backend-APIs als wichtigste technische Voraussetzung für End-to-End-Automatisierung
  • Datenqualität priorisieren: Räumen Sie Wissensdatenbanken auf und stellen Sie sicher, dass transaktionale Daten zugänglich und konsistent sind
  • Multi-Agent-Architektur: Planen Sie von Anfang an ein System mit einem persönlichen Agenten als Frontend und spezialisierten Agenten im Backend
  • Platform-Ansatz: Nutzen Sie spezialisierte Plattformen statt selbst zu entwickeln – der Mehrwert liegt in Enterprise-Features wie Skalierung, Sicherheit, Analytics und Compliance

Für C-Level und strategische Entscheider

  • Transformation, nicht nur Automation: Begreifen Sie KI-Agenten als Customer-Experience-Transformation, nicht nur als Kostenoptimierungsprojekt – die Chance liegt in grundlegend besseren Kundenbeziehungen
  • Top-Management-Thema: Machen Sie Agenten zu einem strategischen Thema auf Vorstandsebene, wie es viele führende Unternehmen bereits tun
  • Langfristige Vision entwickeln: Bereiten Sie sich auf eine Welt vor, in der jeder Kunde einen persönlichen, 24/7 verfügbaren Agenten mit vollem Kontext hat
  • Upskilling-Initiative starten: Investieren Sie frühzeitig in die Weiterbildung von Mitarbeitern für komplexere Aufgaben und Supervisor-Rollen

Die Transformation des Kundenservice durch KI-Agenten ist keine ferne Zukunftsvision mehr, sondern findet bereits heute bei führenden Unternehmen statt. Die Technologie ist ausgereift, die Use Cases sind identifiziert, und die ersten Erfolge sind messbar. Wer jetzt startet – mit dem richtigen, iterativen Ansatz – kann nicht nur signifikante Effizienzgewinne und Kosteneinsparungen realisieren, sondern vor allem eine Kundenbeziehung aufbauen, die bisher nicht möglich war. Die Kombination aus intelligenten Agenten für Standardfälle und hochqualifizierten Menschen für komplexe Situationen schafft eine Customer Experience, die sowohl skalierbarer als auch persönlicher ist als je zuvor.


Zum Gast: Malte Kosub

Felix Riedl

Erfahre jeden Freitag aus erster Hand, wie Unternehmer und Führungskräfte AI einsetzen.