No.
54
DKB

Wie die DKB einen Digital Agent entwickelt, der einen Großteil aller Support-Anfragen löst

Mit
Sascha Dewald
Entdecke, wie du KI in deinem Unternehmen erfolgreich einsetzt: DKB-CGO Sascha Dewald verrät, wie GenAI den Kundenservice revolutioniert, welche Erfolgsfaktoren und Herausforderungen es gibt und wie du echte Transformation schaffst.


In dieser Episode des AI FIRST Podcasts spricht Felix mit Sascha Dewald, Chief Growth Officer der DKB, über die beeindruckende KI-Transformation einer der innovativsten Banken Deutschlands. Ein faszinierender Einblick in die praktische Umsetzung von Gen-AI in einem hochregulierten Umfeld - von den ersten Experimenten bis hin zu über 2 Millionen Chat-Sessions.

Inhaltsübersicht 

  • Saschas KI-Journey seit 2018 - Vom IBM Watson Chatbot zur Gen-AI Revolution
  • Der Digital Agent der DKB - 80% Resolution-Rate und 2 Millionen Chat-Sessions
  • Technische Umsetzung - Multi-Model-Architektur und Sicherheitsmaßnahmen
  • Governance-Framework - Innovation und Compliance erfolgreich vereinen
  • DocAI Revolution - Von Tagen zu 90 Sekunden bei der Kreditbearbeitung
  • Zukunftsvision Banking - Agentensysteme und der Kampf um die Kundenschnittstelle

Detaillierte Inhaltszusammenfassung

Die KI-Reise: Von 2018 bis heute

Saschas KI-Journey begann bereits 2018 mit einem Chatbot auf IBM Watson-Basis für Konsumentenkredite. Damals waren Data Scientists, teure Infrastruktur und komplexe Architekturen nötig. Heute ist KI demokratisiert - man braucht vor allem Mut und Verantwortungsbewusstsein. Die größte Veränderung: Wenn Maschinen Sprache verstehen und lernen können, lassen sich Prozesse und Kundeninteraktionen komplett neu denken.

Der radikale Ansatz: Menschlichen Erstkontakt abschaffen

Im Sommer 2023, mitten in einem großen Transformationsprojekt, formulierte die DKB ein radikales Ziel: Den menschlichen Erstkontakt im Kundenservice bis 2026 weitgehend abschaffen. Nicht als Effizienzhebel, sondern um Kunden 24/7 verlässliche, kompetente Antworten ohne Warteschleife zu geben. Das Ziel: 20-25% aller Anfragen (1,5 Millionen pro Jahr) über den "Digital Agent" lösen.

Design-Sprints und Kundenfeedback

Durch umfangreiche Design-Sprints und Tests mit echten Kunden entstanden überraschende Erkenntnisse: Niemand wollte die klassische Chat-Bubble oder Avatare. Stattdessen Integration direkt in die Suchleiste, kurze und präzise Antworten statt empathisches "Rumgelaber". Diese Learnings flossen direkt in die Entwicklung ein.

Technische Umsetzung: 100% Gen-AI

Nach anfänglichen regelbasierten Versuchen setzt die DKB heute zu 100% auf Gen-AI. Ein geclustertes Sprachmodell (aktuell GPT 4.5) wird durch ein Ensemble-Modell überwacht: Anthropic Claude 3.7 prüft jede Antwort. Nur bei 80%iger Übereinstimmung wird die Antwort ausgespielt. Regelmäßiges Prompt-Fuzzing durch das eigene Team testet die Sicherheit.

Beeindruckende Erfolge

Die Zahlen sprechen für sich: Über 2 Millionen Chat-Sessions, wöchentlich sechsstellige Nutzung, 80% Resolution-Rate und jede dritte Kundenanfrage wird direkt über den Bot abgewickelt. Transparenz ist dabei key - der Bot gibt sich klar als KI-Agent zu erkennen, keine Täuschung der Kunden.

Governance-Paradoxon lösen

Das zentrale Learning: "Governance ohne Use Case bleibt PowerPoint, Use Case ohne Governance wird gefährlich." Die DKB entwickelte ein hybrides Modell - zentrale Leitplanken, aber keine Handschellen für dezentrale Teams. Über 500 Testszenarien vor dem Live-Gang, kontinuierliche Validierung und adaptive Governance-Strukturen.

DocAI: Prozessrevolution

Der nächste große Schritt ist DocAI für Dokumentenverarbeitung im Kreditgeschäft. Automatisierte Klassifizierung, Extraktion und Erstprüfung führen zu über 50% Straight-Through-Processing-Rate. Bearbeitungszeiten schrumpfen von Tagen auf Minuten - der schnellste Konsumentenkredit wurde in 90 Sekunden ausgezahlt.

Multi-Model-Architektur

Die DKB setzt bewusst auf Anbieteragnostik: OpenAI GPT, Microsoft Azure Copilot und Anthropic Claude laufen parallel. Diese Redundanz schützt vor Ausfällen und ermöglicht Use-Case-spezifische Optimierung. Die Sam Altman-Krise 2023 war ein Weckruf für diese Strategie.

Agentic Era: Transaktionale KI

Der Digital Agent entwickelt sich vom Info-Bot zum transaktionalen Assistenten. Heute kann er bereits Limits anpassen, Karten sperren/entsperren und ins Kernbankensystem schauen. Die Vision: Komplexe Prozesse wie Baufinanzierungen über natürliche Sprache abwickeln.

Enterprise AI und Kulturwandel

Parallel zu vertikalen Use Cases baut die DKB eine Enterprise AI für alle 4.000 Mitarbeiter auf. Onboarding, Reporting, Präsentationserstellung - die Arbeitsweise verändert sich fundamental. Prompting wird zur Kernkompetenz wie Excel in den 2000ern. Führung wandelt sich vom Kontrollieren zum Coachen.

Kernaussagen

  • "Von einer 85-prozentigen Planungsgenauigkeit konnten wir durch KI auf über 80% Resolution-Rate steigern - jede dritte Kundenanfrage läuft über unseren Digital Agent."
  • "Governance ohne Use Case bleibt für immer PowerPoint und Use Case ohne Governance wird dann relativ schnell gefährlich."
  • "KI ist einfach deutlich demokratischer geworden - es gibt viel weniger technische Eintrittsbarrieren, aber mehr Verantwortungsnotwendigkeit."
  • "Der Kampf um die Kundenschnittstelle ist real - Banken müssen aufpassen, nicht nur noch als Backend-System zu verkommen."
  • "Wir haben über 2 Millionen Chat-Sessions gemacht, wöchentlich sind wir mittlerweile sechsstellig unterwegs."

Fazit und Takeaways

Die Episode zeigt exemplarisch, wie eine etablierte Bank erfolgreich den Sprung ins KI-Zeitalter schafft. Wichtige Erkenntnisse:

  • Mut vor Perfektion: Nicht auf perfekte Regeln warten, sondern iterativ vorgehen
  • Kundenfokus statt Effizienz: Echten Nutzen für Kunden schaffen, nicht nur Kosten sparen
  • Transparenz schafft Vertrauen: Offene Kommunikation über KI-Einsatz bei allen Stakeholdern
  • Governance als Enabler: Leitplanken ohne Handschellen für Innovation
  • Multi-Model-Strategie: Anbieteragnostik für Sicherheit und Flexibilität
  • Kulturwandel mitdenken: Mitarbeiter auf die neue Arbeitswelt vorbereiten

Sascha sieht die Zukunft in Agentensystemen, die Kunden, Berater und Systeme in Echtzeit verbinden. Voice-Integration, Super-App-Ansätze und der Kampf um die finale Kundenschnittstelle werden die nächsten Jahre prägen. Die DKB positioniert sich als AI-first Bank für diese Zukunft.


Links:

Zum Gast: Sascha Dewald
Zum Host: ⁠⁠⁠⁠Felix Schlenther

Herzlich willkommen zum AI-First-Podcast. In dieser Folge zu Gast ist Sascha Dewald, der Chief Growth Officer von der DKB, die in den letzten Jahren einen der größten Gen-AI-Use-Cases in Deutschland zumindest umgesetzt haben, wenn nicht sogar auch darüber hinaus. Darüber werden wir sprechen, aber auch, wie man KI in einem hochregulierten Umfeld trotzdem in In die Umsetzung bringen kann und wie Sascha auf die Zukunft von Banken im KI-Zeitalter blickt. Sehr spannende Folge, Sascha, toll, dass du da bist. Felix: KI begleitet dich ja schon viel viel länger, als man jetzt so mag mit vielen Menschen, die so diesen Chat-GBT-Moment hatten. Du beschäftigst dich schon länger Erzähl mal kurz, was ist so dein Background und was fasziniert dich so an dem Thema? Sascha: Ja, total gerne. Also wie du sagst ich bin jetzt verantwortlich für alles, was so Konzernstrategie ist, aber auch Kommunikation, Marke [00:01:00] darunter sind auch Presse Public Affairs. Sustainability ist ein großer Blumenstrauß und ich darf auch ein bisschen bei dem Thema künstlicher Intelligenz mitmischen. Habe vorher lange das Thema Retail Banking also Privatkundengeschäft bei der DKB mit einer ganz tollen Kollegen mitverantworten dürfen. Und davor war ich aber kein Banker sondern ich hatte viele Abenteuer in internationalen Startups, habe ein bisschen was selber gegründet und das meiste waren auch tatsächlich Fintechs. ich habe, ich glaube, hatten wir im Vorgespräch auch darüber gesprochen, tatsächlich 2018 mit einem kleinen Team bei meinem damaligen Fintech Finreach hieß das, so ein Chatbot gebaut. Das war komplett noch auf Basis von IBM Watson. Damals war KI noch nicht mal ein Buzzword und niemand wusste so richtig, was es ist und was ist die Abgrenzung auch zu Machine Learning Und man musste irgendwie alles selber bauen, was es heute einfach komplett out of the box gibt. Aber dieser Chatbot war so einer der ersten Conversational Banking Use Cases. Das war damals so ganz groß und eigentlich war nur Voice gemeint und wir haben gemeinsam mit der DKB [00:02:00] ein Onboarding für Konsumentenkredite quasi konzipiert und in so einer Entwicklungspartnerschaft dann auch gebaut und Das hat so ganz gut funktioniert, natürlich noch, am Ende war es halt eine geklickte Strecke aus, komplett rule-based, fairerweise alles, was mich damals schon fasziniert hat daran, ist auch heute noch so, ja, es war damals schon kein eigentliches Tool, sondern es war so ein Denkprinzip ja, und ich habe damals schon immer so auch mit Kollegen und Freunden darüber schwadroniert, ob das mal irgendwann so ein Assistenz wird, so ein echter Kollege oder sowas ja. Felix: Ja, und was würdest du sagen mit dem heutigen Blick auf KI? Was von damals ist noch genauso und was hat sich komplett verändert? Sascha: Ich glaube das größte Thema in der Veränderung ist für mich die Zugänglichkeit. 2018 Brauchte man zum einen ganz viele Data-Scientisten Man brauchte eine wahnsinnig teure Infrastruktur. Wir waren damals auf Noris Networks Da gab es noch nicht wirklich Cloud überall, weder [00:03:00] bei der DKB noch bei uns. Alles war total kompliziert. Es gab auch Infrastruktur und Architektur war echt schwierig. Und heute braucht man eigentlich vor allem Mut und Auf der anderen Seite braucht man ein bisschen Verantwortungsbewusstsein Also ich glaube, KI ist einfach deutlich demokratischer geworden als damals. Es gibt viel weniger technische Eintrittsbarrieren weniger Hürden. Dadurch natürlich aber auch mehr Verantwortungsnotwendigkeit und Verantwortungsbewusstsein an der Stelle. Aber ich glaube... Wenn Maschinen Sprache verstehen, was sie ja offensichtlich tun, sonst würden wir darüber auch jetzt nicht so sprechen, wenn Maschinen aber auch noch mehr lernen und noch an diesem ganzen neuen Kontext wachsen können, dann kann man als Organisation, als Unternehmen, auch als Startup Prozesse komplett neu denken. Du kannst Kundeninteraktionen über die gesamte Wertschöpfungskette komplett neu denken und damit natürlich auch schlussendlich deine Organisation neu gestalten. Felix: Mich interessiert wie ihr diesen Weg bei der DKB eingeschlagen habt Ich würde genauso sagen wie du, dass KI ja komplett [00:04:00] demokratisiert wurde und diese ganzen Eingangshürden deutlich deutlich herabgesenkt worden Sascha: Dank. Felix: weil ihr mit sehr sensiblen schützenswerten Daten arbeitet. habt ihr euch diesem neuen Biest an Technologie mit all seinen Möglichkeiten, aber auch irgendwie den Risiken die damit einhergehen, genähert Sascha: Ja, das war glaube ich 2023, so im Sommer. waren inmitten von einem sehr großen internen Transformationsprojekt und wir wollten damals so auch komplexe Prozesse, die wir hatten, gerade so in der Krise Kreditsachbearbeitung im Geschäftskundenbereich, im Privatkundenbereich, viele Prozesse vereinfachen und modernisieren und noch viel mehr automatisieren. Und das war ja so eine ganz wilde Zeit. Im Sommer 2023, ChatGBT schwappte durch die Medien. Ganz viele Leute haben auf einmal über nichts anderes mehr gesprochen als AI. Und plötzlich war gefühlt alles anders. Es [00:05:00] wurde halt irgendwie wie die nächste Sau durchs Dorf getrieben. Und dann haben wir uns entschieden, wir wollen da mitspielen und wir wollen nicht nur so den kleinen Zeh ins Wasser stecken, sondern wir wollen das richtig machen. Und dann haben wir geschaut was wir auch in unserem Transformationsprojekt damit wirklich anfangen können. Die DKB hatte zu diesem Zeitpunkt Schon so ein paar klassische AI-Use-Cases live. Wir waren in der E-Mail-Bearbeitung, aber auch zum Beispiel im E-Mail-Routing, im Kundenservice, hatten wir bereits KI mit drin. Im ganzen Thema also Betrugserkennung, Phishing und sowas hatten wir tatsächlich noch Themen. waren also nicht mehr so ganz im Kindergarten von AI, aber in dem Bild zu bleiben, würde ich sagen, schon noch ziemlich in der Jugendforscht-Kategorie. Und uns war es damals... Schon wichtig, mit etwas zu beginnen, das echten Nutzen für Kundinnen und Kunden stiftet und nicht nur so die interne Effizienz befriedigt und so die nächsten Kostcutting-Maßnahmen bringt. Das heißt, fairerweise alle haben damals in 23 nur über Effizienzhebel in Backend gesprochen. Also auch wenn du [00:06:00] mit Beratungen gesprochen hast, McKinsey BCG etc., die haben immer gesagt, ihr müsst vor allem halt eure Kosten runterprügeln und ihr könnt das als Effizienzhebel bauen. Wir wollten aber... Unseren Kunden was Gutes tun. wollten aber nicht sofort das gesamte Kundengeschäft halt ausrollen, sondern zunächst erstmal klein und iterativ beginnen und überhaupt erstmal verstehen, was unsere Kundinnen und Kunden darüber denken und ob sie das überhaupt nutzen wollen, weil man muss ja auch sagen, erinnere dich mal zurück, das war so zu einer Zeit, da gab es total viele Chatbots, aber die waren halt, Richtig blöd teilweise. Also ich würde sagen, salopp fast so dumm wie Alexa. Das heißt, rule-based, aber die waren so Avatare und meistens haben die nicht funktioniert und mussten dann wieder noch neue Nachfragen und haben eigentlich bei Kundinnen und Kunden für mehr Desillusionierung und Frustration gesorgt als für wirkliches Interesse. Felix: glaube, viele Menschen haben gelernt, dass Chatbots nicht funktionieren Sascha: Dank Felix: Chatbots dieses gelernte Verhalten wieder umzubiegen, [00:07:00] würde ich sagen. Was macht denn euer Chatbot anders? Sascha: haben dann ein ziemlich radikales Zielbild erstmal so formuliert was man so macht, wenn man so ganz klar in so einem Transformationsprojekt herangeht. Und zwar haben wir damals gesagt, wenn ich mich richtig erinnere wir wollen den menschlichen Erstkontakt im Kundenservice bis zum Jahr 2026 weitgehend abschaffen. Und das klang natürlich erstmal nicht nur radikal und total kundenunfreundlich Sondern wir mussten das auch sehr schnell nachschärfen, weil wir haben ganz klar gesagt, es geht uns nicht um Ersatz von Agents sondern es geht uns darum, quasi den Kunden dort zu helfen, wo die Fragen entstehen und dann auch zu jeder Tageszeit zu helfen und das Ganze schnell und verlässlich. Und wir haben halt gesagt, wir wollen Kundinnen und Kunden 24-7 Antworten geben. Die verlässlich sind, die mindestens genauso gut sind wie von einem Menschen, kompetent sind und das Ganze ohne jegliche Warteschleife. Und dann haben wir gesagt, in der finalen Ausbaustufe sollte dieser Chatbot, wir haben den Digital Agent genannt, nach damaliger Planung so 20, [00:08:00] 25 Prozent aller Anfragen lösen. Das waren damals bei der Planung so 1,5 Millionen Anfragen pro Jahr. Und das sollte ehrlicherweise dann mit der fortschreitenden Entwicklung von Gen AI natürlich noch deutlich mehr werden. Und wir haben dann gesagt, Im ersten Schritt bauen wir mal so einen Info-Agent, den wir dann nach und nach personalisieren Das heißt, wir bauen den auf einer Webseite, dann auf ins Webbanking und später in die Apps rein. Und in der zweiten Phase bauen wir den dann wirklich zu einem Single-First-Contact-Channel aus. ja, wir haben dann tatsächlich gestartet wie in jedem guten Startup, mit den typischen Design-Sprints. Wir haben dann so ziemlich alle... Gen-AI-Studien gesichtet, die es damals gab. Es waren vielleicht noch nicht viele. Haben dann alle Chatbots gebenchmarkt, die es international so gibt. Und dann haben wir Userflows gebaut und die dann mit echten Kunden vertestet. Und das war total spannend, weil das Ergebnis war so ganz anders als ich es zum Beispiel mir vorgestellt habe, auch gegen unsere eigenen Annahmen. Also [00:09:00] Überraschung Nummer eins war, wenn ich mich richtig erinnere dass niemand wollte diese... Klassische Chat-Bubble. Niemand wollte so ein Avatar, sondern alle haben gesagt, wir wollen eine Integration direkt in die Suchleiste. Was mich total überrascht und auch geflasht hat, weil ich meinte so es ist doch gar kein gelerntes Verhalten. Ja, also ihr wollt doch weg von den FAQs, aber das war tatsächlich das, was zu 90% in den Fokus-Routen rauskam. Und die Menschen wollten kurze Antworten knackige Antworten und nicht so langes und empathisches oder vermeintlich empathisches Rumgelaber, sondern wirklich Präzisionen Und weniger geschwätzig. Und das haben wir dann gemacht. Wir haben das dann in die Suche integriert später in alle Hilfeseiten, in alle Kontaktbereiche und haben dann mehr und mehr versucht, so Antizipationsfeatures einzubauen. Das heißt, wenn du den Satz beginnst, dass wir relativ schnell... Naja, ist ja klar, verstehen konnten, was ist jetzt das nächste Wort, was du suchst bei den Stichwörtern, haben dann Folgefragen gestellt und haben von Anfang an so eine Bewertungsmöglichkeit auch aufgestellt, damit Kunden bei jeder [00:10:00] Konversation dir sagen können, gleich finde ich gut oder fand ich jetzt nicht so gut. Felix: Und wie viel in diesem Konversationsfluss mit dem Bot ist regelbasiert und wie viel ist tatsächlich Gen-AI? Weil ich sehe das normalerweise Bei sehr, sehr vielen Bots, dass doch die NutzerInnen so einen Flow geschoben werden und ich als NutzerIn aber schon merke, nein, nein ich weiß jetzt schon, wie es weitergeht, aber genau da will ich ja eigentlich gar nicht hin, weil ich will ja eigentlich was anderes. Aber der Bot, der macht Sascha: Vielen Felix: ja bitte verbinde mich mit meinem Agent und bin frustriert. Und genau das ist ja eigentlich das Schöne, dass ich jetzt Gen-AI habe, die hier viel mehr Flexibilität bietet. dem Nachteil dann von Halluzination, Prompt Injection und so weiter da gibt es ja auch wirklich die dollsten Fails Einer den ich immer wieder auch in so Workshops zeige, ist wie ein User einem Chevrolet Chatbot beigebracht hat, ihm den Chevrolet für einen Dollar zu Sascha: [00:11:00] Ja. Felix: ich ganz gut. Also genau, wie bringt ihr diese beiden, diese Flexibilität und gleichzeitig so Leitplanken zusammen? Sascha: Ja, es ist ganz einfach. Tatsächlich haben wir auch so ein bisschen regelbasiert begonnen, weil es viel einfacher ist und weil du, wie du richtig sagst, du hast total die Sicherheit. Das heißt, du kannst ganz klare Schranken geben, weil du einfach am Ende die Dokumentenbasis hochlädst und sagst In dieser Dokumentenbasis kannst du dich austoben, aber mehr nicht. Und dann haben wir relativ schnell festgestellt, das ist totaler Murks und fällt eigentlich auch bei jedem Feldtest wirklich durch. Das heißt aktuell und jetzt auch schon seit über einem Jahr ist es zu 100% Gen-AI. Das heißt, es ist ein geclustertes Sprachmodell von einem Anbieter. Können wir ja nachher nochmal drüber sprechen, welche wir da im Einsatz haben und welche taugen und welche vielleicht nicht so sehr. Und das Ganze ist in einer geclusterten Umgebung von uns, was wir quasi gefeintuned haben. Umgebung von was wir Und hierauf wird dann die Inferenz ausgegeben, also die Antwort für den Kunden. Und natürlich ist es genauso, wie du sagst du [00:12:00] hast hier die... Einfach deutlich höhere Gefahr bzw. höhere Wahrscheinlichkeit dass auch mal eine Halluzination da rauskommt, wenn du es über Prompt Fuzzing, Prompt Injection etc. natürlich dann auch triggerst. Das tun wir ehrlicherweise selber sehr, sehr regelmäßig Das heißt, wir haben ein Team, was mindestens einmal im Monat als Data Scientist versucht, das System zu manipulieren und lahmzulegen über Prompt Fuzzing und wirklich versuchen, so einen kleinen Manipulationsangriff zu starten damit wir auch dieses System immer darauf trainieren, Nicht nur die, ich sag mal, sich zu geopolitischen Themen zu äußern oder sowas sondern es geht vor allem in die Richtung, dass es nicht völlig falsch irgendwie abbiegt falsche Zinssätze vorschlägt oder vollkommen falsche Themen den Menschen sagt, weil wie du eingangs gesagt hast, wir sind als Bank natürlich auch nochmal hier besonders in der Pflicht das Thema Datenschutz, das Thema Regulatorik wirklich eindeutig zu formulieren und uns hier keine Fehler erlauben zu lassen. Felix: Damit setzt ihr die generative KI und die Fähigkeiten so ein, wie [00:13:00] sie tatsächlich sinnvoll sind. Das ist klasse zu hören, dass das auch in einer Bank funktioniert. Wie nah seid ihr denn eurem Ziel von den 25% der Erstanfragen die über den Bot abgewickelt oder beantwortet werden sollen, bisher gekommen? Sascha: Ja da sind wir sehr nah rangekommen und das Ganze auch sehr schnell. Also wie ich gesagt habe, haben wir... Erst mal angefangen alles auf unserer Webseite quasi zu verändern. heißt, wir haben uns die Kanäle angeschaut wie wollen wir die verteilen und das Website-Thema mit dem Suchschlitz war so der heilige Gral, hier erstmal reinzugehen. Dann sind wir relativ schnell ins Webbanking gegangen und dann später in die App. Heute haben wir insgesamt mehr als zwei Millionen Chat-Sessions bereits gemacht. Wöchentlich sind wir mittlerweile sechsstellig und Da haben wir uns so ganz, ganz viele KPIs gegeben. Also ich will da nicht ganz so tief eingehen, weil ich glaube, das ist schon so ein bisschen Nerd Talk. Aber gerade in so einem Customer Service Center hast du quasi die wichtigsten KPIs in First Time Resolution und Average Handling Time. Das heißt, du [00:14:00] versuchst so die Zeit, mit der du mit Kunden sprichst so schnell wie möglich natürlich auch wirklich hinter dich zu bringen. Sowohl aus Kundenzufriedenheit als auch natürlich aus Effizienzgesichtspunkten Gleichzeitig aber auch das Thema First-Time-Resolution. Ist wahnsinnig wichtig, damit die Kundin oder der Kunde nicht immer wieder anruft sondern wirklich fallabschließend verlässlich das Thema ganz am Anfang dann auch löst. Und wir haben eine aktuelle Resolution-Rate von über 80%. Damit habe ich nicht ansatzweise gerechnet. Das bedeutet, auf Ganz einfach im Deutsch, dass vier von fünf Anfragen, die eine Kundin oder ein Kunde stellt, der Bot wirklich alleine erledigt. Und das ist natürlich super gut. Das heißt, wir messen aber auch hier ganz wichtig immer das Thema NPS und CSAT also Customer Satisfaction, damit wir... Wirklich auch verstehen, wie ticken die Kundinnen und Kunden und wie schaffen wir es hier einfach noch mehr Zufriedenheit reinzukriegen, damit auch noch mehr Kunden das Ganze annehmen. Man kann auch jetzt, glaube ich verraten dass aktuell jede dritte Kundenanfrage [00:15:00] direkt über den Bot abgewickelt wird und nicht im Service über die Telefonie oder über Kontaktformular einkommt. Und ich finde das ist halt wahnsinnig wichtig und das schaffst du indem du praktisch Vor allem klar bist, indem du auch transparent bist und indem du hier auch einfach überall sichtbar zum Beispiel schreibst, das ist ein KI-Agent. Ein paar von unseren Wettbewerbern und auch was man so in der Vergangenheit gesehen hat, steht immer mal, es ein Mensch ist. Das heißt, der KI-Agent gibt sich als Mensch aus, teilweise sogar total verschroben andersherum. Aber ich finde, Transparenz ist hier ganz wichtig, es halt keine... Blackbox ist und du dem Kunden oder der Kundin halt wirklich signalisierst, okay, du sprichst jetzt hier über KI, wenn du wirklich einen Menschen möchtest, dann hast du die Möglichkeit zum Telefonhörer zu greifen oder ein Kontaktformular oder eine E-Mail zu schreiben, aber an der Stelle ist es jetzt erstmal die KI. Okay, spannend. Ich würde sagen, dass ihr damit einen der größten Gen-AI-Use Cases in Deutschland bisher umgesetzt habt. Sascha: [00:16:00] Ja, aktuell ja, das glaube ich auch. Also das ist vom kleinen Zeh ins Wasser stecken tatsächlich sehr schnell auch groß geworden und genau das ist es dann halt, wenn du dann auch darauf dann eine, ich sag mal, professionelle Governance und ein Framework für Governance aufbaust, dann musst du dir genau überlegen gerade für die vertikalen Use Cases, wie gehst du dann weiter voran und was sind so die nächsten Schritte? Felix: Ja, da möchte ich jetzt von dir lernen und auch die Zuhörer, denn du kennst sie ja auch, diese ganzen Berichte die so durch die Welt schwirren wie viele AI-Piloten denn am Ende nie Das Licht der Welt sehen, beziehungsweise noch wieder in der Versenkung verschwinden und ich finde es immer verrückt, dass diese Zahlen so hoch sind, aber da gibt es verschiedene Narrative, mit denen man da drauf blicken Sascha: Vielen Felix: seid ja ein super Beispiel, dass auch in einer hochregulierten Industrie es funktionieren kann, aber was waren eure Erfolgsprinzipien? Was würdest du sagen, was habt ihr gemacht, was dabei geholfen [00:17:00] hat? Wir bleiben einfach jetzt mal bei diesem Use Case von, ihr steckt den kleinen C ... Ins Wasser mit großen Ambitionen und dann Sascha: Dank. Felix: für Stufe für Stufe um den Einfluss und die Ergebnisse die ihr daraus zieht immer weiter steigern zu können. Sascha: Ja, ich glaube, eines der relevantesten Themen ist tatsächlich, wie du und auch wie seriös und wie professionell du das Thema Governance dann auch betreust. Und ich glaube, das ist so dieses klassische Governance-Paradoxon. Das heißt, Governance ohne Use Case bleibt für immer PowerPoint und Use Case ohne Governance wird dann relativ schnell gefährlich Und ich glaube, beides muss wirklich iterativ sein Wachsen. Und ich glaube, Ohne da jetzt zu tief in das Thema Governance eintauchen zu wollen. Aber ich glaube, auf perfekte Regeln zu warten, ist eigentlich keine Option dafür. Es ist diese Technologie einfach zu schnell. Die Technologiesprünge geschehen halt nicht jährlich oder pro Dekade sondern wir reden hier über Wochen, Tage, manchmal Stunden. [00:18:00] Also wenn du dir das mal anschaust, was alleine jetzt in den Dev Days von OpenAI in den letzten, ich glaube, 24 Stunden passiert es und released wurde. Da kommst du ja gar nicht mehr mit dem Lesen hinterher. Und genauso wenig tun es natürlich auch die Aufsichtsbehörden. Und das Ganze wenn du jetzt auch mal einen Blick in die Felix: Vielen Sascha: Banken schaust, da haben wir natürlich mit einer BaFin eine deutsche Aufsicht mit der Bundesbank auch, aber mit der Europäischen Zentralbank auch noch eine europäische Aufsicht. Die haben noch keine fertigen Regeln. Die schauen natürlich auch nach Brüssel, auf den UAE Act und auf die nationalen Gesetzgebungen, aber auch die versuchen hier entsprechend zu lernen. Ich glaube ein zweites wichtiges Thema ist, dass Governance adaptiv sein muss. Das heißt, du brauchst eine gewisse Flexibilität und musst diese Themen auch immer wieder neu anpassen. Ich glaube, auch so in der alten Industrie sagt man, ja, ich habe hier meine Checks und Balances, die haben die letzten 20 Jahre funktioniert und das geht ja auch für AI. Am Ende ist es ja auch nur adaptiv Eine andere Technologie. Und da stimme ich halt gar nicht überein Ich glaube, das muss tatsächlich [00:19:00] vollkommen anders sein. Wir haben über Prompt-Fuzzing gesprochen. Ich kann gleich nochmal ein bisschen erzählen, wie wir tatsächlich uns auch versuchen, andere Validierungsmethoden da zu bauen. Aber ich glaube, das Wichtigste ist, dass Vertrauen hier durch Transparenz entsteht. Ich hatte so ein bisschen aus Kundensicht darüber gesprochen, dass man den Kunden immer mitnimmt und den auch sagt, so hey, hier ist KI drin. Das ist jetzt nicht nur ein Mensch. Aber es gibt ja noch ein paar mehr Stakeholder. Da ist jetzt der Regulator zum Beispiel, wo ich schon gesagt habe, die geben dir nicht unbedingt das richtige Set of Rules vor. Aber wenn du was falsch machst, dann stehen sie schon bei dir auf der Matte und erklären dir, dass du was falsch gemacht hast und wie du es zukünftig richtig machen kannst. Ich finde aber auch neben Regulatorik und Regulierung Partnern und Kunden ist es total wichtig, dass die Mitarbeitenden auch transparent mitgenommen werden, weil auch für die ist das ja alles neu und da gibt es ja Themen wie Shadow AI und Co., wo es nicht ganz klar ist in einem Unternehmen zum Beispiel, was darf man mit künstlicher Intelligenz alles machen, welche E-Mails mit Schutzbedarfsklassen mit super geheimen Themen gehen vielleicht dann einfach in ChatGPT [00:20:00] hoch und werden dann dort für das nächste Training weiterverwendet und das sind, glaube ich so die Botschaften die man auch immer wieder durchs Haus treiben muss, aber ich glaube, so ganz Ganz im Speziellen ist es einfach wichtig, sich jeden Teil von so einer Wertschöpfungskette eines vertikalen Use Cases wirklich vorzunehmen und dann sich zu überlegen, wie kann ich den jetzt plausibilisieren und validieren. Am Anfang haben wir, ich glaube über 500 Testszenarien vor dem Live-Gang von diesem Digital Agent gefahren Wir haben jede einzelne Antwort manuell veröffentlicht Da saßen halt irgendwie eine kleine Armee an Leuten, die einfach jeden Prompt sich angeschaut hat, um zu schauen, okay, wie ordne ich den jetzt ein. Und irgendwann haben wir dann aber relativ schnell gemerkt, das sind jetzt nicht nur 100 Anfragen pro Tag oder 1000, sondern zehntausende zu unterschiedlichsten Themen. Das kann kein Mensch Mehr leisten. Wir sind relativ schnell darauf gekommen, dass wir ein Ensemble-Modell dann eingebaut haben. Das bedeutet, dass du quasi ein zweites Modell ein zweites Sprachmodell, die Regeln des Ersten halt einfach überschauen lässt. Das hat so ein bisschen [00:21:00] den Nachteil dass die Antwort dem Kunden so 1,5 bis manchmal 2,5 Sekunden zu spät ausgespielt wird. Was aber im Hintergrund passiert, bei uns jetzt ganz speziell, ist, dass ich in unserem Chatbot gerade GPT 4.5 noch drin habe von OpenAI. Und bevor die Antwort an dich jetzt als fragenden Felix in deiner DKB-App ausgegeben wird, schaut nochmal kurz Anthropic Cloud 3.7 drauf. Und wenn 80% der Antwort identisch ist, die Cloud geben würde, wird die Antwort dir ausgespielt. Wenn sie das nicht ist, dann kommt sie auf so einen Gelbhaufen dann wird erstmal nichts ausgespielt und der Chatbot versucht erstmal so ein bisschen drumherum zu reden, um nochmal zu verstehen, ob die Frage vielleicht ein bisschen konkreter gestellt werden kann und alle gelben Antworten Antworten werden dann tatsächlich einem ausgespielt, der das Ganze sich dann anschaut und dann gibt es entweder nachträgliche Blocking, wenn es eine rote Antwort wäre, oder es gibt halt irgendwie nochmal eine Veränderung. Promptfuzzing haben wir vorhin auch schon drüber gesprochen. Ich glaube, Stresstests sind wahnsinnig wichtig. [00:22:00] Also viele fragen immer, warum macht ihr so viel Aufwand? Das läuft doch alles, ist doch okay, wenn mal eine Halluzination dabei ist, naja, dann ist das halt so. Aber wie wir schon besprochen haben, du musst halt Nicht nur 90% richtige Antworten geben, sondern wirklich 100%. Und dadurch, dass KI einfach keine statische Software ist, sondern sich permanent auch verändert und auch dazulernt, das halt nicht möglich. Das heißt, ich glaube, ganz am Ende heißt das, vollständige Governance heißt, dass du dich komplett langsam machst und lärmst. Aber wenn du es halt gar nicht machst, dann hast du ein brutales Chaos. Felix: Du hast gesagt, dass Claude das erste Modell überwacht Was ist das erste Modell an das der Prompt oder die Anfrage des Nutzers geschickt wird? Sascha: Bei Digital Agent ist es tatsächlich OpenAI GPT 4.5 zurzeit. Wir spielen hier aber auch mit mehreren Modellen permanent rum. Das ist ja auch immer so ganz spannend, was ich immer gefragt werde, ist, ob wir eine Exklusivität mit OpenAI [00:23:00] haben, weil wir diese Entwicklungspartnerschaft recht medial groß gemacht haben, auch vor, ich weiß nicht, drei, vier Monaten. Und ich immer sage, ja, das hat sich tatsächlich gut ergeben. Das war ein toller Medien-Moment Aber wir haben auch über Microsoft Azure Copilot laufen. Wir haben über Anthropic Cloud laufen und wir versuchen... Immer anbieteragnostisch zu sein und je Use Case immer mindestens zwei Anbieter auch gleichzeitig live zu haben. Also das ist auch bei mir so ein bisschen so eine tief verwurzelte Angst, du wirst dich daran erinnern Ich glaube, wann war das? November 2023. Wir hatten gerade so die ersten Themen mal live. Freitag auf damals noch GPT 2.3. glaube, Samstag wurde dann Sam Altman gefeuert seinem Board, sollten 700 weitere Mitarbeiter gehen und ich dachte, ja cool, wenn wir Montagfrüh aufwachen, dann sind wir einfach blank, weil dann ist der Anbieter unseres Vertrauens wahrscheinlich nicht mehr da, der existiert dann nicht, weil die alle zu Microsoft drüber gelaufen sind. Sollte dann anders kommen und alles war wieder gut, aber so eine gewisse Redundanz und [00:24:00] Anbieteragnostik ist hier ganz doll wichtig, auch gerade wenn du sagst EU-Datenschutz, Hosting Du willst auch checken wie halluzinieren die unterschiedlichen Modelle auf den unterschiedlichen Use Cases. Was haben die für eine Latenz? Haben die eine gute Cloud-Integration zum Beispiel? Und ich glaube, deswegen ist so eine Multi-Model-Architektur immer sehr gut, um daraus ein Ökosystem zu bauen. Felix: Wie Plant ihr denn jetzt euren Agent weiterzuentwickeln, weil das Schöne ist, wir kommen jetzt in diese Agentic Era, ich will jetzt auch mal dieses Buzzword hier fallen lassen, also das Schöne ist ja jetzt, dass KI immer Sascha: Vielen Felix: ausführen kann und zusätzlich zur Antwort, die sie geben kann. Und gleichzeitig gibt es ja immer Sascha: Dank. Felix: Plant ihr da, den Agent über weitere Kanäle und mit weiteren Use Cases auszustatten? Und wenn ja, wie blickt ihr da drauf? Sascha: Total. Also ich glaube, unser Plan ist jetzt sehr schnell transaktional zu [00:25:00] werden. Und also tatsächlich in deinen Worten agentic. Das ist, glaube ich per Definition genau das. Das heißt... Aktuell kann der Digital Agent nicht nur deine einfachen Fragen beantworten wie, keine Ahnung, was ist der aktuelle Tagesgeldzinssatz oder sowas sondern du kannst fragen, was ist mein Limit? Das heißt, er kann tatsächlich ins Kernbankensystem hineinschauen. Und dir dann die Frage beantworten Und wenn du jetzt sagen würdest, hey, ich möchte mir ein neues Mikrofon kaufen, weil mein Mikrofon hat es mittlerweile hinter sich und ich brauche mehr Qualität bei meinem Podcast, dann könntest du dem Digital Agent die Frage stellen in deinem Banking, sag mal, ich will mir hier dieses neue tolle Schure oder Rode Mikrofon kaufen, ohne jetzt Werbung zu machen, oder Und ich mir das überhaupt leisten? Und dann würde der Agent eine Sekunde nachdenken und würde sagen, naja, auf deinem Girokonto sind jetzt gerade vielleicht nur noch 400 Euro, das wird schwer, da hast du auch kein Limit hast auch keinen Verfügungsrahmen, auf deiner Kreditkarte ist ein bisschen mehr. Aber ich würde vorschlagen, ich räume dir heute mal ein Limit von 1.000 Euro ein. Dann kannst [00:26:00] du dir dein super Mikrofon kaufen. Das Limit würde ich aber morgen dann wieder zurückdrehen. Und bitte pass darauf auf, wenn du es in einem Shop kaufst was der vielleicht, weiß nicht, in Portugal oder Spanien ist, dass du deine Karte auch für dieses Land freischaltest, weil es aktuell in den Ländereinstellungen ist, ist nicht eingeschaltet. Soll ich das für dich übernehmen, lieber Felix? Und dann würdest du sagen, ja, und dann macht der Agent das. Das geht heute schon. So, das sind... Also vermeintlich einfache Prozesse, also auch Adressänderungen oder du stehst am Flughafen merkst deine Karte ist weg, kannst du die sofort sperren musst dich nicht mehr selber durchklicken sondern sagst dem Agent, jetzt alle meine Karten sperren wurden gestohlen, nächste Sekunde sind die gesperrt. Wenn du sie dann vielleicht doch wieder findest, weil du ein bisschen besser gewühlt hast, kannst du sie danach auch alle wieder entsperren. Aber... Unser Traum ist tatsächlich, dass du es ein bisschen, oder unser Plan vielmehr ist, dass du es Schritt für Schritt auf komplexe Prozesse ausweitest. Das kann dann eine von der Baufinanzierung sein oder das kann eine Umschuldung von Krediten sein. Und ich glaube, wir nennen das Action Layer. [00:27:00] Das heißt, die KI greift dann hier erstmals nicht nur auf dieses typische CRM zu, sondern wirklich tief in Kernprozesse von diesem sogenannten Kernbankensystem. Und wer sich ein bisschen auskennt in Banken weiß, dass... Diese klassische Infrastruktur sehr Legacy-seitig ist, das heißt wir reden hier bei Volksbanken Sparkassen, Deutscher Bank tatsächlich über Systeme die halt irgendwo in den 60er 70er Jahren gebaut wurden und da wurde jetzt sehr viel Architektur von Software drumherum gebaut, das ist nicht immer wahnsinnig förderlich wenn du da mit KI-Systemen halt irgendwie und vor allem mit tausenden von Anfragen gleichzeitig drauf zuprasselst. Felix: Das glaube ich sehr gern. Ab wann geht denn der Digital Agent ans Telefon wenn ich bei euch im Kundenservice anrufe? Oder macht ihr das heute auch schon? Sascha: Das machen wir noch nicht. Das wäre tatsächlich eine Voice-Integration Finde ich wahnsinnig spannend. Vertesten wir gerade mit Kunden und Kundinnen. Das finden nicht alle interessant. Das ist so ein bisschen auch... Also in den USA ist das so der... ... shit, was es [00:28:00] so gerade gibt. Das heißt, die ganzen großen Anbieter, auch Genesis und so, bieten vor allem das Thema Voice Agents an. Was da passiert, OpenAI bietet das an, aber es gibt zum Beispiel auch in Berlin ein tolles Startup, was eine riesen Finanzierungsrunde gerade gemacht hat, Paloa. Die bieten an, dass du dann einfach irgendwo in der App ... Wenn du Knopf drückst willst du jetzt anrufen oder dass du tatsächlich die gute alte Telefonnummer anrufst und da geht dann ohne Warteschleife sofort ein Agent dran. Wenn du das aus der App machst, weiß der auch schon, wo du gerade bist und kann antizipieren, was du vielleicht für ein Problem hast. Wir sind wieder beim Limit, das heißt, er würde rangehen, hey Felix, hast du ein Problem mit deinem Limit, soll ich dir helfen? Vielleicht willst du was ganz anderes machen, hast ein Fraudproblem oder sowas da könnte dir auch sofort helfen. Am Ende ist das einfach nur ein Gen-AI-Bot, der tatsächlich komplett an deinem Datensatz klebt und über natürliche Sprache bedient werden kann und natürliche Sprache auch wieder ausgibt. Und das Ganze funktioniert mittlerweile wirklich in fast allen relevanten Sprachen so gut, dass der auch deine... Emotionen mitkriegt. Also [00:29:00] der passt sich deiner Sprechgeschwindigkeit dann an, wenn du sprichst Je nachdem auch, was du für ein Dialekt hast, kann der sich deinem Dialekt ansprechen. Wenn er merkt du bist vielleicht ein bisschen aufbrausend weil du ein bisschen sauer bist oder sowas dann zieht er dich bewusst ein bisschen langsamer und versucht tatsächlich so deine zu modularisieren so ein bisschen. Und das Ganze vertesten wir gerade. Ich finde es ist ein sehr interessanter Use Case. Es ist allerdings dann auch dieser Schritt Ganz weit weg vom echten Menschen, weil, und das hatte ich eingangs gesagt, ich möchte damit nicht einen Effizienzhebel aufdrehen und unbedingt den Menschen obsolet machen, sondern ich möchte für eine Zielgruppe die immer digitaler und schneller wird und mehr auf Convenience achtet, ähm Aber es gibt genau auch die Zielgruppe der Silver Surfer und Co., die sagen, das ist alles total super, was ihr da macht. Aber wenn ich ein Problem mit meiner Baufinanzierung habe, möchte ich mit einem Menschen sprechen und zwar einem echten aus Fleisch und Blut. Und das will ich ehrlicherweise meinen sechs Millionen Kundinnen und Kunden auch als Möglichkeit geben, dass sie das [00:30:00] tun können. Deswegen, wir schauen es uns an, aber mal sehen ob wir es einführen. Felix: Okay, spannend, dein differenzierter Blick darauf, finde ich gut. Wer dazu noch mehr wissen will, der Malte, der Gründer von Paloa, war hier auch schon im Podcast, einmal im Player ein bisschen runterscrollen dann könnt ihr da nochmal verstehen, wie er auf das Thema blickt. Super spannend, vor allem die Use Cases die du beschrieben hast, die ihr heute schon wegautomatisiert, beziehungsweise wo der Bot die Aktion ausführen kann. Adressänderungen, so einfache Anpassungen im Account weil das ist ja wirklich nichts, was ein Mensch zwingend machen muss oder wo menschliches Wissen, Fähigkeit, Expertise unbedingt benötigt wird und die Ressourcen könnt ihr ja dafür jetzt freisetzen für genau diejenigen, die dann wirklich richtige Probleme haben, wo menschliche Empathie Urteilsvermögen, Intuition dann doch nochmal hilfreicher ist. Sascha: Ja, ganz genau, genau so ist es. Felix: Ich will nochmal eine Sache ein bisschen besser verstehen. Und zwar habe ich jetzt rausgenommen, dass ihr euch diesen [00:31:00] Big Bang Use Case Sascha: Vielen Dank. Felix: erstmal diesen Leuchtturm aufgebaut habt. Habe ich das richtig verstanden spreche ja auch mit vielen anderen Unternehmen und viele sagen, wir gehen erstmal in die Breite und wir enablen erstmal unsere internen Teams und bauen so KI-Kompetenzen auf, rollen so eine interne KI-Plattform aus, auf der dann erstmal gearbeitet werden kann und daraus entstehen dann vertikale Use Cases im Customer Support, Marketing, Sales, Finance und so weiter. Ich habe jetzt verstanden, dass ihr eher den anderen Weg gegangen seid oder habe ich das falsch verstanden? Sascha: Du hast das total richtig verstanden. Also wir haben... Erst so ein bisschen rumexperimentiert mit ganz vielen Themen, wollten dann aber, weil es Teil von diesem Transformationsprogramm war, tatsächlich auch sehr schnell zu Ergebnissen kommen. Das heißt, wir sind so von generischen Ideen sehr schnell zu dieser sehr geschäftsspezifischen Anwendung gekommen quasi. Wir haben uns aber auch andere Sachen angeschaut. Also wir haben uns angeschaut wollen wir das Thema [00:32:00] Fraud betrachten Noch tiefer anschauen oder Unterstützung in der Kreditprüfung Prozessautomatisierung und hatten dabei so dieses Prinzip, erstmal ein bisschen lernen, dann aber sehr schnell skalieren und dann auch sehr schnell und Haben gesagt, dass das Thema Kundenservice ist halt einfach eines der vermeintlich einfachsten Themen mit dem größten Hebel tatsächlich auf der Kundenseite. Und das würde ich auch tatsächlich jedem raten. So KI-gestützte FAQ-Support-Chatbots, mittlerweile ist das, kannst du von der Stange kaufen, kannst du relativ einfach einführen, bringt dir aber einen riesigen Hebel dazu Happy Customer, du hast schnellen Service, du hast deutlich weniger Hotline-Volumen und ich glaube, dann kommt es so ein bisschen auf die Organisation an. Ich glaube, womit sich jeder rumschlägt ist Dokumentenverarbeitung, Klassifizierung, Extraktion, Validierung Das ist ein Thema, was wir kurz danach begonnen haben. Wir nennen das Doc.AI [http://doc.ai/] und das ist so für uns der nächste wirklich große Schritt. Aber ich glaube, das kann eigentlich jedem Industrieunternehmen jedem Startup sogar [00:33:00] helfen. Was macht Doc.AI [http://doc.ai/] bei uns? Das automatisiert so die Dokumentenbearbeitung im Kreditgeschäft, also im Retailbanking-Kreditgeschäft. Das heißt, das liest die Kreditverträge, die Informationen vom Kunden, das klassifiziert das, das extrahiert das. Das macht eine Erstprüfung und übergibt das Ganze dann ins Kernbankensystem. haben heute schon über 50% sogenannte Straight-Through-Processing-Rate. Das heißt, die Bearbeitungszeiten schrumpfen hier von Tagen auf Minuten mittlerweile. Das heißt, du hast ganz viel Produktivitätsgewinn, du hast deutlich weniger manuellen Aufwand kannst schnellere Entscheidungen treffen, produzierst weniger Papier Und für den Kunden ist das halt was ganz Tolles, weil die... Wir brauchen halt nicht mehr Wochen, teilweise Monate, um halt irgendwie auf eine Baufinanzierung zu warten, sondern einen Tag. Wir haben das zum Beispiel jetzt in unserem Konsumentenkredit. Also wenn du, keine Ahnung, ein gebrauchtes Auto kaufen willst und dafür einen Konsumentenkredit oder ein Solarkraftwerk oder sowas dann kannst du zurzeit in Minuten, ich glaube, der schnellste war 90 [00:34:00] Sekunden, ist dein Geld auf deinem Konto. Und das Ganze ist halt voll automatisiert. Und das ist halt interessant. Und ich glaube auch... Wenn du mit solchen Use Cases mehr und mehr dich beschäftigst, dann veränderst du vor allem auch die Kultur in deinem Unternehmen. Das ist so dieses AI first. Das heißt, durch diese total andere, cross-funktionale, vor allem datengetriebene Zusammenarbeit du daran an, deine Prozesse nicht mehr zu akzeptieren, sondern wirklich grundlegend auf den Kopf zu stellen. Und dann sagst du, okay, dann lässt du die Governance nebenher laufen, aber du veränderst damit die Art und Weise, wie du solche Tools und solche Software tatsächlich auch im Unternehmen dann einführst. Felix: Wer macht denn sowas bei euch? Habt da jetzt ein großes KI- und Datenteam aufgebaut? Hattet ihr das alles schon? Wo ist das organisatorisch aufgehangen? Sascha: haben uns ganz bewusst gegen den Aufbau eines riesigen KI-Elfenbeinturms entschieden und uns stattdessen Für ein hybrides Modell entschieden, also zentralisiert und dezentral gleichzeitig. Zentral sitzen bei uns die Leute, die [00:35:00] das Große und Ganze im Blick haben. Also Menschen, die Business, Product, Tech verstehen. die werden ergänzt durch Data Scientists, durch JuristInnen, Governance-ExpertInnen und auch ArchitektInnen. Und dieses zentrale Team baut dann quasi die Guardrails also Leitplanken damit AI in der gesamten Bank funktioniert Sicher, verantwortungsvoll und auch verlässlich eingesetzt werden kann. Und dabei ohne jedes Mal quasi über rechtliche Risiken über Datenschutz oder die nächste Modellvalidierung dann auch nachzudenken. Aber das ist uns auch wirklich wichtig, die dezentralen Bereiche die haben nur Leitplanken, aber die haben halt keine Handschellen dann. Dass sie genau diese Demokratisierung wirklich leben und eigenständig neue Anwendungsfälle dabei entwickeln können. Und unsere Governance bleibt dabei immer lernend, sie bleibt flexibel. Sie ist also kein per se oder per Definition, sondern sie ist eher so ein Beschleuniger, der Innovation überhaupt erst ermöglicht. Und wenn es um horizontale oder prozessübergreifende Use Cases geht, also wie [00:36:00] eine Prozess-AI oder eine Arbeitsplatz-AI, die dann bankweit eingesetzt wird, Dann kommt die zentrale Einheit wieder viel stärker ins Spiel, weil die definiert dann die Standards, die orchestriert die Umsetzung über die gesamte Organisation und die sorgt vor allem so für Education-Programme dafür, dass wirklich jede Kollegin und jeder Kollege genau diese Systeme auch versteht anwenden kann und vor allem im Alltag dann auch nutzen kann. Felix Schlenther: Kurz in eigener Sache. Wenn dir der AI First Podcast gefällt und du mehr spannende Inhalte und hochkarätige Gäste hören möchtest, dann freue ich mich über deine Unterstützung. Mit einer Fünf-Sterne-Bewertung und einem Abo für den Podcast hilfst du uns sichtbarer zu werden und AI First weiterzuentwickeln. Für dich und die gesamte Community. Ich danke dir. Felix: uns doch mal jetzt einen Blick in die Zukunft werfen und erstmal interessiert mich, wie du jetzt den weiteren KI-Einfluss auf Sascha: [00:37:00] Dank Felix: werden. Ich würde sagen, der ganze Rechtsbereich ist zum Beispiel etwas, wo es relativ eindeutig ist, dass da super viel mit Sprache gearbeitet wird und jetzt gibt es große Sprachmodelle. Es ist Sascha: Vielen Felix: dass da eine Menge passieren wird. Und dass das Gleiche bei einer Marketingagentur passiert, ist auch relativ klar. Im Banking frage ich mich noch so, wie wird eine Bank eigentlich wirklich anders aussehen in ein paar Jahren gibt es so AI-first Banking-Visionen oder sowas Und ich da noch nicht so richtig in meinen Kopf drum geschlungen bekommen. Wie siehst du denn die Zukunft im Banking und welche Rolle spielt KI dabei? Sascha: Ja, ich glaube, das ist also wirklich eine total spannende auch fast schon philosophische Frage für die Zukunft. Und ich glaube... KI wird vom Tool, vom kleinen Helferlein wirklich zum voll ausgestatteten Kollegen für uns in der Zukunft. Ich glaube, dieser Kollege wird tief integriert sein in alle Bausteine in alle Prozesse in alle Workflows. Und ich glaube, auch Banken [00:38:00] werden langfristig eher auch so zusammengesetzt Also so Agentensystemen die dann ihre Kunden, ihre Berater und ihre Systeme wirklich in Echtzeit miteinander verbinden. Also ich glaube, zurzeit ist es ja noch so, dass der gute Deutsche hat halt bei seiner Bank sein Konto seine Karten seine Baufinanzierung sein Depot. Und dann gibt es die Versicherung und da gibt es genau das gleiche nochmal für die Lebensversicherung Und all das wird wahrscheinlich irgendwann verschwimmen Themen rund um Non-Bank und Near-Bank werden dann smoother. Wenn wir so ein bisschen nach Asien schauen, da sehen wir ja WeChat zum Beispiel als so eine super App. Da hat gar nicht so wahnsinnig viel nur mit Geld und Transaktionen zu tun, aber auch. Du kannst da halt irgendwie quasi alles in dieser einen App machen. Und wenn man sich jetzt überlegt, WeChat quasi auf... AI-Steroiden, die alle über MCP-Konnektoren miteinander verbunden sind, und du tatsächlich nur noch einen Suchschlitz hast, worüber du das Thema führst, dann ist das wahnsinnig spannend. OpenAI hat gestern was Tolles released, weil sie auch sagen, sie haben jetzt mit Spotify, mit [00:39:00] Booking etc. halt wirklich echte Konnektoren geschaffen, dass du die App... In dem eigentlichen GPT auf deinem iPhone oder auf deiner Browser-Version quasi emulieren und dadurch bedienen kannst. Das Ganze natürlich dann agentic das heißt du kannst es nicht mehr nur noch buchen. Letzte Woche dann mit der Stripe-Integration kannst du es dann auch noch bezahlen oder kannst halt klar irgendwie festsetzen was bezahlt werden darf und was nicht. Und ich glaube... Das wird uns hier mehr und mehr reichen Revolut zum Beispiel, auch eine europäische Bank, die überall in die Welt gerade expandiert, versucht diese AI-first-Use-Cases zu bauen und dann auch miteinander zu verbinden. Ich glaube, ganz wichtig ist aber immer dieser Fokus, was will ich als Unternehmen eigentlich schaffen und ich glaube auch hier trennt sich bald so ein bisschen die Spreu vom Weizen Weil so viele immer noch voll auf Effizienz und auf Kostengewinne gehen. Und verstehen mich nicht falsch, auch wir versuchen das natürlich in unseren strategischen Entscheidungen mit einfließen zu lassen. Aber ganz am Ende entscheidet die Kundin und der Kunde. Und die Die sind jetzt halt [00:40:00] schon so drauf, dass sie uns als Bank in unseren Befragungen immer wieder vergleichen mit, ja, aber in meiner Uber-App oder in meiner Netflix-App ist das ja so und so und so und warum muss ich bei euch diese vielen Klicks machen und dann noch eine Authentifizierung, das nervt doch alles. Und ich glaube hier werden wir gemessen, ja, und wenn du irgendwann sagst, so, keine Ahnung, personalisierte Finanzführung vom so automatischen Cashflow-Hinweis zur Next Best Action im Online-Banking, ähm. Das wird, glaube ich so dieser Financial Assistant, das wird es schon irgendwann werden und ich glaube, die Basis sind wie immer die Daten. Je größer und je komplexer eine Organisation und Banken im Besonderen sind, desto komplexer sind auch diese Datensilos und diese Dokumente und strukturierten und unstrukturierten Informationen und wenn die sich perfekt auslesen lassen, dann kannst du, glaube ich, Als Bank, auch gerne wenn du echte Berater noch draußen hast für das Thema Wertpapiergeschäft, die wirklich miteinander verbinden. Und dann hast du halt einen Berater-KI-Copilot, der wirklich schnell ist, präzise ist [00:41:00] und genau das dem Kunden im richtigen Moment verkauft was er eigentlich haben will. Hoffentlich. Felix: Okay, also wenn es jetzt richtig verstanden habe, also man würde einen Großteil von dieser Komplexität von so einer Bank mit allem, was die Bank so für den Kunden machen Sascha: Dank. Felix: sprechen kann, bereitstellen, der alles über diesen Nutzer und Kunden weiß und alles über die Bank weiß und Sascha: Untertitelung Felix: KI, Slash Agenten wie auch immer man das dann nennen möchte, diese Services, Angebote weiterhin bereitstellen, aber den Weg dorthin und die Nutzbarkeit deutlich erhöhen. Sascha: Absolut. Genau, Felix. Weil ich glaube, dieser Kampf um die Kundenschnittstelle ist ja immer, immer wieder da. Und Banken haben das über Jahre weggelächelt Dann hatten wir irgendwann Angst vor Apple, die mit der Apple Card auf dem Markt kamen Es ist nicht viel passiert. Dann hatten wir Angst vor den ganzen Big Techs, [00:42:00] die aber auch nicht so richtig tief sich integriert haben in das ganze Thema Banking und Financial Services. Ein bisschen im Payment, aber die Kundenschnittstelle hat immer noch die Bank. Und ich glaube, das ist jetzt aber wirklich in Gefahr weil wenn du dir anschaust, wie jetzt schon E-Commerce durch diese besagte Stripe-Integration zum Beispiel, aber auch wenn man sich anschaut was Perplexity mit Comet jetzt macht, diesen neuen Browser, dann braucht es... Es braucht kein SEO mehr. Es braucht diese Arten von E-Commerce-Shops gar nicht mehr, weil sie eigentlich nur noch zum Storage und zum Fulfillment verkommen. Und ich glaube, hier müssen wir Banken und Banker darauf aufpassen, dass wir nicht abgewatscht werden, nur noch als System und die Kundenschnittstelle völlig verlieren sondern die muss quasi auch von uns selbst abgewatscht Gebaut werden? Und warum nicht zum Beispiel über so eine Suche-Integration, wo wir das entsprechende Backend sind und dann auch einfach nur noch ausspielen, was der Kunde im richtigen Moment sehen will, weil die ganze auch von dir beschriebene Komplexität und auch dieses ganze regulatorische Aufsichtsrecht, das ist dem Kunden doch total egal.[00:43:00] Der möchte in Echtzeit möglichst seine Frage ganz kurz beantwortet haben und eigentlich schon wieder weiter surfen. Und genau hier komme ich halt rein und sage, okay, wenn ich diesen AI Assistant für dich habe, der komplett in diesem ganzen Core Banking mit drin ist, dann kann ich dir... Deine Limits anpassen, da kann ich dir dein Payment machen, egal, wo du gerade was bezahlen willst auf der Welt, weil du willst diese physische Karte nicht haben. Du willst keine Baufinanzierung machen oder keinen Autokredit abschließen. Du willst das Auto kaufen, du willst den Fernseher kaufen oder das Mikrofon oder du willst halt etwas bezahlen und der ganze Weg dazwischen der kann dir egal sein und darüber Deswegen definieren sich viele Banken in Deutschland und Europa immer noch und ich glaube das wird total obsolet Es geht einfach nur noch um diesen letzten Schritt und wenn du den Kunden so einfach wie möglich machen kannst und wirklich so seamless integrated in seine persönliche Welt, ich glaube, dann hast du es geschafft und dann hast du auch wieder diese hohe Relevanz Felix: wird dieses Interface die DKB App sein oder der DKB Financial Assistant sein [00:44:00] oder wird es nicht ChatGPT oder vielleicht doch der Apple Assistant, der dann wiederum auf alle anderen Agents zugreift aber das Also ich bezeichne das gerne Sascha: Vielen Dank. Felix: Ich glaube, es geht, der Kampf um dieses letzte Interface hat irgendwie begonnen. Und wahrscheinlich wird es irgendwas mit Sprache zu tun haben, aber wahrscheinlich werde ich nicht mehr auf Webseiten gehen oder mich durch Apps durchklicken oder ähnliches, sondern ich will ja eigentlich nur noch mit meinem iPhone oder so sprechen. Und das iPhone soll mich kennen und soll... Alle anderen Services kennen, die ich nutze mit schlauen Schnittstellen, um dann das zu erledigen oder die Informationen zu besorgen, die ich brauche. Und dann gibt es wahrscheinlich auch Sascha: des ZDF Felix: Reise kaufe oder mein Auto, dann will ich mich schon auch nochmal selbst darüber informieren und mir nicht noch nur was von einem Agent erzählen lassen. Sascha: [00:45:00] Dank. Felix: DKB, damit 800 Millionen Menschen, die gerade in ChatGBT jede Woche sind und diese Zahl wird wahrscheinlich noch weiter steigen, dann darüber eure Services nutzen können? Sascha: Gute Nachricht ist, wir haben bereits mit OpenAI gepartnert Wir waren die erste europäische Bank die das getan hat und die erste deutsche tatsächlich für eine Weile. Das heißt, wir haben eine Entwicklungspartnerschaft und die ist, nennen wir es mal so, es ist keine Einbahnstraße. Trotzdem glaube ich persönlich fest daran, dass wir zumindest noch ein paar Jahre Zeit haben, die Kundenschnittstelle mit dem Interface auch zu besetzen. Aber ich bin voll bei dir. Das wird immer weniger und ich glaube auch, es wird sich irgendwann eine Schnittstelle bilden von einem Anbieter wo wahrscheinlich einfach ein Großteil der Anfragen halt irgendwie dann auch konsolidiert ist. Ob das Apple ist, weiß ich so nicht so richtig, um ehrlich zu sein. Ich glaube, bis letztes Jahr hätte ich viel Geld darauf gewettet dass sie es sind. Und mittlerweile komme ich ins Zweifeln. Aber [00:46:00] warten wir es mal ab. Es kann irgendeine proprietäre Schnittstelle sein, irgendeine offene. Auch Meta hat sich komplett neu erfunden seitdem es Gen-AI gibt. Das heißt, ich glaube, das ist interessant, wenn wir uns zum Beispiel anschauen, wie leise Meta das ganze Thema AI entwickelt Agent in Facebook, in Instagram, aber vor allem auch in WhatsApp eingeführt hat und so vollkommen neue Usergruppen erschlossen hat, von unseren Eltern, teilweise Großeltern, die bis dahin überhaupt nicht, also die wissen nicht, was Gen AI ist und trotzdem haben sie jetzt diese kleine Suchbubble dort und können einfach sich Sachen zusammenfassen lassen oder irgendwas komplett off-topic oder random fragen und die wissen nicht, was dahinter steht, die wissen nur, ich habe eine Frage, kriege eine Antwort und ich glaube genau Darum geht es ja auch in der Demokratisierung. Und ganz am Ende, ich persönlich glaube total daran, dass wir eine absolute Reinkarnation von Voice erleben und dass wir dann wahrscheinlich deutlich weniger noch über Interfaces machen werden und alles nur noch sehr viele Themen über Voice laufen, auch komplexeste Themen. Wir beide haben [00:47:00] gerade Apple AirPods Pro, wenn ich richtig schaue, bei dir auch in den Ohren, wir dann nutzen, um mit unserem Assistant zu sprechen, wie es bei Marc-Uwe Kling in Quality Land 1 und 2 vor fünf oder acht Jahren schon war und unser Leben dann tatsächlich organisiert für uns. Wenn das Ganze dann mit einer DKB-MCP-Schnittstelle verbunden ist, freue ich mich tierisch, wenn nicht, muss man sich was anderes überlegen. Felix: Jetzt haben wir viel über die Kundenperspektive Gesprochen. bewertest du denn Sascha: Vielen Dank. Felix: ein Digital- oder ein Unternehmen mit einer digitalen DNA. Das hat ja da auch einen riesengroßen Impact. ich würde mal sagen, wir kommen jetzt aus dieser Early Adopter Phase in die Fast Follower und dann so in diese Early Majority. Also jetzt kommt KI und die Nutzung von KI immer mehr im Business und auch in der Gesellschaft an. Wie bereitet ihr euch da vor? Wie stellt ihr [00:48:00] sicher, dass ihr eure Leute da auf dem Weg mitnehmt? Sascha: Das ist eine wahnsinnig interessante weil... Wir haben uns auch eine ganze Weile damit beschäftigt diese vertikalen Use Cases zu bauen und waren hier immer mit die Ersten und haben dann aber relativ schnell gemerkt, dass es dann doch ein kleines Team ist, was das dann führt und wir sind jetzt eine Organisation von ein bisschen mehr als 4000 Kolleginnen und Kollegen und wir haben sehr schnell dann gemerkt, wir brauchen Dieses Demokratisierungsprinzip überall. Das heißt, wir bauen jetzt gerade eine Enterprise AI, also so eine Arbeitsplatz-KI, die nicht nur den Chat-GPTs, sondern tatsächlich auch über unterschiedlichste GPTs und Co. die Arbeitsweise von den Menschen verbindet. Das ist beim Onboarding super. Weil du kannst dann, hast dann perfekte Onboarding-Tutorials die quasi live auf deine Jobbeschreibung erstellt werden. Du musst nicht mehr bei HR oder bei deinen Kollegen irgendwo halt irgendwie betteln, dass du mit Wissen versorgt wirst. Das Gleiche gilt aber auch, wenn es um Reporting geht, wenn du irgendwas suchst aus den letzten [00:49:00] Jahren, wenn du eine schnelle Präsentation für einen Vorstand machen willst. Dabei kann dir dieser Agent dann tatsächlich helfen. Das Gleiche gilt für Prozesse. Wir arbeiten... Mit einer anderen Software jetzt hin zum Thema Prozess-AI, dass wir hier auch einfach diese sehr komplexen regulatorischen Bankprozesse extrem entschlacken und tatsächlich auf das Wesentliche runterdampfen. Immer noch sicher, immer noch hundertprozentig compliant, aber diese ganzen Sondernocken die sich über die Jahre, Jahrzehnte da quasi auch in den Systemen angepasst haben, die tatsächlich rauszunehmen. Was wir schon sehen, ist, dass die Arbeit sich dadurch fundamental verändert. Das heißt, Die Dateneingabe, die viele Jahre noch absolut wichtig war, Ist einfach irgendwann nicht mehr relevant, sondern es geht dann ganz klar hin zur Entscheidungsbegleitung für viele Einzelentscheidungen, die getroffen werden. Und das Thema Prompting wird einfach so zur aktuellen Kernkompetenz wie, ich würde sagen, Excel so in den frühen 2000ern war. Ich glaube, auch das wird nicht mehr ewig sein, [00:50:00] aber zurzeit ist es schon noch wichtig, dass die Menschen diese Enterprise AI dann auch so bedienen können. Wie sie dann auch bedienbar sein muss. Und ich glaube, es entstehen komplett neue Skills. Das Thema Datenkompetenz ist wahnsinnig wichtig. Es sind nicht nur die da hinten bei Business Intelligence, die irgendwas mit Daten machen, sondern wir müssen diese Daten aus den Silos rauskriegen. Und jeder muss irgendwie mit Daten arbeiten können. Und ich glaube, ganz am Ende sind es auch so Sachen wie Also kritisches Denken. Also ich muss alles, was mir diese Maschine dann ausspuckt jetzt nochmal ein bisschen mehr hinterfragen Ist es eine Halluzination? Ist es wieder nur ein Pleasing, weil mein Bot nett zu mir sein will? Oder ist es wirklich halt irgendwie die Wahrheit? Und auch Führung wird sich dadurch komplett verändern. Dieses typische, auch ich sag mal altdeutsch-hierarchische Führung Kontrollieren, halt weggehen, weil halt auch tatsächlich alle Ebenen deutlich mehr enabled werden und es wird mehr zum Coachen und zum Enablen gehen, weil die Organisation einfach per Definition dadurch autonomer wird [00:51:00] und ich hoffe auch für uns, dass die Leute das mehr und mehr umarmen, wenn wir das demnächst einführen, dass sie agiler werden, dass sie leistungsfähiger werden, aber fairerweise auch, dass sie einfach mehr Spaß bei ihrer Arbeit haben. Vielen Dank. Felix: vorwärtsdenkend und auch optimistisch was diese Technologie angeht Machst du dir auch manchmal ein bisschen Sorgen? Sascha: Ja, das mache ich. Ich sehe ja auch, was so passiert. Sowohl bei uns in der Bank, was das Thema Fraud und Phishing angeht. Seitdem es Gen AI gibt, gibt so viel neuen Missbrauch durch Deepfakes, durch Social Engineering. das ist Wahnsinn, ja. Auch gerade wenn dann Datenschutz irgendwo mal nicht gemacht wird. Und das ist ein riesengroßes Problem, nicht nur uns als Bank angeht sondern tatsächlich auch als Gesellschaft. Und ich glaube, hier ist es wichtig, gleichermaßen dieses Thema aufzunehmen Demokratisierung von Service und Wissen hinzukriegen was toll ist, gleichzeitig transparent zu sein und dieses Thema [00:52:00] Explainability einzunehmen aber auch ich bin ein großer Verfechter von Human in the Loop. Das bedeutet ganz am Ende, dass Wenn wir auch jegliche wirklich komplexen Prozesse auch nach EU AI Act, wo es vielleicht ein bisschen in die Risikoaffinität dann reingeht, aber die dürfen wir nicht den Maschinen überlassen. Ich darf, also das ist meine feste Überzeugung, ich kann meine gesamte mein ganzes Scoring und meine Bonitätsanalyse bei Krediten nicht nur zu 100% der Maschine überlassen und selbst nicht verstehen, was da passiert. Es gibt... Viele Vertreter in der Branche, die sagen ja, warum denn nicht? Menschen machen auch viele Fehler und haben auch einen Bias also Vorurteile. Und dort hast du wahrscheinlich auch dann Entscheidungen, die dann auch von abweichen, wie es eigentlich gemacht werden sollte. Aber ich habe einfach Angst, dass ich diese Entscheidungen nicht hundertprozentig nachvollziehen kann. Das heißt, alles, was wir in diesen Bereich hineingehen wenn es irgendwann auch zu einer Kreditentscheidung geht, was ganz wichtig ist, die aktuell noch als Hochrisiko nach EUA [00:53:00] eingewertet wird, Aber wenn es dahin dann irgendwann geht, dass man die Zwischenschritte, die kleinen Prozessteilschritte in der gesamten Wertschöpfungskette von diesem Prozess so klein schneidet, dass ich sie nachvollziehen kann. Dass ich eine wirkliche Explainability bei jedem einzelnen Prozessschritt habe, um diesen dann auch schnell zu verändern und auswerten zu können. Und ich glaube, das ist etwas... Da müssen wir auch noch mehr ran. Und ein zweites großes Thema, und damit könnten wir wahrscheinlich einen zweiten Podcast führen, ist das ganze Thema digitale Souveränität. Ich habe mehr und mehr Sorge beim Thema Abhängigkeit und dass wir tatsächlich so die Geschwindigkeit als Deutschland, aber auch als Europa in der Überregulation verlieren. Ich glaube ganz fest daran, wir müssen gerade auch in dieser aktuellen geopolitischen Lage mehr auf, Deutsche, europäische Resilienz gehen und da reicht es aus meiner Sicht nicht, auch wenn das nicht so geschätzt ist, gerade dieser Gedanke dass SAP jetzt eine Open AI Cloud bei sich selber dann betreibt. Sondern ich glaube ganz fest daran, wir müssen ja auch selber ins Erfinden gehen und dann tatsächlich [00:54:00] einen eigenen Footprint hinterlassen. Felix: Sascha vielen, vielen Dank für den tollen Podcast, dass du uns hier mal hast reingucken lassen in eure KI-Strategie und Sascha: Dank. Felix: einem hochregulierten Umfeld mit nochmal ganz anderen Anforderungen als so viele Unternehmen da draußen es schaffen können, erfolgreich Use Cases auf die Straße zu bringen und wünsche dir und dem Team da einfach ganz viel Erfolg auf dem weiteren Weg. Danke dir. Sascha: Vielen vielen Dank, Felix.
This is a success message.
This is an error message.