[00:00:00] Herzlich willkommen zum AI First Podcast.
Tobias Zwingmann: Vielen Dank.
Felix: Welt befeuern diese Entwicklung immer weiter. OpenAI, Google, Microsoft, Meta und Trophic und alle anderen beglücken uns jede Woche mit neuen Modellen Tools und KI-Fähigkeiten, die den Einfluss auf Unternehmen und auch die Dringlichkeit immer weiter steigern. wenn wir dann mal den Reality-Check machen, dann kommen aber ganz viele Firmen mit KI überhaupt nicht voran, verlieren sich in irgendwelchen Datenschutz-Diskussionen Haben kein klares Zielbild, bekommen ihre Excel-Tapete mit den 100 gefundenen Use-Cases nicht in die Umsetzung gebracht und der MVP-Friedhof wird immer größer.
Tobias Zwingmann: Dank
Felix: deswegen gibt es heute mal eine Folge, in der du lernst, was eigentlich die KI-Totsünden sind, wie [00:01:00] du sie vermeidest und von
Tobias Zwingmann: Vielen Dank.
Felix: wir alle immer wieder hören und die da draußen angepriesen werden und schlummern, das auch in die Umsetzung von profitablen Use Cases bekommst und dafür konnte ich für heute Tobias Zwingmann als Gast gewinnen, den ich sehr schätze für seine Arbeit und seine Inhalte und der mit über 70.000 Followern auf LinkedIn und seinem Blog The Augmented Advantage sehr erfrischende Perspektiven und umsetzbare Taktiken teilt. Tobias schön, dass du da bist.
Tobias Zwingmann: Ja, hi Felix, freut mich sehr.
Felix: Wir haben den 3. März 2025, wo wir das aufnehmen, muss ich immer dazu sagen, weil in zwei Wochen schon die Welt anders aussehen kann. Was ist denn dein Fazit der letzten zwölf Monate in der KI-Welt?
Tobias Zwingmann: Ja, also das ist echt immer so eine Sache mit so einem Fazit weil wie du es gerade schon angesprochen hast, in dem Moment, wo man den Satz ausspricht, ist der [00:02:00] Fazit ja schon fast wieder überholt. Aber eins der Sachen ist, was du auch gerade schon gemerkt hast, wirklich... Von der ersten Ideation, Prototyping oder so Mini-Use-Cases ich habe jetzt mal irgendwie Chat-GBT genommen, um eine bessere E-Mail zu schreiben, wirklich in irgendwas hineinzukommen was noch nicht mal unbedingt transformatorisch ist für ein Unternehmen, aber zumindest irgendwie profitabel, wo du irgendwie mehr Geld am Ende rauskriegst als das, was du da am Anfang entweder Hirnschmalz oder wirklich externen Kosten reingesteckt hast.
Und das ist das, wo ich gesehen habe, wo immer mehr Unternehmen jetzt gerade strugglen. Die ersten haben halt gerade in den letzten zwölf Monaten wirklich produziert
Felix: Vielen
Tobias Zwingmann: hier in Deutschland erste Schritte gemacht, wirklich erste Sachen irgendwie auf die Straße bekommen oder experimentiert oder irgendwie mal eine Subscription oder den Copilot eingekauft.
Also da sind Unternehmen schon sehr umtriebig Aber wenn es wirklich darum geht, jetzt am Ende zu sagen, okay, was hat es denn jetzt wirklich gebracht? Und vor allem, sollten wir das weitermachen oder nicht? Und wenn ja, in welcher Intensität? Dann ist da immer ein sehr großes Fragezeichen dran. Und das ist auch so das Thema, was mich aktuell am meisten beschäftigt.[00:03:00]
Felix: Gab es auf der Technologieebene irgendeine Entwicklung, die dich überrascht hat oder siehst du alles, was wir da so in den letzten zwölf Monaten bekommen haben, als eine eher
Tobias Zwingmann: natürlich.
Felix: An.
Tobias Zwingmann: Ja, also wirklich die krasse Überraschung bisher hatte ich ehrlich gesagt noch nicht. Wir hatten ja, als die Reasoning-Modelle rauskamen vor, das waren jetzt glaube ich sechs Monaten oder sowas gab es ja so ein bisschen die erste Diskussion geht das jetzt mal stärker in die Richtung, dass man diese Modelle mehr machen kann.
Aber am Ende des Tages haben alle, also wenn wir über generative KI sprechen, alle Modelle die gerade draußen sind oder jetzt auch veröffentlicht wurden, immer noch die gleichen Pitfalls wie ChatGPT 3.5. Also das sind immer noch so die gleichen Fallstricke, über die man fallen kann. Deutliche Verbesserungen was in Anführungsstrichen kognitive Fähigkeiten dieser Modelle angeht was man auch mal jetzt darunter verstehen mag.
Aber am Ende des Tages ist es immer noch so, dass wir sehr stark auf augmentierte Use Cases zählen müssen, insbesondere wenn man bei [00:04:00] einzelnen Anwendungsmodellen Bereichen anfängt. Und alles, was man sich so ein bisschen erhofft hat im Bereich Gentic AI und so, das ist glaube ich jetzt die Roadmap für 2025, wo das zum Schwur kommen wird, wo man sehen wird, okay, wie gut funktionieren wirklich diese hoch integrierten und hochautomatisierten Systeme Aber sonst unterm Strich für mich tatsächlich erstmal so nicht so viel Überraschendes dabei gewesen bisher.
Felix: Alles klar. Zum Outlook kommen wir nachher noch, damit die Leute hier auch dranbleiben und genau, damit jetzt alle dich noch ein bisschen besser kennenlernen. ja aus der Datenwelt und machst jetzt in den
Tobias Zwingmann: Untertitelung ZDF, Ja, gerne. Also aktuell mache ich wirklich 100% KI-Beratung sowohl Identifikation von AI-Opportunities also das heißt, wo gibt es Möglichkeiten, wirklich profitable Use Cases an den Start zu bringen, aber auch bis hin zur Implementierung, [00:05:00] Unterstützung davon. In den letzten zwei Jahren viel wirklich im Bereich Chatbots aber auch integrierte Gen-AI-Lösungen, wo es darum geht, Value Extraction oder Klassifikation beispielsweise auf Textdaten Wirklich eine relativ große Bandbreite und ja, die Rapid AI GmbH, die ich heute im Prinzip habe, sozusagen, wo über das AI-Consulting läuft, gibt es jetzt im Grunde seit fast fünf Jahren, viereinhalb Jahren, wo halt dieses AI-Consulting wirklich stärker im Vordergrund steht und vorher habe ich als Data Scientist gearbeitet bei einem Ja, bei einer großen Messegesellschaft hier in Hannover und habe da verschiedene Daten und Analytics-Use-Cases an den Start gebracht.
Sehr stark mit einem Kundenfokus also Kundensegmentierung, Churn Prediction, Next Best Offer Also diese Klaviatur sozusagen noch lange bevor es dann diesen Gen-AI-Boom gab. Und ich habe dann im September... Ja das muss im, also das, genau, im Juli 22 habe ich mein Buch mit O'Reilly herausgebracht, AI, Power und Business Intelligence.
Da ging es so ein bisschen darum, wie kann man jetzt [00:06:00] AI und Data Analytics zusammenbringen und dann kam irgendwie drei Monate später kam ChatGPT raus. Ich lege da immer sehr großen Wert drauf, weil das irgendwie das letzte Buch ist, was irgendwie vor ChatGPT herauskam, zumindest von mir und von ganz vielen anderen.
Und das war, insofern aber bin ich eigentlich ganz dankbar, weil das Buch ist insofern immer noch aktuell, dass quasi die Handlungsfelder, die ich damals aufgezeigt habe, auch heute noch relevant sind, natürlich mit generativer KI ist da nochmal eine Schippe da drauf gekommen, aber letzten Endes geht es wirklich darum, im Bereich insbesondere Data Analytics und so war auch die Brücke zu mir dann in den Bereich AI-Consulting hinein dass man wirklich KI in allen Stages von Data Analytics nutzen kann, also sowohl bei der beim Ingestion von Daten, also sozusagen Auslesen von Daten aus verschiedenen Systemen heraus oder Jetzt mal ganz platt formuliert, du hast irgendwie eine OCA, also eine Objekterkennung, Optical Character Recognition auf einem Dokument drauf, wo du Texte aus dem Dokument heraus extrahierst beispielsweise oder Tabellen und sowas bis hin dann wirklich zur Predictive und Prescriptive Analytics, wo du eben in die Zukunft vorhersagst was wird passieren und was sollte man dann tun.
Und da gibt es halt ganz viele Felder wo sich [00:07:00] das überlappt und wo es extrem viele spannende Use Cases gibt da drauf. Und so bin ich im Grunde an dieses ganze AI-Thema dann eigentlich reingekommen.
Felix: Und dann haben wir beide ein gemeinsames Hobby als Content Creator, Part-Time Hobby Content Creator, würde
Tobias Zwingmann: Dank
Felix: Wie spielt da dein Newsletter und dein LinkedIn-Content mit rein?
Tobias Zwingmann: Ja, das hat eigentlich auch angefangen mit dem Buch. Ich habe vorher schon immer auf LinkedIn eigentlich immer was geteilt aber wirklich ohne da jetzt irgendwie einen großen Plan von zu haben. Es war immer so ein bisschen zufällig Wenn ich etwas gefunden habe, habe ich ein bisschen was geteilt und so.
Und das lief dann eigentlich auch ganz gut, aber... In dem Moment, wo ich das Buch veröffentlicht habe oder geschrieben habe und das dann herauskam, habe ich dann angefangen im Grunde einzelne Chapter aus dem Buch quasi so klein zu schneiden und in wöchentlicher Newsletterform herauszugeben weil ich mir dann gedacht habe, write once and publish 100 times, das kann ich doch auch machen.
Jetzt habe ich ein ganzes Buch geschrieben mit 400 Seiten, da kann man doch ein [00:08:00] bisschen Content rausziehen. Und da habe ich dann wirklich erst mal angefangen, immer regelmäßig Newsletter zu schreiben Schreiben wo wirklich auch sehr, sehr viele Inhalte aus dem Buch dann drin waren und das Buch dann praktisch die logische Ergänzung dann dazu war.
Aber irgendwann natürlich war das Buch dann irgendwie auch ausgesaugt an Themen und dann habe ich einfach weitergeschrieben und dann kam ein anderes Thema und dann habe ich irgendwann mehr darüber geschrieben, wie das AI-Consulting bei mir läuft, welche Frameworks ich nutze, welche Use Cases ich gemacht habe und es hat sich dann irgendwie so organisch entwickelt, ohne dass ich da jetzt vorher großartig drüber nachgedacht habe, okay, wie sieht jetzt so Die nächste Pipeline jetzt irgendwie für den Newsletter aus.
Also ich stand heute jetzt eigentlich auch für Freitag Also heute ist Montag jetzt habe ich für Freitag auch noch keinen genauen Plan, was ich da schreibe, so ein paar grobe Ideen aber das ist wirklich was, was sich irgendwie so entfaltet. Und ähnlich genauso auch mit LinkedIn. Also alles, was da irgendwie passiert, ist irgendwie so mehr Dokumentation, als dass ich es jetzt irgendwie wirklich strategisch vorausplanen würde, was ich da tatsächlich tue.
Felix: Ja, super. Also wer hier [00:09:00] noch nach einem guten AI-Newsletter sucht schaut mal bei
Tobias Zwingmann: Vielen Dank.
Felix: with AI. Und da gehst du mal so ein bisschen auf die Don'ts und Do's ein, was man eigentlich bei der KI-Integration berücksichtigen sollte, um Mehrwerte für das Unternehmen durch die Technologie zu generieren.
Und wir haben uns vorgenommen... Dass wir mal durch die einzelnen Punkte gehen, die gemeinsam diskutieren und nicht nur die Schattenseite
Tobias Zwingmann: Untertitelung des ZDF, 2020
Felix: hast. Was wäre denn so für dich die Nummer eins, auf die man auf jeden Fall achten muss?
Tobias Zwingmann: Also Nummer eins ist erstmal anzuerkennen, dass wirklich die Mehrheit aller KI-Projekte erstmal scheitert. Da geht es [00:10:00] erstmal los. Also dieser Titel How to Fail with AI and How to Succeed ist insofern relevant, weil die ersten Use Cases, die ihr machen werdet oder die ihr im Unternehmen machen werdet, werden sie zum Zum ersten Mal mit AI loslegen, haben ein sehr, sehr hohes Risiko des Scheiterns.
Und da kommen unterschiedliche Ursachen herein Und ich beleuchte das so ein bisschen immer in einer Story, die ich halt in diesem ganzen How to Fail with AI erzähle. Und diese Story geht in verschiedenen Phasen oder in verschiedenen Akten. Und die erste Phase ist halt immer, dass sehr häufig Business Leader, also eher Leute, die wirklich aus dem Geschäft herauskommen, Irgendwie so eine Inspiration für KI bekommen.
Und ich zeige da immer sehr gerne das Werbevideo des Microsoft Copilot von, glaube ich, vor einem Jahr oder sowas. Wer das mal angucken mag, gerne auf YouTube irgendwie suchen, Microsoft Copilot, hier Announcement und so. Und dann sieht man halt, wie in Windows die Fenster durch die Gegend fliegen Und dann sagt einer hier, code mir eine App.
Und dann... Steht die App dann dahinter und dann so eine coole Musik noch im Hintergrund dazu und dann denkst dir danach, geil, das will ich auch haben. Und alle, die vielleicht schon mal den Co-Pilot im echten Leben gehabt haben, [00:11:00] ich will nicht sagen, dass es jetzt ein total nutzloses Tool ist, ja, um Gottes Willen, da kann man extrem viele Sachen mit machen, aber Anspruch und Wirklichkeit klafft da halt schon irgendwie auseinander und damit geht es halt los, mit übertriebener Erwartungshaltung, die halt sehr häufig auch geschürt wird von der Industrie die darauf ab ist, hier Lösungen zu verkaufen auch gegen einen guten Aufpreis und Der eigentliche sozusagen die eigentliche Wertschöpfung dann aber beim Kunden liegen muss.
Also quasi Microsoft oder jetzt einfach mal exemplarisch für alle anderen Anbieter jetzt mal. Das ist jetzt nicht speziell Microsoft jetzt irgendwie Bashing, sondern das geht im Grunde für alle KI-Tools da draußen. Das ist halt wie so, das wird einem hingestellt und gesagt, ja, jetzt kannst du damit coole Sachen machen.
Aber welche genau, das musst du jetzt so ein bisschen selber herausfinden. Und das musst du auch selber jetzt tun. Und da sind halt viele Unternehmen mit überfordert Ja, damit geht es schon los, würde ich sagen, mit der falschen Erwartungshaltung, was KI eigentlich kann und was KI nicht kann.
Felix: Ja, also kann ich nur bestätigen, wahrscheinlich werden wir uns in vielen Punkten einig sein. Von wo [00:12:00] kommt denn diese, von wo wird denn diese unrealistische Erwartungshaltung getrieben? Ist das primär von den Tech-Anbietern oder siehst du da auch uns Consultants mit in der Pflicht da vorsichtig zu sein, was wir da versprechen oder auch nicht?
Tobias Zwingmann: Ja, sicherlich beide. Wobei ich glaube, Ausgangspunkt das muss man schon sagen, Sind eigentlich diese großen AI-Labs wenn du mich fragst, sondern auch die Investitionen die dahinter stecken. Also wenn du dir anguckst was für eine Bewertung OpenAI hat, was für eine Bewertung Anthropic hat, wie viel Geld Microsoft investiert hat, wie groß die Marktbewertung von NVIDIA ist, da stecken extrem hohe Hoffnungen drin in diesem Thema und das kaskadiert sich im Grunde runter durch die gesamte Wirtschaft und da ist natürlich Consulting ein großer Bereich drin, diese Hoffnungen damit zu schüren.
Ich war vor einiger Zeit mit einer der Top-3-Consulting-Häuser in Deutschland mit auf einem Panel und da meinte dann der eine von denen, ja die gucken sich gar keine Use Cases an unter ein paar hundert Millionen im Jahr, [00:13:00] was da an Profitabilität rauskommt. Das ist schon eine Messlatte die kann man erstmal ansetzen, aber das ist sehr hohe Erwartungshaltung die da gesetzt Werden.
Und da habe ich ein bisschen einen anderen Ansatz dazu, aber kommen wir vielleicht später nochmal dazu. Aber klar, das rührt daher. Diese ganzen Venture-Capital-Milliarden müssen irgendwo wieder eingespielt werden. Und da sind wir jetzt gerade.
Felix: Jetzt versetze ich mich in die Lage eines Geschäftsführers und diese ganzen News prasseln auf mich ein. Auf jeder Messe, wo ich bin, alles nur noch dreht sich um KI. Ich mache LinkedIn auf, alles KI. Ich mache X auf, alles KI. Ich spreche mit meinen Geschäftsführer-Peers von anderen Unternehmen zusammen
Tobias Zwingmann: Vielen Dank.
Felix: ihren KI-Initiativen und was da Tolles passiert. Was habe ich denn jetzt für eine Möglichkeit, durch diesen ganzen Lärm durchzuschneiden und dann auch mit den Dingen anzufangen, die tatsächlich Wert für uns stiften können und gleichzeitig [00:14:00] nicht zu lange abzuwarten, bis da draußen die 100% bewährten Lösungen irgendwie aufploppen, weil dann ist es wahrscheinlich auch schon Zu spät.
Tobias Zwingmann: Auch da wieder, do's and don'ts
Und was dann passiert ist, dann wird das Thema häufig wegdelegiert Dann wird das häufig wegdelegiert an entweder zum Beispiel den CIO, IT-Chef Unternehmen, je nachdem, wie groß die Firma ist, oder eben auch, wenn man irgendwie so einen Digital Officer oder sowas hat, die dann sagen, ja, ihr macht doch Digitalisierung, jetzt macht der KI auch noch mit dazu, oder ihr macht doch IT, jetzt macht der KI auch noch mit dazu, dann wird das ganz schnell als ein weiteres IT-Thema abgehakt und das ist im Grunde wenn das passiert ist, ist eigentlich das, Ist das schon gestorben weil man kriegt es sehr schwer wieder aus der IT-Ecke raus.
Was wir bei KI wirklich besonders haben im Vergleich zu klassischen IT-Projekten, deswegen auch die Rate des Scheiterns ist auch so hoch, [00:15:00] im KI-Projekt ist im Kern erstmal, natürlich hat es eine hohe IT-Komponente da steckt Software drin, sozusagen im Kern ist es, hat es eine hohe IT-Komponente. Dann kommen aber sozusagen Daten da drauf, also es ist natürlich auch ein Datenprojekt weil entweder wir nutzen Vortrainierte Modelle, die auf Daten trainiert wurden, die wir vielleicht nicht kennen oder wir trainieren selber was auf unseren Daten, die wir haben oder nicht haben und dann kommt dazu nochmal eine bestimmte Algorithmik, die auch je nachdem mit was man da arbeitet, durchaus komplex sein kann.
Wenn man sich jetzt mal anguckt wie hoch die Rate des Scheiterns bei normalen IT-Projekten Ist, da kann jeder mal in seinem eigenen Unternehmen rumgehen und gucken, welche IT-Projekte so in den letzten zehn Jahren geklappt haben und welche vielleicht nicht so gut geklappt haben, dann merkt man, dass die Rate des Scheiterns da schon relativ hoch ist und jetzt kommt quasi darauf dann nochmal Daten und dann nochmal komplexe Algorithmen on top und das heißt allein schon die Komplexität dieser Projekte impliziert dass wir ein hohes Risiko des Scheiterns haben und wenn man in so einem Umfeld ist, dann ist eigentlich das Beste, was man wirklich tun kann.
Sich gar nicht so leiten zu lassen von so einer Lösung, die jetzt verspricht, alles für einen irgendwie zu beheben oder wo man sagt, ja, okay, wenn wir jetzt [00:16:00] das Tool nutzen, dann funktioniert das alles hervorragend, sondern man muss eigentlich im Grunde erstmal einen Schritt zurückgehen und sagen, was sind denn wirklich so in meinem Business eigentlich so die Kernprobleme die ich gerade sehe und das fängt wirklich super high level an.
Worum geht es gerade? Haben wir ein Wachstumsziel oder haben wir ein Kostenthema aktuell bei uns in der Firma? Also wirklich ganz plump mal gesprochen und daraus herunter kaskadiert, was sind denn in den einzelnen Abteilungen in den einzelnen Bereichen eigentlich so wirklich die kritischen Punkte, die kritischen Hebel die wir jetzt in den nächsten entweder einem Jahr, wenn man schon in einer sehr kurzfristigen Planung ist oder in den nächsten drei bis fünf Jahren, die wirklich auf uns warten.
Und da sind Unternehmen in Bereichen, wo es darum geht, Mitarbeiter, die in Rente gehen, die nicht ersetzt werden können oder wollen oder wie auch immer, was sozusagen kompensiert werden muss. Im Bereich Start-up geht es halt ganz stark um das Thema Wachstum Im großen Konzern ist es halt um das Thema Profitabilität gerade.
Und da geht es im Grunde schon los. Wenn man dann anfängt und sagt, okay, wo sind bei uns die Schwerpunktbereiche? Was sind eigentlich die Probleme, die wir uns angucken müssen? Dann hat man schon [00:17:00] mal eine ganz gute Basis Es überhaupt anzusetzen, wo man jetzt mit KI eventuell irgendwas Noch schneller, noch besser, noch günstiger oder noch mehr von irgendetwas tun könnte.
Aber ich würde immer sozusagen, nachdem man Awareness aufgebaut hat von diesem Thema, einen Schritt zurückgehen und sagen, kurz einen Blick nach innen richten was ist eigentlich bei mir gerade so die Top-Priorität und von da aus dann wieder beginnen und zu sagen, okay, welche Lösungsmöglichkeiten haben wir?
Und dann macht es auch auf jeden Fall Sinn. Sowas wie so ein AI-Design-Sprint zu machen oder sich einmal hinzusetzen und so ein AI-Opportunity-Mapping aufzusetzen wo man dann sich hinsetzt und sagt, okay, müssen wir denn wirklich irgendwie 100 Leute einstellen oder geht es vielleicht auch mit 50 oder geht es vielleicht auch mit irgendwie 100 Leuten die aber nicht genau diese Qualifikation haben, sondern irgendwie eine andere Qualifikation benötigen.
Also da kann man sicherlich schon drüber sprechen, aber man muss den Spiegel erstmal sozusagen in den Spiegel schauen und gucken, was sind eigentlich so die Treiber in meinem Unternehmen und die, ja. Pain Points and Bottlenecks, so würde ich das bezeichnen.
Felix: Okay und dann nicht aus der [00:18:00] Technologieperspektive starten sondern aus der Businessperspektive welche Herausforderungen gilt es zu lösen und das dann mit Fähigkeiten oder Möglichkeiten Die die Technologie mit sich bringt, zusammenführen.
Tobias Zwingmann: Genau, und eben nicht nur damit zu starten, sondern auch drin zu bleiben. Also diese Projekte werden häufig dann aus dem Business initiiert wo man sagt, ja, okay, wir bräuchten jetzt XYZ, wir bräuchten jetzt hier irgendwie ein Chatbot oder wir bräuchten dies oder das. Aber im Gegensatz zu einem klassischen IT-Projekt kann das dann eben nicht wegdelegiert werden.
Also klassisches Beispiel Chatbot. Da habe ich jetzt auch viele Projekte dazu gemacht, Customer Support Chatbot auf irgendwie so... Vom reinen Q&A-Bot bis hin zu stärker integrierten Systemen Da könnte man jetzt kommen und sagen, wir kaufen jetzt einfach eine Chatbot-Lösung ein, denen geben wir jetzt unsere Daten rüber unsere Wissensquellen und dann sollen die einfach mal diesen Chatbot aufsetzen oder unsere IT soll das machen und dann am Ende des Tages gucken wir, wie gut das läuft.
Felix: Vielen
Tobias Zwingmann: sind, ständig zu bewerten, ob beispielsweise einfach diese Antworten die dieser [00:19:00] Bot gibt, korrekt sind oder nicht. Dieser Bot gibt halt irgendeine Antwort auf eine Support-Frage, aber ja, ist diese Antwort jetzt nun vollständig oder fehlt da irgendwas?
Ist das, wenn er sagt, ah, ich kann das nicht beantworten ist das erwartungskonform oder nicht, sondern da müssen im Grunde eigentlich immer wieder zurück in die Fachabteilung gehen und das wieder zurückspiegeln zumindest individuell In den ersten Phasen der Iteration, bis man weiß, was da für Fragen reinkommen und eigentlich so die 90% abgedeckt hat.
Das heißt, in aller Regel sind zumindest die ersten paar Wochen oder die ersten paar Sprints Also Teammitglieder beider Seiten, sowohl Leute aus dem Business, die dieses Domain-Datenverständnis haben, in dem Fall sozusagen Q&A, aber das könnte auch irgendein anderer Datenbereich sein und eben Techniker oder KI-Experten, die dann die Implementierung vornehmen können.
Aber man kann es nicht einfach ausdelegieren oder abdelegieren Man kann das schon machen, aber da kommt in der Regel nichts Brauchbares bei raus, außer dass man dann irgendwann sagt, ja, geht ja immer noch nicht, dieser Chatbot. Wieso funktioniert das denn nicht so gut, wie uns das vorgestellt haben? Oder was auch häufig passiert ist, dass man einfach gar nicht guckt ob der überhaupt gut funktioniert oder nicht.
Der wird einfach rausgerollt und dann sozusagen [00:20:00] in God we trust oder in AI we trust Und dann that's it. Und dann hofft man darauf, dass dieser Chatbot irgendwie einigermaßen gut funktioniert und er fällt dann höchstens aus der Presse wenn da irgendjemand irgendeinen Schmuh mitgemacht hat. Ja und deswegen brauchst du halt dieses Mindset, dass man wirklich und das klingt immer so plump irgendwie, dass man irgendwie kollaborativ und cross-funktional und so, aber hey, darum geht es jetzt genau.
Da sieht man auch, dass ich auch in meiner täglichen Arbeit, wenn Unternehmen das schon etabliert haben, cross-funktionelle Teams schnell aufzusetzen und man sagt, wir brauchen aus dem Team jemand, aus dem Team oder dem Team und die arbeiten für die nächsten drei Monate an folgendem Thema,
Felix: Vielen Dank.
Tobias Zwingmann: die da aufgestellt sind, das zu leisten.
Aber das sind bei Weitem noch nicht die Mehrheit der Unternehmen, sondern das ist erst so eine ja immer noch eine Ausnahmeerscheinung, weil häufig braucht es immer eine Abteilung oder einen Owner, wo das jetzt irgendwie zugeordnet ist und wie gesagt, häufig ist das dann irgendwie in der IT und die armen IT-Kollegen.
Dann ist das immer schwerer wieder rauszuholen.
Felix: Was ist denn da für dich das Best Practice? Wie sollte denn KI innerhalb eines Unternehmens [00:21:00] organisiert sein und wer sollte das verantworten?
Tobias Zwingmann: Also ich glaube, zumindest jetzt so KMUs, wenn wir jetzt mal so Unternehmen sprechen, die jetzt irgendwie 500 bis 1000 Mitarbeiter haben, brauchst aus meiner Sicht keine eigene KI-Abteilung oder sowas. Es kommt immer so ein bisschen darauf an, was ist jetzt eigentlich, was ist das für eine Branche? Wir haben Branchen die sind höher disrupted von AI als andere.
Unternehmen aus dem Versicherungsumfeld sind natürlich eine höhere Disruption als jetzt irgendwie der Handwerkerbetrieb oder sowas. Aber jetzt mal allgemein gesprochen, Unternehmen die sozusagen im Mittelstandsumfeld sind, würde ich immer empfehlen, dass man zumindest irgendwie eine Koordinationsstelle hat, die so ein bisschen Überblick behält, was da im Unternehmen gerade passiert.
Aber man muss jetzt nicht irgendwie drei Data Scientists einstellen mit der Erwartungshaltung, dass die jetzt für einen das Thema KI für einen lösen, sondern da geht es eher wirklich um Befähigung der einzelnen Abteilungen Selber auf die Idee zu kommen, wo könnte denn jetzt hier ein Use Case sein und dann, wenn man so ein Use Case in der Umsetzung hat, zum Beispiel in so einem agilen Projekt, dieses Wissen eben auch intern zu teilen, sodass andere [00:22:00] Abteilungen auch auf die Idee kommen können und sagen, oh, wenn die das machen, dann könnte ich das vielleicht auch machen oder was ähnliches tun oder auf die Idee kommen zu sagen, wenn ich jetzt das tue, dann würde das diesem Use Case halt förderlich sein beispielsweise.
Das ist so das, was ich bisher gesehen habe, was eigentlich ganz gut funktioniert, aber ich würde jetzt mich da zu weit aus dem Fenster legen, um zu sagen, das ist jetzt irgendwie die Best Practice. Also man sieht irgendwie alles, ja, alle Formen von eher zentral bisher eher sozusagen jeder macht ja irgendwie, was er will.
Und gerade am Anfang würde ich behaupten, von dem, was ich bisher gesehen habe, ist es eigentlich fast egal, wie ihr loslegt. Die wichtige Sache ist, ihr müsst irgendwie ins Doing kommen. Ihr findet dann schon irgendwann für euch im Unternehmen eine Struktur, in der ihr es geben könnt. Aber so dieses Klassische, wir bauen erstmal eine Struktur auf und dann machen wir die Sachen, das funktioniert häufig nicht so gut.
Das ist so meine Beobachtung bisher. Sondern ihr müsst eigentlich erstmal schaffen, in die Anwendung reinzukommen. Es ist immer einfach, über KI zu reden, aber [00:23:00] es ist wirklich, du musst es einfach testen du musst Sachen experimentieren, du musst in kurze Iterationszyklen kommen und welche Struktur es am Ende des Tages ist, ist dann eher nachrangig Aber du musst erstmal in diese Möglichkeit hineinkommen.
Felix: Na ja, gut, wie du schon sagst diese 100.000 Tools, die es gibt und Modelle die als immer schlauer verkauft werden,
Tobias Zwingmann: Vielen Dank.
Felix: Um solche Initiativen über das gesamte Unternehmen aber dann auch strukturiert zu steuern, habe ich schon die Erfahrung gemacht, dass es enorm hilft, wenn es eine KI-verantwortliche Person gibt, das muss jetzt nicht immer der Chief AI Officer im Board sein, überhaupt nicht, das kann auch eine Stabsstelle oder ähnliches sein, aber jemand, der
Tobias Zwingmann: Dank.
Felix: und vor allem auch für die Den Wissensaufbau über die gesamte Organisation [00:24:00] sorgt und das strukturieren kann, hat mir bisher immer sehr, sehr geholfen.
Oft gibt es diese Position noch nicht, aber eine meiner Thesen für dieses Jahr ist, dass die Rolle des AI-Managers oder Head of AI auf jeden Fall noch gängiger wird und öfter gesucht wird
Tobias Zwingmann: Ich kann nur hoffen, dass wir nicht den gleichen Effekt erleben wie sozusagen mit den CDOs, die vor ein paar Jahren sehr prominent waren und sozusagen eingeführt wurden. Ob das jetzt ein Digital- oder Data Officer war, aber meine Beobachtung da war, dass die Und das bei vielen Unternehmen dazu geführt hat, dass die quasi das Thema an die Weckdelegiert haben, dass das nicht als reiner Enablement Abteilung betrachtet wurde, sondern endlich haben wir jemanden der sich mit Digitalisierung beschäftigt Jetzt muss ich das nicht mehr tun.
Endlich haben wir jemanden der KI für uns macht. Jetzt muss ich das nicht mehr tun. Jetzt kann ich da quasi alles abladen bei dieser Person oder dieser Abteilung oder diesem ganzen Unternehmensbereich, der sich darum kümmert Und das ist quasi der Fall, der nicht eintreten darf. Darum [00:25:00] geht es mir. Wenn man es schafft, quasi eine zentrale Center of Excellence oder wie auch immer man das bezeichnet oder da eine Person zu haben, die in der
Felix: Dank.
Tobias Zwingmann: dass irgendwer grabt einen Use Case aus, schmeißt den dann diesem AI Officer rüber und der sagt, was soll ich jetzt damit anfangen, gibt den wieder zurück und dann kommt man nicht ins Doing. Da habe ich es dann lieber, dass am Anfang In Anführungsstrichen ein bisschen Chaos ist, aber dass unterschiedliche Personen innerhalb der Orga erste Berührungspunkte mit dem Thema KI machen.
Und natürlich innerhalb bestimmter Rahmenbedingungen und Guidelines, da geht es auch, das ist eine Unternehmensführungsverantwortung wo man den Mitarbeitern dann sagt, was darfst du machen, was darfst du nicht machen. Kaufen wir jetzt solche Tools eins oder kaufen wir solche Tools nicht ein? Da bin ich immer eher sozusagen ein Fan davon zu sagen, okay, da macht es wirklich Sinn, zentral eher eine Plattform bereitzustellen.
Und man zum Beispiel sagt, okay, wir haben jetzt, keine Ahnung, einen Azure Open AI Endpunkt. Und mit dem arbeiten wir jetzt erstmal. Da fangen wir jetzt nicht irgendwie nochmal an, jetzt irgendwie nochmal fünf andere Modelle irgendwie hochzufahren sondern da gucken wir uns an, auf der Plattform die wir jetzt aktuell haben, da Use Cases an den Start zu kriegen.
Aber [00:26:00] man muss da irgendwie ins Doing kommen. Das ist so der Punkt. Aber klar. Wenn man eine gute Orga hat, wo jemand auch sitzt, der da vernünftig diese Themen koordiniert und nach vorne treibt ist das auf jeden Fall eine Organisation, die immer im Vorteil sein wird gegenüber einer Orga, wo alles in dem Chaos versinkt Also das ist unbestritten.
Felix: Ja, und gerade bei KI kann man dazu neigen, viele verstreute Einzelansätze zu haben, die nicht in der Breite große Wirkung entfalten und vor allem die Learnings dann mittransferiert werden. Und dann gibt es fünf unterschiedliche
Tobias Zwingmann: Vielen
Felix: hätte machen können. waren jetzt schon total viele Punkte drin in dem ersten. Also KI ist kein IT-Projekt, haben wir jetzt, glaube ich, ausführlich besprochen. Die einzelnen Fachbereiche
Tobias Zwingmann: Dank.
Felix: in KI-Projekten enorm groß, nochmal größer als in klassischen IT-Software-Projekten. [00:27:00] Und das ist einfach ein Teamsport.
ist ein weiteres
Tobias Zwingmann: Ein weiteres Don't da würde ich eher mit dem Do anfangen, glaube ich aber ein Don't ist im Prinzip, dass alle mit einer unterschiedlichen Erwartungshaltung starten. Also der eine sieht in KI quasi die Chance das Geschäftsmodell zu disrupten und zu transformieren und der andere sind die froh wenn er überhaupt mal einen Use Case auf die Straße kriegt, der einigermaßen Geld reinbringt.
Und quasi den Ansatz den ich da immer wähle, um zu versuchen, dass alle so einigermaßen zumindest allein sind. Ist halt die Idee von einem Threshold. Also ich arbeite da mit einem 10K-Threshold. Da geht es im Prinzip darum, dass egal was man macht, eine erste K-Initiative über diesem 10K-Threshold sein muss.
Und da ist jetzt die Frage, 10K, also 10.000 pro was? Geht jetzt darum, einen Use Case in den Start zu bringen, der 10.000 pro Jahr einbringt Also 10.000 also Profit sozusagen, also Gewinnbeitrag hier. Oder einen Deckungsbeitrag den man erzielen möchte? Oder geht es jetzt irgendwie um 10.000 Euro pro Tag?
Weil das schon eine große Spanne ist. Und das eine ist halt ein Projekt, [00:28:00] wo man sagt, das trägt sich am Ende des Tages selber. Und wir wären glücklich damit, einen Use Case an den Start zu bringen, der mehr oder weniger plus minus null läuft. Und der andere wäre halt eher so ein Experiment Extrem also wenn du 10.000 pro Tag haben willst, bist du bei 3,6 Millionen im Jahr und da hast du halt eine viel andere überhaupt bei der Ausgangslage um so ein Newscast irgendwie hinzukriegen Es sei denn, du bist auf so einem Scale unterwegs, wo du kleine Stellschrauben drehen kannst.
Aber bei den meisten ist es ein relativ komplexes Projekt, wenn man das herausholen möchte. Und allein, wenn man sich darauf einigt, was ist quasi die geringste Hürde über die wir springen müssen, um loszugehen hilft das immens weiter. Weil dann sind alle zumindest in dem Mindset drin, dass sie sagen, okay, wir wollen am Ende des Tages irgendwie auch wieder Geld draus haben.
Und B, alle springen über die gleiche Hürde. Also du musst dir das jetzt vorstellen, das ist wirklich wie in einem Wettkampf, Stab Hochsprung. Und die springen alle über völlig verschiedene Messlatten. Und am Ende gibt es fünf Goldmedaillen weil irgendwie alle... Jeder über seine Hürde geschafft oder nicht geschafft hat.
Und das bringt dich am Ende des Tages nicht weiter. Du musst wirklich so ein Commitment haben, wo du sagst, das ist das, ab [00:29:00] dem geht es für uns los, ab dem fangen wir an. Und das kann durchaus Sinn machen, wirklich, dass man auch sagt, wir wollen lieber nur so ein Threshold von irgendwie 10.000 Was ja eigentlich in einem Unternehmensumfeld echt vernachlässigbar ist.
Aber das heißt zumindest, dass der Use Case, den du an den Start bringst, erstmal einen positiven Deckungsbeitrag bringt. Und damit werden sehr viele schon sehr zufrieden weil in dem Moment kriegst du AI aus der, wir machen das jetzt als rein Investment Case auf, raus. Sondern willst eigentlich vom Start weg weitergehen Und damit profitabel sein.
Und ich glaube, das ist so eigentlich das Mindset, in dem man sein muss. Weil wenn du in dem Mindset drin bist, dann scopes du die Use Cases auch korrekt. Dann scopes du die nämlich auch so, dass du die möglichst schnell auswählen kannst und dass du möglichst gut messen kannst, was dabei rauskommt. Dann fängst du nicht an, irgendwie so eine Fünf-Jahres-Projekte zu machen, wo du sagst, wir stecken jetzt erstmal 5 Millionen rein und hoffentlich kommen am Ende 10 Millionen raus.
You never know. Da bin ich dann immer lieber ein Verfechter davon zu sagen, okay, wir nehmen jetzt irgendwie mal 20.000 oder 30.000 in die Hand und wollen da jetzt aber 50.000 raushaben in den nächsten drei Monaten. Das kannst du viel einfacher messen das kannst du viel schneller umsetzen und das ist auch viel [00:30:00] realistischer, das wirklich hinzukriegen als solche riesigen Cases Zu bauen.
Genau, und deswegen würde ich immer sagen, versuch da so ein, ich mache da immer in so einer Consulting-Session, ich mache da immer so das nenne ich dann Threshold-Poker, dann haben wir dann so eine Runde, wenn wir da irgendwo vor Ort sitzen und dann sage ich mal, okay, was ist denn so der Wert, über den ihr springen wollt, dann lasse ich mal alle Teilnehmer das aufschreiben, verdeckt, und dann sage ich 1, 2, 3 und dann drehen wir um und dann gucken wir mal wer bei wem irgendwie welches Threshold ist und dann diskutieren wir darüber und gucken, was das Threshold ist, auf den man sich hier einigen sollte.
Felix: Und wohin
Tobias Zwingmann: Ja,
Felix: meisten? Was ist so dein Erfahrungswert?
Tobias Zwingmann: Also pro Quartal kommt es ja häufig bei raus, dass man sagt so 10.000 pro Quartal. Da sind viele eigentlich schon ganz happy damit. Aber tatsächlich, es gehen viele auch wirklich raus mit 10.000 pro Jahr. Einfach nur zu sagen, für uns ist erstmal wichtig, dass wir vom Staat kommen und dass es für uns kein Thema ist, wo wir nur Geld investieren, sondern wir sind bereit, Geld in die Hand zu nehmen, aber wir wollen auch Geld rausnehmen Ein paar ambitionierte Projekte gibt es auch natürlich mit 10.000 im Monat und drüber, aber ist man an einem anderen, da schlägt man direkt von Anfang an einen anderen Pfad ein.
Also da hast du [00:31:00] Projekte, die in der Regel viel komplexer sind und auch viel mehr, wo sozusagen das Projekt als solches viel mehr geplant und auch gerobmapt werden muss. Bei kleineren Projekten kannst du im Grunde direkt loslegen. Da geht es in die Frage Wie verknüpft du die? Wenn du diese größeren Projekte hast und diese höheren Ziele, dann musst du das im Grunde wieder herunterbrechen und sagen Wie stehen die kleinen Iterationen jetzt dazu aus?
Weil mein Ziel ist eigentlich immer so im monatlichen Beispiel, im monatlichen. Ja, Iterationen zu arbeiten.
Felix: Wenn wir da mal ein Beispiel machen, also ich habe jetzt gerade überlegt, okay, wie könnte man das so runterbrechen? Customer Support ist ja gerade für Sprachmodelle ein gängiges Anwendungsgebiet und da wäre jetzt praktisch der erste Einstieg dass ein Kundenservice-Mitarbeiter über ein Sprachmodell mit einer internen Wissensdatenbank chatten sich darüber schneller beschäftigen Mögliche Antworten generieren
Tobias Zwingmann: Untertitelung
Felix: dass es eine Klassifizierung der einkommenden Antworten gibt und schon [00:32:00] mal wiederkehrende Anfragen automatisch beantwortet werden und die komplexeren Anfragen wieder zum Kundenservice und dann hat man da
Tobias Zwingmann: des ZDF,
Felix: Case
Tobias Zwingmann: Ich hatte jetzt ein ähnliches Beispiel aus dem Callcenter-Umfeld, mittelständischer Callcenter-Betrieb, da ging es darum, logischerweise AI-Voicebots, jedes Callcenter will gerade AI-Voicebots natürlich machen. Weil es einfach super attraktiv ist, der Gedanke. Da hat man keine Menschen mehr, sondern nur die Voicebots, die das da alles tun.
Und das war der Moonshot für die im Grunde zu sagen, wir wollen jetzt lieber einen eigenen Voicebot, der auf unseren Daten und für unsere Kunden und so weiter da irgendwie 24-7 agiert. Das wäre aber ein sehr riskantes Projekt gewesen, natürlich nicht nur riskant vom Delivery, sondern auch riskant funktioniert das da draußen, funktioniert das nicht.
Und es wäre auch richtig teuer gewesen, weil allein diese Voice-Modelle momentan auch noch relativ Teuer sind, wenn man die [00:33:00] sozusagen die ganze Zeit laufen lässt. Was wir da gemacht haben, ist im Grunde eine Roadmap aufzuzeigen wo wir gesagt haben, wir fangen erstmal sozusagen mit dem Kern dieser Technologie an, was im letzten Endes auch so eine Art Retrieval Augmented Generation ist, für die, die ein bisschen technisch unterwegs sind, das heißt sozusagen KI auf Dokumenten die irgendwie im Unternehmen sind.
Und haben erst mal angefangen, einen internen Chatbot zu bauen, also internen Chatbot für Transkribieren von Teams-Meetings Und dann kannst du denen irgendwie was fragen, was im letzten Meeting passiert, dass die überhaupt mal so eine Idee dafür bekommen, was diese Technologie überhaupt kann und was sie nicht kann.
Das ist quasi die erste Ausbaustufe. Zweite Ausbaustufe war dann zu sagen, wir nehmen im Grunde die gleiche Plattform, das gleiche System und docken die an an die Teams An die Software, worüber auch diese ganzen Live-Anrufe laufen. Aber wir lassen da nicht Anrufe beantworten sondern schneiden im Prinzip nur mit nach vorheriger Einwilligung.
Also das heißt sozusagen, da wird direkt transkribiert was der Anrufer sagt. Der Chatbot schreibt das mit, sodass die Leute da vor dem Bildschirm überhaupt sehen konnten, okay, kriegt der das alles so raus? Was da [00:34:00] gesprochen wird. Weil da gab es jetzt auch Fälle, Leute, die anrufen die sprechen irgendwie gebrochen Deutsch oder die haben irgendwie eine Mischung zwischen verschiedenen Sprachen oder mancher spricht dann irgendwie auf Englisch oder einer anderen Sprache und da ging es um die Frage, kann dieser Chatbot überhaupt verstehen, was da eigentlich gesagt wird.
Und dann wurde das sozusagen mitgeschrieben, sodass man da halt lesen konnte, Parallel, okay, funktioniert das? Checkt KI im Grunde das Verständnis, weil das wäre ja auch der gleiche Baustein für später gewesen, die muss das irgendwie verstehen, was die Leute da wollen. Und dann die nächste Ausbaustufe, an der wir jetzt gerade sind, ist im Grunde das automatische Vorschlagen der Antworten dass dann sozusagen nicht nur mitgeschrieben wird, sondern dem Agenten auch einen Vorschlag live gegeben wird, was könnte der jetzt Dem Kunden am Telefon sagen, um halt schneller zu einer Case Resolution zu kommen.
Und wenn man das mitkriegt dass sozusagen diese KI eigentlich ständig gute Vorschläge macht für einzelne Themen, dann weiß man auch, auf welchen Themenbereichen die sehr gut funktioniert und auf welchen Themenbereichen die nicht gut funktioniert. Und für die Themenbereiche wo es sehr gut funktioniert, da wäre dann die nächste Ausbaustufe tatsächlich dann im Pilotbetrieb einen Voicebot loszulegen, sodass man am [00:35:00] Anfang direkt versucht, Kunden zu routen und zu sagen, okay, wenn es jetzt darum geht, den können wir eigentlich direkt an einen AI-Agent auslagern, in Anführungsstrichen der das dann übernimmt.
Aber das war in dem Fall so die Roadmap, die wir da aufgezeichnet haben. Aber ja, hängt natürlich immer so ein bisschen davon ab, wie sozusagen der gesamte Scope des Projektes ist. Aber so versuche ich immer im Grunde eine Lösung, dass es sehr stark augmentiert also nicht integriert und nicht automatisiert am Anfang mit wenig Risiko nach und nach stärker zu skalieren Das Skalieren heißt in meiner Terminologie dann, Stecker zu automatisieren und Stecker zu integrieren.
Und daraus leitet sich dann im Prinzip die Roadmap ab für so einen Case.
Felix: Mhm. Der
Felix Schlenther: Kurz in eigener Sache. Wenn dir der AI First Podcast gefällt und du mehr spannende Inhalte und hochkarätige Gäste hören möchtest, dann freue ich mich über deine Unterstützung. Mit einer Fünf-Sterne-Bewertung und einem Abo für den Podcast hilfst du uns sichtbarer zu werden und AI First weiterzuentwickeln.
Für dich und die gesamte Community. Ich danke dir.
Felix: [00:36:00] andere Ansatz, das einmal umgedreht also direkt von der Automatisierungsrichtung zu kommen, auch das ist ja gerade, KI-Agenten schwirren ja durchs Internet und haben ja angeblich schon sämtliche Funktionsbereiche automatisiert und jede Woche lese ich wieder, welche Funktionsbereiche Welche Berufsgruppe ausgestorben ist, weil das jetzt KI-Agenten
Tobias Zwingmann: Vielen
Felix: sehe davon in der Realität sehr, sehr wenig. Und
Tobias Zwingmann: Dank.
Felix: durch KI-Lösungen, die
Tobias Zwingmann: Vielen Dank.
Felix: noch einen Einfluss auf das Ergebnis und eine Ergebniskontrolle mit sich bringen, der viel, viel erfolgreichere Ansatz ist, als in einer Automatisierung zu denken und zu arbeiten. Siehst du das auch so?
Tobias Zwingmann: Ja, absolut, absolut. Also aktuell [00:37:00] ist es super schwer, quasi automatisierte Lösungen direkt von Anfang an richtig gut in die Umsetzung zu bekommen, einfach weil die Erwartungshaltung zu hoch ist in der Regel. Also ich gebe dir mal ein Beispiel, weil ich glaube, das Konzept AI Agents an sich ist schon revolutionär, das wird auch sehr gut funktionieren aber ich glaube nicht in dem Umfang, wie man das jetzt gerade versucht.
Also so ein Beispiel ist ja...
Felix: Vielen
Tobias Zwingmann: drauf. Der CRM-Agent, der dann automatisch alles in den CRM pflegt und so weiter. Wo ich sagen muss, okay, wir sind an dem Punkt gekommen, ganz ehrlich, das dauert wahrscheinlich noch ein bisschen, wenn es überhaupt jemals klappt.
Aber ganz banales Beispiel. Und das ist halt, da bist du häufig auf so einer Miniflug-Ebene unterwegs, wo viele einfach dann aussteigen. Aber da funktionieren Agents halt ganz gut. Also zu einem Beispiel. Ein Use-Case, den ich immer wieder mache, ist sozusagen das automatische Generieren von Präsentationen von PowerPoints und Slides und so weiter.
Der Case ist halt folgender, du hast eben irgendwie ein Dokument, daraus lässt du dir jetzt von einem Sprachmodell die Outline generieren und dann hast du sozusagen nochmal eine andere Komponente, auch wieder ein LLM, was in der Lage ist, sich halt aus einem Template-Satz [00:38:00] und einer Outline sozusagen einzelne Slides zu entwickeln und diese Slides werden dann quasi per API an zum Beispiel Google Slides oder so gepusht, sodass dann automatisch diese Slides generiert werden können.
So, und da musst du halt, wenn du das ohne Agent machst, musst du im Prinzip für jeden Slide-Typ vordefinieren, okay, welche Slides gibt es jetzt genau und was könnte dazu jetzt gut matchen, dann gibt es so ein paar Beispiele in Prompt und wenn du aber dann ein anderes Folien-Set oder so nimmst, dann musst du im Grunde wieder zurück an den Prompt anpassen.
Und da sind jetzt AI Agents natürlich sehr gut, weil du ihnen einfach sagen kannst, hey, bau einfach eine Slide, ja, und dann ist der Agent selber in der Lage Das Template zu verändern oder neues Template einzustellen oder vielleicht die Headline irgendwie in Bold, also fett gedruckt zu machen oder zu unterschreiben oder hier nochmal einen Link reinzufügen.
Also es ist einfach ein bisschen intelligenter, aber nicht so intelligent, dass du dem Agent jetzt sagst ey, bau die Präsentation, sondern der ist halt genau in dem Schritt, wo es darum geht, jetzt den Inhalt auf eine Slide zu bringen. Das kann er einfach sehr gut autonomer handeln, ohne dass du ihm das jetzt alles vorkauen musst.
Und das sind so [00:39:00] Cases da kannst du mit Agents auch wirklich echt eine viel geilere Textur-Powerpoint-Experience schaffen. Aber es ist halt nicht der Agent, der jetzt irgendwie das alles Blackbox-mäßig automatisch macht, sondern es sind so einzelne Komponenten die jetzt besser funktionieren Im Bereich Softwareentwicklung ist das im Grunde das Gleiche wo du jetzt eben auch die agentische Funktion darin hast, dass die Software jetzt der Lage ist, einzelne neue Files anzulegen im Filesystem und diese Files upzudaten oder Dateien umzubenennen und sowas.
Da hast du jetzt schon viel mehr Möglichkeiten Aber eben auch nicht so auf der Erwartungsebene, wie du jetzt gerade bist. Ja, jetzt programmiert das irgendwie diese ganze App für mich. Das funktioniert für Prototypen und so weiter ganz gut, total geil, auch Gaming und so weiter was man da alles sieht, also wirklich phänomenal.
Aber wenn du jetzt wirklich, sag ich mal, Produktionsanwendungen hast, die ein bisschen komplexer sind, da geht es wirklich eher darum, in der IDE dir noch mehr ein bisschen Arbeit abzunehmen durch Coding Agents
Felix: Was sind weitere Do's und Don'ts für erfolgreiche [00:40:00] KI-Integration oder
Tobias Zwingmann: Dank Also ich glaube, wenn man es schafft, wirklich in diese Iteration reinzukommen, dann hast du eigentlich schon gewonnen. Ich versuche immer eine Iteration zu machen, 20-20-Regel. Also eine Iteration darf nicht mehr als 20.000 kosten oder 20 Arbeitstage kosten. Egal, je nachdem, ob das jetzt einfacher für euch zu realisieren ist.
Aber wenn du in der Denke drin bist und sozusagen immer guckst, sozusagen monatliche Sprints zu haben und da wirklich immer was abzuliefern, was dich irgendwie...
Felix: Dank.
Tobias Zwingmann: Case vielleicht auch sogar fertig ist nach diesem Zeitraum, dann hat man schon mal echt viel gewonnen, weil Und dann ist im Prinzip der nächste Schritt, weil das höre ich auch immer wieder, zu sagen, ja, Daten.
Du brauchst irgendwie Daten, um irgendwie KI zu machen. Und wenn wir keine Daten haben, dann können wir auch keine KI machen und so. Und das ist sicherlich in Teilbereichen richtig. Das war früher noch extremer, als du selber KI-Modelle trainieren musstest. Heute kannst du irgendwo ein Plug-and-Play-AI-Modell nehmen und da brauchst keine Daten, um zu trainieren.
Aber, und das übersehen die meisten, du brauchst Daten und [00:41:00] eine gewisse Datenkompetenz um deine Iterationen zu überwachen Das heißt, du musst schauen, ob du, wenn du zum Beispiel jetzt einen Chatbot hast und du wechselst jetzt diesen Chatbot, zum Beispiel lädst du ein neues Dokument mit hoch und der kennt plötzlich mehr, weiß mehr, was er Fragen beantworten soll im Customer Support.
Wer garantiert dir denn, dass er die alten Fragen, die er vorher kannte, auch nach wie vor genauso gut beantworten kann? Und da kommt eben dieses ganze Kriterium Evaluation rein, speziell für große Sprachmodelle. Und das haben viele gar nicht so auf dem Schirm weil das im Grunde auch ein reines Datenthema ist.
Du musst in der Lage sein, die Antworten die der Chatbot generiert hat, Zu speichern auszuwerten und irgendwie in einen Score, in ein Ranking zu übersetzen sodass wenn du jetzt ein neues Dokument hinzufügst in Lage bist zu sagen, geht dann unsere Score hoch oder geht die runter und in welchen Themenbereichen bleibt sie konstant und in welchen Themenbereichen geht sie runter und das ist im Grunde ein Kernproblem der Datenanalytik und des Datenmanagements und wenn du das nicht hinkriegst oder keine Kompetenz im Unternehmen hast, dann wird es auch schwer durch diese Iteration zu gehen.
Man sagt immer, du brauchst Daten um KI zu machen. Das stimmt [00:42:00] schon, das ist total richtig, aber das wird häufig missverstanden im Sinne von, wir brauchen Daten, um unsere eigene KI zu trainieren. Darum geht es eigentlich in der Regel gar nicht sondern es geht eigentlich eher darum, diese KI wirklich responsibly, also verantwortungsvoll, also das heißt so, dass es am Ende irgendwie auch mehr bringt als es kostet, einzusetzen und zu gucken, ob diese kurzen Iterationszyklen wirklich zu einem Erfolg führen.
Oder ob die vielleicht einfach nur experimentieren ohne Fortschritt sind. Weil das kann dir genauso gut passieren. Du kannst iterieren und iterieren und iterieren und eigentlich feststellen okay, du kommst irgendwie gar nicht vom Fleck. Oder du fragst nach sechs Monaten, woher wissen wir jetzt, ob wirklich besser geworden sind?
Außer vielleicht so eine gefühlte Wahrheit zu haben dazu. Und da kommt das Thema Daten halt wieder total rein.
Felix: Aber wie du schon sagst, also die Verfügbarkeit der Daten jetzt insbesondere für solche Chatbot- oder Knowledgebase-basierten Anwendungsfälle,
Tobias Zwingmann: Untertitelung des ZDF, 2020
Felix: oder? Also diese Daten sind ja relativ schnell verfügbar und wenn man sie noch irgendwie nochmal aufbereiten muss, dann ist das ja auch relativ schnell [00:43:00] getan.
So
Tobias Zwingmann: ja, ja, deswegen, also so ein initiales System aufzusetzen, das ist erstmal nicht das Problem. Das Problem ist dann wirklich eher, eine Infrastruktur zu schaffen, wo du halt diese Responses der Chatbots irgendwie gut abspeichern kannst. Einfach mal ein bisschen Chatbot-Beispiel zu bleiben, wo du die Antworten abspeichern kannst und wo du auch wirklich eine Metrik generierst, die...
Die du nachvollziehen kannst. Weil gerade beim Thema Customer-Support-Chatbots hast du halt die Situation, dass der Chatbot auf die gleiche Frage, die User stellt, unterschiedlich antworten wird. Teilweise mit der gleichen Information, wo du sagst, das ist im Grunde die gleiche Antwort, nur anders formuliert.
Aber teilweise hat er vielleicht auch irgendwie eine Information zusätzlich hinzugegeben. hat er nochmal den Link gegeben auf die Kontaktseite. Oder da hat er vielleicht eine Sache nicht ausgegeben. Und wie trackst du das? Und wie misst du das? Das ist gar nicht so trivial. Und da musst du im Grunde Nicht nur die Daten des Chatbots, die der wiedergibt speichern sondern da musst du auch in Lage sein, diese Metrik die du berechnest, auch irgendwie zu tracken und das übereinzubringen mit welchen Release oder welches Release [00:44:00] hatte ich gerade, als ich diesen Stand habe, sodass du auch in der Lage bist, gegebenenfalls wieder zurückzugehen und zu sagen, okay wir gehen wieder auf die Metrik und nehmen vielleicht das Dokument nochmal raus und stellen fest, dass das nochmal irgendwie bearbeitet werden muss, weil da zu viele...
Begriffe drin sind, die einfach überlappend sind. Also ganz konkretes Beispiel, ich habe sehr viele Use Cases gemacht, Chatbots im Bereich Messen und Events, Messe Messeaussteller und so. Und da gibt es halt diesen Begriff der Services. Da fragen Aussteller nach Services. Und wenn es um Services geht, dann meinen die ganz klar einfach brutal, es geht hier um Strombestellung und Logistik und sowas.
Das sind halt für die Services. Da soll der Chatbot, wenn der jetzt gefragt wird nach Services, soll der nicht irgendwie antworten es gibt hier irgendwie Gastronomie auf Messegelände oder sowas Sondern wenn der nach Services gefragt wird, dann soll der halt die Antwort kriegen, hier gibt es den Ausstellershop und hier kannst du deinen Strom bestellen.
Aber dieser Begriff Services, da kommt wieder diese semantische Suche rein, ist halt einfach so nah an allen anderen, weil im Grunde ist es alles ein Service, was da angeboten wird. Das herauszukriegen das musst du immer ständig eigentlich tracken in dem Moment, wo du ein neues Dokument hineinbekommst, dass du quasi nicht da wieder diese Semantik reinhaust und die [00:45:00] Die dir Sachen kaputt machst, die vorher eigentlich funktioniert haben.
Das kriegst du, wie gesagt, eigentlich immer nur mit einem Stakeholder aus dem Business raus, weil am Ende des Tages muss da irgendjemand sagen, hey, diese Antwort war gut oder diese Antwort war nicht gut. Das ist nur akzeptabel oder das ist nicht akzeptabel. Das kannst du aus einer technischen Perspektive allein gar nicht beurteilen.
Felix: Jetzt hast du vorhin ja gesagt, dass man vielleicht nicht unbedingt sofort ein Datenteam aufbauen muss. Das würde ja jetzt schon dafür sprechen, dass man die Kompetenz auf jeden Fall irgendwo bietet Und benötigt und idealerweise auch intern aufbaut weil man ja
Tobias Zwingmann: Dank
Felix: Wissen dann wiederum nutzen kann für die nächsten Use Cases oder diese Learnings nutzen kann für die nächsten Use Cases, die man umsetzt.
Tobias Zwingmann: Genau. Nur der Punkt ist, man sollte damit nicht anfangen. Also jetzt konkretes Beispiel Chatbot. Macht ein Chatbot, super, fangt damit an, aber fangt halt nicht damit an mit dem Anspruch, dass der Chatbot alles beantworten können soll. Macht einen Fokus auf einen gewissen einzelnen Datenbereich. [00:46:00] Vielleicht, keine Ahnung, bei diesem Messebeispiel haben wir zum Beispiel gesagt, wir machen den erst mal nur für Aussteller.
Wir machen keinen Chatbot, der Aussteller und Besucher kann, der soll erst mal nur Aussteller können. Und dann ist es viel einfacher loszulegen und dann kannst du vor allem auch erst mal sehen, ob die Kunden den überhaupt nutzen und was die Kunden den Chatbot fragen. Weil dann siehst du nämlich auch, dass manche Hypothesen die du vorher hattest, wo du denkst wir müssen unser gesamtes technisches Service-Menü da reinladen weil das werden alle Aussteller fragen und dann siehst du, das fragt keine Aussteller Die Aussteller interessieren sich für Parken und Ausstellerausweis.
Und dann weißt du im Grunde für was du Du optimieren musst. Und wenn du dann einen Punkt gibst, wo du sagst okay, die Kunden nutzen das, die finden das cool, wir wollen den jetzt ausbauen, dann hast du auch einen Case zu sagen, Die Kundennutzung im Chatbot spart uns so und so viel im Customer Support.
Dadurch setzen wir so viel Geld frei und daraus macht es Sinn, eigentlich eine Person zu finanzieren, ob angestellt oder eingestellt oder extern, um diesen Chatbot auf die nächste Stufe zu heben, weil wir damit halt wiederkehrend x Effekte im Customer Support haben werden. Aber so baust du halt den Case, du baust den Case nicht, dass du von Anfang an losgehst und sagst, wir machen jetzt ein mega Chatbot und wir nehmen mal an, das macht 80% Case Resolution [00:47:00] überall und jetzt bauen wir da ein Data Team für auf und dann fällst nach einem Jahr fest.
Wir haben irgendwie hohe Kosten dafür ausgegeben, das Ding funktioniert immer noch nicht richtig und wir können es auch gar nicht tracken was es unterm Strich gebracht hat. Das ist dann nämlich der Todesschuss für so ein KI-Projekt nach einer gewissen Zeit. Und deswegen würde ich immer sagen, wenn ihr die Probleme habt und wenn man an Punkt ist, wo man das braucht, dann holt die Leute rein oder holt auch die Expertise rein.
So was kriegt man auch immer rein. So was kriegt man immer eingekauft. Das kriegt man immer rein, soweit man genau weiß, was man eigentlich da braucht.
Felix: How to fail and succeed with AI. Jetzt haben wir schon über total viele gute Learnings gesprochen. Also erstmal die KI nicht an die IT ranzuhängen. Das ist Teamsport. Business Stakeholder müssen involviert sein. Erwartungshaltung auf den gleichen Stand bringen. Hier
Tobias Zwingmann: Vielen Dank.
Felix: entweder täglich wöchentlich, monatlich quartalsweise oder jährlich zu definieren, aber sich dort einig zu werden. [00:48:00] Use Cases in Sequenzen zu denken oder Iterationen zu denken und nicht gleich den einen Moonshot von Anfang an umsetzen zu wollen, sondern erstmal die erste Ausbaustufe zu starten darauf aufzubauen und das mit der Zeit weiter zu entwickeln und auch an
Tobias Zwingmann: Ja.
Felix: Zeit den Automatisierungsgrad steigern. Was kannst du den Zuhörern noch mitgeben?
Tobias Zwingmann: Also ich glaube, wenn ihr alles das macht, dann seid ihr schon echt, also neun von zehn, dann seid ihr schon ziemlich weit vor. Das ist dann schon ganz gut. Der einzige Punkt, den ich vielleicht noch ergänzen würde, ist, was ich auch immer wieder meinen Kunden sage, wir sind nicht Google. Ihr seid nicht Google, ich bin nicht Google und wahrscheinlich ist niemand da anders auch draußen, sonst Google.
Und Google ist mal stellvertretend für Big Tech. Weil was ich immer wieder sehe, was passiert ist, dass... Unternehmen quasi über den Teich gucken, [00:49:00] an die Unternehmen, die das quasi den ganzen KI-Kram erfunden haben und jetzt sagen, jetzt gucken wir doch mal an, wie Google KI nutzt und jetzt machen wir das auch so.
Jetzt gucken wir uns an, wie Amazon KI nutzt und machen wir das auch so. Genau, Facebook und alle anderen. Da kann man nur sagen, nein, bitte tut es nicht. Also diese Firmen haben auch bis heute selber noch nicht hundertprozentig gut verstanden wie man diese Technologie überhaupt einsetzt. Die sind zwar Innovatoren dieser Technologie, aber Wenn man sich zum Beispiel anguckt wie Google Generative AI bei der Search Engine ausgerollt hat, also macht euch einfach mal den Spaß und gebt mal Google Generative AI Fail ein und da kommen genug Beispiele dafür.
Also diese Firmen haben es auch noch nicht richtig verstanden diese Technologie einzusetzen. Man muss diese Unternehmen auch eher verstehen als Technologie anbieter und weniger als lösungsanbieter das heißt guckt wirklich wenn ihr nach lösungen schaut guckt zu euch selber das unternehmen hinein und versucht das kann ich am ende vielleicht mitgeben versucht auf probleme zu schauen die es wirklich existiert die wirklich existieren keine probleme hypothetischen probleme zu lösen die irgendwie mal in 35 jahren auftauchen Fangt wirklich mit Sachen ein, wo [00:50:00] der Schmerz aktuell groß ist oder wo halt der Schmerz in absehbarer Zeit in den nächsten sechs bis zwölf Monaten auf jeden Fall auf euch zukommen wird.
Das ist ein guter Punkt, um da loszulegen. Aber orientiert euch nicht an Google. Also ihr habt keine irgendwie 40 Milliarden, die ihr investieren könnt, einfach mal so als Venture Capital zum Thema KI. Ihr könnt keine tausend AI-Engineers einstellen, um mal so ein neues Modell zu trainieren. Und ihr habt irgendwie auch nicht Geoffrey Hinton eingestellt als Godfather of AI Das ist ein anderes Game, was da einfach gespielt wird.
Und das muss man wirklich verstehen. Konzentriert euch auf euch selbst und dann nutzt die Technologie, die da bereitgestellt wird, um damit halt das Beste rauszuholen für euch. Das auf jeden Fall.
Felix: Super, fantastische Tipps und Learnings Vielen Dank Tobias. Und abschließend möchte ich gerne noch wissen, was Was erwartest du noch von dem AI-Jahr 2025? Wo stehen wir am 31.12.? Worauf freust du dich?
Tobias Zwingmann: Also, Freund, was ich auf jeden Fall erwarte, ist, ich glaube einer der großen Provider wird federn lassen. Ich weiß noch nicht genau, welcher aber aktuell haben [00:51:00] wir ja mit Anthropic und mit OpenAI und XAI wirklich drei große Contender Dann rennen noch so ein paar kleinere dazu, aber ich glaube, einer von denen wird federn lassen bis zum Ende des Jahres.
Ich glaube auch nicht, wir werden ein nächstes großes Supermodell sehen, bin ich auch nicht von überzeugt Das heißt für mich sozusagen Outlook dieses Jahres wird vor allem ein Kosten- und Effizienzthema sein. Also wie kriegt man das hin, die KI-Use Cases die es aktuell gibt, kostengünstiger und auch skalierbarer auf die Straße zu bekommen, sozusagen mit schnellerer Latenz oder auch mit größerer Verlässlichkeit, jeder der wirklich mal...
Mit so ein paar APIs gearbeitet hat, der sieht, wie schnell man dann irgendwie dahin kommt, dass der Server nicht anfordert oder dass der Dienst down ist, wo man irgendwie denkt, okay, das ist 24-7, alles ständig verfügbar und dann merkt man ja, plötzlich hat die Azure Open AI Instanz irgendwie eine Latenz von drei Sekunden oder sowas.
Also da wird, glaube ich, sehr viel passieren dieses Jahr, um diese Modelle effizienter und effektiver zu machen. Ja, auch kostengünstiger zu machen und da haben wirklich alle Unternehmen, die jetzt schon den Use Case haben und eigentlich nur noch darauf warten, dass die Modelle günstiger und zuverlässiger werden, einen extremen Vorteil [00:52:00] darauf.
Von daher der Fokus hier wirklich auf die Anwendungsfälle da reinzugehen und dass, wenn die Modelle so weit sind, dass ihr wirklich gut integrieren und skalieren könnt, dass ihr dann sofort bereit seid. In die nächste Stufe zu gehen und nicht erst euch sortieren müsst, okay, wie nutzt man das jetzt überhaupt?
Das ist das, was ich wirklich erwarte. Und vielleicht abseits vom Business, das ist quasi so der Business-Aspekt auch sehr stark so auf generative KI und große Sprachmodelle geguckt, Aber ehrlich gesagt, also ich persönlich erwarte schon irgendwie nochmal so ein bisschen den großen Durchbruch im Bereich Video-KI-Generierung.
Wir haben jetzt Thora gesehen, das war so ein bisschen, naja, also so mit den ersten Announcements irgendwie nicht so das, was man da jetzt irgendwie sich vorgestellt hat. Aber das ist aus meiner Sicht noch so ein Space, der, ja, der, wo eigentlich noch sehr viel, sehr viel Möglichkeit nach oben hin ist, dass die Video-Generierung ganz gut ist.
Und dann abschließend vielleicht, das ist im Bereich große Sprachmodelle das, was ich sehe als... Trend oder was, nicht unbedingt Trend, aber was passieren könnte, was diese Sprachmodelle deutlich besser macht, ist, [00:53:00] jetzt wird es ein bisschen technisch, also hoffentlich verlieren wir jetzt keiner, die Idee ist im Prinzip sozusagen die Übertragung von Diffusion-Modellen, das, was gerade in Bildgenerierungs-KI passiert, auch auf Textmodelle anzuwenden.
Man muss sich das vorstellen, ein aktuelles Large-Language-Model funktioniert so, dass es quasi Token für Token vorhersagt also immer ein Token nacheinander, das heißt, man kann immer das nächste Wort vorhersagen, was Also hunderttausende Probleme bringt, aber in der Regel eigentlich ganz gut funktioniert.
Aber eben halt dazu führt, dass zum Beispiel Halluzinationen entstehen. Bildgenerierung, von Bildgenerierungs-KI funktionieren anders. Da macht man nicht quasi Pixel für Pixel, sondern da erstellt man im Prinzip, jetzt wirklich ganz einfach gesprochen, ein verrauschtes Bild. Und dann wird das Bild immer weniger verrauscht bis irgendwann das echte Bild entsteht.
Und was ähnliches gibt es jetzt auch im Bereich Text-Prediction, also große Sprachmodelle wo eben nicht das nächste Token vorhergesagt wird, sondern der nächste Absatz. Aber der nächste Absatz ist dann halt nur mit völligem Nonsens gefüllt. Kriegt man nach und nach die richtigen Wörter innerhalb dieses Absatzes und so entsteht am Ende sozusagen der finale Absatz.
Und wenn das passieren könnte, dann könnte man damit tatsächlich viele der Schwachstellen, die wir aktuell haben [00:54:00] im Bereich sozusagen Next Token oder Next Word Prediction überwinden und dann auch KI-Modelle haben, die tatsächlich in der Lage sind, weniger zu halluzinieren oder eben auch so zuverlässiger sind.
Aber wie gesagt, das ist alles noch Zukunftsmusik und wenn das kommt, bin ich auch der festen Überzeugung, dass das deutlich teurer sein wird als diese Next Token Prediction. Aber so immer mein Ausblick für 2025. Mal gucken, was davon passiert am Ende des Jahres.
Felix: Fällt das unter Large-Concept-Models, was du jetzt zuletzt erklärt hast, oder ist das
Tobias Zwingmann: ist glaube ich nochmal ein bisschen was anderes. Also wenn es eine Sache gibt, die absolut underwhelming ist im Bereich AI, ist es Terminologie. Ja, absolut. So ist es absolut. Jeder versteht irgendwie was anderes darunter. Man muss sich immer schon echt ganz genau angucken, was machen die da eigentlich wirklich und was haben die jetzt irgendwie da wo, wie benannt.
Auch Thema Agentic AI, was ich gerade sehe, was alles unter Agentic AI gelabelt wird, was dann am Ende des Tages aber eigentlich eine simple Prompt Chain ist, wo du wirklich nur ein LLM hast und das geht eigentlich ins andere LLM und das geht ins andere LLM Das ist keine agentische [00:55:00] Lösung in dem Sinne, weil du halt diese Autonomie da drin nicht hast.
Also insofern... Bin ich mit Terminologie immer vorsichtig in dem Bereich.
Felix: Am Ende, wenn dann, Automation regeln's.
Tobias Zwingmann: genau. Auf sehr hohem Scale, aber am Ende des Tages auf jeden Fall.
Felix: Vielen, vielen Dank für deine Zeit. Ich liebe deine pragmatische Rangehensweise und hab wieder viel gelernt. Danke, Tobi.
Tobias Zwingmann: Dankeschön Felix. Hat mich sehr gefreut Danke für die Einladung.