No.
55

Wie sollten Mensch & KI zusammenarbeiten? Mit Elisabeth L’Orange (Partnerin Data & AI, Deloitte)

Mit
Elisabeth L’Orange
Elisabeth L'Orange über die Zukunft der Arbeit im KI-Zeitalter: Warum sie weniger KI nutzt, was Work-Slop ist und ihre Vision einer Vier-Klassen-Gesellschaft. Ehrliche Einblicke einer KI-Pionierin.

In dieser Folge des AI FIRST Podcasts spricht Felix mit Elisabeth L'Orange über die Zukunft der Arbeit im KI-Zeitalter. Die beiden diskutieren, wie sich Arbeitsweisen durch KI bereits verändert haben und welche Entwicklungen noch zu erwarten sind. Elisabeth teilt ihre persönlichen Erfahrungen mit KI-Nutzung und reflektiert darüber, wie sich ihr eigener Umgang mit dieser Technologie über die Zeit entwickelt hat.

Inhaltsübersicht

  • Veränderung der Arbeitsweise: Wie Elisabeth und Felix ihre Arbeitsweise durch KI angepasst haben und welche Phasen sie dabei durchlaufen haben.
  • "Brain-Rot" und digitale Degeneration: Die negativen Auswirkungen übermäßiger KI-Nutzung auf kognitive Fähigkeiten.
  • KI als Teamkollege vs. Tool: Unterschiedliche Perspektiven auf die Zusammenarbeit mit KI.
  • Demokratisierung von Wissen und Fähigkeiten: Wie KI Zugang zu Expertise für jeden ermöglicht.
  • Zukunftsvision: Chancen und Risiken einer KI-geprägten Arbeitswelt.

Detaillierte Inhaltszusammenfassung

Veränderung der Arbeitsweise durch KI 

Elisabeth beschreibt, wie sie KI bereits vor dem öffentlichen Launch von ChatGPT nutzte, da sie durch ihr Unternehmen frühen Zugang zu OpenAI-Technologie hatte. Ihre KI-Nutzung durchlief verschiedene Wellen - von intensiver Nutzung für Marketing und Content-Generierung bis hin zu einer bewussten Reduzierung in jüngster Zeit. Sie erklärt, dass ihre aktuelle Zurückhaltung darauf basiert, dass sie bemerkt hat, wie übermäßige KI-Nutzung kognitive Fähigkeiten beeinträchtigen kann. Felix beschreibt, wie KI für ihn vom einfachen Tool zum echten Partner wurde, der ihm sogar den Mut gab, sein eigenes Unternehmen zu gründen.

"Brain-Rot" und digitale Degeneration

Elisabeth spricht über ihre Beobachtungen zur "digitalen Degeneration", die sie an sich selbst festgestellt hat. Sie bemerkte, dass sie sich immer weniger Namen merken konnte und zunehmend auf digitale Hilfsmittel angewiesen war. Sie verweist auf Studien, die zeigen, dass ein Drittel der Amerikaner nur noch auf dem Niveau eines Zehnjährigen lesen und schreiben kann. Um diesem Trend entgegenzuwirken, zwingt sie sich nun bewusst dazu, ihr Gehirn zu trainieren und nicht jede Aufgabe an KI zu delegieren. Sie betont, wie wichtig es ist, das eigenständige kritische Denken zu bewahren.

KI als Teamkollege vs. Tool

Beide Gesprächspartner sehen KI mehr als Teamkollegen denn als reines Tool. Felix beschreibt, wie er KI-Agenten entwickelt hat, die wie seine Kunden "denken", um Marketingentscheidungen zu simulieren. Elisabeth nutzt KI unter anderem, um schwierige Personalgespräche zu üben. Beide betonen, dass die reine Textgenerierung der uninteressanteste Teil von KI sei und dass das wahre Potenzial in komplexeren Anwendungen liege. Felix erklärt seinen Dreiklang-Ansatz: Mensch → KI → Mensch, wobei Menschen am Anfang und Ende des Prozesses nachdenken müssen, während KI in der Mitte die Arbeit beschleunigt.

Demokratisierung von Wissen und Fähigkeiten 

Elisabeth sieht großes Potenzial in der demokratisierenden Kraft von KI. Sie erklärt, wie KI es ermöglicht, dass Menschen Expertise in Bereichen entwickeln können, in denen sie keine formale Ausbildung haben. Als Beispiel nennt sie ihre Friseurin, die KI nutzt, um Haarschnitte zu visualisieren und chemische Komponenten zu prüfen. Sie glaubt, dass KI die starren Strukturen aufbrechen kann, die besonders in Europa und Deutschland vorherrschen, und dass horizontale Karrierewechsel einfacher werden. Felix ergänzt, dass KI das individuelle Potenzial jedes Menschen entfalten kann, was jedoch in traditionellen Unternehmensstrukturen oft erstickt wird.

Zukunftsvision: Chancen und Risiken

Elisabeth prognostiziert die Entstehung einer "Vier-Klassen-Gesellschaft": 1) Technokraten, die KI kontrollieren, 2) erfolgreiche KI-Anwender, 3) passive KI-User und 4) Menschen, die KI ablehnen und zurückgelassen werden. Sie sieht die größte Gefahr darin, dass ein erheblicher Teil der Gesellschaft den Anschluss verliert. Felix betont dagegen die Chancen und wie wichtig es ist, dass Unternehmen investieren, um ihre Mitarbeiter mitzunehmen. Er sieht KI als Partner, der Menschen hilft, ihre Grenzen des Möglichen zu verschieben.

Kernaussagen

"Ich glaube, dieses eigenständige kritische Denken ist eine der wichtigsten Eigenschaften, die wir Menschen haben, und die sollten wir nicht verlieren." 

"Menschen wurden weniger schnell befördert, Mitarbeiter wurden weniger bezahlt, wenn sie mehr KI genutzt haben, und sie wurden zum Teil gar nicht erst eingestellt. Bewerbungen, die offensichtlich mit AI bearbeitet wurden, haben immer schlechter abgeschnitten." 

"Mit KI wird es immer mehr möglich sein, dass der Wandel in Karrieren und Aufgaben horizontal stattfindet und nicht mehr nur vertikal. Dieses, dass man in einem Fachgebiet quasi sein Leben lang kleben bleibt, muss nicht mehr so sein." 

"Es wird nicht mehr darum gehen, Wissen anzusammeln. Für Menschen, die keine sozialen Skills haben, wird es schwerer werden." 

"Wir müssen mit KI-Arbeiten zweimal nachdenken und zwar einmal am Anfang und einmal am Ende. Und in der Mitte hilft KI uns irgendwie 50, 60, 70, 80, 90 Prozent des Weges deutlich schneller zu schaffen." 

Fazit und Takeaways

Die Zukunft der Arbeit im KI-Zeitalter wird maßgeblich davon abhängen, wie wir als Individuen und Gesellschaft mit dieser Technologie umgehen. KI bietet enorme Chancen, unsere Fähigkeiten zu erweitern und Zeit für wertvolle Tätigkeiten zu schaffen. Gleichzeitig müssen wir wachsam sein, um nicht in eine passive Abhängigkeit zu geraten, die unsere kognitiven Fähigkeiten beeinträchtigt.


Links:

Im Gespräch: Elisabeth L'Orange & ⁠⁠⁠⁠Felix Schlenther

Zum weiterlesen: 
Research: The Hidden Penalty of Using AI at Work
AI-Generated “Workslop” Is Destroying Productivity

Herzlich willkommen zur 52. Folge von Tech & Tales. Erst einmal möchte ich mich herzlich bei meinen Hörern entschuldigen. Letzte Woche ist leider mein Gast in einem Deutsche-Bahn-Drama stecken geblieben Und wir konnten Freitagabend nicht aufnehmen. Was dann resultierte, dass ich Samstag keine Folge releasen konnte. Also normalerweise nehme ich Freitagabends auf. Und Christopher, mein Produzent produziert Freitag spätabends noch. ist auf 0 Uhr gestellt. Nur leider ging das diesmal nicht, was extrem schade war und da wir momentan alle so wahnsinnig viel zu arbeiten haben, schaffen wir es dann leider nicht, während der Woche eine extra Runde zu drehen. Aber heute ist mein Gast Felix Schlenter. Felix war schon einmal bei mir und das war einer der... Best performantesten Podcast überhaupt. Und wir wollen heute über Tools sprechen, weil das ist am Ende Felix' Fachgebiet Felix macht sehr stark die Anwendung von KI, bringt künstliche [00:01:00] Intelligenz in Unternehmen, in Mittelständer, in alle Größen und Ist wirklich hands-on und versteht das in der Tiefe. Das heißt, heute wollen wir darüber reden, welche Tools wir beide verwenden, welche Tools es gibt, welche Tools wir gerne hätten, Tools wir zum Beispiel nicht mehr brauchen. Also es ändert sich ja stetig. Und Aber Felix, stell dich nochmal mit einem Satz kurz vor, für die Leute, die die letzte Folge nicht gehört haben. Felix: Ja hi und erstmal danke, dass ich nochmal hier sein darf, freue mich schon die Folge. Ich bin Felix, bin Gründer von AI First. Wir haben auch einen Podcast, veröffentlichen jede Woche einen Blog und machen vor allem AI Enablement für Unternehmen wie Porsche. Oder UNICEF und helfen denen, ihre Teams fit im Umgang mit KI zu machen. Elisabeth: Genau, und gestern kam nämlich eine Folge von uns beiden raus in deinem Podcast. Das heißt, wir machen eine Art Doppelfolge Falls jemand Lust hat, da ging es um KI und die Arbeit von morgen, was ein ultraspannendes Thema ist. [00:02:00] Aber Felix, lass mal gleich rein starten. Was ist das Tool, was bei dir den krassesten Aha-Effekt hatte oder dich am meisten positiv überrascht hat? Felix: Also ich sagen, dass ich schon wirklich sehr, sehr lange Zeit keinen Aha oder Wow-Moment mehr hatte. weil Hype mir so ein bisschen rausgegangen ist in der Anwendung von KI, es ist Normalität geworden und auch die Entwicklungen in diesem gesamten Markt sind jetzt eher inkrementell und nicht mehr so disruptiv beziehungsweise neue Dinge so schnell hoch oder so neue wirklich extrem durchbrechende Entwicklungen Funktionen oder Fähigkeiten von KI-Modellen durchkommen. Und ich würde sagen, dass, also wo ich es wirklich so das letzte Mal hatte und auch davon ist jetzt schon sehr, sehr viel mittlerweile im Markt, das war als [00:03:00] Manus rauskam, dieser Agent aus China, der wirklich über viele Minuten hinweg wenn nicht sogar Hunderte einzelner Tasks ausführen und am Ende seine Ergebnisse konsolidieren konnte, indem er einen eigenen PC genutzt hat. Also er hat einen eigenen PC und kann da im Internet suchen und Sachen runterladen und Dinge coden und er kann das alles gleichzeitig machen und mit dem hatte ich dann damals, als ich das so ausprobiert hatte Und da hatte ich das dann so gemacht, dass ich wirklich mich morgens hingesetzt habe und mir überlegt habe, was, also oder abends am Abend vorher hatte ich mir überlegt was steht denn morgen an, habe so meine To-Dos priorisiert und habe mir dann, habe dann Aufgabenbriefings geschrieben, die ich sonst an einen Freelancer oder an Mitarbeiter geschrieben hätte Und habe die dann Manus delegiert um mal zu gucken, wie weit kann ich das treiben. Und das war eine Phase, wo ich sehr viele neue bauen musste. Ich musste auch viel so Modelle und so etwas bauen. Und das war extrem krass wie [00:04:00] der mir... Da die Excel-Sheets da zusammengeformelt hat und meine Inputs die ich in Dokumenten hatte, in diese Excels reingebaut hat. Und das war so ein Moment und das ist jetzt mittlerweile auch schon dreiviertel Jahr oder ein Jahr sogar her, wo ich mal so einen Wow-Moment wieder hatte. Seitdem, klar, es kommen immer mal wieder coole Sachen, krass wie gut Video geworden sind, krass wie gut die Audio-Funktionen in KI-Tools geworden sind, krass wie niedrigschwellig KI-Agenten mittlerweile zugänglich sind, aber das kam trotzdem ja alles durch viele, viele Iterationen zu uns in einem hohen Tempo aber in vielen Iterationen und durch diese extreme Flut an Updates auf dem Markt gab es schon lange keinen. So richtig großen Wow-Momenten ja. Elisabeth: ich erinnere mich noch an deinen Manus-Post tatsächlich. Das war, der ging, glaube ich, hart viral auf LinkedIn. Das war ein super Post. Das sah aus wie so ein großer Stundenplan. Und die gesamten Agenten lagen nebeneinander. [00:05:00] Und ich weiß noch, wie ich... So gefeiert habe, als wir auf einer Konferenz waren. Wir waren auf der Delta Unplugged und da hatte Sascha Lobo ein Screenshot deines Posts in seine Keynote eingebracht. Und ich habe in dem Moment wirklich zelebriert weil ich dachte, du bist einer der wenigen Menschen, die halt KI wirklich Bis in die Spitzen anwendet. Also nicht nur du machst halt nicht nur einen Prompt sondern du machst den zwanzigsten Prompt des Prompt. Also du bist die Mutter aller Prompts sozusagen. Oder der Vater. Don't quote that. Jedenfalls, nein, aber ich finde das faszinierend weil ich glaube, nur so kommt man irgendwie weiter, weißt du? Es gibt viele, die so ein bisschen oberflächlich sich damit beschäftigen und so, aber du Du nutzt es halt wirklich, ja, you mean it. erzählen, dass, also Mini sozusagen oder ich weiß nicht, ob es Wow-Moment war, aber es war auf jeden Fall eine Erkenntnis war, als ich ein neues Tool gerade angefangen habe zu nutzen, das heißt, es ist kein Tool, es ist mehr eine Webseite, prompts.ai [http://prompts.ai/], das heißt prompts.ai [http://prompts.ai/]. [00:06:00] Das heißt, du kannst den gleichen Prompt parallel von verschiedenen Modellen bearbeiten lassen. Und das erspart mir tatsächlich so ein bisschen die Arbeit, die ich immer habe, dass ich gleiche Frage von verschiedenen Modellen eben beantworten lasse verifizieren lasse und so weiter. Und ich finde es immer sehr kompliziert, weil … momentan ist es noch so, dass, also die neueste Studie, die gerade rauskommt und ich verlinke es in den Show Notes, zeigte, dass Quellenangaben aus oder Zitate aus Modellen zu 45 Prozent falsch sind. Das heißt, also auf Deutsch heißt das, jede zweite Angabe ist eigentlich nicht korrekt. Und das sind, also diese Zahlen ändern sich stetig das mit den Modellen ändert sich stetig das liegt an allen möglichen Dingen. Aber dass man einen gewissen Überblick hat, was die anderen Modelle dazu quasi sagen würden, finde auf jeden Fall weitergebracht, auch in dem Sehnen quasi vom Output. Zuge dessen kommen wir auch zum nächsten quasi, was ich gerne hätte, wäre [00:07:00] eine UX, UI, die über allen Modellen liegt, in der ich die … Modelle untereinander quasi sich verifizieren oder checken lassen könnte. Und ich habe es versucht zu bauen, ehrlich gesagt, gestern Morgen und heute Morgen, aber bin ein bisschen gescheitert weil jedes Mal, wenn ich versucht habe, Code mit Chat-GPT dafür zu generieren und JSON-Files und so weiter zu erstellen, ist das Modell gecrashed tatsächlich. Also es ist halt wirklich, ich habe mein gesamter das gesamte Prompt-Resultat wurde wieder gelöscht von ChatGPT und final hatte ich gar nichts. Das heißt, aber diese Parallelitäten sind gut zu sehen, weißt du? Und das nächste ist auch... Und typischerweise generiere ich irgendwie ein Bild auf Midjourney das ist gerade am Laufen, dann generiere ich irgendwie das gleiche Bild bei Grog und dann nochmal bei ChatGPT und wenn man dann eins nicht offen lässt, habe ich immer das Gefühl, also eins crasht dann sowieso immer. Und ein Bild ist dann immer gut von dreien. Aber wenn du das alles [00:08:00] parallel laufen lassen könntest, dann wäre es wesentlich schneller. Felix: Ja, also du brauchst eine Oberfläche, wo du sämtliche Modelle darunter liegen hast und diese Modelle sollten dann aber auch parallel Prompts ausführen und nicht sequenziell. Elisabeth: Genau, und die Modelle vor allem miteinander kommunizieren Genau. Also nach wie vor glaube ich, diese Layer Solutions wie wir eine waren, die sind. Ich denke auch, dass Alle Ähnliches brauchen werden. Ich glaube, wir waren zu früh für das Produkt. Also das heißt, die Videogenerierung war einfach noch nicht stark genug. Ich meine, selbst wenn man sich das jetzt anguckt, da sind das generative Video-KI, ich will sagen, noch in den Kinderschuhen aber es kann sich bisher kein... Normalsterbliche mal ebenso kurzen Kinofilm von anderthalb Stunden generieren. Also das heißt, so Videoclips mit so einzelnen Sequenzen gehen auf jeden Fall. Das hat man ja bei diesem Kelschi-Ad gesehen, dass das viral ging [00:09:00] vor ein paar Monaten. Aber abgesehen davon, das ist noch ein bisschen früh, weil die Compute-Leistung, die dafür benötigt wird, ist einfach noch nicht da. Aber heißt... Diese Multimodalität, die ChatGPT und die anderen Modelle haben, die ist sicherlich hilfreich. Also früher habe ich viel mehr noch in anderen Modellen rumgeswitcht und ich glaube, es ist cool, wenn man sich ein Bild generieren lassen kann, die ich mal für Präsentationen brauche zum Beispiel gleichzeitig eben den Text dazu. Und was ich auch sehr viel nutze ist Also das heißt, ich lade Bilder hoch und analysieren, was Was quasi wie manchmal auch zum Spaß, so wie die Gesichtsausdrücke der Leute sind. Man kann mit KI so viel sichtbar machen, was man selber gar nicht sehen würde. Ja, also wenn man, ich weiß, eine Freundin von mir zum Beispiel hat immer die Körperhaltung von zwei Menschen untereinander von der KI analysieren lassen. Das heißt, das KI wird zu paar Augen, das die Blinden wieder [00:10:00] sehen lässt. Weißt du, gewisse Dinge, die man übersehen hat, die sind auf einmal wieder da. Aber okay, also unabhängig jetzt, also neben diesen Tool prompts.ai [http://prompts.ai/], was ich empfehlen kann, es gibt für die Entwickler unter uns, unter euch, gibt es auch noch DeepCheck. Das wurde mir auch mehrfach empfohlen tatsächlich, um zu sehen ob die LLMs funktionieren Immer performant sind. Das heißt, um zu gucken, ob die Ergebnisse okay sind und auch, ob sie auch on-scale nach wie vor so funktionieren, wie sie versprochen haben. Und das ist sicherlich eines der wichtigsten Aspekte, dass wenn du skalieren möchtest, muss halt der ganze Kram irgendwie zuverlässig sein. Aber mir doch mal, sonst, also was benutzt du noch im Alltag? Felix: Also ich habe früher allen möglichen Chatbots gearbeitet, mit ChatGBT und Gemini und [00:11:00] Claude und dann hatte das eine eine Funktion, dann habe ich da wieder den teuersten Plan abgeschlossen und dann hatte das andere eine andere Funktion und dann bin ich da rüber und dann hatte ich hier meine Projekte und da meine Klientel Assistenten und hier dieses und jenes aufgesetzt und habe das immer wieder von A nach B rübergezogen. ich es irgendwann leid war und mir mein KI-Betriebssystem auch für unser Unternehmen aufgebaut habe ... ... mit der Lösung von Langdock, das Berliner die gerade eine sehr schöne Story schreiben Die genau das machen. Ähnlich, was du beschrieben hast, nämlich eine Plattform, auf der du alle Large-Language-Models nutzen kannst und auch mittlerweile einige Bildmodelle. Dann kannst du das deine Prozesse integrieren und kannst dir deine Agents aufsetzen und Workflows und kannst dort dein Unternehmenswissen anbinden und das deinen Agents zur Verfügung stellen. Das ist wichtig ... mehr oder weniger alles, was ich brauche, ... ... um [00:12:00] einen Großteil der Arbeit, die bei uns so anfällt ... mit KI zu erledigen, entweder zu unterstützen ... ... oder wegzuautomatisieren. Ohne dass ich diesen Tool-Zirkus habe, ... ... weil es war wirklich nicht mehr feierlich. So, und das ist das eine. Da gibt es aber noch Schwächen gerade auf dieser kreativen Seite. Also auch, was du gerade beschrieben hast, so Bild, Video. Wir machen eine ganze Menge Content ... ... und auch immer wieder viele Präsentationen und so. Alles, was wir dort visuell machen, ist alles KI generiert. Und haben auch so mittlerweile auf unserer Website ai-first.ai [http://ai-first.ai/], könnt ihr auch mal schauen. Da haben wir für jeden Artikel so ein kleines GIF mittlerweile, ... ... was wir auch darüber generieren Und das machen wir noch mit Mid-Journey und Free-Pick. Also Free-Pick ist eine zweite Empfehlung von mir. Das ist quasi das Languedoc-Pendant, aber für Kreativanwendungen. Also hast du alle möglichen Bildmodelle, alle möglichen Videomodelle und kannst eigentlich alle Kreativ-Tasks da umsetzen. [00:13:00] die Oberflächen können überall noch ein bisschen besser und intuitiver werden, aber es ist relativ gut. Elisabeth: Wie teuer ist das Free-Pick? ... Felix: 15 Euro im Monat 20, es hängt so ein bisschen darauf an, wie viele Credits man dort durchjagt, also wenn du jetzt deine darstellen willst, dann brauchst ein paar mehr, aber genau, also Video zieht schon recht viel oder wenn man auch so die besseren Bildmodelle wie Nano Banana Nutzt die sind schon sehr intensiv auch was die Credits angeht aber es gibt auch deutlich günstigere, aber irgendwie so, ich glaube, wir bezahlen 20er im Monat. Elisabeth: ist aber, okay, das heißt alle bildgebenden Modelle sind da hinterlegt? Felix: Ja, genau Von Flux, von denen aus Asien von alles mögliche also bestimmt 20 Modelle da drin. Elisabeth: Das ist ja mega gut. Okay, das kannte ich auch noch nicht. Da werde ich definitiv zu wechseln Ich bin nämlich immer noch bei Runway mit Journey und so weiter und deren UX UI ist im Übrigen auch. Verbesserungswürdig wenn man mal so sagt. Ich gehe da dauernd drin verloren [00:14:00] und finde meinen Weg nie wieder raus. Und ja, okay. Das heißt, was nutzt du dann klassisch zur Textgenerierung? Felix: Na, ich habe mir dafür, wir haben Das habe ich ja beim letzten Mal auch erzählt. Wir haben quasi unsere ganze Company auseinandergebaut und in Jobs-to-be-done zerlegt, die hier gemacht werden müssen, damit wir unsere Kunden erfolgreich machen und Geld verdienen und irgendwie das Business läuft. Und dann haben wir diese Jobs-to-be-done in Agent-Personas entwickelt Überführt, die entweder einen Mitarbeiter oder auch mich unterstützen oder die direkt die Aufgabe erledigen. Also ich habe einen Agent, der guckt halt in meinem Posteingang, ob da eine neue Rechnung reinkommt und wenn eine neue Rechnung reinkommt oder ein Beleg, dann fügt er die in unserem Buchhaltungstool der Ausgabe hinzu. Ja so einfache Woher er, dass es ein Beleg ist? guckt sich den Anhang an und hat dann in seinem Prompt beschrieben, worauf er achten muss. Und wenn er dort irgendwie [00:15:00] Rechnung Invoice, Receipt, etwas sieht, dann ist das für ihn … Also die Fehlerquote ist nur manchmal da, dass irgendwie dieser Workflow manchmal zu früh ausgelöst wird und der dann irgendwie verwirrt ist, dass er das da nicht gefunden hat, was er eigentlich finden sollte, aber ansonsten erkennt er das und der läuft auch nochmal durch, also falls es nicht funktioniert hat, läuft es auch nochmal durch und dann macht er es beim zweiten Mal, also es funktioniert gut Immer es sei denn die Rechnung wird über so einen blöden Link geschickt und nicht über einen Anhang, dann funktioniert es nicht. Elisabeth: Erklär noch einmal ganz genau, wie du diesen Agent aufgesetzt hast. Also wo fängt ein normaler Mensch an? Felix: Ich habe einen anderen Agent, der mir hilft, Agents zu bauen. Also du öffnest dein Tool, also du brauchst dafür ein Tool, was sowohl auf Large-Language-Models zugreifen kann, als auch Integration hat in [00:16:00] bestehende Systeme In so Drittsysteme Also Chat-GBT funktioniert zum Beispiel nicht, weil es aktuell noch nicht diesen Workflow oder Agent-Builder dort drin hat. Also du kannst zwar dort so diese Custom-GBTs aufsetzen mit könntest du irgendwie chatten und so, aber die können jetzt noch nicht in deiner Inbox nach Sachen suchen beziehungsweise Aktionen ausführen. Okay, das heißt was braucht man als erstes Also nehmen wir irgendwie Gemini von Google. Nee, das geht auch nicht. Okay, wen nehmen wir dann? Du brauchst ein Tool wie Make oder N8n oder Zapier oder sowas wie Langdock. Da gibt es noch ein paar andere Elisabeth: Warte ganz kurz für die Hörer. Einmal ganz kurz. Make.com [http://make.com/], das sind N-A-T-N, wird das geschrieben. Zapier, das wird geschrieben Z-A-P-I-E-R. Oder eben Langdog. dieser, das sind alles Tools, Um Workflows zu connecten Das heißt, [00:17:00] wenn ihr einen aufsetzen wollt, dann müsst ihr ja Zugriff auf verschiedene Schnittstellen haben. Und wenn ihr so wollt, sind diese und so weiter sind das Orchestrierungstools, die am Ende dafür sorgen, dass eben verschiedene Arbeitsschritte wie an einer Perlenkette aneinandergereiht zusammen funktionieren. So, okay. Okay, Felix. Also, als erstes wir brauchen einen Orchestrierungstool. Dann zweitens was brauchen wir noch? Felix: Ein Large-Language-Model. Elisabeth: Okay, welches nehmen wir? Felix: Ich würde hier GBT 4.1 nehmen, weil es extrem gut darin ist, Befehle auszuführen. Also wenn man sagt, der Agent sagt, man macht zuerst das und dann machst du das und dann machst du das und dann machst du das. Also guck zuerst nach, hier ist hier eine neue Befehle E-Mail reingekommen. Wenn ja, dann guck in dem Anhang nach. In dem Anhang guckst du nach folgenden Schlagworten Wenn das folgende Schlagwort identifiziert worden ist, dann leitest du diese [00:18:00] E-Mail an irgendeine E-Mail-Adresse weiter, die mit dem Buchhaltungstool verknüpft ist oder so. lädst die Rechnung runter und lädst sie in irgendeinem anderen Ordner hoch. Also es sind ja unterschiedliche Schritte, die befolgt werden müssen. Und das GBT 4.1-Modell ist sehr gut darin das zu tun, ohne vom Weg abzuweichen. Elisabeth: Okay, und das Modell finde ich dann innerhalb von Langdock, von Make, von Zapier und so weiter, richtig? Ja Das heißt, ich gehe in deren Oberfläche und ich sehe als erstes sehe ich ein Icon für das Sprachmodell, ziehe es mir da in die Mitte und klicke drauf und werde innerhalb des Sprachmodells kann ich den Prompt eingeben, was es tun soll. Richtig? Richtig. Genau. Ja, also du wählst halt aus, wo du denn... Ich 90 Prozent der Leute, die zuhören werden nicht wissen, was es bedeutet. Ich schwöre es dir, wirklich. Okay. Ich glaube, du unterschätzt deine [00:19:00] Zuhörer gnadenlos, aber vielleicht bin ich auch einfach nur wirklich in meiner ganz eigenen Welt unterwegs. Felix, ich arbeite in Data & AI und ich... Du hast keine Ahnung. Die meisten haben ein iPhone aus 1998. Da gab es noch kein iPhone. Aber du kannst es dir nicht vorstellen. Wirklich. Felix: Ja, also ich meine, eigentlich ist es ganz einfach. Also müssen wir ein bisschen vorsichtig sein, aber du könntest ja Dein AI-Agent ist wie so, ich nenne es mittlerweile so ein Task-Monkey. Das ist so dein kleiner Task-Monkey und der kann so kleine Aufgaben für dich machen und du musst ihm halt sagen, was er machen soll. Aber damit er das machen kann, muss er ja irgendwo die Info herbekommen. Und die bekommt er jetzt zum Beispiel aus deinem E-Mail-Postfach oder einer anderen Datenbank, wo der nachschauen muss. Und du musst dem Zugriff geben auf dieses Tool. Und wenn er Zugriff hat auf das Tool, dann kann er zum Beispiel die E-Mail daraus bekommen... Und da kann die dann und dem gibst du dann ein Aufgabenbriefing mit. Also wie du sonst dem Praktikanten sagen würdest, hey, pass auf, du [00:20:00] überwachst hier die Inbox und machst immer 1, 2, 3, 4, 5. Genauso sagt man das jetzt dem AI-Agent und der nutzt das Sprachmodell um erstmal diesen Befehl zu verstehen, was soll der überhaupt machen und dann sich zum Beispiel Texte durchzulesen und dann die Aufgabe auszuführen. Und in dem Fall ist es einfach nur eine Ja-Nein-Logik am Ende, die in dem Aufgabenbriefing beschrieben ist. Was ist eine Rechnung und wenn Rechnung erkannt, was soll dann passieren und was ist keine Rechnung und wenn es keine Rechnung gibt, was soll dann nicht passieren. Elisabeth: Okay, und in welchen E-Mail-Programmen geht es und in welchen geht es nicht? Felix: Das geht mit allen, also wir nutzen Gmail, aber wir haben auch viele Kunden die Outlook nutzen, also wenn man jetzt mit, ich glaube, was schwierig ist, ist Apple. Genau, also Apple Mail zum Beispiel. Ich glaube da, ich bin unsicher, aber ich glaube da gibt es nicht so wirklich gute Schnittstellen. Elisabeth: Okay, das heißt als nächsten Icon, den ich dann bei der lassismake.com [http://lassismake.com/] [00:21:00] reinziehe, ist mein E-Mail-Programm Das heißt wir sehen als erstes wie an einer Perlenkette sehen wir als erstes Chat-TPT 4.1, dann sehen wir das Gmail-Icon das heißt wir können dann… Und dann die nächsten Aktionen des Ablegens, also sagen wir, es soll auf einer Cloud ablegen, das heißt typischerweise sieht man das Cloud-Logo meinetwegen von Google Drive oder wie auch immer, soll es da ablegen Das ist so die einfache Kette sozusagen. Was hast du denn noch an komplizierteren Schritten da eingefügt? Also was sind sozusagen die Grenzen von so einem Agenten oder welche Tools hast du dann noch mitconnected? Felix: Ja, also die meisten Sachen, die ich umgesetzt habe, sind sehr einfach. Es sind wirklich sehr wenige Schritte. Es kommt irgendwo eine Information rein, die soll verarbeitet werden und dann soll irgendwas damit passieren. Und manchmal geht das vielleicht noch durch zwei, drei weitere Schritte. habe zum Beispiel so einen Research-Prozess Und da kommt erst über Formular der Auftrag rein, was recherchiert werden [00:22:00] soll und dann wird im ersten Schritt eine Recherche ausgeführt und im zweiten Schritt wird zum Beispiel jede Aussage oder jedes Ergebnis aus dieser Recherche wird noch einmal gegengeprüft ob die Quellen ... ... Beispiel passend sind. Und das kann man beispielsweise für Podcast-Vorbereitung ... ... dann einsetzen Dann sage ich, was ist der Gast? In welchem Unternehmen arbeitet der? Und was sind irgendwie so Themen, über die ich sprechen möchte? Und dann schickt das diverse Suchabfragen ab. Und die Suchabfragen werden dann nochmal gegengeprüft. Und dann bekomme ich einen Report, was könnten interessante Themen sein ... ... und was sind die? Quellen, auf die ich mich da beziehen kann. Und da würden dann so zwei Agents oder zwei LLMs hintereinander arbeiten. Das eine recherchiert und das andere überprüft die Aussagen des Ersten. Das geht so ein bisschen in die Richtung, die du beschrieben hast, obwohl das nicht so dynamisch ist. Also ich löse das nicht über einen Chat aus, sondern ich muss dann tatsächlich halt vorher ein Formular ausfüllen. Elisabeth: Und erinnere mich daran, dass du in der letzten Episode zu mir sagtest, dass du [00:23:00] diesen, oder den ich auch gerade ansprach die Agentin in deinem Telegram hast. Das heißt, ich will jetzt mal wissen, an welcher Stelle, an dieser Perlenketten-Idee an welcher Stelle findet das dann statt? Ist das am Ende oder am Anfang quasi, dass du das per Telegram-Nachricht… ... du diese Aktionen auslösen kannst? Felix: also ich habe ja meine KI-Assistenz Donna ... ... von Donna aus Suits und habe mir die quasi dupliziert Ich fand es auch irgendwie lustig weil ich die Persona so cool finde in der Serie. Und die Donna, die hat wiederum Zugriff auf alle anderen ... ... die ich habe, ja, also die kann Nachrichten empfangen, entweder über einen Chat, eine Chat-Nachricht was gemacht werden soll, oder, und ganz ehrlich, mittlerweile nutze ich das gar nicht mehr so, ich hatte mir das mal so aufgesetzt, dass ich der auch bei Telegram eine Sprachnachricht schicken kann und die könnte sie auch verarbeiten. Sogar? Ja, ich schicke tatsächlich [00:24:00] gerne Sprache. Das heißt, du schickst dieser... Elisabeth: Also hat die Donner eine Telefonnummer oder wie funktioniert das? Wie ist das hier bei Telegram? Felix: wie war das denn nochmal? Ich glaube, das funktioniert über irgendeine Integration und... Ja, ich frage mich nicht mehr, wie... Also wahrscheinlich ist bei Langdock irgendwo eine Integration, weil du nutzt ja für den Kram Langdock oder? Nee, in dem Fall, also das kommt da jetzt gerade erst in dem Tool, diese Funktion, in dem Fall hatte ich N8n dafür genutzt Bei N8N und das nennt sich dann ein sogenanntes Multiagentensystem. Also wir haben jetzt nicht ein Agent, wie bei der Rechnungsverarbeitung, der eine Aufgabe macht, sondern wir haben ein System wie ein Team aus Agenten das zusammenarbeitet. Und Donna ist so gesehen die Chief of Staff, also meine Executive Assistant und die bekommt jetzt den Arbeitsauftrag, zum Beispiel recherchiere mal hier für den nächsten Podcast folgendes Weiß sie, das ist in ihrem [00:25:00] Aufgabenbriefing in ihrem System prompt hinterlegt, okay, welche Agenten habe ich in meinem Team und was können die? Und da ist zum Beispiel der Rechercheagent und da ist der Copywritingagent und da ist der ... Dann Workshop-Vorbereitungsagent und so weiter, dann sind Agenten und sie kann dann, je nachdem, was das für eine Aufgabe ist, diese Aufgabe entweder in Unteraufgaben und an diese spezialisierten Agenten weiterleiten oder eben die ganze Aufgabe an einen Agenten weiterleiten. Und wenn der Agent die Aufgabe gemacht hat, dann kann er das Ergebnis wieder an Donna zurückschicken, die kann das nochmal prüfen nach bestimmten Qualitätsstandards, zum Beispiel hasse ich das, wenn in so Outputs irgendwelche Buzz- oder Hype-Wörter so Revolution oder so ein Zeugs drinsteht ja, und sie soll das nochmal filtern dass es einfach klare Worte sind, die man gut lesen und verstehen kann, so einfache Regeln. Und dann geht das nochmal durch diesen Filter und dann [00:26:00] kommt es praktisch bei mir wieder zurück. Und wie lange dauert das ungefähr? Ein paar Sekunden? Ja, auch etwas länger, also wenn jetzt so Recherchen Dann kann es auch mal eine Minute oder sowas dauern. Aber ich könnte ja dann theoretisch das Ergebnis wieder in Telegram einfach zurückbekommen. Also ich kriege dann da einfach eine Nachricht wenn die Aufgabe erledigt worden ist. Aber mittlerweile kann das halt auch über Apps und so erledigt werden. Ich könnte auch das per E-Mail ansteuern Also der Kanal, worüber das rein und raus kommt, das ist dann sehr flexibel Da muss man dann schauen, was für die eigene Kommunikation am besten passt. Elisabeth: Okay, sehr gut. Und was gibt es noch an interessanten Schnittstellen in den Orchestrierungstools, wie ich sie nenne? Ist dir irgendwas aufgefallen gerade, was du als super relevant siehst? Felix: die Schnittstellen, die gibt es natürlich jetzt zu allen, also es gibt jetzt so mehrere, also es gibt die Standard-Tools im Projektmanagement, im HR, CRM-System, irgendwie so Hubspot Salesforce, [00:27:00] Customer-Support-Tools, dann die Produktivitäts-Tools wie Kalender und, und, und. Dazu gibt es in den meisten Tools vorgebaute Integrationen man kann die mit KI-Modulen verknüpfen Jetzt kommen natürlich auch immer mehr KI-Skills mit da rein und das finde ich ganz spannend, also dass man sich jetzt so diese Agenten bauen kann, das ist schon mal ganz gut. Aber jetzt kommt zum Beispiel Zora 2, ist rausgekommen und jetzt kann man in vielen Tools mittlerweile auch Zora in so einen Workflow mit einbinden und dann könnte man dem Agenten auch sagen, hey, überleg dir hier mal jetzt für unseren Tech und Tales Podcast, überleg dir mal ein Videoskript und Basierend auf dem Transkript vielleicht, was wir hier geschrieben haben. Überleg dir mal. Es könnte ein Workflow sogar sein. Den kannst du dir ja gleich mal danach bauen. Hier ist das Transkript von meiner letzten Tag & Tales-Folge. Überleg dir mal dafür ein Videoskript für ein Reel. Und das Videoskript wird dann an Zora2 geschickt in dem Workflow. [00:28:00] Und das erstellt dann ein Reel für dich. Und das kannst du dann bei Instagram posten, um ganz viel Reichweite zu bekommen und AI-Slop in die Welt zu bringen. Ja, und solche... Solche KI-Funktionen oder Modelle können dann auch in diese Workflows geschalten werden und da geht halt mittlerweile halt einfach unfassbar viel. kannst dann auch so 11 Labs, damit kann man beispielsweise Audio stimmen Also du kannst ja auch deine eigene Stimme klonen als KI-Klon und kannst dann auch Eleven Labs dort einbinden, dass der dir ein Audio-Snippet erstellt, aus dem Text ein gesprochenes Wort in deiner Stimme wird. Und dann hast du ein Audio-File, was du irgendwo nutzen kannst. Das ist halt wirklich crazy Kann man schon automatisch starten? Kann man schon automatische Anrufe machen? Hast du dafür eine Idee? Weil mein absoluter Traum wäre ja, dass wenn ich irgendwelche, ich finde Leute anrufen wahnsinnig nervig und so Arzttermine machen oder überhaupt Termine zu machen, das ist mein Graus. Wenn ich einen Bot hätte, der irgendwie 15 Praxen gleichzeitig anrufen könnte [00:29:00] und die mit meiner Stimme spammen könnte, hätte ich schon mal viel gelöst. Weißt du ob es so Autodialer gibt, die damit connected werden könnten? Ja, ich weiß nicht, ob ich das so gut finde. Also wenn du dann nur beim Arzt anrufst. Ich will keinen Sales machen. Ich will nur die Gespräche eliminieren. Oder bei Airlines. Es gibt da die großen Enterprise-Anbieter die das jetzt auch machen. Paloa und Cognigy sind die Champions aus Deutschland, die da unterwegs sind, insbesondere Paloa auch im Voice-Bereich. Und dann für Leute wie uns, kleine Unternehmen, gibt es zum Beispiel Phonio und Vodafone Eleven Labs. Und dort kann man sich sehr einfach tatsächlich so etwas aufbauen. Es ist nicht mehr kompliziert, sich so eine Stimme zu klonen oder eine vorhandene zu nehmen. Dann diesem Call Agent eine Art Persönlichkeit zu geben, [00:30:00] also wie soll der sich verhalten, was soll der sagen, wie soll der die Leute ansprechen und dem kannst du dann eine Wissensdatenbank hinterlegen. Mit irgendwie Dokumentation zu dir und deinen Krankheiten. Gott Dank habe ich eine Kranke. Und dann du dem, der hat dann auch eine Telefonnummer und der kannst du outbound und inbound Telefonie machen. Ich würde sagen, wenn wir uns eine Stunde hinsetzen, dann haben wir sowas. Elisabeth: Ja, mega. Ich habe übernächste Woche den Gründer von Paloa tatsächlich hier bei Tech & Tales. Den werde ich dann dazu nochmal im Detail löchern. Malte heißt er. Weil ich das sehr interessant finde, weil das natürlich für die meisten Menschen oder die Menschen, die ich kenne, ist das natürlich ein großer Painpoint, sind einfach so lästige Anrufe zu machen. Oder beim Finanzamt anrufen, bei den Airlines irgendwelche Flüge umbuchen. Also das sind ja wirklich so ähm Sekretariatsaufgaben da muss man schon für geboren sein, wenn man dazu Bock hat, irgendwie [00:31:00] diesen Telefonschleifen zu hängen. Oder einige empfinden das, glaube ich noch als schmerzhaft als andere. Wie auch immer. Okay, alles klar. Also wenn du das aufbauen würdest, dann bist du in der Gruppe von den Cognigys und Paloas. Ich verstehe. Und was gibt es noch? Also was kannst du noch empfehlen? Felix: Also erstmal möchte ich noch kurz sagen zu diesen Das hört sich immer alles ganz super toll an und ich bin auch überzeugt davon, dass es funktioniert, weil man kann insbesondere Aufgaben am PC in viele kleine Schritte zerlegen und dann kann man für jeden Schritt arbeiten Immer mehr KI einsetzen, weil die Modelle immer besser darin werden, insbesondere auch Tags und so zu verarbeiten Bei Zahlen strugglen sie manchmal noch etwas, das ist manchmal noch ein kleiner Blocker. Und damit kann man halt diese Kette an kleinen Einzelschritten miteinander kombinieren und immer mehr Prozesse ... entweder zu beschleunigen oder auch Teil- oder vollständig automatisieren. Jetzt kommt das Aber. Ich habe ja auch hier [00:32:00] von meinem Multiagentensystem und so gesprochen. Das klingt immer alles ganz fancy, aber es gibt zwei Sachen, die wichtig sind. Ich nutze diese Agenten für sehr atomare Aufgaben, also sehr, sehr kleine, klar abgegrenzte Aufgaben. Also das sind wirklich Taskmonkeys, die eine, eine kleine Sache machen. Oder wenn ich so entweder mehrere Agenten zusammenarbeiten lasse oder auch meine Donner zum Beispiel, die hilft mir bei Sparings-Aufgaben oder bei auch Dokumentation ... ... oder Vorbereitung von Präsentationen ... ... solchen Aufgaben. Mit der arbeite ich aber die ganze Zeit im Sparing. Also die ganze Zeit. Die bekommt Input von mir, die macht was, ... ... dann kriegt sie wieder Feedback ... ... und ich iteriere mit ihr dieses Ergebnis, ... ... bis ich zufrieden bin. Und ich glaube, es braucht beides. Wenn du das automatisieren willst, ... ... brauchst du diese klar abgegrenzte Aufgabe ... Und ansonsten brauchst du enge menschliche Führung und Steuerung. Das wollte ich nur nochmal dazu sagen, weil ansonsten der Eindruck entstehen könnte, dass man hier sich seine komplett [00:33:00] digitalen Mitarbeiter baut die das ganze Unternehmen automatisieren und das ist tatsächlich, also ich glaube, da kommen wir schon irgendwie hin. Aber das dauert wahrscheinlich noch etwas, weil insbesondere auch Architektur drumherum fehlt, um den Agenten noch mehr Leitplanken zu geben und deren Verhalten nachzuverfolgen. Die haben noch nicht so richtig gutes Gedächtnis dass sie sich auch daran erinnern, was sie gestern gemacht haben. Aber das ist eher Softwarearchitektur die drumherum gebaut wird. Und da kommt immer mehr. Elisabeth: ich finde auch eine Herausforderung dabei ist auch diese... Also die eigenen Aufgaben so zu definieren. Ich bin mir gar nicht sicher, abgesehen, also ich habe gar nicht so viele Aufgaben, die sich so automatisieren lassen, weil sie so repetitiv sind. Ich habe das Gefühl, dass bei mir keine Woche der gleichen, äh dass keine Woche der anderen gleicht und deswegen könnte ich, also deswegen tue ich mich eben, ich persönlich tue mich sehr schwer mit diesen Automatisierungen, aber ich glaube, es hängt so ein bisschen davon ab, was du jobmäßig oder privat machst und es gibt Bestimmt durchaus Menschen, die vorhersehbar immer wieder die gleichen [00:34:00] Aufgaben jeden Tag haben. Und insbesondere, also am interessantesten finde ich gerade diesen Agenten der den Rechnungseingang, also der das automatisiert und dann meinetwegen gleich zum Steuerberater weiterschickt oder gleich bei DATEV hochlädt oder so. Das sind also diese ganz lustigen Buchhaltungen. Felix: Ja, und da ist zum Beispiel auch, also genau das ist aber auch ein super Beispiel, da brauchst du auch wieder Schnittstellen, die es oft noch nicht gibt. Also ich glaube auch zum Beispiel Buchhaltung ist ein guter Bereich, wenn man sich das anschaut dann wird wahrscheinlich ein Großteil der aktuellen Buchhaltungsarbeit durchautomatisiert werden, wenn Systeme wie DATEV ihre Schnittstellen aufmachen oder da mal KI anständig integrieren. Ja ja, klar. Aber da mit unseren Kunden verbringen wir einen Großteil der Zeit darauf, Aufgaben zu definieren abzugrenzen, in kleine Schritte runterzubrechen, uns für jeden Schritt anzuschauen, welcher Input wird dafür benötigt, welche Daten werden [00:35:00] oder auf welcher Datengrundlage basiert das, welche Systemzugriffe werden benötigt und das machen wir wirklich kleinteilig für alle möglichen Prozesse, aber dann können wir für diese kleinen, kleinen Schritte, also das sind nicht mal Aufgaben, sondern Schritte, können wir dann klar sagen, gibt es eine KI-Fähigkeit, die hier genutzt werden kann oder nicht, Haben wir die Daten und können wir auf die Systeme zugreifen und wenn das erfüllt ist, dann gibt es eine ganz gute Chance, dass man da KI auch in den Prozess integrieren kann. Aber da verbringen wir tatsächlich viel Zeit drauf, weil wenn man diese Klarheit nicht hat, dann muss man auch nicht anfangen Die KI in seine Prozesse zu integrieren, weil dann wurschtelt man halt eigentlich nur. Elisabeth: Genau, man wurschtelt nur oder wir nutzen halt es ist KI-Opportunist, so wie ich. Ich fotografiere meinen Kühlschrank und möchte dann gerne ein Rezept haben, was ich abends kochen soll. Oder fotografiere meinen Kühlschrank und frage ob das für die nächsten vier Tage für fünf Personen reicht. Meistens nein. Oder ich lade eine KI-App runter. Ich glaube, die heißt Irgendwie so hey, miau oder so, um zu dechiffrieren was meine Katzen mir sagen wollen. Also ich habe [00:36:00] lauter so sinnlose Use Cases. Freundinnen von mir nutzen KI, um normale Rezepte in Thermomix-Rezepte umzuwandeln. Also ich habe kein Thermomix, deswegen kann ich das nicht nachvollziehen. Aber ich glaube tatsächlich, dass dem keine Grenzen gesetzt sind. Ich habe Freundinnen, die Katalogisieren ihren Kleiderschrank und lassen sich dann von Chat-TPT jeden Morgen ein Outfit vorschlagen. Also der Fantasie sind in dem Kontext keine Grenzen gesetzt. Aber gibt es noch ein Tool, was du empfehlen kannst oder was du gesehen hast in letzter Zeit? Felix: Jetzt kommt meine Nummer-eins-Empfehlung. Und ich habe vorhin gesagt, dass ich das schon lange nicht mehr hatte, aber ich muss mich jetzt korrigieren, weil da hatte ich es schon. Und ich würde wirklich nicht mehr ohne arbeiten wollen. Und vielleicht klingt das jetzt so total so, aber ich bin eigentlich nicht so dieser Tools-Guy. Also ich gucke mir auch gar keine neuen Tools oder so an. Ich habe da jetzt mein [00:37:00] Setup und auf dem arbeite ich, aber wenn jetzt neue Tools oder Features kommen, ich ziehe mir das nicht... Alles den ganzen Tag lang rein. Das machen wir nicht mehr. bleiben jetzt gemein Genau, da sind wir raus aus dem Alter. Aber okay, also ... ... das Tool heißt WhisperFlow ... ... und das sich ... ...-I-S-P-R ... ... Flow. Und hilft, mit dem Computer zu sprechen. Es ist ganz einfach. Ich habe bei mir ganz unten links auf der Tastatur, da steht bei mir FN und dieses Weltsymbol. Ich weiß nicht, ob das auch ein anderes Symbol oder Buchstabe sein kann. Und wenn ich da rauf drücke, dann kann ich in jede einzelne Zeile in jedes Feld quasi reinsprechen, es gibt. Also ich habe hier gerade meine Notizen-App offen und da könnte ich jetzt einfach reinsprechen. Ich könnte in die Browser-Zeile reinsprechen. Ich kann in einen LinkedIn-Kommentar reinsprechen, in eine E-Mail und ich... ich diktiere halt das [00:38:00] geschriebene Wort. Aber was Whisperflow extrem gut macht, ist, meine diktierten Wörter schon in einen formatierten Text zu bringen. Also da sind schon Zeilenumbrüche drin. Der nimmt, wenn ich Sachen, also ich sage sehr gerne Sachen nochmal kurz doppelt oder so ein kleines M oder ähnliches drin, das nimmt der raus, also kürzt das schon raus. Der setzt der setzt Fragezeichen und all sowas. Und am Ende hat man da fast einen polished Text Rechtschreib, Grammatik korrigierten Text raus, den man per Spracheingabe gemacht hat und ich müsste jetzt hier mal in meine Analytics schauen, also man kriegt da man kann sich auch so ein Wörterbuch anlegen man kann auch sagen, irgendwie E-Mail und immer wenn man E-Mail sagt, dann kommt seine E-Mail-Adresse anstelle des Wortes E-Mail und solche Sachen, also ist eigentlich ganz cool Und ich habe in den letzten sieben [00:39:00] Wochen Wörter Habe ich da reingesprochen? Also 106 Wörter pro Minute. Ah, okay. Und ich bin damit in den Top 3 von allen Flow-Usern sehe ich hier gerade. Aber ich nutze das Ding hoch und runter. Ich kommuniziere so auch mit meinen KIs. Also ich schreibe da gar nichts mehr, sondern ich spreche alles rein. Aber ich auch so die E-Mails gesagt Social-Media-Kommentare so beantworten oder Nachrichten und das ist halt nicht KI-generiert, sondern ich spreche das ja wirklich, aber es kommt halt als ein schön formatierter Text daraus und das ist wirklich mega, dieses Tool. Also kann ich Wirklich nur empfehlen, jeder, der keinen Bock mehr hat, immer noch mehr zu schreiben und dem es leichter fällt, zu sprechen statt zu schreiben und es geht auch einfach schneller und ist irgendwie auch oft authentischer. Wärmste Empfehlung. Sag nochmal, wie es heißt, Whisper... Whisper Flow. Whisper Flow. Okay. Mega. [00:40:00] Also das werde ich... 20 Euro im Monat oder so, also schon recht, recht pricey für den doch begrenzten Funktionsumfang, aber es ist einfach ein sehr gutes Produkt. Also, auch, macht auch einfach Spaß das zu nutzen. Funktioniert einfach. du hast sowieso, glaube ich die Tendenz viel von dieser Sprach von diesen Sprachsteuerungs... Oder Tools oder so zu verwenden. Ich glaube, es gibt Menschen, die sprechen gerne viel oder nicht, also, nee, nee so mache ich das nicht, warte. Ich glaube, es gibt Menschen, die nutzen eher Sprachsteuerungstools und andere Menschen, die das eher weniger nutzen. Weil mir fällt das immer ein bisschen, oder ich genieße auch Ruhe und ich finde es quasi anstrengend zu sprechen so viel, weil ich auch tagsüber unfassbar viele Meetings habe, so wie du wahrscheinlich auch. Nur Ich spreche halt, oder ich habe es mir auch noch nicht angewöhnt. Ich fange langsam an, also oder ich spreche tatsächlich mit den Modellen. Also gerade wenn ich Auto fahre, dann validiere ich meine Thesen mit den Modellen und dann spreche ich tatsächlich mit denen. Oder zum Beispiel wenn ich Vorträge halte halte ich die immer, halte ich jedes Slide der KI vor und möchte dann Feedback haben.[00:41:00] Das funktioniert immer mehr oder weniger gut, weil die halt sehr sykophant ist und einem nach dem Mund reden und sagen, oh super alles und so. Aber das sind die einzigen Momente in ich spreche. Es gibt aber andere Menschen, die halt auch die gesamte Also die die Sprachsteuerung an den Telefonen nutzen. Es ja auch so Hardware-Tools, die man sich um den Hals hängt, mit denen man nur spricht und so. Aber ich finde das faszinierend. Ich werde das auf jeden Fall ausprobieren. Und die anderen Tools werde ich auf jeden Fall ausprobieren. Ja, und ansonsten vielleicht noch abschließend, und das können auch viele beobachten denke ich gerade, ist, dass KI immer mehr dahin kommt, wo wir arbeiten. Also ich glaube, wir müssen uns gar nicht mehr so viele Tools suchen und die dann alle lernen und uns diese ganzen Oberflächen beibringen. Bestes Beispiel ist, in meinen Meetings hatte ich früher so einen Meeting Assistant, der hat dann irgendwie das Meeting aufgezeichnet, danach eine Summary geschrieben. Das habe ich heute automatisch in meinem Google Meet drin und in Zoom gibt es das auch und in Teams gibt es das auch. Da drückt man einfach auf den [00:42:00] Knopf und dann, oh, das passiert schon automatisch. Es wird automatisch bei jedem Meeting ein Transkript erstellt und daraus eine Summary und Follow-up-E-Mail und solche Geschichten, ohne dass es ein extra Tool benötigt. aber genau, also das nur nochmal für, ich merke ganz oft diesen Push vom Markt, Neue Tools testen zu müssen irgendwie und dann werden so die besten Tool-Listen geteilt und ich habe das sicherlich auch mal gemacht, aber mittlerweile, wie gesagt, ich habe irgendwie meinen Langdock, ich habe meinen FreePic, da sind so die ganzen Design-Sachen dann drin und dann habe ich noch so ein WhisperFlow-Tool und that's it und dann die Sachen, die in meinem Workspace, in meinem Google-Workspace eingebaut sind, die versuche ich möglichst gut zu nutzen und ich wüsste gar nicht, was ich jetzt noch so viel... Zusätzlich bräuchte. Und noch eine Frage, die wir vorhin nicht beantwortet haben, nutzt du mehrere Sprachmodelle oder nur eins? Oder das eine war, du hast gesagt, für die Agenten nutzt 4.1, aber was nutzt du sonst so für Text? Ja, [00:43:00] genau, ansonsten für Text nutze ich ist gerade mein absolutes Lieblingsmodell Clord 4.5 Sonnet. ist einfach, das war schon immer, Clord war schon immer super gut darin den eigenen Schreibstil zu adaptieren und ähm, Gute menschlich klingende Texte zu schreiben, auch so wie ich sie schreiben würde, sehr ähnlich. Das nutze ich jetzt sehr, sehr gerne. Und ansonsten nutze ich viel das Gemini 2.5 Pro Modell weil es ein riesengroßes Kontextfenster hat, extrem viel Dateninput verarbeiten kann und ich irgendwie die Verhaltensweise des Modells mag. Aber das ist wirklich... Persönlicher Geschmack und ... ... könnte ich gar nicht jetzt irgendwie datenbasiert ... beschreiben, warum das so ist, sondern ... ... ich habe immer so ein paar Benchmark-Aufgaben, ... ... lasse ich Modelle durchlaufen ... ... und gucke mir an, ob sie besser sind als die ... ... vorherigen und danach entscheide ich dann, womit ich arbeite und bei Agents die ich aufsetze, ... ... lasse ich halt viele, viele Test-Durchläufe ... ... machen und [00:44:00] teste die Outputs gegen ... Testdatensätze und gucke dann daran, ... ... wie gut die Qualität der einzelnen Modelle ist. So und dann ... Danach mache ich das. Ja super. Also, vielen, vielen Dank. frage ja immer meine Gäste ob sie eine Buchempfehlung haben. letzten Mal hattest du, glaube ich eine Buchempfehlung deswegen kann es diesmal auch einfach eine Social-Media-Account-Empfehlung sein oder irgendwas, womit wir schlauer werden. Hast du etwas, was wir an Content konsumieren können, was du empfehlen kannst? Ja, ich lese gerade das Buch Dopamine Detox und es geht darum zu verstehen ... Warum wir eigentlich immer wieder so diese schnellen Dieses schnelle Pleasure suchen und was das mit unserem Gehirn macht, immer wieder so diese schnellen Glückskicks zu bekommen und wie sich das eigentlich langfristig auf unser Gehirn auswirkt. Und ich habe das bei mir total krass gemerkt, dass es [00:45:00] mir immer schwerer fällt, wirklich schwere Sachen zu machen, mich lange auf etwas zu konzentrieren und auch einfach mal Langeweile Und das mal auszuhalten. Das ist mir echt stark aufgefallen, so in den letzten ein, zwei Jahren. Und jetzt gerade merke ich schon, einfach dadurch, dass ich dieses Buch lese und so die Zusammenhänge besser verstehe, dass sich mein Verhalten ändert. Und das tut ganz gut. Ja, also das muss ich unbedingt lesen Ich kann dein Verhalten sehr gut nachvollziehen Vollziehen, mir geht es ähnlich und ich habe im Zuge dessen also auf der Reise wieder das Gehirn besser zu aktivieren und besser zu nutzen, habe ich wieder angefangen per Hand zu schreiben, weil ich gelesen habe, dass es die neuronalen Aktivitäten Wesentlich mehr fördert, wenn du diese Schwingung sozusagen in Hand hast und diese mechanische Bewegung zum Denken dazukommt. Und ich glaube, ich hatte seit fünf Jahren nicht mehr diese typischen DIN A5-Notizbücher und auf einmal schleppe ich diese Notizbücher wieder mit mir rum und einen Füller tatsächlich, um eben mehr Notizen zu machen. Und ich muss sagen, Es [00:46:00] fühlt sich so an, als würde man wieder runterkommen. Ich habe echt so Flashbacks von der Schule gehabt, dass ich einfach Tage habe, wo dieser dauernde Strom an Dopamin, den wir immer spüren, dadurch dass wir so viel arbeiten und dadurch, dass wir alle immer online sind und so weiter, der hört dann irgendwann wieder auf. Und man hat das Gefühl, wieder in einer normalen analogen angekommen zu sein. Ja. Ich glaube, wir müssen alle auf unser Gehirn achten Das ist letztlich das größte Asset was wir haben und auch das einzige auf Dauer. Word. Word. Okay. Also, danke dir, dass du da warst Machen wir bestimmt wieder und auf bald. Ciao, ciao. Bis dann, ciao.
This is a success message.
This is an error message.