Herzlich willkommen zum AI First Podcast. Heute zu Gast ist Elisabeth Lorange, die eines der ersten Gen-AI-Startups in Deutschland aufgebaut hat mittlerweile Partnerin für Data und AI bei Deloitte ist und den Tech and Tales Podcast hostet, einen der besten Podcasts im AI und Tech Space. Unbedingt auch dort folgen denn wir machen eine Doppelfolge Heute sprechen Elisabeth und ich darüber, welche Rolle KI in unserem Privatleben und Arbeitsalltag spielt, wie wir die Technologie auch selbst einsetzen.
Also mal was ganz anderes. Und ab dem 26. Juli gibt es dann beim Tech & Tales unseren Deep Dive in KI-Implementierung im Mittelstand und Konzern. Liz, ich freue mich drauf. Schön, dass du da bist und dass wir es auch endlich mal geschafft haben. Ja, hi Felix. Vielen Dank, dass ich da sein darf. Ich bin Fan erster Stunde von dir und deinen Unternehmungen mit AI First.
Ich finde es wahnsinnig beeindruckend wie du alles durchstrukturierst mit KI und [00:01:00] frage dich stets ob du das in deinem eigenen Leben auch so machst. Und deswegen bin ich heute super gespannt, was du zu berichten hast, wie man das am besten alles aufsetzt. Ja, oder wir decken die dunklen Geheimnisse. Ja, oder so.
Wer weiß. Ja, wir durften ja auch schon ein paar Workshops und Vorträge und solche Dinge gemeinsam machen. Seitdem ist vor allem auch bei dir einiges passiert. Gib uns mal kurz einen Einblick, wie ist es denn jetzt für dich von der Produkt- und Startup-Welt aus In die Konzern und Strategieimplementierungswelt gewechselt zu sein.
Was ist anders? Ja, es hat verschiedene Vor- und Nachteile. Also wenn man in einem Startup arbeitet, vor allem wenn man es leitet kann man natürlich super schnell Dinge umsetzen. Man kann Tools einkaufen, man muss niemanden fragen, wenn man etwas machen möchte. Man hat sein eigenes Budget, ist für alles verantwortlich Aber auf der anderen Seite ist man eben auch Für alles verantwortlich Das heißt, man ist auch für die [00:02:00] Mitarbeiter verantwortlich für die Umsätze verantwortlich und letztlich wird man halt von den Investoren zur Rechenschaft gezogen.
Und in nur, also jetzt nur aus Strategie oder nur aus Organisationsperspektive und in einem großen Unternehmen und die Leute hat 500.000 Mitarbeiter, das heißt, es ist schon durchaus ein sehr großes Unternehmen, da sind die Strukturen und Prozesse natürlich komplett anders. Das heißt, ich kann nicht einfach Tools einkaufen, ich kann nicht einfach Leute hirn, ich kann nicht einfach kommunizieren was ich will.
Das muss natürlich intern und extern abgestimmt werden. Das ist der eine sehr große Unterschied, den ich spüre. Auf der anderen Seite habe ich jetzt keine Verantwortung mehr für ein Riesenteam im Sinne von, dass ich dafür verantwortlich bin, dass die ihre Mieten zahlen können. Und es ist auch sehr, es ist super interessant, weil meine Kunden jetzt andere sind.
Vorher waren meine Kunden kleine B2Bs, das heißt, es waren kleinere Unternehmen, die Werbevideos brauchten, die Gen-AI implementiert haben. Und jetzt sind meine Kunden große DAX-Unternehmen, die mit zweistelligem Milliardenumsatz, die ganz andere [00:03:00] Herausforderungen haben. Das heißt, ich bin jetzt tatsächlich mitten im Maschinenraum und setze...
Riesen AI-Strategien auf, mit dreistelligen Millionenbudgets die irgendwie eine Milliarde Ersparungen sich erhoffen in 2028. Also es wird viel passieren. Aber das sind natürlich komplett andere Use Cases, das sind komplett andere Probleme, die da auftauchen. Also überwiegend um das vorwegzunehmen sind es natürlich Datenprobleme also Datenstrukturenprobleme Datenstrukturprobleme Aber...
Im Großen und Ganzen sind es halt größere Deals die ich mache jetzt bei Deloitte. Und auf der anderen Seite ist es auch spannend, auf strategischer Seite mehrere Unternehmen in verschiedenen Industrien zu begleiten. Und jedes Mal kann man in eine völlig andere Industrie eintauchen. Also ich mache viel Energie, das heißt, spezialisiere mich so ein bisschen auf den Energiesektor Und die haben natürlich andere Herausforderungen als Chemie zum Beispiel und die haben wiederum andere Herausforderungen als fast [00:04:00] moving consumer goods, bei denen ich auch bin.
Das heißt, jedes Mal, vor jedem Meeting schlaue ich mich mit ChatGPT nochmal komplett auf, um zu wissen was da gerade passiert, um dann eben da einzutauchen. Also es sind andere Herausforderungen, andere Strukturen, aber beides super interessant. Ich freue mich schon total, in der zweiten Hälfte genau da tiefer einzusteigen auch besser zu verstehen, wie ihr das strukturiert solche Projekte und die Strategie dahinter und auch so ein bisschen die Unterschiede rauszuarbeiten zu den Mittelstandsprojekten, in denen ich vor allem unterwegs bin.
Aber mich interessiert jetzt erstmal, wenn du dich schon beruflich permanent nur mit KI beschäftigst, seit vielen Jahren schon, machst du das dann privat auch oder hältst du dich dann eher fern davon und gehst nur im Wald spazieren? Ja, ich glaube, meine Familie würde sehr gerne den ganzen Tag durch den Wald spazieren gehen.
Aber ich mache das nicht. Ich glaube, ich habe eine sehr [00:05:00] hohe Tech-Affinität qua Natur. Das heißt, ich war immer schon sehr, sehr nah dran. Als Kind habe ich ganz viel gelötet und mit Bausteinen gespielt nicht so sehr mit Barbies. Und ich habe jetzt auch immer noch die neuesten Gadgets und immer die neueste Tech und habe total Freude dran.
Das heißt, auch im Alltag... Geholt, was man sich dieses Pendant oder ich glaube Pendant hieß das, was dann alles aufzeichnet. Ja nee, das habe ich ich wusste gar nicht, dass es in Deutschland zugelassen ist Aus datenschutzrechtlichen Gründen glaube ich ja nicht, oder? Dass man jeden, also würde ich nicht, das finde ich ein bisschen zu invasiv ehrlicherweise aber alles, was es so, weißt du, alles, was es so an neuer Tech gibt, die, wo ich den Mehrwert sehe oder was ich einsehe, ich würde, ich, also ich finde es alles Super praktisch super faszinierend, aber es hat natürlich auch seine Grenzen so.
Aber wenn du mich fragst, wo nutze ich quasi in meinem Alltag KI, dann muss ich sagen, dass ich bei mir selber einen kompletten Wandel [00:06:00] sehe. Am Anfang habe ich es auch nur für Textbearbeitung genutzt Ich würde sagen, so vor ein, zwei Jahren. Das heißt, ich habe irgendwie E-Mails schneller geschrieben oder wenn ich Briefe an die...
Lehrer meiner Kinder schreiben musste, was ich immer recht lästig fand. Solche Dinge habe ich dann per Chat, also Chat-GPT oder irgendeinem anderen Chatbot verfasst. Und jetzt habe ich angefangen diese Multimodalität der Modelle wirklich zu nutzen. Und ich kann ja mal von meinem Samstag berichten. Also ich habe diesen Samstag war ich Auf einem Hockeyspiel mit meinen Kindern, neun Stunden lang.
Das heißt, ich hatte einen langen Tag und bin morgens um sechs aufgestanden. Als ich aufgestanden bin, tat mir als erstes mein Knie weh Das heißt, ich habe ein Foto von meinem Knie gemacht, einen Pfeil aufs Foto gemalt, bei Chat-GPD hochgeladen und festgestellt, die Pantellasäne ist anscheinend gereizt vom zu viel Laufen.
So, fein. Das heißt, ich habe mir eine E-Bow eingeworfen Das nächste, was ich gemacht habe, war zur Recherche eines Papers. Bei Google [00:07:00] Research habe ich mir zwei, drei Papers raussuchen lassen für künstliche Intelligenz und die neuronalen Effekte, die es hat und habe diese Papers bei Notebook LM hochgeladen, mir einen Podcast generieren lassen ganz schnell und habe den dann im Auto auf dem Weg besucht Zu den Hockeyspielen gehört.
Und dann war ich bei diesen Hockeyspielen und das ist natürlich auch nicht immer so spannend. Vor allem, wenn da nur drei Spiele sind, man aber insgesamt neun Stunden da ist. Das heißt, man wartet zwischen den Spielen nochmal drei Stunden in der gleißenden Sonne Und dann kamen Kinder zu mir und hatten für eine Spendenaktion so eine riesengroße Glasvase voller Pennennudeln.
Und man sollte schätzen, wie viele da drin sind. So, das ist natürlich schwierig, ich bin nicht so gut im Schätzen, also habe ich ein Foto gemacht und das Foto bei Chat-TPT hochgeladen und gefragt, hey, wie viel sind da? Und Chat-TPT fing an zu rechnen und sagte, es sieht ja relativ gefüllt aus, der einzelne Abstand von den Nudeln ist nicht so hoch, das heißt, die Luft ist nicht so groß, das Volumen sieht aus nach irgendwie [00:08:00] 20 Zentimeter Durchmesser, 40 Zentimeter Höhe und so weiter und berechnete da vor sich hin.
Und das Deutsche kam dann auf 545 Nudeln. Dann habe ich das Ganze nochmal auf Englisch gemacht und das kam auf 305 Nudeln. Und in dem Kontext dachte ich, Chat-TPT ist einfach noch nicht so gut in Mathe. Gut, so. Und wie viele waren es? Ich weiß es leider nicht, aber ich schätze, ich glaube, das war leider vorbei dann.
Ich konnte nicht mehr das verifizieren, aber ich gehe fast davon aus, dass es eher rund um die 500 waren. Und ich glaube einfach, dass Wenn man erneut promptet, dass da irgendwas schief geht bei. Das heißt, dass dieses Halluzinieren dann anfängt, weil, warum auch immer, vielleicht will irgendwie das Modell mir in irgendeiner Weise gefallen, hat irgendwas geändert, aber Ich kann es dir nicht genau sagen, aber es ist trotzdem erstaunlich weil das heißt ja auch im Zweifel dass man, wenn man diese Modelle einsetzt für Agents und dazu werde ich dich gleich befragen, wie gewährt man die [00:09:00] Zuverlässigkeit und wie passt man auf, dass die halt keinen Quatsch erzählen.
Aber danach guckte ich mir mein Auto an, stellte fest, dass ich hinten in meiner Rückseite eine Beule habe und habe dann den Leasing-Vertrag hochgeladen, um dann Chat-TPT zu befragen, ob das darunter abgedeckt ist unter meiner Vollkasko Ist abgedeckt. Anwalt gespart. Naja, und so ging der Tag weiter. Ich habe dann noch einen Frosch identifiziert, der ein Kind zu mir brachte.
Ich habe ein paar Vögel identifiziert mit meiner Lieblings-App, die heißt Merlin. Das ist von der Cornell University. Die kann einem immer sagen, das ist wie Shazam Shazam für Vögel, welcher Vogel gerade vorbeifliegt. Dann habe ich ein paar Pflanzen identifiziert. Und zum Schluss habe ich von The Velvet Underground, das ist eine AI-Band, also komplett KI-generierte Musik, habe ich deren Album nochmal durchgehört weil ich es sensationell finde.
Im Vergleich zu 90% der menschlich erstellten Musik ist es deutlich besser, wenn man diesen [00:10:00] Psychedelic Rock mag. Und somit habe ich also irgendwie meinen ganzen Tag tatsächlich mit KI verbracht. Aber was machst du? Also erzähl mal, was so dein KI-Alltag ist. Ich werde nochmal ganz kurz nachgehakt. Also ich finde es großartig weil ich mich immer frage, also was sind so Use Cases im Alltag?
Und ich erzähle gleich mal, also ich habe da nicht so viel, aber... Ich habe mich das immer gefragt und dann erzählen Leute so Reiseplanung oder Kochen oder sowas. Trainingsplan erstellen. Das habe ich übrigens auch. Ich habe dann noch einen Trainingsplan für meine Pantella-Szene erstellt, weil ich ja jetzt nicht mehr laufen gehen darf.
Also das heißt, ja. Die Möglichkeiten sind endlos. Ja, ich finde das schon cool. Also vor allem so, also das finde ich ja, ist ja so dieses AI-first-Mindset. Also ich habe jetzt gerade ein Problem oder ich will gerade irgendetwas lösen und ich frage mich einfach einmal, kann mir KI nicht dabei helfen? Kann ich dieses Problem nicht lösen Mit KI-Unterstützung schneller gelöst oder besser gelöst [00:11:00] bekommen, als ich es auf traditionellem Wege getan hätte.
Und das waren gerade auf jeden Fall ganz gute Beispiele dafür. Vor allem die Multimodalität, also das finde ich ja sowieso wird noch extrem unterschätzt Es wird immer noch super viel mit Text rein, Text raus gemacht, aber... Bildverarbeitung funktioniert schon wunderbar, Erstellung ja auch, Video kommt jetzt auch gerade, wir sind jetzt gerade an einem Kundencase auch dran, wo wir tausende Social-Media-Videos so TikTok-Videos und sowas analysieren, um daraus Mechaniken und Inhalte abzuleiten, um sie wieder auf neue Videos anwenden zu können, die Zielgruppe besser zu verstehen.
Es funktioniert extrem gut schon, also wirklich crazy. Und lass uns nachher nochmal darüber sprechen, Wie das Game eigentlich weitergehen wird, wie wir zukünftig mit KI interagieren, weil heute mit irgendwie Foto machen und Copy-Paste und so ist ja doch schon noch ein bisschen Friktion da drin, aber wenn das auf der Hardware-Seite gelöst wird, dann wird es nochmal richtig spannend.
Glaube ich [00:12:00] auch, ja. Ich glaube, wir sind kurz vor dem Durchbruch tatsächlich, also gerade für diese Social-Media-Posts und so weiter Momentan ist es noch nicht perfekt, aber wir sind, ich glaube, sechs bis zwölf Monate davon entfernt das alles zu automatisieren. Ja. Und wie lebst du es? Erzähl mal, was machst du an deinem Alltag?
Ja, also ich arbeite sehr viel, du ja auch, und beschäftige mich da, also ich sitze den ganzen Tag vor der Kiste und beschäftige mich dann hoch und runter mit Sachen Also entweder sind wir in den Kundenprojekten oder ich mache selbst was, was ich in unsere Community bringe aber schon noch relativ viel Hands-on auch tatsächlich am Arbeiten mit Tools, mit Modellen unterschiedlichen Systemen Ich versuche wirklich, wenn ich nicht arbeite, erst mal so wenig wie möglich überhaupt auf mein Smartphone zu gucken und das dabei zu haben und dann noch viel weniger irgendwas mit KI [00:13:00] zu machen.
Und ich sage dir auch warum. Ich habe wirklich gemerkt in den letzten drei Jahren, dass es mir immer, immer schwerer fällt, wirklich nachzudenken und mich auf Dinge zu konzentrieren. Und ich glaube, da hat das total viel mit der KI-Nutzung insgesamt auch zu tun hat. Und deswegen versuche ich Vor allem in meiner privaten Zeit so viel Zeit wie möglich zu haben, um über Dinge mal nachdenken zu können, mir eine Meinung zu bilden, mal irgendwie mich reinzufühlen, wie stehe ich überhaupt zu bestimmten Dingen, um klaren Gedanken zu fassen, weil die Zeitfenster, in denen ich das machen kann, immer kleiner werden und ich auch echt gemerkt habe, wie ich fast schon so reflexartig KI nutze, was nicht immer unbedingt gut ist, weil reflexartig KI nutzen, ohne genau zu wissen, Was will ich jetzt eigentlich gerade erreichen?
Was ist meine Meinung, meine Einstellung zu der Sache, die ich machen möchte, [00:14:00] führt halt zu relativ wenig. Weißt du was das total interessant ist? Ich habe mit Tech & Tales darüber einen Podcast gemacht mit einem Neurologen zu dem... Zu den Auswirkungen von KI aufs Gehirn. Und das Problem ist tatsächlich, dass es so ein bisschen wie gewonnen so zerronnen ist.
Das heißt, alles, was du an Effizienzsteigerungen auf der einen Seite gewinnst, verlierst du an Gehirnkapazität und Fähigkeit zu denken auf der anderen Seite. Also vielleicht nicht ganz so tragisch, aber das Gehirn ist quasi ein faules Medium. Das heißt, Wenn es nicht unbedingt nachdenken muss und wenn es eine einfachere Lösung gibt, dann macht es das lieber.
Es geht nicht gern den schwereren Weg. Das heißt, wenn du einen Taschenrechner nutzen kannst, rechnest du es nicht im Kopf. Nur wenn du dich zwingst. Und Ich finde das so interessant, dass ich jetzt angefangen habe, darüber zu forschen. Also wir schreiben gerade darüber tatsächlich auch ein Paper und ich werde ultimativ darüber auch promovieren, weil das ist etwas, was so [00:15:00] unfassbar wichtig ist für unsere Gesellschaft, zu verstehen, was letztlich mit den Gehirnen der Menschen passiert.
Und es ist nicht nur so, dass es auf der einen Seite, also dass wir halt... Alle fauler werden. Es ist auch auf der anderen Seite so, dass gar nicht alle Menschen KI in der Gänze nutzen können, weil ihnen das kritische Verständnis fehlt. Und man sagt, dass erst ab einem IQ von 89 oder zwischen 80 und 100 bist du überhaupt erst in der Lage, richtig kritisch das zu verstehen und auch die Ergebnisse in einer gewissen Perspektive zu sehen, also nicht alles für barer Münze zu nehmen.
Und die Hälfte der Bevölkerung rein statistisch Liegt da drunter unter dem 100er IQ. Das heißt, es ist nicht nur so, also was du machst, ist wahrscheinlich goldrichtig du bist wahrscheinlich deiner Zeit voraus Das heißt, dass man sich zwingt nachzudenken und zu denken und sein Gehirn zu nutzen. Auch so eine gewisse Langweile quasi zu ertragen und dem Gehirn Zeit zu geben, Sachen zu reflektieren und [00:16:00] zu computen.
Das ist auf der einen Seite wichtig, aber auf der anderen Seite ist es halt... Muss uns auch klar sein, dass selbst wenn wir das machen, dass die andere Hälfte also wird das gar nicht nutzen können. Also daher sehr gut dass du das privat irgendwie einschränkst. Aber beruflich also für dein eigenes berufliches Leben, was hast du da gemacht an Tools, um dich selber effizienter zu machen?
Erzähl mal. Warte, kommen wir gleich drauf zu sprechen. Vorher nochmal eine Abbiegung zu dem Privaten. Wie siehst du denn... Weil wir sind ja jetzt schon irgendwie noch eine andere Generation als die AI-Native-Generation, die jetzt gerade aufwächst und die irgendwie ab Tag 1 lernen. Da ist ChatGPT und wenn ich ChatGPT frage kann mir das alle meine Fragen beantworten und noch mehr.
Wie ist das denn bei deinen Kids? Wie arbeiten die dann mit KI und wie gehst du auch so damit um und irgendwie [00:17:00] sensibilisierst du da, gibst du da irgendwie bestimmte Regeln vor, lässt du das alles so laufen, wie sieht das aus? Ja, ich gebe nicht unbedingt spezielle Regeln auf, aber in der Erziehung passe ich darauf auf, dass ich sie zu kritischem Denken anhalte Das heißt, dass ich ihnen beibringe, auch mal die andere Position zu übernehmen.
Wenn sie argumentativ irgendwas versuchen zu untermalen dann versuche ich sie dazu zu bringen, auch mal die andere Seite zu übernehmen Zu sehen. Und meine Tochter zum Beispiel hat letzte Woche ihre erste Keynote über künstliche Intelligenz in der Schule gehalten mit 14. Und ich war ganz stolz Mami war ganz stolz, weil sie hat natürlich mein Deck zum Großteil gekriegt und stand dann vorne und hat mein Deck.
Aber wie selbstverständlich hat sie es gehalten. Weißt du, ich war mit 14 halt nicht in der Lage irgendwie einfach mich so vor ganz viele Leute zu stellen und ein Deck durchzuklicken. So. Und warum war sie so gut darin? Weil sie jedes Slide mit ChatGPT vorher durchgesprochen hat, sozusagen, [00:18:00] um es zu verstehen.
Also worum geht es in der künstlichen Intelligenz? Da hat sie das AlphaGo gelernt, dann die Conference von Dartmouth, dann irgendwie alle möglichen Meilensteine die es gab. Also irgendwie Eliza von IBM oder dieser Tay von Microsoft, der erste Chatbot 2016, der irgendwie verrückt geworden ist. Und sie konnte, und das heißt, für sie zum Beispiel ist KI oder diese Chatbots das sind halt wie Stereoide.
Also das heißt, alles, was man sich früher mühsam... Anlesen musste, chatten die Kinder oder finden die Kinder über diese Chatbots raus. Und die haben alle auf ihren iPhones, also wenn sie ein iPhone haben, haben sie auf dieser Schnelltaste oben rechts, haben sie alle Chat-GPT und die sprechen dann einfach rein.
Und dann sagen sie, gestern haben sie zum Beispiel Pancakes gemacht und haben einfach gesagt, gib mir mal ein Rezept für Pancakes. Dann war in dem Rezept irgendwas Merkwürdiges drin, ich glaube Essig. Und da hatten die genug kritisches Denken zu verstehen, dass Essig da nicht reingehört. Und [00:19:00] haben das dann nochmal generieren lassen, ohne Essig bitte.
Aber auf der anderen Seite, also ich glaube, meine Kinder sind... Relativ gesund und alles, aber es gibt natürlich auch viele, die Chat-GPT gerade für diese zwischenmenschlichen Beziehungen nutzen und inzwischen haben wohl 33% aller Teenager eine parasoziale Beziehung mit einer künstlichen Intelligenz in den USA, was ich persönlich sehr wild finde.
Aber die haben halt, die nutzen das halt, um irgendwie Das zu testen und zu lernen. Ich habe noch keine Meinung darüber, ob das eine gute oder schlechte Idee ist. Aber um das mit den Kindern abzuschließen, die dürfen natürlich auch künstliche Intelligenz in ihren Papers, ihren Präsentationen und so weiter nutzen.
Und als Quelle müssen sie den Prompt angeben. Und das jeweilige Modell. Und das finde ich ganz smart. Ich bezweifle, dass die Lehrer das überprüfen werden, aber immerhin haben sie da so ein bisschen Accountability sozusagen und müssen sich da so ein bisschen erklären, wo sie das Ganze herhaben. [00:20:00] Aber das Üben mit meinen Kindern, was früher auch alles sehr schriftlich war immer, das ist jetzt sehr mündlich Das heißt, ich zwinge die, mir die Sachen mündlich zu erklären, weil dabei nutzt ihnen das dann nicht mehr.
Ja, sehr gut. Ich habe hier noch keine kleinen Menschen, aber den Tipp, den merke ich mir, wenn es soweit ist. Ja aber wer weiß, dann ist. Ja, ja, ja who knows. Ich glaube, es ist eine unfassbare Herausforderung für den ganzen Bildungssektor für die Kids selbst. Also ich glaube da, wenn wir sind gerade mal so.
noch nicht mal mit Smartphones aufgewachsen, ... kam dann erst noch, ja, und wenn ich merke, ... abhängig ich von dem Ding geworden bin, und ... ... irgendwie ... ... ich muss zwei Straßen weiter irgendwo hin und mache Google Maps, ... An Und jetzt gibt es halt etwas, wo man noch viel mehr Denken auslagern kann, was halt so einfach verfügbar ist und immer besser wird.
Glaube ich super, super super schwierig. Deswegen, ich versuche mich da einfach von [00:21:00] abzuschotten Ich glaube, der größte private Use Case, den ich habe, ist Tatsächlich einfach auch zu diktieren, wenn ich Dinge im Kopf habe und die dann zu reflektieren, also vor allem so nach blinden Flecken, rotem Faden da drin, frage das nochmal aus verschiedenen Perspektiven challengen lasse von einer KI.
Also da aber auch eher eigene Gedanken reingeben und die dann reflektieren Unterstützt reflektieren. Ich glaube, das hilft mir noch so am meisten. Aber wie speicherst du es dann ab? Nutzt du Chat-GPT dafür? Oder welches Modell nutzt? Ja, ich nutze aktuell gerade super viel Gemini. Tatsächlich. Und da bin ich dann meistens in einem Chat.
Und dann lässt du es im Chat oder hast du einen Weg gefunden, wie du dann das Ganze in deinen Notizen jeweils sortiert und schon abspeichern kannst? Das kommt dann immer darauf an, worum es geht. Also wenn es irgendwas ist, womit ich dann irgendwas anderes noch machen möchte, dann ziehe ich das manchmal noch [00:22:00] in meine Notizen-App rein.
Aber wenn es nur darum ging, irgendeine mentale Blockade aufzulösen, dann… Lass ich es da einfach drin. Das Gute ist bei Gemini, dass die Kontextfenster echt riesig sind. Da gehen so 1500 DIN A4-Seiten ungefähr rein. Also so ein Chat kann auch mal sehr, sehr lang sein. Und dann ist es auch ganz gut, wenn es die Historie erkennt.
Ah ja, okay. Ja, ich mache dann immer, also ich mache grundsätzlich immer ein neues Fenster oder einen neuen Chat auf, um das thematisch quasi... Zu sortieren, also das heißt ich habe dann, also ich befrage wirklich Chat-TPT mit jeder, jede Frage, die ich im Leben habe, google ich nicht mehr, sondern frage ich Chat-TPT und die ist bei mir dann links in diesen ganzen einzelnen Fenstern, aber ich suche eben noch nach einer Möglichkeit, das irgendwie strukturierter zu speichern, wenn ich irgendwelche Erkenntnisse habe, also gerade wenn ich irgendwelche Paper finde und so weiter, dass es automatisch gespeichert wird und ich nicht da manuell irgendwie beigehen muss, aber vielleicht gibt es bestimmt einen Weg, ich muss nur noch mal schauen wie das besser geht.
Also ich glaube, diese Memory-Funktion, Gedächtnisfunktion in [00:23:00] KI-Systemen das ist jetzt eines der nächsten großen Themen, an denen gearbeitet wird Wird und auch werden muss, weil das ist immer noch so eine Komponente die oft fehlt. Also jetzt so ChatGPT und andere haben ja schon angefangen da drumherum zu arbeiten und so eine Memory-Funktion eingeführt, die immer wieder mal Dinge wegspeichert die du eingibst aber das passiert meiner Meinung nach noch relativ zufällig und Die Ergebnisse, die dort in diesem Gedächtnis abgespeichert werden, werden auch nicht immer zum richtigen Zeitpunkt hervorgeholt.
Sie werden manchmal im falschen Kontext eingesetzt und dann ist es eher nicht so hilfreich. Aber das ist auf jeden Fall eine super wichtige Komponente und da haben die ja auch Interesse daran, weil dadurch ja ein echter Login entsteht Also wenn sie irgendwann KI-Systeme dich als Menschen mit allem drum und dran perfekt verstehen In jeder Situation passend zum Kontext und deinen Anforderungen deiner Persönlichkeit [00:24:00] dir die richtigen Ergebnisse ausspielen, dann gehst du ja nicht mehr weg Ja, ja krass.
Genau richtig. Das wird bestimmt der Log-In-Effekt sein. Aber meines Erachtens hat doch ein New Yorker Gericht entschieden, dass ohnehin alle Chatverläufe von ChatGPT gespeichert werden müssen. Das heißt Privacy Goodbye. Also weil ich glaube, das war die Voraussetzung, um gegebenenfalls zur Rechenschaft gezogen zu werden.
Aber ich glaube, das müssen sie speichern aber dürfen es nicht aktiv nutzen. Das ist noch der Unterschied. Und auch nicht nutzen zum Training. Lass uns zum Business-Part kommen. Ja, erzähl mal. Kurz in eigener Sache. Wenn dir der AI First Podcast gefällt und du mehr spannende Inhalte und hochkarätige Gäste hören möchtest, dann freue ich mich über deine Unterstützung.
Mit einer Fünf-Sterne-Bewertung und einem Abo für den Podcast hilfst du uns sichtbarer zu werden und AI First weiterzuentwickeln. Für dich und die gesamte Community. Ich danke dir. Du machst die strategische [00:25:00] Beratung sozusagen für Mittelständler wie sie KI umsetzen und dann gehst du in die Umsetzung.
Und darüber hinaus machst du ja auch... Social-Media-Content, richtig. Du hast ein Newsletter, du hast einen Podcast. Das heißt, du hast auf der Content-Seite so drei, vier verschiedene Streams Und wie nutzt da KI ein, um das schneller und effizienter zu machen? Weil das ist natürlich sehr viel Arbeit für eine einzelne Person.
Genau, also was wir im Kern machen, sind drei Dinge. Wir machen Beratung von Unternehmen im Kontext von generativer KI, wollen Unternehmen und die Teams dazu befähigen, Gen-AI produktiv und sicher zu nutzen. Erstmal um produktiver zu werden, dann um Prozesse zu automatisieren und gucken auch, ob es im Business Model Opportunitäten gibt für neue Technologien Services oder Produkte.
Dann das Zweite ist, dass wir eine Community aufgebaut haben, die AI Collective heißt, wo wir mittelständische, also aus mittelständischen Unternehmen die KI verantwortlichen oder die, die es werden wollen, fit [00:26:00] machen dafür, ihr Unternehmen durch die KI-Transformation zu bringen und dann ... Haben wir als drittes noch super viel Content über unseren Podcast und über Newsletter, über LinkedIn, wo wir einfach super viele von den Erfahrungen teilen, die wir so sammeln, um auch stückweit Wissen zu demokratisieren.
Ich glaube, Wissen wird immer mehr, wenn man es teilt und das sind so unsere Kanäle dafür. Und wir machen das halt aktuell noch mit zweieinhalb Leuten und laufen jetzt, wenn es gut läuft, auf so einen siebenstelligen Umsatz zu. Jetzt wächst das Team langsam, aber ich glaube halt daran, dass kleinen Teams und Unternehmen die Zukunft gehört, weil man einfach gerade in so digitalen Geschäftsmodellen Alles extrem hebeln kann, indem man KI richtig einsetzt.
Das glaube ich auch, also hundertprozentig glaube ich, ist die Zukunft, ganz sicher, ja. Ja und ich glaube, was dabei schon erstmal immer extrem [00:27:00] unterschätzt wird, ist wie, und du kannst ja gleich mal berichten wie du das siehst, aber wie Viel produktiver, nicht in allen Jobs, aber schon in vielen Menschen werden können, wenn sie einfach nur mit einem Tool wie ChatGPT richtig umgehen können.
Da gibt es ja auch so eine Studie von Harvard mit Procter & Gamble, da kam raus, und da ging es um so Produkt-, Innovations- und Marketing-Use Cases, dass eine einzelne Person mit ChatGPT, ... den gleichen oder sogar besseren Output ... ... Qualität erzielt hat, wie ein Zweierteam ohne KI. Bedeutet KI hat eine Person in diesem Experiment
überflüssig gemacht oder ausgeglichen. Und das sehen wir tatsächlich auch immer wieder mal bei Kunden. Das müssen dann natürlich Berufe sein, ... Die sehr stark von KI schon beeinflusst sind, also vor allem im Marketing alles, wo viel Kommunikation passiert, in [00:28:00] Anwaltsrollen funktioniert das sehr gut. Also überall, wo viel mit Text gearbeitet wird in erster Linie.
Und jetzt geht es weiter mit Bild im Coding-Bereich Developer, die gut mit Tools wie Cursor und so arbeiten, können auch mehrfach produktiver sein als vorher. Und genau damit haben wir auch bei uns angefangen. Also jeder bei uns soll halt so viel wie möglich und das muss natürlich immer noch sinnvoll sein, mit KI arbeiten.
Also ich challenge auch jeden, so gut es geht. Und immer wieder warum etwas nicht mit KI gemacht worden ist, wenn man damit die gleiche oder sogar bessere Qualität hätte erzeugen können. Das ist erstmal Nummer eins. Und da muss man noch überhaupt nicht irgendwie komplexe Systeme aufbauen, ganze Prozesse durchautomatisieren oder so etwas.
Sondern es geht einfach nur erstmal darum, mit den [00:29:00] verfügbaren Tools, Chatbot-Tools KI-Assistenten im Arbeitsalltag Zu arbeiten. Und was nutzt dann selber für deine, also das heißt, du machst Podcast, du machst den Newsletter, der übrigens qualitativ unfassbar gut ist, ich liebe ihn jeden Sonntag, ich freue mich jedes Mal, das ist der einzige, den ich nicht spamme sozusagen, dann machst du hast du deine LinkedIn-Posts hast einen sehr großen, gepflegten, interessanten Account, dann hast du die Community, du machst, also inwiefern nutzt du da KI für die Content- Erstellung oder hast du da Dinge automatisiert?
Erzähl mal. Ja, okay. Also ich kann ja mal so ein bisschen mein Setup erklären und dann noch so ein paar Routinen, die ich entwickelt habe, die ich super gerne anwende. Also als Setup habe ich... Also erstmal eine Plattform, LangDoc heißt die. Dort kann man alle verfügbaren Large Language Models, also die allermeisten zumindest, sind dort angebunden und ich kann mir dann dort KI-Assistenten [00:30:00] und Workflows für bestimmte Aufgaben aufsetzen.
All unsere Prozesse gegangen, durch alle unsere Jobs to be done, die es gibt und haben halt geschaut, wo geht wie viel Zeit verloren, wo gibt es KI-Fähigkeiten und Large-Language-Models Fähigkeiten die gut darauf passen und haben dann angefangen, so ein Team aus KI-Assistenten aufzubauen, mit denen wir die ganze Zeit arbeiten.
Also ich habe einen KI-Assistenten da lade ich einfach nur das Podcast-Transkript hoch und da kommt die ganze Nachbarin Bereitung raus jeder einzelne text kommt der linkedin post raus wir machen immer so ein karussell mit welche fragen wurden gestellt wie wurde darauf geantwortet da kommt die seo meter beschreibung für die website raus da kommt die show notes raus da kommt alles titel vorschläge ja und wie gut wie gut funktioniert das war ich mache alles ich mache alles noch manuell ich habe es mehrfach probiert und das output war nach meinem dafürhalten nicht zufrieden stellen und du nutzt von riverside denn der ist Transcript, oder?
Genau, also die Script nutzen wir, aber genau, wir laden einfach das Texttranskript hoch [00:31:00] und das lade ich da einfach nur hoch. Ich gebe nichts anderes ein. Aber in diesem Assistenten liegt halt eine drei oder vier Seiten Prompt dahinter wie der dieses Transkript verarbeiten soll. Mit ganz vielen Beispielen mit Templates wie...
Welche Output erzeugt werden soll, da liegt mein Tone-of-Voice-Profil dahinter, wie das geschrieben sein soll, da liegen Beispiele dahinter, das ist halt alles da drin und das muss auch immer, das entwickelt sich weiter, das ist, würde ich sagen, Wie schon ein bisschen wie mit so Mitarbeitern. Also da merkt man irgendwann, hey, unser Prozess ändert sich.
Ich habe jetzt zum Beispiel, will ich gerade den Stil der Titel umstellen, also Frage, ja, also irgendwie sollte man Prompt Engineers einstellen, Personen 1, 2, 3, Fragezeichen das soll dann der Titel sein. Und dann muss ich natürlich wieder in den Assistentenanweisungen Umstellen, wie diese Titel aufgebaut sein sollen, dass sie richtig rauskommen.
Übrigens ganz kurz dazwischen, meine ehemalige Co-Host Lena Weidle, die [00:32:00] Journalistin bei der NZZ ist und ihr Handwerk sehr gut versteht hat mir mal beigebracht, dass man als Journalist keine Fragen im Titel haben sollte. Kein guter Stil hat sie gesagt. Und zweites Learning von ihr, ganz kurz. Ich dachte, das wäre total elegant.
Sie sagte nein und sie kann wirklich hervorragend schreiben. Sie hat das Tech-Briefing für Gabo Steidengart gemacht, hatte einmal 70.000, 80.000 Hörer. Und sie ist handwerklich wirklich gut Das ist unfassbar gut. Und das Zweite was sie mir beigebracht hat im Übrigen war, niemals mehrere Fragen auf einmal zu stellen.
Daran bin ich nämlich auch die Königin, dass ich fünf Fragen meinen Gästen stelle und dann erwarte dass sie sie abarbeiten. Nein, man muss kleinschreitig immer nur eine Frage zur Zeit stellen. Aber sorry, ich wollte dich nicht unterbrechen. Ja, okay. Ich mache das trotzdem. Nein, fair enough. Dann ist es schlechter Stil Aber ja, ich muss mich auch darin üben nur eine Frage zur Zeit zu stellen.
Wer diesen Podcast hier immer wieder hört, weiß das. Nein aber dann hab eine Frage am Titel Es war nur so ein Learning, was ich ganz [00:33:00] spannend fand. Ich finde das irgendwie elegant. Das machen ja auch andere. Ich habe es irgendwo anders gesehen und dachte, irgendwie finde ich das interessant und das triggert mich viel mehr, darauf zu klicken und zu hören, was jetzt die Antwort auf diese Frage ist.
Aber okay. Ja, so das zum Beispiel. So und dann, ich habe überall Human in the Loop, also Bei allem, bei all dem wird immer nochmal drüber geschaut Also diese Ergebnisse die werden dann zum Beispiel in eine Datenbank, Notion reingepusht und dann habe ich da halt diese ganzen Texte in unterschiedlichen Datenfeldern drin, wo die dann wieder weiterverarbeitet werden können.
Aber auch da wird immer nochmal nachgeschaut und geprüft Ist der Name vom Gast richtig geschrieben, das Unternehmen richtig geschrieben. Ich kriege zehn Titelvorschläge raus, wähle dann halt den besten aus oder passe nochmal einen an. Also solche Tweaks werden immer nochmal gemacht. Und wie hast du Langdog mit [00:34:00] Notion verbunden?
Über eine vorgebaute Integration, die es dort gibt. Okay, also du hast nicht irgendwie, was ist das, make.com [http://make.com/] oder so? Es gibt ja mehrere Connector-Programme wenn du so willst, die alle einzelnen Tools hintereinander wegschalten können. Das hast du nicht genommen. Die haben eine eigene API mit Notion ja? Ja, genau.
Also diese ganzen Tools, die bewegen sich alle immer weiter aufeinander zu. Die einen haben mit dem Chatbot angefangen und bauen jetzt Workflow-Automationen dran. Die anderen haben mit Workflow-Automationen angefangen, bauen jetzt Chatbot oder KI-Funktionen mit rein. Und die Dritten haben mit einer Datenbank angefangen und bauen jetzt auch irgendwie andere Sachen nach.
Und ich glaube, am Ende willst du eigentlich ein System haben, was... All das abdeckt. Also du willst Prozesse automatisieren können, du willst dein KI-Chatbot da haben, der mit deinen Unternehmensdaten verbunden ist [00:35:00] und willst KI in Prozesse einbauen können. Und ja, diese fragmentierte Tool-Welt die wird sich irgendwie noch konsolidieren.
Und ich bin da auch immer wieder am Suchen und Finden, habe mir aber irgendwann gesagt, hey, der Aufwand immer wieder neue Tools wirklich zu verstehen und zu lernen, ist viel zu groß für den Impact, den das am Ende hat. Und habe mich halt entschieden, so ein Tool zu nehmen und das halt auch mit allen Schwächen die es hat, ja auch, es gibt kein Tool, was da perfekt ist, einfach sehr konsequent.
Implementieren. Ja, ich finde das bittere und das ist eben das große Problem, auch wenn man wie wir beide privat und ich auch beruflich ich bin halt in so vielen Architekturen unterwegs, es ist mehr als painful, zwischendurch mal zu switchen. Das heißt, ich habe als Betriebssystem zwar Meckel, äh Meckel sorry.
Das ist gut. Das lassen wir drin. Ah, schön. Ich habe als [00:36:00] Betriebssystem zwar Apple, also iOS, aber beruflich muss ich natürlich Microsoft nutzen und habe dann privat aber die Google Cloud. Das heißt, ich habe drei Systeme die parallel laufen und dann habe ich natürlich das Ganze, wie du auch, den ganzen Blumenstrauß an Tools, die ich miteinander verknüpfe.
Das heißt, ich finde zum Teil immer nicht die Sachen wieder, weißt du? Ich überlege mal, wo habe ich meine To-Dos jetzt? Habe ich die bei meinem Google-To-Do? Habe ich die bei meinem Notebook-Dings da in Microsoft? Oder habe ich sie auf meiner nativen iOS-App in Notes? Und ich finde das extrem nervig dass es da nicht ein übergeschaltetes System gibt.
Was mit allen spricht, aber natürlich gibt es aus Unternehmensberaterperspektive nichts, was so sicher ist und diesen Datenabfluss eben nicht gewährleistet. Das heißt, ich verstehe schon, dass es auf deren Seite nicht geht, aber selbst privat bin ich am struggeln, dass es so einfach wild ist und ich verstehe total, dass du keine Lust mehr [00:37:00] hast, wieder einzelne Tools dazu zu fügen und zu lernen und ich glaube so geht es vielen.
Es gibt so eine gewisse KI-Müdigkeit, so dieser erste Buzz, den es am Anfang gab, die Leute sind halt Dass sie von HR noch ein Tool reingeschoben bekommen und von Finance müssen sie noch was lernen und dies und das. Und irgendwann denken alle so, boah es ging eigentlich auch ganz gut ohne den mal ganz.
Und jetzt habe ich halt mehr, ich bekomme mehr Arbeit, weil erwartet wird, dass KI mich effizienter macht, aber gleichzeitig soll ich das alles lernen, wie es geht, in der schon ohnehin knappen Arbeitszeit. Das heißt, also was du machst, kann ich verstehen. Ich denke auch, dass es ein guter Rat ist, Dass man sich zunächst erstmal auf so ein gewisses Tech-Stack reduziert oder beschränkt, was man dann wirklich in der Gänze versteht und bedienen kann.
Aber interessant. Okay, das heißt, du bist dann bei LangDoc, du bist dann bei Notion und dann? Hast du noch irgendwas?
Ähm... [00:38:00] Tatsächlich, Meeting-Protokollierung mache ich über das eingebaute Feature in, also Gemini ist jetzt auch in meinem Google Meet drin, da wird ein Transkript gezogen das wird bei Google abgelegt und dann habe ich einen Agent, der alle halbe Stunde guckt ob da ein neues Transkript abgelegt wurde, sich das dann zieht und daraus eine Nachbereitung macht mit einer Follow-up-E-Mail und sowas also.
Und das läuft dann auch wieder auf LangDoc. Also das habe ich da dann mit angebunden. Das hatte ich vorher auch. Gibt es auch irgendwie gute andere Tools, aber habe ich auch versucht zu verkleinern. Und bin jetzt gerade an so einem Projekt dran, wo ich mein Unternehmen als Multiagentensystem nach... Machen hier einmal einen Break und hören uns dann im Tech-on-Tales-Podcast wieder, wo wir einmal über das Agentensystem sprechen und ich kann gerne noch teilen, wie ich das aufgebaut und umgesetzt habe und was ich auf dem Weg bereits gelernt habe und dann interessiert mich natürlich auch, wie ihr bei [00:39:00] Deloitte in den ganz großen Unternehmen KI-Implementierung angeht.
Ich bedanke mich auf jeden Fall schon mal für Runde Nummer 1. Hat Spaß gemacht und bis bald. Vielen vielen Dank für deine Zeit. Vielen Dank für eure Zeit. Bis dahin und bis bald, Felix. Bye bye. Danke, Liz. Hat Spaß gemacht. Ciao. Danke auch. Ciao, ciao.