In dieser Folge des AI-First-Podcasts spricht Felix mit Jasper Börnsen, Head of Innovation der Social Media Agentur Just Add Sugar, über den Einfluss und Einsatz von KI im Kreativ- und Agenturumfeld. Jasper teilt seine Erfahrungen und Einblicke in die Transformation der Agenturlandschaft durch generative KI.
Just Add Sugar ist eine Social Media Agentur mit 85 Mitarbeitern in Hamburg, Berlin und weiteren Standorten in Deutschland. Die Agentur hat ihre Wurzeln in der Content-Produktion und bietet heute Full-Service-Leistungen im Bereich Social Media an. Jasper Börnsen ist seit vier Jahren bei Just Add Sugar und leitet als Head of Innovation ein vierköpfiges Team, das sich mit neuen Technologien und deren Auswirkungen auf das Agenturgeschäft auseinandersetzt.
Jasper beschreibt, wie der Aufstieg von generativer KI die Agenturbranche vor neue Herausforderungen stellt. Er erwähnt ein Zitat von Sam Altman, wonach 95% der Arbeit von Kreativagenturen in Zukunft von KI übernommen werden könnte. Dies hat Just Add Sugar dazu veranlasst, intensiv zu erforschen, wie sie die neue Technologie in ihre Prozesse integrieren können.
Jasper erläutert den Einsatz von KI in verschiedenen Bereichen:
Jasper betont, dass trotz der Fortschritte in der KI-Technologie menschliche Kreativität und Expertise weiterhin unerlässlich sind. Er sieht die Rolle der Kreativen darin, die KI-Tools gezielt einzusetzen und zu steuern, um einzigartige und hochwertige Inhalte zu schaffen. Die größte Herausforderung liegt darin, die Balance zwischen KI-Unterstützung und menschlichem "Spark" zu finden.
JustAddSugar setzt auf eine agile Herangehensweise an die KI-Integration. Statt ein eigenes KI-Tool als SaaS-Lösung zu entwickeln, konzentriert sich die Agentur darauf, bestehende Technologien optimal in ihre Prozesse zu integrieren. Jasper betont die Wichtigkeit, "vor der Welle zu schwimmen" und die Technologien so einzusetzen, dass sie die Kernkompetenzen der Agentur ergänzen und verstärken.
Die Episode bietet einen tiefen Einblick in die Herausforderungen und Chancen, die generative KI für Kreativagenturen mit sich bringt. JustAddSugar zeigt exemplarisch, wie eine zukunftsorientierte Agentur die neuen Technologien nutzt, um ihre Arbeit zu optimieren, ohne dabei die menschliche Kreativität zu vernachlässigen.
Für Zuhörer aus der Kreativbranche ergeben sich folgende Takeaways:
[00:00:00] Felix: Herzlich willkommen zum AI-First-Podcast. Heute habe ich das Vergnügen mit Jasper Börnsen, Head of Innovation der Social-Agentur Just Add Sugar, zu sprechen, und zwar über den Einfluss und Einsatz von KI im Kreativ und Agenturumfeld. Ich freue mich sehr darauf. Hi Jasper, schön, dass du dabei bist. Vielen Dank für die Einladung. Ich freue mich schon jetzt hier ein bisschen mit dir einzusteigen und vor allem einen kleinen Schlagabtausch vielleicht zwischen uns beiden herauf zu beschwören. Alles klar, wir mal, wo es uns hinführt. Erzähl doch mal zum Start kurz, was ihr bei Just Add Sugar macht und auch, was dort deine Rolle als Head of Innovation ist. Jasper: Absolut. Ja, ich starte erstmal mit mir selber. Ich, Jasper, bin seit knapp vier Jahren bei Just Add Sugar, bin ursprünglich aus einer ganz anderen Branche, bin bei Jungheinrich in Anführungszeichen groß geworden, bin aber mit dem Wunsch [00:01:00] und mit der Ambition, nochmal etwas Neues kennenzulernen und insbesondere mit der Neugierde Bei Just Add Sugar gelandet. Just Add Sugar heute 85 Personen groß. Wir sind in Hamburg, in Berlin und auch verteilt über Deutschland mit der einen oder anderen Remote-Person und dem großen Fokus Social Media. Und zwar insofern als dass wir unsere Wurzeln, also unser Gründerteam, ursprünglich in der Content-Produktion zu Hause sind. Sind also damals gestartet mit dem Ansatz, ey, hier passiert irgendwie nur eine Transformation von TVC auf Social. Das wird irgendwie einfach nur in irgendeiner Form zurechtgeschnitten. Sind dann gestartet mit, lass uns doch mal die Technik irgendwie hochkant drehen und einfach mal nativ in 9 zu 16 produzieren. Felix: Und mittlerweile aus einer großen Kreation die mittlerweile, ich glaube... 18 Köpfe stark ist, einer Strategieabteilung, unserem Accountmanagement, Produktion, [00:02:00] Postproduktion, Paid Media, Community Management, also es ist sehr, sehr groß geworden mittlerweile und innerhalb Just Add Sugars darf ich mich um Innovationen kümmern und die Frage beantworten was machen wir eigentlich, wenn neue Technologien um die Ecke kommen oder wenn wir neue Formate damals Metaverse und Spatial Computing, wie wird eigentlich am Ende des Tages Content in der Zukunft konsumiert, ob das jetzt großen Einfluss hatte oder haben wird, mal dahingestellt aber die Frage mit welchen Zukunftsthemen müssen wir uns als Just Add Sugar auseinandersetzen. Das ist schon mal gleich nachgehakt. Beschäftigt ihr euch immer noch mit dem Metaverse oder ist das wieder auf die Parkbank verschoben worden? Ich würde es einfach mal so einkategorisieren für uns. Ich glaube, dass der Einfluss von dem, was am Ende des Tages vielleicht schon in [00:03:00] vielen Köpfen als Open-World-Gaming und am Ende der Möglichkeit, damals in Second Life oder auf anderen Plattformen sich in einer virtuellen Umgebung zu bewegen, war schon da, ist schon ewig da und wird sich auch weiterentwickeln, die Frage, ob und wie das Immer sie war unter umständen wird ich weiß nicht die apple pro wie groß der einfluss bis jetzt war und wie die cases darum wirklichen impact auf eine reise von unseren kunden oder allgemein der customer journey heute haben aber gaming hat eine riesengroße riesengroßen einfluss und das digitale begegnen und ich glaube dass wir immer immer weiter wachsen werden in der art und weise wie wir diese digitale umgebung wahrnehmen ich habe immer oder bin immer davon ausgegangen dass wir uns in gewisser weise durchgängig in einer art metaverse bewegen wenn [00:04:00] wir hier über eine 2d begegnung im digitalen raum sprechen ist das in keine ahnung drei fünf zehn jahren vielleicht eine ganz andere art und weise wir uns begegnen aber in der Die Priorisierung hat es mit dem Einfluss von Gen AI auf unser Kernbusiness einen riesengroßen Change gehabt, den wir auch so umpriorisiert haben für uns. Ja, super. Da tauchen wir gleich ein. Ich habe ja auch mal in dem Metaverse-Bereich gearbeitet, eher für so große Life-Science- und Pharmakonzerne, die dann dort ihre Welten aufgebaut haben, unter anderem fürs Training und so weiter. Und es ist super faszinierend. Ich glaube ja ganz, ganz fest daran, dass Brillen vor allem Augmented-Reality-Brillen oder Devices unsere Smartphones ablösen werden, dass das die nächste ganz große Computing-Plattform ist und ich glaube, es fehlt einfach noch ein bisschen an Hardware und technischen Durchbrüchen, die das möglich [00:05:00] machen, aber wir sind auf jeden Fall auf dem Weg, also bin ich mal gespannt drauf. Aber darum Darum soll es heute gar nicht im Detail gehen, sondern Jenny, du hast es gerade eben schon angesprochen Ich stelle mir das jetzt so vor, wenn ich Geschäftsführer von einer Social Media Agentur bin und auf einmal kommt ChatGPT raus und ich sehe, wie jeden Monat mit Journey besser wird und ich sehe dann, wie OpenAI das Zora Videomodell veröffentlicht und wie ich meine Stimme mit AI klonen kann und mir AI-Avatare erstellen kann und all das wird jeden Monat immer besser. Dass mir das ganz schön heiß auf meinem Stuhl wahrscheinlich werden wird. Wie erging euch das denn in den letzten zwei Jahren mit dieser total schnellen Entwicklung? Jasper: Ja, also ich glaube, uns als Innovation Lab hatten wir oder gab es zu dem [00:06:00] Zeitpunkt zum Thema Web3 und Metaverse schon, da war die Fragestellung ein bisschen kleiner. Wie gehen wir mit dieser einen Technologie um? Die Fragestellung hat sich dann sehr schnell sehr viel größer entwickelt. Was machen wir eigentlich, wenn das, was wir heute als Kerngeschäft haben, gar nicht mehr von uns irgendwie abbildbar ist oder sehr viel einfacher von allen anderen abbildbar wird? Und ich glaube... Der Kommentar oder das Zitat kam sehr viel später erst, aber irgendwann kam mal ein Sam Altman um die Ecke und sagt, 95% von dem, was kreative Agenturen oder Strategien oder Strategen machen, wird zukünftig von der AI gemacht. Und mit uns und dem Wissen dass und wie Content durch Gen AI heute generierbar ist und am Ende des Tages mit dem Blick darauf, dass es, und das ist natürlich eine Floskel, die man irgendwie immer hört, aber nie so schlecht sein wird, wie es heute ist, haben wir uns die Frage gestellt, welche Bereiche bei uns müssen sehr, sehr stark mit dieser [00:07:00] neuen Technologie in Berührung gebracht werden und wie stark müssen wir auch selber anfangen zu forschen. Und da habe ich, oder. Nehmen wir mal so ein klassisches Beispiel von, keine Ahnung, dem Blackberry-Moment, wo sich jemand entscheidet lass mal die Tastatur beibehalten und irgendwie das... Die neuen Werkzeuge die da sind, in dem Fall Gen AI, ignorieren und einfach damit weitermachen, wo wir oder womit wir über die letzten Jahre schon so erfolgreich waren. Und dieser Moment und vor allem die Annahme, dass sich unsere Branche, unsere Industrie über die nächsten Jahre nochmal rapide ändern wird und unter Umständen gar nicht so sehr, dass dann Agenturen abgeschafft werden, sondern eher, dass unsere Werkzeuge sich ändern und dass die Prozesse sich ändern und dass wir unter Umständen bestimmte Arbeitsschritte anders angehen. Oder dass ein Produzent eine Produzentin nicht mehr nur... ...real und physisch [00:08:00] produziert, sondern gleichzeitig darüber nachdenken muss, wie kann das erweitert oder augmentiert werden mit Gen AI Content. Genauso bei den Kreativen. Felix: Vielen Dank. Jasper: da haben wir uns ganz, ganz stark die Frage gestellt, in unseren Geschäftsbereichen wird es Einflüsse geben und wie können wir dem begegnen? Und daraus ist unser Innovation Lab in die Richtung entstanden und größer geworden, sodass wir zu viert unterwegs sind, dabei ein technisch versierter oder ein Tech Lead, wenn man so möchte, zwei Kreative und ich und als Schnittstelle dann in alle unsere Unternehmensbereiche und wertschöpfenden Entities und Units. Felix: Jetzt gibt es ja... Von Jung, von Matt, Serviceplan, von Spreefreunde habe ich letztens was gesehen, Mutterboa und so weiter Die fangen zum einen an, Ableger auszugründen, die komplett AI-first [00:09:00] aufgebaut werden. Also ein AI-first-Konzept was die gesamte Wertschöpfungskette in der Agenturwelt aus AI-Richtung nochmal neu denkt. Und auf der anderen Seite... So ein Service-as-a-Software-Modell fahren und eigentlich das ganze Know-how, was sie vorher mit den Menschen hatten, ja, die haben dann Copy geschrieben oder tolle Visuals erstellt und ähnliches, dieses Know-how eigentlich in ein AI-Modell oder in eine AI-Lösung geben und diese AI-Lösung dann an den Kunden lizenzieren, der damit den gleichen Output erstellen kann, ohne aber auf die Agenturservices angewiesen zu sein. Und das ist ja schon strategisch ein enormer Wandel, ja, für den ganzen Agenturbereich. Habt ihr euch... Also, wie seid ihr da vorgegangen? Habt dann auch erstmal einen großen Strategieprozess gestartet und [00:10:00] euch überlegt, okay, wie wird das in den nächsten drei, vier, fünf Jahren unser Geschäftsmodell verändern und habt ihr da auch radikale Schritte übernommen oder schaut ihr euch das eher sehr agil und iterativ an? Vielleicht kannst du uns da nochmal so ein paar Insights geben. Jasper: Absolut. Ich glaube... Dass wir ein Kernbusiness haben, in dem wir heimisch sind, wo wir Skills haben in den verschiedenen Bereichen, die darauf einzahlen, was Social First bedeutet und was Full Service Social Media heißt. Und das Skillset, das es braucht, ein SaaS-Modell aufzubauen, um eine Dienstleistung um eine Softwareleistung, die muss man ganz ehrlich sagen, haben wir nicht. Also wir brauchen auch nicht am Ende des Tages uns das selber auch vormachen. Wir werden niemals mit einem der Tech-Giganten mithalten können. Also das, was dort zurzeit an Geld fließt und an [00:11:00] Entwicklungspower und an Innovationspower in den Startups rund um das Thema Gen AI liegt, das werden wir niemals kompensieren können oder nicht erreichen können. Ich glaube, das ist eine Mischung Das ist Mischung muss aus... Wir wollen vor der Welle schwimmen, also verstehen, auf welchen Oberflächen mit welchen Werkzeugen und in welchen Prozessschritten wir als Agentur und als produzierende Agentur die Technologien uns zunutze machen können und an welchen Stellen wir die aber auch feintunen können. Nicht unbedingt dann als SaaS-Plattform für die Kunden mit der Annahme, wie schnell hat ein OpenAI, wie schnell hat ein, wenn wir kleiner denken, ein LangDoc, wie schnell hat ein Runway das Thema rund um, Um Text to whatever, you name it, durchgespielt oder auf das nächste Level gehoben, wo wir als Agentur gar nicht in der Lage sind, das technisch abzubilden. Also uns als [00:12:00] Agentur und als produzierende Agentur jetzt in eine technische Nische zu schieben, weil wir dort jetzt gerade eine Chance sehen, ein Geschäftsmodell oder unser Geschäftsmodell zu erweitern, sehen wir als eine größere Gefahr oder eine Investition in einen Bereich ein, dem wir keine Kern-Know-How haben und wo die Tech-Unternehmen dieser Welt uns immer einen Schritt voraus sein werden. Das heißt, da wo wir können, nutzen wir die Modelle und die Möglichkeiten to the best of our knowledge und noch einen Schritt weiter selber fine-tunend insofern als dass wir versuchen, Felix: Dank. Jasper: mit auf jeden Fall auf der Ebene Bild in bestimmte Richtungen mitzuschieben, sodass wir bestimmte Bildsprachen erreichen, dass wir Konsistenzen erreichen. Also das, was am Ende des Tages auch auf der Ebene zum Beispiel solcher SaaS-Plattformen passiert, dass da eine CI eingehalten wird, dass wir diese Themen auch selber abbilden können, dass wir verstehen, wie es [00:13:00] funktioniert und es auch anwenden, aber selbst eine Plattform zu bauen, ist für uns nicht in Frage gekommen. Wir haben das auf Web3-Ebene mal getestet sind das angegangen, haben Applikationen gebaut, die die Blockchain und die Apps, die Centralized Apps in den Fokus gestellt haben, sind da aber auch wieder den Schritt zurückgetreten und haben gesagt, das ist nicht unsere Kernkompetenz. Wir wollen die besten NutzerInnen der Technologie werden und das so... In unsere Geschäftsmodelle einfließen lassen, dass wir, und ich nehme jetzt eine Sache voraus, mehr Zeit für den menschlichen Funken in den Projekten haben, sodass die Arbeiten die Zeit kosten, aber nicht besondere Mehrwerte in unseren täglichen Doings mit sich bringen, schneller erledigt werden und wir mehr Zeit für Kreation und Kreativität in den Prozessen haben. Felix: Also ihr behaltet euer [00:14:00] Geschäftsmodell so bei, nutzt aber die Möglichkeiten, die jetzt durch generative KI entstehen und integriert die so tief es geht in eure Wertschöpfungskette, um am Ende doch einen höheren Nutzen und einen höheren Wert für den Kunden erzielen zu Jasper: Absolut. Und ich, nur als Vergleich, ich weiß gar nicht, mit wem ich da so drüber gesprochen habe, aber wenn wir über ein Auto sprechen, das Auto fährt, ob dann, das ist jetzt vielleicht ein bisschen weiter geholt, aber ob dann Benziner, Elektromotor oder welche Art von Motor am Ende da in zehn Jahren drinstecken wird, was aber am effizientesten ist für uns und die Umwelt, ist auf unserer Seite genau das Gleiche. Felix: Also welche Technologie bringt uns zum Ergebnis, das qualitativ das richtige Ergebnis bringt, aber dann auch der Effizienz vielleicht ein Stück mehr. Okay. Ich würde jetzt gerne mal so einen Reality-Check mit dir machen, weil wenn man jetzt heutzutage in die Medien schaut oder [00:15:00] Vorträge auf Konferenzen hört oder durch LinkedIn browset oder so, dann könnte man ja den Eindruck bekommen, dass man hier mit dem Fingerschnipsen ein tolles Asset für Social Media produzieren kann, indem man einfach drei Gen-AI-Tools zusammenstöpselt und einen guten Prompt reinschreibt. Und ich weiß, dass das nicht so ist. Und trotzdem wäre es spannend, von dir jetzt mal zu hören, was sind denn eigentlich gerade so die Anwendungsfelder die ihr identifiziert habt und auf welche Art und Weise nutzt ihr dort schon Gen-AI? Und was ist aber auch noch die Abgrenzung von dem, was dann ganz klar die Leute Jasper: bei euch im Team wohnen? Yes, Also, erstmal absolut. Es ist nicht alles Gold, was glänzt. Deswegen, ich bin 100% deiner Meinung, die Menge an Tools, die da in der Welt umher schweben und alles versprechen aber wenig davon gehalten wird, die also über diesen Wow-Moment hinausgehen, der zu Beginn mal da [00:16:00] war, ist ein bisschen kleiner. Ja, ich würde das so ein bisschen aufteilen in verschiedene Bereiche. Also eins, wir haben einmal den Bereich LLMs, den würde ich jetzt nochmal ein bisschen ausklammern, also alles was Copy angeht alles, was Sparring angeht auf der kreativen Ebene sondern nochmal in die Richtung Content, Visual Content und das in vielleicht drei Bereichen, die wir rein gearbeitet haben. Das eine ist Video-Content Dann haben wir Still-Content, also am Ende des Tages Foto-Content Bilder und Ton, da geht es zum einen natürlich um das Thema Voice-Over oder Musik und 3D, wobei 3D bei uns nicht so viele Anwendungsfälle hat, da wir aber auch Motion-Designer bei uns haben, ist es auch schon mal zum Einsatz gekommen. Deswegen also auf Content-Seite Video, ein ganz klarer Punkt oder ein ganz klares Ergebnis, was wir jetzt erfahren durften, auch durch einen Test, den wir gemacht haben mit einem Automotive-Kunden, da haben wir eine große [00:17:00] Produktion gehabt und haben versucht, das nachzustellen, ohne dass wir Content von der wirklichen Produktion benutzt haben und haben gemerkt dass auch wenn wir nur 2% vom Gesamtaufwand oder von der Gesamtkapazität und der Kosten benötigen, die Qualität kommt dem, was es braucht. Insbesondere in bestimmten Felix: Vielen Dank. Jasper: Qualitätsanforderungen nicht nahe. Auf Video-Ebene funktioniert es natürlich, wenn man in Nischen geht. Das heißt, wenn wir, ich sag mal, Erklärvideos haben, wo eher statischer Content, zum Beispiel HeyGen oder neue Anwendungen, die heute auch schon über verschiedene andere Oberflächen wie ConfUI, vielleicht komme ich das später nochmal zu, aber die Möglichkeit haben, Bilder zu animieren oder aber Videosequenzen aufzugreifen und daraus dann Rohlinge zu machen, sodass ich einen Avatar habe, der unter Umständen an meiner hier im Podcast sitzen könnte. Aber der [00:18:00] Part, wo es darum geht, hochqualitativen Videocontent, der konsistent, der auch Ton und Bild zusammenbringt, wo wir heute oder über die letzten Wochen und Monate immer wieder gemerkt haben, dass wir noch nicht dahin kommen, wo wir es wollen Brauchen auf der qualitativen Ebene. Felix: Können wir da nochmal kurz rein? Also, würdest du denn sagen, jetzt hast du gesagt, zwei Prozent wahrscheinlich Budget und der benötigten Zeit habt ihr nur benötigt für die AI-generierte Variante von dem Content. Wo war denn die Qualität? Kannst da so eine Abschätzung machen, wie hoch die Qualität im Vergleich zu der physischen Jasper: Produktion lag? Auch wenn wir heute schon zu einem Punkt wo wir über Zora reden und über, ich habe jetzt, glaube ich vor ein paar Tagen über Minimax, ein asiatisches Modell gehört, die schon sehr viel [00:19:00] stärker Die physische Welt verstehen und es eher in eine Richtung Simulation geht und nicht mehr nur ein Bild, das animiert wird und wo eigentlich, und das ist einer der größten Punkte, sich während der Kamerafahrt bestimmte Anteile im Bild morfen und weiter bewegen und sich ganz klar wenn man die Bilder nebeneinander legt, diese Makel in dem Video oder diese Artefakte in den Videos als qualitativ nicht brauchbar herausstellen. Das ist natürlich immer schön, wenn man ein Under Armour Video, ich weiß nicht, ob du das gesehen hast, den Werbespot von Under Armour, der als AI-Video beworben wurde oder darüber gesprochen wurde, wo relativ kleine Anteile, das waren dann winzige Sequenzen, die auch nur Bruchteile von Sekunden lang waren, wo es eher Stills waren, wo dann ein bisschen Bewegung drin war, aber ein Großteil trotzdem CGI oder auch echte Produktionen [00:20:00] und echte Bilder waren. Da ist es einfach noch nicht so weit. Und da ist auch mit dem wachsenden Verständnis von physischen Verhältnissen und so, dass Videos oder beziehungsweise auch bei Perspektivenänderungen es nicht anfängt sich zu verziehen oder komisch zu wirken, ist es noch nicht so weit. Auch wenn ich glaube, dass es unter Umständen nur noch eine Frage der Zeit ist. Und die Frage, wie man das dann am besten für sich nutzbar macht. Felix: Okay. Ich kenne nur dieses Video von Volvo oder das ist ja nicht von Volvo, aber ein Werbespot für einen Volvo-Wagen und das nutze ich auch öfter mal in Vorträgen, weil ich das total, also ich als Laie finde das schon wirklich sehr beeindruckend und weiß jetzt nicht, ob das stimmt, aber es wird ja gesagt, dass das [00:21:00] eine Person in 24 Stunden erstellt hat. Du kennst es ja sicherlich Jasper: auch. Was hältst du davon? Es ist sehr beeindruckend. Das Video ist ja mittlerweile auch drei, vier, fünf Monate alt, also vielleicht sogar noch älter. Und in der Stelligkeit, in der es produziert wurde und vor allem auch mit dem Wissen dass eine solche Produktion wenn man das wirklich mit CGI und physischer Produktion so umgesetzt hätte, Unmengen an Geld gekostet hätte ist das eine richtig, richtig richtig starke Arbeit. Die Frage bleibt, ist der Mut auf Markenseite so groß Felix: Vielen Dank. Jasper: solche Produktion umzusetzen, die dann Makel hat oder ist da immer noch der Vorbehalt, wenn wir mit solchen Videoproduktionen rausgehen, dann muss es perfekt sein, insbesondere in der Darstellung, wie mein Auto präsentiert wird oder nicht nur Auto, sondern das Produkt präsentiert wird. [00:22:00] Und auch wenn ich das Video sehr feier und weiterhin als einen sehr, sehr coolen Case ansehe, glaube ich, dass wir im Videobereich weiterhin in den Nischen unterwegs sind, wo es offensichtlich Gen AI ist oder aber halt die Überschrift auch drüber steht. Also bei dem Video zu Volvo oder von dem Under Armour Clip oder Toy Story, da steht oben drüber unser First oder Our Gen AI Content. Also zu oder Toy Story, da steht oben drüber unser Still Content, also Bildcontent, Visuals die nicht moving sind, war jetzt mal in meinem Englisch ausgepackt also alles was, Felix: hier, alles erlaubt, AI first. Jasper: first, sehr gut, dass wir da sehr, sehr viel weiter sind. Also wenn man zurückguckt, ich weiß es gar nicht mehr, Februar 22 bis März 23, kann das sein? Dieser Sprung das ist immer [00:23:00] eine ganz coole Visualisierung, wenn man sich die V1 von Midjourney anguckt zu V6, in welchem Zeitraum diese Bildgenerierung so viel besser geworden ist und seitdem ist auch wieder ein Jahr vergangen und es wird immer detailgetreuer und immer realistischer Ja. Und der Möglichkeit, insbesondere wenn es um Product-Content geht, also wenn wir davon sprechen, dass wir E-Commerce-Content brauchen, Website-Content unter Umständen auch Social-Content also wenn es da Product-Placements gibt, wenn wir uns Automotive, da sind wir beim Automotive gelangt aber wenn wir uns den Social-Feed angucken von einem BMW, einem Audi, von... Mini, also alle großen Automarken haben sehr viel Visual Pleasing Content, wo Autos in schönen Umgebungen stehen. Natürlich gepaart mit Reels, natürlich gepaart mit Moving Picture, aber die Möglichkeit, solche Autos [00:24:00] cool in Szene zu setzen durch Gen AI ist auf jeden Fall sehr, sehr vielversprechend. das gilt für viele Produkte und auch für die Möglichkeit, Produkte solchen Tools näher zu bringen. Ich habe jetzt gerade erst wieder etwas gesehen auf X, zu einer Birkin-Tasche war das, glaube ich Da war es eine Mischung aus Moving Picture und Still Content und einem Modell, das die Tasche verstanden hat und sehr, sehr geteilgetreu in sehr vielen Szenen in Szene gesetzt hat. Da gibt es immer noch kleine Fehler und es wird immer unter Umständen noch diese Retusche haben, wo am Ende... Ja, genau Kuratiert aus den 500 generierten Bilder, die Top 10 nochmal nachgebrushed werden in Photoshop oder sonstigen Nachbearbeitungsmodellen, aber da sich großes Potenzial wo es auch schon oder wo wir mit Kunden auch schon Erfahrung machen konnten, zum Beispiel Cosnova, also Kosmetik wo wir angefangen haben, Product in Umgebungen zu integrieren die Gen AI [00:25:00] generiert waren und wir da auch schon gutes Feedback aus Konsumenten in Befragung bekommen haben, also dass dort unter Umständen das Produkt in einer interessanten, besonderen Gen AI Umgebung dem präferiert wird, was ein Wide Plane Background ist und das Ganze sehr einfach und kosteneffizient und sehr viel schneller umsetzbar ist als Felix: Also da, ja, Video einfach noch qualitativ nicht an dem Punkt, wo es sein müsste, gerade für Marken um damit wirklich rauszugehen aber alles, was Bild angeht würdest du sagen, Haken dran, ist Jasper: gecrackt von AI. Ja, schon. Also da gibt es Felix: auch jetzt noch, also alles, was Menschen im Detail oder in schnell bewegenden Szenen oder in der Konsistenz von Gesichtern wird man immer noch kleine Unterschiede finden, aber das lässt sich für [00:26:00] insbesondere Product Content sehr, sehr gut ausrichten und darauf spezialisiert einsetzen. Und... du, dass es dann überhaupt noch Fotografen Jasper: braucht? Das ist eine gute Frage. Und ich glaube, das bringt auch so ein bisschen die Kehrseite mit sich dieser ganzen Gen-AI-Entwicklung und der Fragestellung und dem Thema näher zu kommen, ist glaube ich ganz schwer, vor allem als Enthusiast und sich jemand, wenn ich sage, ich bin großer Gen-AI-Fan, habe ich ein genauso großes Fragezeichen im Hinterkopf, wo kommt denn der Content her? Was machen wir mit der Fragestellung der Integration von Copyright oder genutzten Copyright, geschützten Materialien die als Trainingsdaten reingeflossen sind? Und wie kriegen wir das so aufgesetzt und vergütet dass auch die Artists die quasi die Grundlage sind dieser ganzen [00:27:00] Modelle, irgendwie vergütet? Ich glaube ... Wenn wir das aufteilen können in, und das ist zumindest mein Stand heute, wie genau ist meine Kontrolle über ein Bild? Wie genau kann ich Nuancen in den Bildern umsetzen? In einem Text-to-Image-Tool und als Fotograf wird in der Kontrolle vom Bild immer der Fotograf, zumindest aktuell mein Wissen zu den Tools, die da sind, immer gewinnen. Und auch die Konsistenz wird in einem echten Bild unter Umständen immer, immer ist ein großes Wort, da lehne ich mich weit aus dem Fenster, aber ich glaube, dass diese Kontrolle über das Bild sehr, sehr stark auch in menschlicher Hand liegt. Wenn wir prompten und ein Bild kreieren wollen, wo ich eine genaue Vorstellung vorm Auge habe, so soll es sein, braucht [00:28:00] man viele Ansätze in Gen AI oder verdammt großes Glück, ein One-Hit-Wonder zu machen und habe dann trotzdem unter Umständen immer noch Nuancen, wo ich sage, ja gut, damit gebe ich mich halt zurecht und ich nehme jetzt das Bild, das da ist. Aber wenn ich 500 Bilder generiere, dann ist vielleicht eins, was genau meiner Vorstellung entspricht. Das ist jetzt auch ein bisschen übertrieben, aber ich glaube, diese Kontrolle über Bild und Komposition und genaues Zusammenspiel von Anteilen im Bild ist etwas, was auch Fotografen noch eine Zeit lang bei uns behält. Und ich glaube, das ist auch eher so eine Art. Vielleicht zum Ende ein Ausblick, aber ich glaube auch gleichzeitig. Und ich hoffe und appelliere an uns Menschen, dass wir Human-Made Content immer noch wertschätzen können und dass es zu diesem Movement Gen [00:29:00] AI und dem ganzen, ich generiere mal schnell ein Bild und ich mache das mal relativ einfach mit Gen AI, auch die Bewegung haben, ey, das ist cool, dass das von einem Menschen eingefangen ist. Felix: Und dass ich ein Stil ein Stilmittel, das ich generieren kann, das als Fotograf kreiert zu haben und dass das People-Made und Human-Made ein Stempel sein kann und sein wird, der Content zu etwas Besonderem macht. Ja, Ich sehe das auch so. Ich habe mir gerade überlegt, ja, Wenn ich jetzt heirate und ich habe da keinen Fotografen mehr, sondern ich lasse mir danach über Gen.ai einfach ein paar Bilder erstellen und klebe die mir ins Fotoalbum. Das ist ja also überhaupt nicht vergleichbar vom emotionalen Wert, den das Ganze hat. Gleichzeitig habe ich jetzt von Mango die Modekampagne gesehen, die sie [00:30:00] gelauncht haben. Wir nehmen das hier übrigens Mitte September auf. Also wahrscheinlich hat sich die AI-Welt wenn die veröffentlicht ist, schon wieder dreimal weitergedreht Aber die Mango-Kampagne war jetzt doch noch relativ aktuell. Und ich kann diese Bilder und das, was dort als Output rauskam und veröffentlicht wurde, nicht unterscheiden von irgendwelchen anderen Bildern von einer Modekampagne und Effizienzgewinn den es dort gibt, ist glaube ich unschlagbar und die Qualität, die diese Modelle mitbringen und auch die Kontrollierbarkeit entwickelt sich ja auch rasant weiter. Ich habe jetzt in dieser Woche auch viele Beispiele gesehen und das auch selbst mal gemacht, mir so ein Fluxmodell von mir selbst trainiert und da einen Zip-Ordner mit ein paar Bildern hochgeladen, das dann für wenige Euro trainieren lassen und kann mir jetzt von mir in sämtlichen Situationen Posen, Hintergründen und so weiter Bilder [00:31:00] erstellen. Vor einem halben Jahr habe ich noch ein Fotoshooting mit einem Fotografen gemacht. Und dafür ein. Einige hundert Euro ausgegeben um Bilder für Social Media zu haben, das würde ich jetzt nicht mehr machen, weil ich mir genau diese Bilder jetzt eben selbst mit Gen AI erstellen kann. Ich glaube schon, dass es eine sehr, sehr große Disruption tatsächlich von diesem Markt ist. Wir kommen ja gleich auch nochmal auf Ton, 3D-Copy zu sprechen. Vor allem im Bereich Copy sehe ich das genauso. Also, ja, Großteil der Texte muss wahrscheinlich nicht mehr von einem Copywriter geschrieben werden. Aber die Exzellenz... In all diesen Disziplinen Ein wirklich exzellentes Foto, was sehr emotional ist, was Leute wirklich mitreißt, was wir bei Olympia gesehen haben. Ein paar Bilder, die dort entstanden sind, die sind ja für die Ewigkeit. Keine Ahnung ob man das jemals aus Gen AI rausgebracht hätte, weil das [00:32:00] hätte man sich ja vielleicht gar nicht vorstellen können, als Mensch so ein Bild zu erstellen. Und ob es den Wert gehabt hätte. Wahrscheinlich überhaupt nicht. Oder letztens habe ich Eine großartige Sixth Copy gesehen mit dem Klaus Weselsky heißt der glaube ich von der Bahn Gewerkschaft ich kriege es nicht mehr zusammen eine großartige Copy die extrem viral gegangen ist ich glaube das sind diese Ideen und das ist so dieser das was da erschaffen wird von Menschen was halt absolut exzellent ist und wo wir heute eben noch nicht meiner Meinung nach mit Gen AI hinkommen und gleichzeitig glaube ich dass in diesen Disziplinen die unter diesem großen Druck stehen von Gen AI weil diese Modelle einfach so enorm gut geworden sind dass nur diese Exzellenz noch überleben wird ich glaube dass alles was Durchschnitt ist heute im Bereich Copy heute im Bereich Bild [00:33:00] Einfach keine Relevanz mehr hat oder nicht mehr lange haben wird, weil es einfach sehr leicht von jeder anderen Person mit einem AI-Tool und ein paar Prompts gemacht werden kann, dass das keine Chance mehr hat, zumindest auf einem Wettbewerbsmarkt zu bestehen aber weiß ich nicht, vielleicht hast du auch eine andere Meinung, was denkst du Jasper: denn? Nee ich glaube, das ist die Besonderheit vom Human Spark dahinter. Ich weiß gar nicht ob ich es schon angedeutet habe, so die Möglichkeit oder die Veränderung vom Pareto-Prinzip dahinter Dass wir in einem Prozent der Zeit 80 Prozent des Ergebnisses bekommen und wir 99 Prozent unserer Zeit in die Perfektion und unseren Spark, in den Human Spark und die Besonderheit dort einzubringen. Da stellt sich natürlich die Frage, wenn wir 99 Prozent haben, um das zu perfektionieren, bleiben 100 Prozent dann noch gleich? Sind 100 Prozent heute vom Ergebnis die 100 Prozent von morgen, weil wir einfach so viel mehr Zeit [00:34:00] haben, unser Gehirnschmalz und das, was wir am besten können, also der Copywriter, die Copywriterin, der Fotograf die Fotografin, die durch ihre eigenen Bilder, ihre eigenen Modelle trainieren kann und dadurch vielleicht Bilder kreiert, die dann wieder den besonderen Wert haben. Und da, wo der Human Spark... Felix: Vielen Dank. Jasper: Eigentlich durch Gen AI erst wirklich hervorgebracht wird oder verstärkt wird, dass da die fachlich und handwerklich begabten People eigentlich nur noch mehr enabled werden, als Sparring-Partner auf Copy-Ebene oder aber auch auf Bild-Ebene als Inspirationsquelle. Oder aber auch als Skill on Demand. Ich bin kein Fotograf, ich bin kein Zeichner ich kann vieles von dem, was ich vor zwei Jahren gar nicht gemacht hätte oder auch gar nicht versucht hätte, weiß ich kann, kann ich plötzlich bis zu einem gewissen Level. Das heißt, ich habe [00:35:00] nicht nur die Möglichkeit, mein Handwerk unter Umständen auf ein nächstes Level zu bringen, weil ich einfach so viel mehr Zeit habe, meine Besonderheit reinzubringen, sondern auch gleichzeitig Skills anzueignen die weit außerhalb meines Scopes gewesen wären. So diese Demokratisierung von, im einfachsten Sinne, Coding. Also heute aus dem Nichts anzufangen mit Cloud eine Website oder kleine Anwendungen zu basteln, wo ich weit von abgewiesen wäre. Also eins, wir unterstreichen und wir enablen die Leute die schon gut sind, noch besser werden zu können. Um den positiven Blick auf dieses Thema Jenny I weiter in den Fokus zu stellen und wir demokratisieren Skills bis zu einem bestimmten Level. Felix: Soll heißen wenn ich jetzt Cloud oder GitHub und den Co-Piloten da nutze und ich bis zu einem gewissen Grad komme, dann aber [00:36:00] über die Modelle auch mein Limit erreicht habe, weil ich diese Perfektionierung einer Anwendung, eine, ein Skill brauche, der jetzt noch nicht über diese Modelle abbildbar ist, dann kommen wir an den Punkt, wo der Skill und das Handwerkliche und das Verständnis vom Handwerk nochmal essentiell wird. Aber würdest du zustimmen, dass, weil es ist ja nicht so, dass... Anbieter da draußen, die heute Texte machen oder Visuals kreieren, unbedingt sehr, sehr gut sind bereits. Dass alle, die nicht ein bestimmtes schon relativ hohes Qualitätslevel in ihrer Arbeit haben, dass die abgelöst werden von Gen AI. Wenn ich heute mit einer mittelmäßigen Content-Agentur zusammenarbeite, also die Texte und Bilder und Blogartikel und Newsletter für mich schreibt und ich auf einmal lerne, ich kann mit Claude und vielleicht so ein bisschen Automation und noch einem guten Bildmodell und vielleicht eine Schulung für meine [00:37:00] Mitarbeiter den Service in-house abbilden und mir diesen Prozess aufbauen, gehe ich dann noch zu der Agentur und Jasper: bezahle sie? Ich glaube, das lässt sich auf verschiedene... Bereich oder eine klare Antwort darauf habe ich nicht. Also es wird unter Umständen das ist ein hartes Wort, aber nochmal Konsolidierungsphasen geben, wo genau das passiert. Wenn ich bestimmte Qualität nicht überschreiten kann ab einem gewissen Level, wo Gen AI oder an dem Gen AI das Gleiche abliefern kann zu einem Bruchteil. Aber das, was wir für uns ja auch entschieden haben, wo liegt unsere Kernkompetenz und wo ist unsere Wertschöpfung heute? Diese Einstellung sehe ich auch in anderen Industrien, sodass auch wenn ein innovativer Arm oder eine innovative Abteilung in einem Unternehmen sich darstellt Mit diesen Themen auseinandersetzt, bedeutet [00:38:00] es nicht, dass gleich alles, was darum sich rankt nur dann intern abgebildet wird. Vielleicht wird ein gewisser Anteil davon intern abgebildet aber auch das, was wir machen, dieses extrem intensiv mit diesem Thema auseinanderzusetzen und zu gucken, wo können wir es wirklich effizient einsetzen und wo nicht, wo ergibt es Sinn, wo ergibt es keinen Sinn, wo kriegen wir die Qualität, wo kriegen wir sie nicht. Das als Unternehmen komplett auch alleine abzubilden mit einer Kernkompetenz und einem Geschäftsmodell in einer ganz anderen Richtung wird, glaube ich auch in Zukunft so sein. Das wird eine andere Dienstleistung unter Umständen sein, die eingekauft wird mit einem anderen Tiefegrad, einer anderen Anforderung, vielleicht auch auf preislicher Ebene je nachdem wie zahlungsfähig ein Unternehmen ist oder nicht. Aber ich glaube auch da, wie auch bei anderen Themen Also keine Ahnung, rechtliche Themen. Wird in Zukunft, wird es unter Umständen Assistenten geben, die mir aktueller beantworten können, wie die Rechtsprechung ist. Werde mich als [00:39:00] Unternehmen trotzdem darauf verlassen oder ist das unter Umständen auch nur ein Starting Point, wo ich ein Output bekomme und ich sage so, ey, das glaube ich, das könnte es sein. Äh, ich bin aber kein Jurist. Äh, ich bin aber auch kein Filmemacher. Ich bin aber auch jemand, der nicht genau weiß, äh, wie läuft der Trend gerade auf Plattform XYZ oder, ähm äh hab selber kein Verständnis dafür, wie ich am Ende dann doch noch diese eine Sequenz, die über die Tools doch nicht so perfekt ist wie ich es mir vorstelle, ähm noch anpasse und schneide. Und dann, also ich glaube, für bestimmte Qualitäten und für, ähm, die Orientierung an Geschäftsfeldern, die, ähm Kernkompetenz von Unternehmen ist, äh wird das, äh Nicht alle Bereiche weil es gibt ja so viele Bereiche die GNI beeinflusst, dann könnten sie ja irgendwann versuchen, alles irgendwie selbst intern zu... Das mag naiv sein, bis zu einem gewissen Grad, aber dass viele testen und das Vergleichen von Ergebnissen [00:40:00] zu dem, was wir aktuell selber produzieren liefern auf kreativer, auf strategischer und auf produktioneller Ebene sehe ich noch nicht innerhalb der nächsten, ich sage jetzt einfach kein Jahr, aber der nächsten Jahre eins zu eins abgedeckt. Aber vielleicht werde ich überrascht Dann sind wir aber als Innovation Lab da, um das versuchen einzufangen und für uns selber auch dann nutzbar zu machen. Felix: Okay, sehr gut. Ich meine, ihr habt ja auch einen starken Fokus wirklich auf Video und da ist der Boggraben sicherlich noch größer. Die Modelle sind einfach noch nicht da. Die Anforderungen sind viel viel komplexer. Wir hatten jetzt schon mal über Bild gesprochen, sind gerade so ein bisschen ins Rabbit Hole eingetaucht. Vielleicht ziehen wir da nochmal den Kopf raus und du hattest nämlich noch Ton und 3D auch als weitere Anwendungsfelder mit in den Ring geworfen Vielleicht kannst du uns da nochmal ganz kurz Jasper: durchführen, was ihr in den Bereichen macht. Auf Tonebene sind es mainly zwei Felder das eine ist Voice-Over oder [00:41:00] Stimmen im Allgemeinen. Da haben wir auch mit einem unserer Kunden einen Podcast internationalisiert Das heißt, wir haben die Podcast-Folgen die da sind. Und zwar auf eine Art und Weise, wo wir gesagt haben, wir wollen es nicht hochladen und zu einer schlechten Qualität übersetzt haben, weil es am Ende zwei oder drei Stimmen sind, die dann sich gegenseitig verzerrt haben und umverstimmt haben. Sondern wir haben die Voices der Hosts genommen und haben die bei Eleven Labs eingeteacht, haben dann das Transkript übersetzt in Englisch Italienisch Spanisch, Französisch und Niederländisch, glaube ich. Und dann haben dann die Text-Snippets über Eleven Labs vertont und dann wieder zusammengeschnitten. Sodass wir... Mit dem Blick auf einen Hörer... Innenerlebnis und [00:42:00] der Optimierung auf Qualität erstellt haben, bei dem wir nicht wollten einfach ein Upload Folge hoch, Übersetzung runter und am Ende nach 10 Minuten, vielleicht sogar nach 5 Minuten hören, denkt man sich, oh nee, kann ich mir nicht antun, weil es Artefakte im Ton gibt oder weil die Stimmen sich immer wieder gegenseitig verzerren, mit mehr Arbeit eine höhere Qualität, aber auch Märkte auf einmal zugänglich waren, die vorher nicht zugänglich sind, weil Französisch italienisch und spanisch sind zwar keine ahnung minimal verständlich oder auch auszudrücken von mir selber aber das erreicht niemals das level dass ich das übersetzen könnte und der prozess dahinter transkript übersetzung und vertonung setzt voraus transkript ist schon sehr sehr lange unterstützt durch durch die tools oder andere transkriptions tools aber die Übersetzung und das auf einem hohen Level, wo ich auch die [00:43:00] Tonalität in der neuen Sprache trotzdem treffe, die Stimme die Vertonung innerhalb der jeweiligen Sprache, die nah genug dran ist und nah dran ist an dem, wie es original sich anhört und dann der Schnitt dieser Ton Snippets das Ganze dann zu vertonen. Und da haben wir auch Feedback bekommen, es ist nah genug dran, sodass man nicht denkt, oh nee, mach das aus, sondern die Felix: Qualität hoch genug ist, dass auch Native Speaker innen sich da dem nähern wollen. Vielen Jasper: Genau, und Eleven Labs als Voice-Over auch relativ für Video, das heißt, da irgendwie die Sprecherstimmen und so weiter damit unter Umständen zu ersetzen oder zu erweitern, ist ein großes Thema. Und mit Suno und sonstigen Music-Tools auch Musik-Soundtracks, Hintergrundmusik [00:44:00] und über manche Modelle auch haben wir, ist ein bisschen her, seitdem wir getestet haben, aber auch Sound-Effekte irgendwie zu kreieren und zu gucken, ob die dann passend über Video oder mit Video verheiratet werden Felix: können. Cool, sehr spannend lasst uns gleich nochmal so den Toolstack zusammenfassen ich glaube, das ist immer wieder auch relevant, mal so einen Überblick zu bekommen, aber vielleicht schließen wir das nochmal ab mit den 3D-Cases das interessiert mich jetzt hätte ich jetzt gar nicht hätte ich gar keine Vorstellungskraft was ihr im 3D-Bereich macht Jasper: Ähm es ist kein Case, der äh selbst vollendend ist, würde ich mal sagen, so wie keiner der Cases, aber der ähm der Output dahinter, das ist dann, äh Stable, äh von Stable Diffusion deren 3D-Anwendung, also die Möglichkeit dort aus Text, äh, Low-Poly, äh 3D-Modelle sich ausspucken zu lassen, äh, Low-Poly in dem Fall, ähm, [00:45:00] 3D-Modell wird aufgeteilt in Dreiecke und je mehr Dreiecke ein solches Modell hat und das sage ich jetzt als fachlich entfernter, aber mit Motion Designern im Team, desto mehr von den Dreiecken, desto hochauflösender sieht das Modell aus. Und man kann diese Modelle dann quasi als Rolling nehmen und die verfeinern, wenn man die Skills hat in dem Blender oder Cinema 4D oder sonstigen. Und da wir hier und da in VFX damit arbeiten oder aber auch in der Videonachbearbeitung irgendwelche Animationen mit einbauen, ist das ab und zu zumindest als Rolling und als Inspirationsquelle. Felix: Schon mal zum Einsatz gekommen. Du hast jetzt immer mal wieder so ein paar Tools auch gedroppt. Kannst du das nochmal zusammenfassen oder willst du erst nochmal auf den LLM-Bereich Jasper: ich würde [00:46:00] sagen, ja, ich kann ja einmal kurz für die einzelnen Bereiche so ein bisschen abgrenzen. Felix: recht schnell durchgehen, aber einfach mal so ein Überblick, Jasper: wer was Neues hört, kann sich das mal anschauen. glaube, was Neues ist immer schwierig, oder was heißt schwierig, aber die Modelle und die Tools, die Oberflächen, die schon länger gibt, die sind meistens auch schon ein Stückchen weiter. Aber ich mache es einfach mal ganz schnell. Auf Still-Ebene ist es Mid-Journey, Stable Diffusion mit den verschiedenen Modellen, Flux, ähm Äh als, als Grundlage, ähm auf Video, äh Ebene ist es mainly Runway, ähm wo wir, äh Bilder, äh und, und Videosequenzen unter Umständen animieren, dann haben wir das Thema HeyGen für Talking Heads, äh also diese, diese klassische Interview- und Erklärvideo oder News-Sprecher-Video, ähm äh Darstellung, ähm Felix: da, will ich nochmal [00:47:00] kurz nachhaken, habt ihr da eigentlich selbst so ein Studio-Avatar gebaut, der dann auch mal etwas mehr Geld kostet oder habt ihr da die klassischen Foto-Avatare genommen, die sich jeder Jasper: mit einem einfachen Foto erstellen kann? Ne wir haben da die, ich weiß gar nicht, die Business-Lizenz bei HeyGen und da ist es am Ende so, dass du zwei bis fünf Minuten Videorollinge quasi in dem jeweiligen Setting hast, wo dann ein bisschen mehr gestipuliert wird. Also diese 4K-Avatare, die man sich da erstellen kann. Ich glaube auch die Video-Avatare sind mittlerweile auch bei den kleineren Creator-Modellen oder Subscriptions möglich, aber die sind auch schon relativ gut. Das sind dann Erklärvideos und da haben wir auch gerade ein laufendes Projekt, bei dem das auch nochmal sehr interessant wird, wo wir uns einen Produktionstag nehmen und wirklich produzieren, [00:48:00] physisch diese Rollinge, unterschiedliche Settings, unterschiedliche Hintergründe, unterschiedliche Klamotten woraus dann langfristig eine Eine umfangreichere Pipeline für Content entstehen kann, sodass Inhalte durch Text dann in der Animation aufgehen. Aber auch hier, der reine Talking Head wird dabei nicht die Aufmerksamkeit einfangen. Es braucht dabei dann trotzdem einen Schnitt, einen schnellen Schnitt, Animation, Soundeffekte und so weiter, wo wir dann trotzdem in der Postproduktion das Ganze ein wenig dynamischer gestalten müssen. Felix: Ja, okay. Jasper: Dann, was habe ich vergessen? Genau, Ton, Eleven Labs mainly und Zuno, genau, für die Videos. Ich unterschlage gerade [00:49:00] bestimmt etwas. Ach so, das, was wir bei uns relativ viel nutzen, ist zumindest die Oberfläche oder die Anwender- Eine freundliche Brücke zu den unterschiedlichen Modellen und zu den unterschiedlichen Workflows ist das Thema Comfy UI. Am Ende des Tages eine Möglichkeit, verschiedene Arbeitsschritte ohne ein Entwicklerverständnis von oder ohne AI Engineering Background oder dem Verständnis, dort selber Modelle in bestimmte Richtungen zu trainieren, wo ein Arbeitsschritt oder Arbeitsschritte hintereinander gekettet werden können. Und ich tue Leo, unserem Tech Lead, vielleicht ein wenig Unrecht mit meinen Ausdrucksweisen, aber am Ende des Tages kann man sich das so vorstellen, dass man verschiedene Nodes verschiedene Arbeitsschritte hat. Das erste ist meinetwegen... Ähm äh Hintergrund entfernen. Das zweite ist Objekt maskieren. Das [00:50:00] dritte ist Tiefenmap erstellen von dem Objekt selber. Das, das, äh vierte ist unter Umständen Schrift erkennen und Feinlein nachzeichnen. Ähm, das fünfte ist Background generieren. Das sechste ist Komposition und sieben ist dann unter Umständen nochmal das Flatlay oben drüber legen, damit es dann, äh, das Flatlay vom Produkt oder von dem ursprünglichen oben drüber legen, dass wir da keine Artefakte in dem Originalprodukt haben. Also, am Ende, ähm ohne zu tiefer und umfangreicher So etwas selber aufzubauen, das visuell in einer Art, jetzt werde ich wahrscheinlich wieder gecancelt dafür, aber in einer Art Kanban von rechts nach links, von oben nach unten, Darstellung dieser Arbeitsschritte und Workflows aneinander zu reihen und dadurch sehr, sehr coole Anwendungen, insbesondere dann im Bildbereich und jetzt auch Talking Heads in dem Bereich, da gibt es vieles was nach und nach über ConfiUI neu [00:51:00] erreichbar wird. Felix: super, das kann ich noch gar nicht. Kannst noch mal sagen, wie man das schreibt? Jasper: Äh ConfiUI, C-O-M-Y-U-I, ConfiUI, Felix: glaube, ich habe es schon mal irgendwo gesehen. Aber cool, spannend. jetzt haben wir ja die letzte dreiviertel Stunde wirklich intensiv mal in eure ganze Produktions-Wertschöpfungskette reingeschaut. Total spannend, mal wirklich einen Reality-Check zu haben, was kann jetzt in dieser Prozesskette wirklich von AI gemacht werden und wo ist es auch noch ganz wichtig, dass Menschen im Einsatz sind. Also ihr habt ja noch viele andere Bereiche im Unternehmen. Wie setzt ihr denn dort generative Jasper: KI oder auch KI allgemein ein? Ja, ich glaube, das, was wir extern einsetzen, setzen wir auch viel intern ein, aber ich glaube, das, was im Vordergrund steht und ich nenne es mal ein shameless plug, aber weil ich [00:52:00] Fan bin und weil wir mit denen jetzt schon ein bisschen länger zusammenarbeiten, LangDoc, eine, ich nenne es mal Nutzeroberfläche die alle größeren Modelle ähm In der EU gehostet zugänglich macht. Das heißt, wir können da Cloud, wir können da GPT-4O, Lama, etc., die Modelle in Europa gehostet zugreifen. Und am Ende ist es eine Oberfläche, über die wir allen bei Just Add Sugar den Zugang zu LLM-Modellen geben, um als Sparingspartner zu agieren. Und da haben wir natürlich, ich nenne es mal die normalen die Basic, die Quick-and-Dirty-Anwendungen. Das heißt, übersetz mir, erklär mir Thema XY oder aber ich brauche mal deine Hilfe bei Rechtschreibung und so weiter und so fort. Als Basic, aber dann auch als [00:53:00] Assistenten die spezifisch und das sind dann die Custom-GPTs, auf die einzelnen Bereiche eingeht. Das sind dann unter Umständen Entschuldigung, Tools, die wieder ein Skill on Demand mit sich bringen. Wenn wir jetzt wieder in die Postproduktion gucken, arbeiten wir auch viel mit After Effects. Und in After Effects gibt es die Möglichkeit und in vielen der Creative Cloud Tools gibt es die Möglichkeit, über JavaScript bestimmte Arbeitsschritte zu automatisieren. Wenn du aber kein JavaScript kannst, wird das schwer, das einfach mal so umzusetzen und dafür dann den Assistent zu haben und natürlicher Sprache zu sagen, ey, ich brauche ein Skript für Formatadaption. Ich habe ein Content Piece, das ist in 9 zu 16. Bitte baue mir das um in 1 zu 1 und 4 zu 5 und das aber nicht selber kreieren zu müssen, sondern sich dann nähern zu können mit einem Skriptassistenten dafür, was gut funktioniert hat, oder? Ja Einem Copy-Assistenten [00:54:00] der unsere Sprache kennt, wenn wir unsere eigene Socials irgendwie bespielen wollen oder ein Creative Assistant, der Teile unserer Cases oder Denkweisen kennt und darauf abgestimmt ist, da Spin-Off-Ideen quasi zu kreieren, sodass man da in verschiedene Richtungen einfach noch weiterdenkt oder ausformuliert oder Feedback gibt. Also da haben wir quasi diesen Custom-Bereich noch ein bisschen für uns weiter erschlossen. Aber man muss auch sagen, und auch ehrlich sagen, dass die Durchdringung schwankt denn diese Art von Adaption auch wenn wir im Vergleich zu anderen Unternehmen wirklich noch klein sind mit unseren 85 bis 90 Leuten, diese Gen-AI-Adaption Culture oder die Gen-AI denke und ich gehe jetzt als erstes zum LLM und versuche darüber irgendwie einen eigenen Lösungsweg zu [00:55:00] finden. Und wenn ich alleine bin, gebe ich meine Ideen da rein und gucke mal was rauskommt und refine das und komme meiner Idee dann noch näher und kann es dann mit jemandem anderen feedbacken und so weiter. Das ist auch nicht von jetzt auf gleich. Das, was wir gelernt haben, ein Erfolgserlebnis, insbesondere ganz am Anfang extrem wichtig, weil wenn ich merke und arbeite und kriege am Ende nur Mist raus und die Einstellung, ich kann das eigentlich alleine sehr viel besser, die einsetzt, dann ist es schwer, da wieder den Weg raus zu bekommen oder aber auch das so ein bisschen als Gefahr einzuschufen. Aber da sind wir relativ gut dabei, haben früh angefangen das Ganze auch intern zu schulen zu beleuchten, mit allen durchzusprechen, was dazu geführt hat, dass wir das sehr gut bei uns eingeordnet haben. Felix: macht ihr jetzt heute? Weil das sehe ich ja auch immer wieder als eine große Herausforderung. Also ich finde das schon toll. , hat mich sehr glücklich gemacht, was du gerade erzählt hast, weil ich glaube auch, dieses [00:56:00] Aufsetzen dieser sehr maßgeschneiderten Assistenten für ganz spezifische Aufgaben, die mit sehr hoher Zuverlässigkeit gute Outputs erzielen und die Menschen immer wieder dann nutzen können, wenn sie diese Fähigkeits-Skill-on-Demand, fand ich eine coole Bezeichnung wenn sie diese Skill-on-Demand jetzt benötigen in ihrem Ablauf. Ich glaube, dass das ja kurzfristig den größten Hebel tatsächlich auch hat, auf die Produktivität oder schneller vom weißen Blatt wegzukommen. Aber ich sehe es wie du auch immer wieder, dass wir so Gewohnheitstier Sind und auch wenn wir eigentlich rational wissen, das könnte uns jetzt helfen, einfach nicht dran denken und das Werkzeug richtig einsetzen. Was macht ihr denn, um das Thema immer wieder hochzuhalten, Sichtbarkeit zu erzeugen und Jasper: diesen Gewohnheits- oder Routinenwandel auch zu unterstützen? Wir haben in den einzelnen Abteilungen, ich würde sie mal Heavy User nennen oder auch Ambassadors, die Shoutout John in die Kreation oder [00:57:00] allgemein an die Abteilung Kreation, die sehr, sehr gut damit umgeht, auch das weiterzuerzählen. Auch Shoutout an unsere Art & Graphic Abteilung insbesondere Graphic Abteilung, die sich insbesondere auf der Inspirationsebene sehr viel daraus ziehen kann und zieht Wo wir Heavy User haben, haben wir natürlich auch die andere Seite, die es kaum oder wenig nutzen und immer wieder zurückverfallen, vielleicht auch, weil sie... In ihren Arbeitsabläufen heute noch nicht den Mehrwert für sich finden oder gefunden haben. Aber dann ist es mit an uns als Innovation-Abteilung und vielleicht auch an den Ambassadors, dann diese Erfolge zu teilen. Das ist etwas, womit wir Erfolg und Reichweite im Unternehmen gewinnen konnten, zeigen, wo es gut funktioniert, wo haben wir echt was Cooles geschafft, um dann auf der anderen Seite wieder so, oh, okay, Mist, okay, dann mache ich das auch oder ich sollte es nochmal versuchen zu [00:58:00] provozieren. Und da, glaube ich, liegt viel in Teilen von Erfolgserlebnissen und aber auch immer wieder ... Und Verständnis dafür haben, dass es nicht etwas ist, was wir auf den Tisch knallen und sagen, ey, jetzt mach, sondern lass uns gemeinsam gucken, wie du das ganze Thema für dich nutzen kannst. Und es ist weiterhin Vorbildfunktion, wenn die Person es nutzen, auf die viel geguckt wird, dann wird es auch besser adaptiert. Bekommt ihr gemessen was euch jetzt all diese Anstrengungen die ihr unternommen habt sie euch bringen Ganz schwer. Ja was wir am Anfang versucht haben, ist Vergleiche zu ziehen zwischen Projekten wo wir das noch gar nicht im Einsatz hatten, zu jetzt haben wir sie im Einsatz. Wir können keine genaue Zahl an die Effizienzsteigerungen bringen, weil die Projekte so unterschiedlich [00:59:00] sind und eigentlich mehr oder weniger unik. Es gibt Arbeitsschritte, wo es schon eher klappt. Das sind bestimmte keine Ahnung, wenn es darum geht, Mut zu erstellen und Ideen zu visualisieren. Und das Ganze dann meinetwegen auf, keine Ahnung, Pitch-Ebene oder auf Folienebene oder in welche Richtung wir auch da denken. Das ist sehr, sehr lapidar aber wir sind uns alle einig Wir haben die Ergebnisse und wir haben diesen Effizienz-Impact bei uns. Und wir haben auch diesen Produktiv-Impact beziehungsweise Qualitiv-Impact, weil der... Der Zeitraum, der insbesondere bei Strategie oder aber auch bei Kreation auf diesen besonderen Punkt und dieser Human Spark und dieser einzigartige Teil, der dann einfließt spürbar ist. Und wenn wir alle irgendwann diese LLMs nutzen [01:00:00] und wir alle aus einem, und das ist jetzt mehr oder weniger keine Messung mehr, aber wenn alle ihre Kreativideen nur noch aus diesen LLMs ziehen und wir alle einen Einheitsbrei rausbekommen, dann wäre das Worst-Case-Szenario Felix: für mich. Bei der Effizienz kannst du da aus dem Bauchgefühl eine Zahl hinterhängen Jasper: Bei Still-Projekten, also wenn wir davon sprechen, Fotocontent Produktcontent zu machen, 50 bis 90 Prozent, auch mit guter Qualität. Bei Videoprojekten sehr viel mehr zu aber einer Qualität, die wir nicht vertreten wollen oder die wir auch nicht präsentieren wollen, außer in Nischenbereichen. Bei Skills on Demand war vorher nicht möglich, damit ein 100 Prozent Thema, zumindest für den einzelnen Arbeitsschritt oder beziehungsweise annähernd weil [01:01:00] am Ende des Tages die Teilautomatisierung drin ist. Aber ich kann keinen übergreifenden agenturweiten Effizienzsteigerungssatz drauflegen, wobei ich das gerne machen würde. Felix: Ich glaube, da wird noch ganz viel mit wir halten mal den Finger in die Luft und gucken, von wo der Wind kommt gemessen. Wer das wirklich schon mal gut geknackt hat, gerne Jasper und mir Bescheid geben. Prozent. Jasper, wir kommen zum Schluss. Was waren denn jetzt in den letzten Jahren deine drei Top-Learnings Die du Leuten, die hier heute zuhören und vielleicht noch am Anfang der Reise stehen, mitgeben kannst. Wie kriegt man künstliche Intelligenz generative künstliche Intelligenz in die Organisation und auch produktiv vielleicht mal so allgemeiner gesprochen? Jasper: Ich glaube, was... Was gefährlich ist oder das, was uns auch als Innovation [01:02:00] Lab treibt, ist das Thema Neugierde und ich habe das, das ist so ein extremer, sorry für den Ausdruck, Boomer-Satz, aber die teuersten sensiven Worte von Unternehmen, das haben wir immer schon so gemacht, ist der Fall Nokia, ist der Fall Blackberry, ist der Fall Kodak, ist der Fall you name it. Und ich glaube, die technische Entwicklung braucht die Neugierde in den Unternehmen und die Risikobereitschaft und die Investitionsbereitschaft sich damit auseinanderzusetzen. Wer das nicht tut, hat unter Umständen die Herausforderung vor sich, diese größer werdende Schere in der Effizienz der hinterherzulaufen oder teuer einzukaufen. Felix: heißt, es braucht diese Neugierde und die Bereitschaft sich damit auseinanderzusetzen, auch wenn es sehr viele Wände sind, gegen die man unter Umständen läuft, aus eigener Erfahrung gesprochen. Da, wo [01:03:00] es einschlägt und da, wo es Impact hat und da, wo wir die Cases haben, da sehen wir heute schon sehr, sehr fruchtbaren Boden. Vielen Dank Jasper: Zweite es sind oft, und das baut darauf ein bisschen auf, es sind oft Einzelpersonen die diese Themen für sich entdeckt haben in den Unternehmen. Da, wo diese Lampen gesehen werden und denen die Bühne gegeben wird, um das intern auch mit voranzutreiben und das sind oft Einzelpersonen Die Leute die das irgendwie in der Freizeit für sich entdeckt haben, denen irgendwie auch die Plattform zu geben, das intern weiterzutragen. Das gilt natürlich eher für KMUs als da irgendwie der größere Mittelstand oder die ich nenne sie mal Fortune 500s oder DAX-Unternehmen. Und für mich persönlich ist es so der Punkt Demokratisierung [01:04:00] von Skills ganz doll und erneut ein Bereich, in dem es sich anfühlt, als wäre man sehr früh, auch wenn man das gar nicht mehr ist, wenn man die KI-Historie anguckt, zurück, keine Ahnung, was war das, 1966? Mit dem ersten Chatbot, Elisa von... Felix: leise ja. Jasper: War das IBM? Naja, auf jeden Fall dass es sich cool anfühlt sehr früh dabei zu sein, das mitgestalten zu können, insbesondere im Unternehmen, diese neuen und diese Bewegung der Community mit sich zu bringen und das, was innerhalb der kürzesten Zeit so krass durch die Decke gegangen ist, durch diese Zugänglichkeit in der Gesellschaft und diese Demokratisierung von, ich kann jetzt ein LLM nutzen, ich habe ein Text-to-Image ich habe ein Text-to-Video, habe, wer weiß was da noch kommt, dass wir da auch über die nächsten wahrscheinlich und das ist auch eher so Rule of [01:05:00] Thumb und vielleicht auch eher aufgegriffen und wiedergegeben, wir werden in den nächsten vier Jahren so viel Fortschritt machen wie in letzten 100 so ungefähr und das wird sich vermutlich auch weiter so treiben und auch für uns im Bereich Gen AI und im Geschäftsmodell unter anderem widerspiegeln Felix: Jasper, vielen Dank, dass du heute dabei warst und mit uns oder uns einen Blick unter die Haube gegönnt hast, was denn eigentlich in einer Agentur mit GenAI gemacht wird, wo es heute schon ganz viele Möglichkeiten geben wird, wo aber auch noch die Grenzen liegen. Ich habe total viel gelernt und danke für deine Zeit. Jasper: Absolut. Vielen Dank, dass ich dabei sein durfte. Bis bald. Felix: Bis bald.
Logge Dich ein oder registriere Dich, um am Austausch teilzunehmen.
Diskutiere mit