Herzlich willkommen zum AI-First-Podcast. Heute zu Gast ist Georg Neumann, sehr geschätzter Kollege und echter Experte Spezialist im Bereich der Bild-KI und wir machen heute einfach mal einen Rundumschlag Zum Thema Bild-KI, wir werden auch ein bisschen über Video-KI sprechen, wo steht die Technologie gerade in dem Bereich, was gibt es dort eigentlich alles so für Anwendungsfälle und auch wie tief kann man in diesen Kaninchenbau reingehen, wie wird sich das auf die Art und Weise auswirken wie wir mit Content in Zukunft umgehen, was machen Marken schon gut in dem Bereich, was sind so Best Cases und noch ein bisschen mehr, wir haben uns einiges vorgenommen.
Georg, schön, dass du da bist.
Georg Neumann: Danke, dass ich da sein darf, Felix. Echt cool.
Felix: Ja, erzähl mal ganz kurz, wer du bist und was du machst. Vielen
Georg Neumann: Ich bin eigentlich so ein typischer Alles-mit-Medien-Mensch oder irgendwas-mit-Medien-Mensch heißt er dann immer. Ich komme aus der Fotografie, aber weil mich die Uni Leipzig dann nicht [00:01:00] Fotografie studieren lassen
Felix: Dank Vielen Dank Und bevor wir jetzt reingehen haben wir gerade schon gesagt, wir müssen dazu sagen, dass heute der 11. September ist. Der Podcast erscheint immer mit etwas Verzug. Wir wissen natürlich nicht, was in der Zwischenzeit passieren wird, erfahrungsgemäß so einiges. wir sprechen jetzt über das, was wir zu diesem Zeitpunkt wissen.
Die letzten Wochen waren ja im Bildbereich, bei dem, was ich wahrgenommen habe, total Also ich sehe gerade total viel Bewegung im Open-Source-Markt dass da immer mehr auch deutlich leistungsfähige Modelle an den Start kommen, [00:02:00] auch nicht nur im Bildbereich Bild-Bereich sondern ich hab jetzt sogar ein Modell gesehen, womit man Avatare erzeugen kann die schon deutlich besser sind als das, was man so vorher im Open-Source-Bereich gesehen hat.
Dann hat Google Nano-Banana rausgehauen und das Internet ist wieder heiß gelaufen und es hat mal wieder alles verändert. Du bist ja, beschäftigst dich Tag ein, Tag aus damit. Gib du doch mal bitte ein State of Build KI, wo stehen wir gerade und wie ordnest du die aktuellen Entwicklungen ein?
Georg Neumann: Ich habe es gestern mir auch selbst erst nochmal wieder
Felix: Vielen
Georg Neumann: dieses Jahr stattgefunden haben, sind wirklich mega faszinierend. Letztes Jahr war so ein bisschen so ein Gefühl zu einer Flaute. Es kam dann zwar Flux raus, aber
Felix: Dank
Georg Neumann: ist eigentlich nicht viel mehr passiert.
Und dieses Jahr ist halt quasi das große Jahr der kontextbasierten Bild-KI-Modelle. Bedeutet, Bild-KI-Modelle, die Referenzbilder nicht nur eins zu
Felix: [00:03:00] Dank.
Georg Neumann: den Kontext daraus beziehen und verändern können und sich darauf beziehen können. Den großen Aufschlag hat ja erstmal ImageOne von OpenAI gemacht im Frühjahr wo dann plötzlich LinkedIn geflutet wurde mit irgendwelchen Actionfiguren und Studio Ghibli-Avataren und so weiter. Einfach weil man Kontext geben konnte in Form von einem Selfie und das wurde umgewandelt in irgendwas anderes. war ein netter Anfang von OpenAI, aber man hat dann schon schnell gemerkt, in realen Use Cases versagt es dann ganz schnell, weil es einfach zu sehr den Kontext doch verändert oder abändert, den Stil verändert und so weiter. Dann kam Flux-Kontext war der nächste große
Felix: Dank.
Georg Neumann: Entwicklung. Da wurde es dann schon wieder spannender, weil man dann auch schon überlegen konnte, hey, das kann ich doch jetzt für Produktbilder ganz gut einsetzen, weil es die Produkte nicht so viel verändert. Das war so die erste Ausbaustufe dieses Jahr. dann kam
Felix: Dank.
Georg Neumann: noch irgendwann mit Journey Omni-Referenz und jetzt kam halt eben der große Clou den du gerade schon gesagt [00:04:00] hast, von Google das Überraschungsmodell mit Nano-Banana,
Felix: Dank.
Georg Neumann: Und
Felix: Dank.
Georg Neumann: funktioniert es mit ein bis drei Referenzen deutlich besser als mit acht, damit kann man jetzt schon wirklich gut um die Ecke denken. Es funktioniert tatsächlich auch für Charakterkonsistenz schon ein ganzes Eck besser als alles, was bisher da war.
Für die Arbeit mit Produkten ist es mega spannend. Aber es ist eben noch nicht das Allheilmittel. Es hat immer noch seine großen Nachteile, wenn man mal ein bisschen genauer hinschaut. Und der Teil wird vom Hype immer gerne mal so ein bisschen überdeckt.
Felix: Du hast jetzt öfter von Kontext gesprochen. Kannst du das nochmal [00:05:00] erklären, was du damit meinst und auch, was sich damit verändert hat im Vergleich zu letztem Jahr zum Beispiel?
Georg Neumann: Also in den Anfängen von Bild.KI [http://bild.ki/], wenn man ein Bild verändern wollte, dann wurde
Felix: Vielen Dank.
Georg Neumann: dann plötzlich war halt die Wiese weiß statt grün aber es waren jetzt keine Schneehügel darauf zum Beispiel abgebildet. Und das wird halt mit dieser kontextbasierten Bildgenerierung verändert, weil jetzt funktioniert das Ganze so ein bisschen auch wie ein Sprachmodell, dem man ja auch Beispiele gibt, um bessere Ergebnisse zu erhalten.
Und jetzt gibt man dem
Felix: Vielen
Georg Neumann: halt einfach Beispiele, zum
Felix: Dank.
Georg Neumann: das
Felix: Vielen
Georg Neumann: Neues [00:06:00] generiert. Also es versucht nicht mehr, was vorhanden ist, zu verändern, sondern es nimmt dieses Kontext als Wissen her, um was Neues zu generieren. wenn man da ein bisschen um die Ecke denkt, kann man sehr, sehr coole Sachen machen. Also mal ein
Felix: Dank.
Georg Neumann: ein Storybook oder sowas machen musste für einen Film oder sowas dann musste ich da noch jede Szene einzeln prompten und so weiter. Jetzt schaffe ich mir ein Ausgangsbild, packe es in Nanobanana rein und sage, hey, verändere bitte den Szenenwinkel um 90 Grad, plötzlich sieht man den Protagonisten aus
Felix: Vielen Dank.
Georg Neumann: Also so könnte man es wahrscheinlich in Kürze zusammenfassen, wie diese kontextbasierten Bild-KI-Modelle funktionieren.
Felix: Mhm, okay. Und wie sieht's denn mit Mid-Journey aus? Mid-Journey war ja eigentlich das auf dem [00:07:00] Pausenhof und hat ja irgendwie die Herzen der User... Erobert, dann kam irgendwann diese Web-Oberfläche und ich musste irgendwann nicht mehr in diesem Discord- Channel da irgendwie mich da erstmal da reinkommen und das irgendwie war ja nicht so die beste Nutzer-Erfahrung so gefühlt Jetzt ist es ja doch sehr einfach nutzbar, aber man hört immer weniger davon.
Was geht da so?
Georg Neumann: Geht ehrlich gesagt nicht mal so viel. Also mich
Felix: Vielen
Georg Neumann: schon gelöst haben, also ganz klassiker ist ja das Thema mit den Händen das haben viele Modelle eigentlich schon zum Großteil gelöst, aber Midjourney hat immer noch
Felix: Vielen
Georg Neumann: Journey ist immer noch extrem stark darin wenn man sehr stilisierte, sehr künstlerische Bilder haben will, wo man auch den [00:08:00] Bildstil sehr
Felix: Dank
Georg Neumann: muss. Dafür ist es immer noch super gut geeignet also gerade für die Arbeit für Illustratoren, für Künstler oder wenn man mal ein bisschen abgespacedere Kampagnemotive generieren will oder jetzt wie Bilder in deinem Stil auf der Webseite die ja alle so ein bisschen
Felix: Vielen
Georg Neumann: Stil zum Beispiel haben. Sowas kann man damit richtig, richtig cool machen. Aber ehrlich
Felix: Dank.
Georg Neumann: den Anschluss verloren haben gefühlt.
Felix: Okay. Da gehen wir gleich noch mal ein bisschen genauer rein, wann man wie, welches Modell Technik und so weiter benutzt. Vorher noch mal ganz kurz auf die Videoseite geschwenkt Auch da ist ja einiges passiert mit Sora. Dann kam, da ist aber auch schon wieder ruhig geworden, gefühlt Kannst vielleicht gleich noch mal einordnen.
Dann WO3 kam jetzt zuletzt so was wieder ein bisschen größer war. Ja Ja, wie steht es um [00:09:00] Video-KI?
Georg Neumann: Der Markt ist fast noch umkämpfter als die Bild-KI-Modelle. Das ist ganz witzig wenn man da zuschaut weil da beschlagen sich die Ereignisse auch quasi gefühlt wöchentlich, dass wieder neue Modelle auf den Markt kommen. Zora ist da auch so ein bisschen ins Hintertreffen geraten, das war ein riesen Marketing-Aufbauscherei letztes Jahr von OpenAI mit der langen Wartezeit auch und dann so
Felix: Vielen.
Georg Neumann: Ergebnisse Und dann kam ja ganz schnell Google mit VO2 und VO3 auf den Markt und hat halt einfach Zora links liegen lassen, das fand ich ganz witzig Da hat Google echt auch ein gutes Timing dann gehabt, weil es war ja extrem schnell nach der Zora-Veröffentlichung war plötzlich Google VO2 da. Das fand ich sehr, sehr witzig und das war auch damals schon besser als Zora.
Felix: Mh.
Georg Neumann: der große Coup ist aber dann natürlich mit WO3 gelungen, weil es halt plötzlich auch Audio generieren könnte. Das ist ja die große Schwäche eigentlich, die alle anderen [00:10:00] Bild-KI-Modelle
Felix: Vielen
Georg Neumann: behandeln das nicht ganzheitlich,
Felix: Dank.
Georg Neumann: echt cool funktioniert.
Zwar noch nicht perfekt, aber zumindest schon mal ein guter Start. Und die Konkurrenz schläft aber auch nicht, gerade zum Beispiel die
Felix: Vielen Dank.
Georg Neumann: aus China von Alibaba und Co. oder von ByteDance, zum Beispiel die Firma hinter TikTok, da geht gerade einiges weiter Und Alibaba hat ja z.B.
das Modell WAN mit Version 2.2 aktuell auch Open Source veröffentlicht, was auch nochmal ganz, ganz andere Möglichkeiten eröffnet. Also das ist mega spannend, was man damit theoretisch auch auf dem eigenen Rechner machen könnte, ohne jetzt irgendwie auf Cloud-Dienste angewiesen zu sein, also gerade in den Händen von irgendwelchen Profis also wirklich von Videografen, Regisseuren usw.,
die können halt mit diesem Open Source-Modell nochmal ganz andere Geschichten machen. Das ist extrem spannend zu beobachten.
Felix: Wir strecken schon den großen Zeh in den Kaninchenbau rein. [00:11:00] Danke dafür und lass uns da mal genau weiter anknüpfen. Und ich würde jetzt Gerne mal verstehen, was sind eigentlich so in diesem ganzen Bild-Video-KI-Bereich was sind so die unterschiedlichen Level, die es dort gibt. Ich kann ja mal von mir berichten.
Also du hast schon unsere Website angesprochen. Wir haben jede Woche veröffentlichen wir einen Artikel und haben da immer wieder Landingpages und so weiter. Alle Visuals die es dort zu sehen gibt, ist alles KI generiert insbesondere mit Journey. Da haben wir uns Moodboards angelegt. Wir haben verschiedene Promptvorlagen Und sind damit super effizient geworden für ein bestimmtes Thema, irgendwas, was wir darstellen wollen, ein Visual in unserer Markensprache und im Design zu finden.
Genauso für alle möglichen Präsentationen Da suchen wir nicht mehr nach irgendwelchen Bildern sondern wir generieren das alles. Ähm so, das ist jetzt so unser, äh unsere Use-Case-Bandbreite, würde ich mal sagen, die halt sehr überschaubar [00:12:00] ist und vielleicht hier und da auch Social Media kommt nochmal was dazu und ich würde jetzt einfach mal behaupten dass da wahrscheinlich sehr viele sind, ja, und ich sehe immer, dass so, ähm, Bild-KI-Bereich viel so ein bisschen so in so eine Spielerei abdriftet Du hast angesprochen die Actionfiguren und ich glaube, vieles ist immer so geprägt von so einer Faszination von dem, was man so machen kann und man sieht so coole Beispiele und denkt so, ach, cool, okay, irgendwie sieht das gut aus, aber wie soll ich das jetzt eigentlich konkret für mich in Business-Mehrwert umsetzen?
Aber genau da arbeitest du ja mit vielen Marketing-Teams daran und deswegen will ich einfach mal verstehen, was Siehst du eigentlich so für unterschiedliche Nutzungsstufen und Anwendungsfälle und wie entwickelt sich auch so dieser Skill dann weiter? Und du hast ja da so verschiedene Stufen lass uns da mal durchgehen.
Georg Neumann: Du hast ja schon korrekter weise kaninchen Kaninchenbau genannt das ist ja quasi
Felix: Vielen [00:13:00] Dank.
Georg Neumann: das ist mit Journey vor Ort, die ich immer so im Eingang vom Kaninchenbau sozusagen, weil es halt wirklich am einfachsten
Felix: Vielen
Georg Neumann: sind, wie eben auch Google Nano Banana, das heißt Zum Beispiel direkt in Google Gemini integriert ist und relativ leicht zu nutzen ist.
Genauso geht es auch mit anderen Web-Apps wie eben mit Journey, Freepik und Co. Die stehen so am Anfang vom Kaninchenbau. wenn man dann tiefer reingeht wie du auch schon mit den Moodboards zum Beispiel, dann kriegt man dann schon so ein gewisses Level an Kontrolle auch
Felix: Dank
Georg Neumann: cooler Ansatz, den ich auch mit vielen Kunden tatsächlich angehe wenn sie zum Beispiel ganz konsistente Illustrationen brauchen immer wieder.
Dann würde ich denen auch unbedingt raten macht das einfach mit Journey, macht das mit Moodboards, dann habt ihr da schon... Einen gewissen Grad an Kontrolle mehr gewonnen, weil das ist immer das, was auch umso tiefer man in den Kaninchenbau reingeht umso mehr Kontrolle gewinnt man quasi auch über die Bildgenerierung per se.
Darum geht es ja. Gerade in der [00:14:00] Anfangszeit von Bild.ki [http://bild.ki/], wo man wirklich fast nur die Möglichkeit hatte, einen
Felix: Vielen Dank.
Georg Neumann: das quasi echt noch eine Herausforderung dann wirklich gezielt Bilder zu generieren.
Das wird zum Glück immer leichter zugänglich gerade jetzt mit so mächtigen Modellen wie Google-Nono-Banana.
Felix: Und Georg auf diesem Level beim Anfang, was sind denn da so Use Cases, die ich damit auch bespielen kann mit diesem Skill und den Tools, die es da so gibt?
Georg Neumann: Also ganz
Felix: Vielen
Georg Neumann: unterstützende, irgendwelche Bilder für Präsentationen Bilder für Blogposts oder sonst was, da kann man schon sehr, sehr viel machen. Also gerade unterstützende Bilder, Visuals und so weiter die ich für mein Marketing zum Beispiel brauche.
Felix: Dank.
Georg Neumann: [00:15:00] Sobald ich dann halt zum Beispiel noch dedizierter mit Produkten arbeiten wollte oder mit konsistenten Charakteren oder sogar mit echten Menschen, dann müsste ich eine Stufe tiefer gehen im Kaninchenbau und dann bin ich halt ganz schnell, ich nenne es dann immer die Ebene Minus
Felix: Vielen Dank
Georg Neumann: Open Source Wunderland, Wo man dann einfach viel, viel mehr Kontrolle über den Output erhalten kann, wenn man halt mit Open Source arbeitet. Aber da ist natürlich auch die Lernkurve deutlich, deutlich steiler noch.
Felix: Warum Open Source? Warum kriegt man diese nicht auch mit so Source Standard Tooling wie zum Beispiel mit Journey hin?
Georg Neumann: Dann bekommt man zum Teil auch, das verschwimmt gerade so ein bisschen, da sind wir gerade mittendrin, dass auch die
Felix: [00:16:00] Okay.
Georg Neumann: so ein bisschen funktioniert wie ein Sprachmodell Deswegen hat man da nicht die hundertprozentige Kontrolle. Es gibt auch
Felix: Vielen
Georg Neumann: dass ich da wirklich Kontrolle über den Output hätte zum Beispiel. Da gibt es dann aber auch schon wieder sehr dedizierte Closed-Source-Tools wie zum Beispiel Viscomp. Das ist ein Tool, das dediziert auf Designer ausgelegt ist, Illustratoren, Architekten, jeder der zeichnen kann. Ich gehöre leider nicht dazu, deswegen kann ich das in Workshops immer nicht gut zeigen, aber das ist
Felix: Vielen Dank
Georg Neumann: ein 3D-Modell, das 3D-Modell in der Perspektive ändern, wieder drauf rumzeichnen und so weiter.
Also in der Ideation-Phase, Konzeptionsphase extrem mächtig und das eben auch Closed-Source. Aber es ist halt schon wieder so ein bisschen [00:17:00] versteckt dass das fast niemand kennt. Deswegen vielleicht auch für den einen oder anderen Zuhörer gerade spannend.
Felix: Okay, also da sind wir im Open-Source-Wunderland und
Georg Neumann: Dank
Felix: ich habe zwei Sachen rausgehört, nämlich das eine, ich habe ein Produkt und möchte mit diesem Produkt neue Visuals erzeugen oder ich habe einen Charakter in irgendeiner Form, es kann wahrscheinlich Mensch, Maskottchen, whatever sein und möchte damit neue Visuals erzeugen.
Georg Neumann: Genau, das verschwimmt gerade
Felix: Vielen
Georg Neumann: wird es immer zugänglicher, dass ich dann auch wirklich Produkt-Visuals und konsistente Charaktere auch generieren kann, wenn ich mir entsprechende Vorlagen liefere mit dem Großen aber wenn man halt reinzoomt
Felix: Dank.
Georg Neumann: ganze Zeit gegeben und so weiter. Wenn man das [00:18:00] braucht, dass wirklich da jedes Detail sitzt und auch die Charakterkonsistenz sitzt, dann ist eben der Switch in den Open Source Bereich eigentlich fast unumgänglich.
Felix: Okay, in welchem bin ich da in irgendeinem Tooling unterwegs oder muss ich mir meinen eigenen Server da irgendwie ins Büro oder in den Keller stellen, um da mitspielen zu dürfen?
Georg Neumann: Da gibt es auch verschiedene Zugänglichkeiten Es gibt so schöne Plattformen wie fail.ai [http://fail.ai/] oder replicate.com [http://replicate.com/], wo ich das einfach relativ leicht zugänglich
Felix: ZDF
Georg Neumann: und vorgekaut bekomme. Da kann ich dann quasi diese ganzen verschiedenen Open-Source-Features oder Modelle entsprechend einfach direkt nutzen. Ich kriege dann sogar die Möglichkeit, das als API irgendwo anzubinden. Also könnte ich das quasi in mein eigenes Unternehmens-GPT auch direkt integrieren, wenn ich da ein bisschen technisch versiert bin. Das ist auch so ein Use Case, den ich immer wieder sehe. Oder in eigene Tool-Pipelines oder
Felix: Dank
Georg Neumann: könnte man das dann darüber schon integrieren.
Also man braucht nicht
Felix: [00:19:00] Vielen Dank
Georg Neumann: die Rechenleistung bräuchte, dann rechnet sich irgendwann eigene Hardware. Aber da muss man schon wirklich sehr intensiver Nutzer sein.
Felix: Und wie läuft das dann? Also nehmen wir mal so ein Case, ich habe jetzt hier ein Produkt und möchte dieses Produkt in unterschiedlichen Szenarien in Aktionen ich weiß nicht, ich habe einen Hammer, den ich neu rausbringe und ich möchte jetzt zeigen, wie jemand mit diesem Hammer einen Nagel in die Wand haut und wie der irgendwie schön auf so einem Tisch liegt und wie der in der Werkzeugkiste drin liegt und weiß ich nicht, noch irgendwo.
Über der Werkbank rangehangen wird und wie geht man dann davor, um das hinzubekommen weil ich glaube, also ich krieg die Frage auf jeden Fall immer wieder wie mach ich das jetzt, weil wir versuchen, dass das sieht irgendwie so okay aus aber halt nie gut genug um es wirklich einzusetzen[00:20:00]
Georg Neumann: Ja, das ist dann tatsächlich die absolute Kür dann sind wir sogar nicht mal mehr auf Ebene Minus 1 vom Kaninchenbad, dann sind wir auf Ebene Minus 5.
Felix: Okay, siehst du?
Georg Neumann: Ja, weil das ist tatsächlich noch ein Edge-Case, wenn man da wirklich gute Qualität will, dann gehört da schon ein bisschen Arbeit dazu, das ist keine One-Click-Lösung mehr, wo ich irgendein fertiges Tool benutzen kann, sondern ich habe da halt für mich einen Workflow entwickelt und das habe ich gemacht mit dem, ich nenne es immer liebevoll meinen Spaghetti-Monster, das ist
Felix: Vielen Dank
Georg Neumann: Falls das die Zuschauer schon mal gehört haben, in der
Felix: Vielen
Georg Neumann: zum Beispiel make.com [http://make.com/] oder N8n oder sowas. Comfy UI ist im Prinzip das Äquivalent für die Bildgenerierung. Das läuft tatsächlich auch häufig bei irgendwelchen Web-Apps unter der Motorhabe unsichtbar für die Nutzer. das [00:21:00] kann ich aber auch selbst für mich nutzen, um solche Prozesse aufzustellen. Und da ist zum Beispiel ein Prozess, da arbeite ich auch gerade daran, den wieder zu aktualisieren genau dieses Produktthema. Und da kann ich jetzt sogar auch Nano-Banana nutzen dafür, das ist voll geil. Weil jetzt generiere ich mein Ausgangsbild. Mit einem Referenzbild von dem Hammer zum Beispiel. Das generiere ich einfach mal habe dann halt ein grobes Bild, wie der Hammer gerade irgendwie einen Nagel in die Wand haut oder so was.
Vielleicht sogar noch mit dem mit einem Darsteller, den ich konsistent darstellen will. Das kann ich auch schon mit reinbringen, wenn ich den über mehrere Kampagnen-Motive quasi einsetzen wollte.
Felix: Dank.
Georg Neumann: dann ist das Logo auf dem Hammer nicht mehr lesbar, die Details im Holz, in der Maserung stimmen nicht ganz und so weiter, es passt einfach noch nicht.
Nicht so, dass es
Felix: Vielen Dank.
Georg Neumann: [00:22:00] Katalog, im Online-Shop oder so einsetzen wollte, reicht es einfach noch nicht So und jetzt gehe ich her, jetzt gehe ich einen Schritt noch vorweg und trainiere diesen Hammer an.
Das heißt, ich trainiere einem Bild-KI-Modell an, wie dieser Hammer aussieht. Einem mit Journey kann ich das nicht antrainieren, weil es Closed-Source ist. Mit Open-Source-Modellen wiederum kann ich das. Das heißt, ich nehme mir, keine Ahnung, 25 bis 40
Felix: Dank.
Georg Neumann: einem guten, oder halt mit einer Profikamera dann werden die Ergebnisse noch besser, Und mache ganz unterschiedliche Aufnahmen von dem Hammer auch gerne in irgendwelchen wirklich im Einsatz tatsächlich mit realen Hintergründen also jetzt nicht nur irgendwelche Freisteller oder so. Und dann nehme ich die her, trainiere mein Bild-KI-Modell Und jetzt wird es ein bisschen komplex, weil
Felix: Vielen Dank. [00:23:00] Okay, ich versuche jetzt gerade, wie wir nochmal von Minus 1 auf Minus 5, wie wir in die Phase dazwischen reinkommen, weil ich habe jetzt noch verschiedene andere Fragen vielleicht. Was würde denn nach Minus 1 kommen, was vielleicht noch ein bisschen zugänglicher ist? Weil das, was du jetzt beschrieben hast, das hört sich schon so an, als braucht man da wirklich sehr umfangreiche Skills, insbesondere was die Modelle angeht, Automatisierungslogiken angeht.
Weiß nicht, muss man da auch coden können oder ist das noch so in so einem No-Code-Bereich?
Georg Neumann: coden und habe es trotzdem hinbekommen, aber ich habe auch sehr hohe technische Frusttoleranz.
Felix: Okay, gut Sag mal, also was Minus 1 Open Source Wunderland Was ist dann die nächste Stufe?
Georg Neumann: Also, du gerade gefragt hast, was da auch in Minus 1 ein bisschen leichter zugänglich ist, ist ja generell das Thema, dass ich dort schon Sachen antrainieren kann. Da [00:24:00] brauche ich jetzt noch nicht diese Spaghetti-Monster, das dann automatisch irgendwas austauscht sondern ich kann zum Beispiel einfach schon
Felix: Ja.
Georg Neumann: braucht man es sich nicht merken, aber die Abkürzung LoRa kann man sich so mal ein bisschen im Hinterkopf abspeichern.
Das ist quasi ein Bild-KI-Modell, das ein einziges Konzept anlernt. Zum Beispiel ein Bildstil Einen Menschen oder auch ein Produkt zum Beispiel.
Felix: Und was ist jetzt, also das ist jetzt so, ich bin ja Teilzeit-Influencer und brauche dann immer mal wieder Bilder für LinkedIn und dann gebe ich jetzt 20, 30, 40 Bilder von mir, trainiere so ein Laura an und könnte mich dann in verschiedensten Situation wieder zeigen lassen für neue Bilder.
Georg Neumann: Das [00:25:00] ist relativ leicht zugänglich zum Beispiel über solche Plattformen wie fal.ai [http://fal.ai/] oder replicate.com [http://replicate.com/].
Felix: Was ist jetzt der Unterschied zwischen Stufe 5 und Stufe 1?
Georg Neumann: Und Stufe 5 brauche ich halt, sobald ich sehr repetitive Aufgaben habe, also sobald ich halt skalierbar werden will sozusagen. Also wenn ich jetzt zum Beispiel einer Marketingabteilung einen eigenen Bildgenerator zur Verfügung stellen will, der immer brandkonform die Bilder generiert Dann komme ich in Stufe 5 nicht drum herum im Moment, weil es einfach noch viele Edge Cases sind, wo man noch so ein bisschen um die Ecke denken und um die Ecke basteln muss. Stufe minus 1 können eigentlich schon so nerdige Kreative schon ganz gut erreichen und nutzen es auch schon viele. Also da kann man schon sehr, sehr viel machen.
Felix: Okay, und wie geht's dann weiter in den Kaninchenbau?
Georg Neumann: Nach Stufe 5 kommt zum Glück erstmal gar nichts, also da kommt, irgendwann landet man dann in der Forschung und
Felix: Stufe 2 Stufe 2 [00:26:00] dachte ich okay
Georg Neumann: okay 2 gibt es dann tatsächlich nicht Ich es mit Absicht übertrieben in meinem Narrativ das halt schon wirklich die Lernkurve zwischen Minus 1 und Minus 5 ist nochmal ein gutes Eck
Felix: Okay, also, dann nehme ich mit, wir haben Standard, Closed Source, frei verfügbares Tooling in Tools wie Midjourney. Ich glaube, du empfiehlst auch oft ein Tool wie Freepik, oder? Wo du eher so eine Suite hast an unterschiedlichsten Tools und Funktionen die man zu Bild und Video kann Erstellung und Bearbeitung nutzen kann.
Dann geht es in den Open-Source-Bereich da geht es dann insbesondere um das Antrainieren eigener Modelle, wo man mehr Einflussmöglichkeiten auf das Modell hat, insbesondere für Produkt und Charaktere, Produkte und Charaktere, die man dann unterschiedlich auf Bildern wieder darstellen möchte und dann geht es eher in die Automatisierung, das ist dann die nächste Stufe wo ich dann Workflows automatisiere, aber auch nochmal wirklich diese Nuancen in der Qualität [00:27:00] Konsistenz und so weiter rauskitzeln kann.
Habe ich das so halbwegs richtig wiedergegeben?
Georg Neumann: Traum Wir sind zwischendurch immer mal wieder nach links und rechts und nach unten und oben abgeschweift deswegen super für die Zusammenfassung das war perfekt.
Felix: Okay, jetzt würde mich mal interessieren, du arbeitest ja auch mit vielen Marken zusammen. Was sind denn so typische Use Cases, wofür Build KI-Generierung eingesetzt wird? Weil ich sehe da ehrlich gesagt super wenig. Also es gibt so diese Beispiele die jeder kennt. Mango hat irgendwie damit angefangen mit ihren Workshops Models so erste Kampagnenbilder zu shooten.
Jetzt H&M hat gar nicht so lange her gesagt, sie haben digitale KI-Avatare von echten Models erstellt und shooten damit jetzt neue Kollektionen, also so im Modebereich immer wieder mal, aber sonst tatsächlich eher wenig. Was siehst du noch?
Georg Neumann: Es ist vieles davon siehst du auch nicht weiß quasi im performance marketing [00:28:00] so ein bisschen untergeht da passiert natürlich gerade extrem viel mit ki weil da ist ja die man braucht extrem viele
Felix: Dank.
Georg Neumann: nicht unterscheidbar von echten Bildern ist da alles unterwegs und das kriegt man natürlich bloß so am Rande mit. aber häufig natürlich genutzt wird, ist einfach unterstützende Maßnahmen, dass ich halt nicht mehr jetzt schöne unterstützende Bilder brauche von irgendwelchen Zutaten oder sowas zum Beispiel. werden häufig begleitend
Felix: Vielen Dank
Georg Neumann: sehr vielen Kunden zusammengearbeitet die schlichtweg noch nicht mal echte Packshots hatten, sondern einfach nur 3D-Render. Und... Die können jetzt natürlich mit Bild-KI echt viel lösen, weil sie einfach ihre Produkte viel viel besser in Szene setzen können und
Felix: [00:29:00] Vielen Dank.
Felix Schlenther: Kurz in eigener Sache. Wenn dir der AI First Podcast gefällt und du mehr spannende Inhalte und hochkarätige Gäste hören möchtest, dann freue ich mich über deine Unterstützung. Mit einer Fünf-Sterne-Bewertung und einem Abo für den Podcast hilfst du uns sichtbarer zu werden und AI First weiterzuentwickeln.
Für dich und die gesamte Community. Ich danke dir.
Felix: Siehst du so ein paar richtige, richtig erfolgreiche Moonshot Cases wie zum Beispiel, ich habe das letztens bei Wayfair gesehen, da konnte ich ein Bild machen von meinem, wir sind jetzt umgezogen, Bild von meinem leeren Wohnzimmer machen und das hochladen und Verschiedene stilistische Anforderungen und so beschreiben und dann habe ich so verschiedene Mockups bekommen.
So könnte dein Wohnzimmer aussehen mit [00:30:00] natürlich Produkten, die die in ihrem Shop haben, dann schön aufgelistet Hier kannst du gleich den Checkout machen. Und das fand ich schon ganz cool, wo ich dachte, okay, das ist echt mal so für mich als Kunde eine deutliche Verbesserung meines Kundenerlebnisses und hängt ja auch irgendwie damit zusammen, oder?
Georg Neumann: Also da gibt es viele schöne Beispiele auch. Mir fällt jetzt spontan zum Beispiel die Firma Miss Pompadour ein. Das ist ein Farbenhersteller und die haben schon sehr, sehr frühzeitig damit angefangen quasi Produktbilder ihrer Wandfarben oder Möbelfarben zum Beispiel zu generieren. Die haben
Felix: Vielen Dank.
Georg Neumann: Mittlerweile generieren sie auch Ihre physischen Produkte also die Farbeimer und Pinsel und so weiter, die waren damals halt schon wirklich sehr früh dran und deswegen sind sie mir als Moonshot auch in Erinnerung geblieben. Und da kommt natürlich noch viel mehr. Was ich letztens einen mega coolen Use Case auch fand, habe ich auf LinkedIn gesehen, ich habe leider den Namen vergessen, aber da hat ein [00:31:00] Straßenkünstler oder eine Straßenkünstlerin quasi die Kinderschminken angeboten hat.
Die hat quasi dann die Beispielbilder einfach von den verschiedenen Motiven mit KI generiert damit sie keine echten Kinder zeigen musste. Fand ich auch schon cool und man kann jetzt einfach extrem viel um die Ecke denken.
Felix: Und ich glaube, das fehlt oft noch, dieses Um-die-Ecke-Denken, weil man immer versucht, das, was man vorher gemacht hat, jetzt nur mit KI gleich zu machen, aber eigentlich sind genau diese kreativen Ideen was zählt, aber auch nicht so leicht zu finden.
Georg Neumann: Ja, das stimmt schon. Und dann hat er dort keinen Termin gekriegt oder es wäre irgendwie viel zu teuer gewesen.
Felix: [00:32:00] Hm.
Georg Neumann: der viel ergonomischer und hatte keine Rückenschmerzen mehr. Also man kann da wirklich stark um die Ecke denken mittlerweile. Das ist krass. Also da gibt es Use Cases noch in
Felix: Ich habe letztens auf LinkedIn so einen Typen gesehen, der hat sich einfach diesen Umhang von Harry Potter, der unsichtbar macht. Tarn-Tarn-Umhang? Weißt du so?
Georg Neumann: irgendwie so, ja.
Felix: Der hat sich einen Tarnumhang einfach gecodet mit Cursor oder so und der hat dann ein Video gemacht, wo der sich einfach diesen Tarnumhang übergezogen hat und dann wurde der halt umsichtbar, ja, das ist also völlig abgefahren, das ist total cool, das ist glaube ich glaube ich ziemlich viral gegangen, okay ähm Jetzt haben all diese Dinge ja auch immer zwei Seiten der Medaille.
Also die eine Seite ist die, dass wir jetzt auf einmal total unsere Gedanken, die wir im Kopf haben, visualisieren [00:33:00] können. Wir können jetzt viel schneller, effizienter Content generieren damit natürlich auch Kosten einsparen und so weiter. Also irgendwie so positive Effekte kommen damit einher. Aber das heißt ja auch, dass das jetzt jeder auf einmal kann und ganz viele Leute, die das vorher nicht konnten.
Und es gibt ja immer so dieses Narrativ der Content-Flut Also jeder kann jetzt, das ist ja nicht nur im Bildbereich, sondern auch im Textbereich, jeder kann jetzt irgendwie so sein Content machen und das wird halt rausgeballert in die Welt da draußen. Und am Ende gibt es ja immer weniger Augenpaare und Aufmerksamkeit von Menschen, die sich das anschauen können.
Und erlebst du das eigentlich auch bei deinen Kunden, dass manche so, oder gut, das sind wahrscheinlich nicht deine Kunden, aber so aus dem Markt, dass manche Marken so sagen, nee, auf gar keinen Fall, wir machen gar nichts mit Bild-KI, wir setzen hier weiterhin rein unsere Grafiker, Designer und Fotografen per Handarbeit?
Georg Neumann: Solche Kunden gibt es halt doch, aber die kommen halt nicht zu mir. [00:34:00] Also solche Firmen gibt es schlichtweg noch, aber das ist tatsächlich die Minderheit, weil die meisten halt schon die Effizienz dahinter sehen und ich habe echt schon mit spannenden Kunden zusammenarbeiten dürfen, die dann aber auch ganz klar das mit ihrem eigenen Wertegerüst in Einklang gebracht haben.
Die haben dann zum Beispiel für sich klipp und klar festgelegt, wir generieren keine menschlichen Gesichter Weil ich will nicht Gefühle zu meinem Produkt vortäuschen zum Beispiel. Das kann man mit seinem Wertegefühl super gut in Einklang bringen, wenn man halt wirklich so klare Linien setzt, also klare Begrenzungen in seiner Arbeit mit KI.
Für den Kunden hat das gepasst, das muss nicht für jeden Kunden
Felix: Vielen
Georg Neumann: extremer Effizienzgewinn teilweise drin, also da geht es von bis Aber diese Content-Flut ist natürlich klar eine Kehrseite. Und das ist halt auch wieder [00:35:00] sowas, weil es ist was Neues. Die Menschheit probiert sich
Felix: Vielen Dank
Georg Neumann: halt, wie lang probiert sie sich daran aus? Irgendwann wird das Ganze auch langweilig und tatsächlich der Begriff AI-Slop hat sich nicht umsonst schon so ein bisschen etabliert, gerade unter den jüngeren Bevölkerungen.
Die sehen das natürlich auch schneller als die Erwachsenen und werten das tatsächlich auch schon ab. Deswegen Ist mein Narrativ in den Schulungen auch immer, dass die Leute unbedingt Wert auf Qualität legen sollten. Also das ist eigentlich unumgänglich damit sie ihrer eigenen Marke nicht schaden.
Felix: Aber ist das nicht nur eine Momentaufnahme, dass man noch so, man sieht das noch so und natürlich je nachdem wenn man jetzt aus ChatGBT mir sich so ein Bild generieren lässt, dann sieht man es wahrscheinlich noch eher, als wenn ich jetzt so ein Nano-Banana nehmen würde und dann gibt es ja so Levels davon und in einem Jahr Sieht man es, also das wird ja schon immer gesagt, irgendwann sieht man es nicht [00:36:00] mehr, aber es wird ja wirklich irgendwann der Punkt kommen, da sieht man es wahrscheinlich einfach nicht mehr.
Georg Neumann: Also den Punkt kann man ja jetzt schon ein Problem erreichen, aber es kommt irgendwann der Punkt, wo das wirklich jeder erreichen kann. Das ist
Felix: Ja, jeder.
Georg Neumann: Aber dann ist ja trotzdem noch das da, dass nicht jedes Bild ein gutes Bild ist, nur weil es realistisch aussieht oder nicht unterscheidbar ist von einem realen Bild.
Und dann kommen wieder die ganzen Designer mit ihren Erfahrungen ins Spiel, die halt dann auch bewerten können, was ist denn ein gutes Bild? Wie baut sich denn ein gutes Bild nach dem goldenen Schnitt aus? Wie funktioniert eine gute Beleuchtung und so weiter und so fort? Und deswegen ist es auch am effektivsten, die zu schulen, weil die können in Zukunft richtig was reißen mit KI.
Wenn sie einfach bewerten können, was ist ein gutes Bild, was spricht meine Zielgruppe an, also die Kommunikationsdesigner auch, die da wirklich ihre
Felix: Dank.
Georg Neumann: auch mit einspielen lassen können und nicht nur irgendwelche Neulinge, die jetzt irgendwie bloß ChatGPT benutzen können.
Felix: Ja, also sind wir wieder bei dem gängigen Prinzip, KI macht keinen Anfänger [00:37:00] zum Experten sondern maximal Durchschnitt, aber Experten können ihre Fähigkeiten durch den Einsatz von KI weiter verstärken und multiplizieren. Und das siehst du auch im Bildbereich so.
Georg Neumann: Ja, voll. Also man merkt auch direkt
Felix: Vielen Dank
Georg Neumann: Bild-KI benutzt und eine Kampagne fährt oder so. Ich habe letztens hier eine Kampagne vor Ort gesehen von irgendeinem Handwerksbetrieb die das selbst mit KI gelöst haben. Das war so ein Paradebeispiel dafür, wie man es nicht machen sollte. Im Gegensatz zu halt wirklichen Experten die dann richtig geile KI-Visuals für geile Kampagnen entwickeln und generieren und da auch richtig viel Arbeit reinstecken. Das ist halt ein riesiger Spagat. Also da lohnt es sich definitiv seine Experten in KI zu schulen.
Felix: blickst du auf KI-Avatare, also diese Video-KI-Avatare von Hagen, Synthesia und Co.?
Georg Neumann: Dieses ganze [00:38:00] UGC-Thema sehe ich ein bisschen kritisch. Also das ist für mich halt einfach, ich meine es war vorher schon eine riesige Fakerei mit bezahlten Influencern oder bezahlten Darstellern Jetzt sind es halt nicht bezahlte KI-Darsteller. Also
Felix: Dank.
Georg Neumann: habe das ganze Thema vorher schon nicht gemocht und jetzt mag ich es eigentlich ehrlich gesagt noch viel weniger. Das wird sich auch wahrscheinlich durch die Content-Flut ein bisschen selbst kannibalisieren nehme ich an. Also das wird wieder ein bisschen zurückfahren.
Felix: Vielen
Georg Neumann: viele, viele coole Use Cases für Avatare Und gerade
Felix: Dank.
Georg Neumann: ist das Thema Interactive Avatars, also quasi Avatare, mit denen ich wie mit Chatbots quasi live interagieren kann und die antworten mir dann wirklich mit Ton, Lippensynchronisierung, Mimik und Gestik. Und da stecken wir zwar noch in den Babysöckchen, aber... Die
Felix: Vielen Dank.
Georg Neumann: voran und da werden wir in den nächsten Jahren viel, viel mehr sehen.
Felix: Und [00:39:00] das wird dann der Standard auf der Website werden. Hi, ich bin hier der Avatar, warum bist du eigentlich hier und erzähl mir einfach und ich such dir die Produkte raus oder leite dich auf die richtige Seite oder beantworte dir deine Fragen.
Georg Neumann: Oder auch auf Messe auf Messen könnte man ein Display hinstellen mit dem Geschäftsführer Dann kann man sich halt mit dem Geschäftsführer unterhalten und so weiter. Man muss halt nur entsprechend dann das Wissen natürlich auch mit dazu an die Hand geben und auch die Verhaltensweise und so weiter, aber dann kann man da schon sehr viel machen. Und das Wertvollste daran ist dann tatsächlich der User-Input, weil den kann man so geil auswerten. Also das ist dann halt dann, die Daten sind Gold wert.
Felix: Was glaubst du denn in dieser Welt, wo jeder immer einfacher darauf Zugriff Hat, was wie wird man sich denn am Ende da absetzen
Georg Neumann: Du hast ja vorhin schon gesagt, der normale Nutzer kann jetzt generische Inhalte super [00:40:00] gut generieren, also jeder kann jetzt Durchschnitt, das war früher noch nicht so. früher konnte Durchschnitt jeder, der es schon mal gelernt hatte und sich da nicht angestrengt hat. Jetzt kann wirklich jeder Durchschnitt. Und jetzt müssen sich ja natürlich Experten hervorheben indem sie über den Durchschnitt stehen. Das
Felix: Vielen Dank
Georg Neumann: durch Innovation, durch Kreativität und so weiter. Generative KI oder generell KI sinnvoll und stimmig und konzentriert in ein Unternehmen einführt, wo du ja auch viele Kunden betreust entsprechend, dann spart man dadurch ja auch wieder Zeit und hat wieder mehr Zeit für Kreativität und für Strategie und so weiter.
Also das ist das, was ich auch immer versuche, meinen Agentur- und
Felix: Dank.
Georg Neumann: Kunden an die Hand zu geben. Versucht euch mit KI Zeit zu sparen, sodass ihr wieder Zeit fürs Wesentliche habt, nämlich wirklich für Kreativität für Strategie und so weiter.
Felix: Ja, also ich glaube das ja auch, dass wir in eine Zeit reinlaufen, wo die besten [00:41:00] Ideen immer wertvoller werden und einfach extrem viel Zeit allokiert wird auf diese Ideenfindung, Iteration, auf Kunden anpassen. Ich meine dann hast du wieder auch so Themen, dass du natürlich Ideen simulieren lassen könntest mit KI, um schon irgendwie zu gucken, was könnte potenziell davon funktionieren.
Aber es ist ja klar, dass die Umsetzung unserer Ideen immer stärker von KI heute noch unterstützt und immer mehr übernommen wird. Also die besten Ideen die brillantesten Köpfe die außerhalb der Box denken können. Und ich glaube, das wird einfach der Superskill werden, das irgendwie zu schaffen, da hinzukommen.
Da denke ich immer an den Tarnumhang jetzt.
Georg Neumann: Ja das ist echt ein mega krasser Wandel in vielen Berufsfeldern einfach. Ein schöner Vergleich ist einfach, dass man früher war man wirklich noch handwerklich jetzt zum Beispiel im Photoshop unterwegs in meinem Berufsfeld und so weiter. In Zukunft wird [00:42:00] man halt wirklich verschiedene Tools orchestrieren und ist halt wirklich dann so ein bisschen der Orchestrator dahinter und nicht mehr der Macher schlussendlich.
Felix: Dank
Georg Neumann: die Reise so ein bisschen hingehen. Also das Berufsfeld wird sich auch stark verändern.
Felix: Es gibt ja, Stichwort Berufsfeld, es gibt ja, ich meine, er wird schon wieder totgesprochen, ein paar Unternehmen gibt es hier. Wir hatten hier Rossmann zum Beispiel auch, die Lena zu Gast, die KI-Verantwortliche, die haben Prompt-Engineers eingestellt und die auch super in ihre Organisation integriert. War echt sehr, sehr spannend, wie sie diese Rolle definiert haben.
Weit mehr als einfach nur jemand, der Prompt schreibt, natürlich. Gibt solche Rollen auch für Bild-KI?
Georg Neumann: sich
Felix: Vielen Dank
Georg Neumann: dem Markt und ich versuche da auch gerade so ein bisschen mit zu unterstützen, indem [00:43:00] ich eine Weiterbildung zum Visual AI Engineer anbiete, also quasi auch so ein bisschen Engineer steckt da schon drin, weil ich tatsächlich auch das technische Wissen damit vermitteln will, wie man das Ganze dann auch wirklich... Im Unternehmen etablieren kann, wie man das wirklich in Prozesse integrieren kann, belastbar, skalierbar und so weiter. Das ist quasi auch Teil dieser Ausbildung. Das geht quasi weit über das Prompting für MeJourney und die Benutzung von MeJourney hinaus zum Beispiel.
Felix: Also Level 5.
Georg Neumann: Ist es das Ziel? Die Leute sollen dann wirklich Level 5 meistern nach der Weiterbildung?
Felix: Ja, also ich finde den Begriff super. Du hattest ja auch auf LinkedIn hattest du ja auch gefragt, wie man diese Rolle nennen? Ich finde Visual AI Engineer, vor allem wenn es technischer ist, finde ich schon sehr passend. Klingt auch gut, meiner Meinung nach total sinnvoll insbesondere für alle Unternehmen, die da in dem Bereich heute arbeiten Entweder noch super viele Agenturen beauftragen oder halt auch intern viele Ressourcen dort binden und diese Kompetenzen in-house [00:44:00] aufzubauen.
Macht auf jeden Fall Sinn. Also finde ich gut dass du das machst und wünsche dir da viel Erfolg bei.
Lass uns noch einen kurzen Blick in die Zukunft werfen. Für den Rest des Jahres, was sind so Themen, die du gerade genauer auf dem Schirm hast und dir auch genauer anschaust? Das wollen wir hier im Podcast immer als so einen kleinen Service mit reinnehmen, weil es für viele unheimlich schwer ist durch diesen ganzen Lärm durchzuschneiden und dort die Signale für sich zu finden.
Was guckst du dir genauer an und was glaubst du, was uns in den letzten Monaten 2025 noch so erwartet?
Georg Neumann: Also ich arbeite gerade mit extrem vielen Kunden zusammen, für die das Produkt-Thema halt immens heiß ist und da bin ich gerade dran, quasi die Prozesse aufzustellen wie wirklich jemand aus Nano-Banana und Co.
Felix: Dank. [00:45:00] Vielen Dank.
Georg Neumann: in dem Bereich, die wirklich auch belastbare Ergebnisse liefert, weil dann wird es nochmal krasser. Aber auch Bereich Video will ich immer mehr mich reinfuchsen auch gerade mit den Warenmodellen, aber auch mit den entsprechenden Closed-Source-Modellen wie jetzt entsprechend Kling, Seedance und wie sie alle heißen. Also deswegen, du hast es ja vorhin schon genannt, ich bin großer Freepik-Fan, weil da einfach all diese verschiedenen Modelle integriert sind und da kann man sich entsprechend austoben. Das ist ganz praktisch. Ansonsten ja das Prompting für Nanobanana zum Beispiel ist auch gerade ein brandheißes Thema, an dem ich dran bin.
Wie kann
Felix: Vielen Dank.
Georg Neumann: rausholen? Das ist das Schöne, jetzt ist was Neues rausgekommen und die ganze Welt probiert wie sie da gute Ergebnisse rausholt weil es niemand weiß. Nicht mal [00:46:00] Google weiß das.
Felix: Okay. Gut also hast du auch nicht die Secret Sauce, sondern es geht wie immer einfach darum, das, was uns auf den Markt geworfen wird, selbst anzuwenden und selbst herauszufinden, wofür ist was gut nutzbar und was muss da rein, damit hinten was Gutes rauskommt.
Georg Neumann: Leider ist es so, also es ist wirklich auch bei Chachapetier und Co. so sobald wieder eine neue Modelliteration rauskommt usw. Dann probiert einfach jeder aus. Jeder macht
Felix: Vielen Dank.
Georg Neumann: sich alle und so weiter.
So funktioniert das ja immer im Bereich KI. Große große Blackbox.
Felix: Ja, ich hoffe ja, ich geb dir 200 Dollar Trinkgeld, dass das noch mal [00:47:00] so ein Revival bekommt. Das war doch schön. Da dachte man so jetzt, ah, cool, ich hab die Matrix gehackt Ich kann jetzt mit psychologischen Tricks Large-Language-Models austricksen. Das ist schon witzig Ich glaub, wir werden ja in ein paar Jahren
Von heute, da werden wir so drüber todlachen, was wir jetzt so ausprobieren und was jetzt so unsere Best Practices sind. Aber ich glaube, da kann man dann mal irgendwie beim Bierchen schön drauf zurückblicken und herzlich drüber lachen.
Georg Neumann: jeden Fall.
Felix: Eine letzte Frage noch. Was sind so die Top-Tipps auch von Leuten, die jetzt hier zuhören und vielleicht noch am Anfang stehen und sagen, hey, ich will jetzt aber mal auch mal anfangen irgendwie mit Bildern irgendwie Bild-KI zu arbeiten. Du warst auch bei uns im AI-Collective hast da so eine Session gemacht, das hat total vielen Leuten weitergeholfen, einfach so diesen Startpunkt zu finden und besser ins Doing zu kommen.
Was sind so deine Top-Tipps die du Nutzern am Anfang mitgibst, um bessere [00:48:00] Ergebnisse aus einer Bild-KI zu bekommen?
Georg Neumann: Seid euch nicht zu schade Geld
Felix: Vielen
Georg Neumann: mal der erste Tipp überhaupt. Schließt ein Abo ab bei
Felix: Dank
Georg Neumann: werdet
Felix: Vielen Dank.
Georg Neumann: ins doing kommen wenn ihr nicht durch free accounts limitiert seite erstens wegen der anzahl der bilder wegen der geschwindigkeit mit der man dort arbeiten kann dann in den bezahlversionen aber auch tatsächlich wegen den nutzungsrechten vielen ist es ja gar nicht bewusst dass man in kostenlosen tools dann ja gar keine kommerziellen nutzungsrechte zum beispiel erhält teilweise meine Empfehlung, holt euch einen Freepik-Account und testet euch mal ran, weil solche Plattformen wie Freepik bieten einfach die volle Bandbreite an Möglichkeiten mit Bild- und Video-KI. Da gibt es wenig, was nicht integriert ist
Felix: Dank.
Georg Neumann: den Shownotes teilen können, ist beim Thema Prompting für Build-KI, lasst euch von der KI helfen. Also ich habe da [00:49:00] einen Prompt-Bot für mich entwickelt, der sehr gut funktioniert, den ich auch wirklich täglich im Einsatz habe.
Also das ist nicht bloß irgendwie so ein Lead-Magnet-Thematik sondern das ist wirklich ein Custom-GPT, den ich täglich im Einsatz habe. Der
Felix: Vielen Dank
Georg Neumann: wenn sie einfach ein vernünftiges Tool an der Hand haben, das jetzt nicht limitiert ist und wenn sie gleich eine Unterstützung beim Prompting bekommen und nicht erst lernen müssen, wie das funktioniert.
Felix: Perfekt Tipp 3 kommt von mir meldet euch zu Georgs Visual AI Engineer Ausbildung an, sind nur noch wenige Plätze verfügbar Georg, vielen, vielen Dank für den Durchmarsch Rundumschlag im Bereich Bild und Video KI hat ganz viel Spaß gemacht und ja, bis hoffentlich bald mal wieder Vielen Dank