zurück zur übersicht
In dieser Episode spricht Felix mit Shezan Kazi, Head of AI Strategy bei Randstad, über den Einfluss von künstlicher Intelligenz auf die Personaldienstleistungsbranche. Shezan gibt spannende Einblicke, wie KI bereits heute eingesetzt wird und wie sich die Branche durch generative KI weiterentwickelt.
Shezan Kazi kam als studierter Betriebswirt mit Schwerpunkt Wirtschaftsinformatik zur KI. Nach dem Studium gründete er eine Personalberatung und entwickelte aus Unzufriedenheit mit bestehenden Lösungen ein eigenes CRM- und ATS-System mit KI-Funktionen. Bereits 2019 setzte er erste generative KI-Modelle für das Schreiben von Kunden-E-Mails ein.
Randstad nutzt seit über 10 Jahren KI-Systeme, unter anderem:
Ein besonders erfolgreicher Use Case ist der Stellenanzeigengenerator:
Randstad verfolgt einen klaren Ansatz:
Felix: [00:00:00] Herzlich willkommen zum AI First Podcast. Ich habe heute Shesan Kazi als Gast Head of AI Strategy beim Personaldienstleister Randstad und wir tauchen heute mal ein in die HR-Welt in die Welt der Personaldienstleistung will verstehen, wie künstliche Intelligenz diese riesige Industrie verändert, was es heute schon für Use Cases gibt, was es da Neues am Horizont gibt, insbesondere durch den Einfluss von generativer KI und wie man diese Technologie in so einem Unternehmen produktiv bekommt. Cezanne vielen Dank, dass du da bist. Shezan Kazi: Felix, ich freue mich auch sehr, hier zu sein. Felix: hol uns doch mal zum Start ab. Wie bist du denn zu künstlicher Intelligenz gekommen? Untertitelung des Shezan Kazi: ist es her. Ich bin eigentlich studierter Betriebswirt mit Schwerpunkt Wirtschaftsinformatik und wie die meisten BWLer habe ich mich natürlich am Gründen versucht und habe kurz nach dem Studium eine [00:01:00] Personalberatung, eine kleine, gegründet Da war ich mit der Mit den Softwareanbietern auf dem Markt nicht so ganz zufrieden Ich habe dann entschieden, selber ein CRM und ein ATS zu entwickeln. Und wenn man das dann macht, dann kann man ja auch gleich... Künstliche Intelligenz mit einbinden. Das waren damals traditionelle Machine Learning Algorithmen fürs Matching, für CV-Parsing, also Computer Vision Modelle und dann 2019 rum ging es auch mit generativer KI schon los. Da hatten wir die ersten GPT-Modelle verwendet um beispielsweise Kunden-E-Mails zu schreiben. Ja, und dann bin ich dabei geblieben. Hat mich immer weiter fasziniert und jetzt in den letzten zweieinhalb Jahren geht es ja richtig rund und bin gespannt, was die nächsten Jahre noch bringen. Felix: musst du mal erzählen, wie war das für dich, als du Chat-GPT mit dem GPT-3-Modell das erste Mal ausprobiert hast und den Vergleich hattest zum [00:02:00] GPT-1-Modell? Ja, was waren die Unterschiede Wie hat sich das in den Jahren entwickelt? ja drei Jahre dazwischen ne Ungefähr drei, Shezan Kazi: das ist immer... Wenn du natürlich eine Sache... Über die Zeit hinweg verfolgst und sehr nah dran bleibst, dann siehst du diesen Quantensprung gar nicht so sehr. Aber wenn du dann mal rauskramst, eine E-Mail die du 2020 geschrieben hast und eine, die heute GPT-4 schreibt oder Gemini oder Claude, da liegen nicht vier Jahre dazwischen gefühlt sondern da liegen halt irgendwie 50 Jahre dazwischen. Und Das ist krass. Es ist schön in der Zeit zu leben, wo technologischer Fortschritt so exponentiell beschleunigt wird und ist auch der Grund, warum ich die Stelle bei Randstad jetzt angenommen habe, weil es einfach, glaube ich der spannendste Bereich ist, in dem man gerade arbeiten kann. Felix: Ja, kann ich nur zustimmen. [00:03:00] Das ist genau das, was ich auch immer sage. Unfassbar und interessant an der einflussreichsten Technologie unserer Lebenszeit. Bin ich mir ziemlich sicher, dass das so ist und vielleicht die einflussreichste Technologie, die es jemals gab, da jeden Tag daran arbeiten zu können und sich damit zu beschäftigen und zu sehen wie es sich weiterentwickelt und zu überlegen, was kann ich jetzt Neues damit machen. Ich hatte auch noch nie einen so spannenden Job. Aber lass uns doch mal zur Personaldienstleistung zurückkommen. Ich habe damals während meines Studiums in einer Executive Search Boutique angefangen Und Shezan Kazi: Vielen Dank. Felix: oldschool Headhunting kennengelernt Ich habe damals von meinem Chef eine Liste mit Unternehmensnamen bekommen und wir mussten dort Positionen besetzen, also jemanden finden aus diesem Unternehmen, der zu unserem Mandanten passt, oder Vertriebsleiter oder CFO oder so. Und ich musste dann dort anrufen bei einem Unternehmen mit unterdrückter Telefonnummer [00:04:00] Und eine Cover-Story, um herauszufinden, wer sitzt jetzt in diesem Stuhl und wen könnten wir ansprechen für unseren Mandanten. Damals ich glaube, Xing gab es auf jeden Fall schon, aber ich sollte es noch nicht benutzen und ich glaube, LinkedIn gab es noch gar nicht, wenn ich mich richtig erinnere. Und habe ich das kennengelernt. ist passiert in den zehn Jahren und was macht jetzt künstliche Intelligenz mit dieser Industrie? Shezan Kazi: Personaldienstleistung ist ja wirklich Old Economy, die verwenden künstliche Intelligenz seit über einem Jahrzehnt da gibt es keine Zweifel Zweifel aber grundlegend hat sich die Branche in den letzten 30, 40 Jahren nicht großartig verändert. Das Kerngeschäft ist das Gleiche. Der Faktor Mensch spielt nach wie vor eine sehr zentrale Rolle und wird das auch in der Zukunft tun, weil das natürlich auch gewissermaßen die Differenzierung ist zu digitalen Plattformen wie jetzt Xing oder LinkedIn. Bei [00:05:00] Randstadt beispielsweise verwenden wir Künstliche Intelligenz schon über zehn Jahre. ein Market Insights Tool, das damals hieß Signal, dann wurde es in einem neuen Release in Value-Based Pricing umbenannt Heute haben wir noch mehr Funktionen da heißt es Run-Start Market Insights. Das hat nichts mit generativer KI zu tun, das ist klassische Data Analytics, das sind prädiktive Algorithmen, Zur Vorhersage, wo beispielsweise in den nächsten sechs Monaten ein Personalbedarf entstehen könnte, beziehungsweise in welcher Region kann ich diesen Personalbedarf dann auch bedienen. Wir haben 2019 erstmalig unsere AI Principles verabschiedet Da geht es wirklich darum, wie stehen wir als Unternehmen zu künstlicher Intelligenz und wie lehnt sich Ranschstatter Oder wie legt sich Randstadt diese Principles aus, basiert auf den [00:06:00] Geschäftsprinzipien Wir haben ja To Know, To Trust, To Serve, das sind unsere Unternehmensleitsätze und die müssen sich auch wiederfinden in den AI-Principles. Da gab es jetzt eine neue Auflage im Juni diesen Jahres. Felix: Dank. Shezan Kazi: nichts Neues ist. Wir haben seit über 10, 15 Jahren Search and Match, also nicht nur Keyword-basiertes Matching sondern auch semantisches Matching. Da sind Unternehmen wie Textkörner zum Beispiel lange Zeit führend gewesen, beziehungsweise bis heute führend. Felix: Vielen Dank. Shezan Kazi: Und das ist nichts Triviales, das ist wirklich Deep Learning, was da zum Einsatz kommt. Wir haben natürlich diese prädiktiven Modelle, die ich jetzt schon genannt habe, aber wir haben auch KI-basierte Trainingsoptimierungen, wo sich angeguckt wird, wie sind beispielsweise die Gesprächszeiten von Leuten. Prozesse werden in der Tiefe analysiert um zu gucken, wie kann ich es optimieren und [00:07:00] dadurch vielleicht mein Pricing anders gestalten, die Delivery-Pipelines verkürzen. Was aber tatsächlich noch nicht stattgefunden hat, ist... Zu überdenken, wie die Branche in Zukunft aussehen wird. Was macht KI mit den Menschen und nicht nur für den Menschen? Und ich glaube, da steuern wir auf etwas hinzu was wir bei Rangstar zumindest sehr stark versuchen zu beeinflussen, weil wir glauben, dass der Faktor Mensch aus dem Bewerbungsprozess nicht wegzudenken ist. Das ist halt einfach so, wir verbringen den Großteil unserer Zeit In der Arbeit und dann möchte ich eben auch eine First-Hand-Experience haben. Ich möchte aus erster Hand wissen, wer ist diese Firma eigentlich? Und die Firma ist ja nicht nur die Aufgabenstellung, sondern es sind vor allem die Menschen, die dahinter stecken. Und darum sollte ich im Bewährungsprozess auch die Menschen dahinter kennenlernen. heißt nicht, dass wir uns davor verschließen und sagen, es wird keine [00:08:00] Automatisierung geben und der Mensch muss noch alles machen. Nein Ich glaube, was man in der Personaldienstleistung in den nächsten Jahren vor allem sehen wird, ist, dass administrative Tätigkeiten, dass einfache Tätigkeiten halt automatisiert werden, wie in jeder anderen Industrie auch. Und der Kernpunkt, auf den sich die Personaldienstleistung fokussieren muss, ist einfach, dass die Gespräche zwischen Menschen, also alles, wo es um Beziehungsaufbau geht, wo es um Vertrauen geht, wo es um Sentimente und Emotionen geht, da muss viel mehr Zeit reingesteckt werden. Und das ist auch das einzige Differenzierungsmerkmal was man als Old Economy zur New Economy zu den Digital Natives haben wird. Dass man eben nicht versucht, seine Daten zu monetarisieren, sondern man muss halt versuchen, sein Vertrauen zu monetarisieren. Und darum sage ich auch oft, dass es die Digital Natives gibt und das sind nicht nur die LinkedIn und Xing, das sind auch Firmen wie [00:09:00] Honeypot oder Foskotti oder es gibt ja mittlerweile ganz viele und das sind die Digital Natives und Randstatus Und die anderen Personaldienstleister wir sind die Trust Natives. Und darauf müssen wir aufbauen. Darauf müssen wir unsere Geschäftsstrategie aufbauen, damit es eben dann auch noch eine Existenzberechtigung gibt. Und wenn man das schafft, dann sehe ich nicht, dass die Branche ausstirbt Das halte ich tatsächlich für eher unwahrscheinlich Felix: blickst du auf so Fälle wie einen AI-Avatar-Video-Recruiter, der in dem Zoom Call drin sitzt, den Kandidaten qualifiziert, nach bestimmten Fragen das Gespräch steuert und danach sagt Tschüss Dankeschön und im Hintergrund einen Haken setzt, ob die Person in die geht oder nicht. Shezan Kazi: Das ist eine sehr stark nicht-binäre Antwort. Da gibt es kein Richtig oder Falsch und da gibt es auch kein Machen oder Nichtmachen. Wir schauen es uns auch [00:10:00] an bin ich ganz ehrlich. Aber es gibt sehr viele Facetten, die man dabei betrachten muss. Zum einen ist es so, dass viele der Anbieter die das heute machen, natürlich gefeintunte Modelle haben. Das sind dann in der Regel aber doch größere Foundation Models Felix: Also Synthesia oder welche siehst du Shezan Kazi: beispielsweise. Aber auch die Modelle, die dann die Gespräche führen, die eigentlichen Sprachmodelle, die haben ja dann doch eine gewisse Bias in sich. Und im Bewerbungsprozess... Und da ist Bias, also so eine Voreingenommenheit, die ist ja immer vorhanden. Ich komme aus der tiefsten Oberpfalz und wenn ich einen Bewerber aus der tiefsten Oberpfalz hatte, dann habe ich den immer präferiert weil ich es einfach sympathisch fand. Bei einer KI möchtest du das auf einmal nicht mehr. Also du musst als Unternehmen überlegen, wie viel Voreingenommenheit lässt du zu und wie viel möchtest du ausschließen. Das hat was mit Verantwortung [00:11:00] zu tun, mit Responsible AI sagt man ja auch. Es ist aber auch so, dass etwas verloren geht. Ich habe mit solchen Video-Avataren schon gesprochen und es ist nicht so, dass sie einfach nur ein Skript abspielen, aber dennoch fehlt der Empathiefaktor heute noch. Das merkt man ganz klar, da wird von einer Frage zur nächsten gesprungen. Das kann schön sein, wenn ich eh keine Zeit habe und ich möchte es einfach machen. Felix: Vielen Shezan Kazi: sein, dass jemand diesen persönlichen Faktor diesen persönlichen Touch noch sucht und dann wird dir da auf jeden Fall was fehlen. Ich glaube, die großen Chancen von solchen Lösungen sind es einfach... Dass man damit auch einen inklusiveren Bewerbungsprozess gestalten kann, weil auf einmal musst du nicht mehr zwischen 9 und 17 Uhr dein Gespräch führen. Die Rekrute führen die Gespräche in der Regel auch spät am Abend, finde ich aber auch nicht gut, weil das ist die Freizeit von dem Mitarbeiter von mir [00:12:00] und die sollte er in sich selbst investieren und nicht in seine Arbeit. Also es kann inklusiver sein, nicht nur zeitlich, es kann natürlich auch sprachlich viel inklusiver sein. Wir sprechen viel darüber, dass wir einen Fachkräftemangel haben. Wir sprechen auch viel darüber, dass wir die Fachkräftezuwanderung nicht ausreichend hinbekommen, wenn du jetzt aber auf einmal keine sprachliche Barriere mehr im Bewerbungsprozess hast. Dann ist das eine super Sache. Und wir haben auch ganz viele Berufsfelder in Deutschland, die keine 1a schriftlichen Fähigkeiten erfordern. Ich habe während des Gymnasiums mal auf dem Bau gearbeitet. Wenn ich da eine Bewerbung hinschicke, warum muss die denn perfekt sein vom Layout, von der Rechtschreibung? Da gibt es eigentlich keine Notwendigkeit. Und doch ist es so, dass in den meisten Bewerbungsprozessen ein Lebenslauf mit Rechtschreibfehlern erstmal negativ bewertet wird. Wenn du das Ganze jetzt aber nur noch auf einer Ton- oder [00:13:00] Videoebene machen kannst, ist doch eine super Sache, weil dann schaffst du auf einmal eine Chancengleichheit, eine Parität bei den Voraussetzungen Und darum sehe ich die Sachen als sehr positiv. Man darf nicht vergessen, wir machen große Fortschritte, aber wir sind immer noch am Anfang. Und die KI-Lösungen, die wir uns heute anschauen, die werden jedes Jahr besser. Und ich glaube, wir hatten noch nie bessere Botschafter für Lean Product Development als heute. Weil was wir wirklich sehen, ist, dass es sind vielleicht keine MVPs, aber es ist ein sehr, sehr iterativer Produktentwicklungsprozess Und die Release-Zyklen die sind nicht mehr sechs oder zwölf Monate, sondern guck dir mal von Vertex AI, von Google die Dokumentation an, da hast du alle sechs Tage auf einmal einen neuen Release und kommst gar nicht mehr hinterher. Drum wenn es jetzt gerade nicht passt dann schauen wir nächste woche noch mal vorbei da brauchst du gar nicht bis nächsten monat [00:14:00] warten und so betrachte ich das auch also ich schließe derzeit nichts aus wir schließen auch derzeit nichts aus man muss halt sehr nah dran bleiben und man braucht vor allem für sich eine strategische ausrichtung die muss man bereit sein dann kurzfristiger als in der vergangenheit zu überdenken aber dennoch Felix: ihr da im Voraus Shezan Kazi: Nicht fünf Jahre, auch keine drei Jahre. Wir haben eine langfristige Unternehmensstrategie und mit der leihen wir unsere KI-Strategie auch. Aber wirklich die Projekte die wir angehen, die planen wir auf 12-Monats-Zyklus, weil es eben auch keine drei Jahre mehr dauert um etwas zu entwickeln. Hattest du in Vergangenheit bei Projekten die Herausforderung dass die meiste Zeit in Anspruch genommen wurde von der Entwicklung der Codebase beispielsweise? Und jetzt kannst du so ein richtiges Produkt, was skaliert, was deployed [00:15:00] werden kann, kannst du innerhalb von zwei Wochen auf die Beine stellen. Warum? Weil du halt mit generativer KI kannst du Cursor AI verwenden, beispielsweise als Entwicklungsumgebung und dann schreibst du den Code, den du in Vergangenheit in zwei Wochen geschrieben hast. An zwei Tagen. Und das ist jetzt nicht aus der Luft gegriffen, das ist tatsächlich so. Die Schwierigkeit kommt jetzt danach. Die Schwierigkeit liegt nämlich darin, dass wir die, du musst die User adoption, also dass deine Benutzer sich tatsächlich mit dem Produkt auseinandersetzen, dass sie lernen, es zu benutzen. Das muss man natürlich hinkriegen. Man muss sich von alten Mustern verabschieden Also ist denn... Felix: Vielen Dank Shezan Kazi: [00:16:00] und noch eine Applikation auf einer Domain oder eine App die du installierst. Und da glaube ich nicht dran. Also wenn ich auf mein Handy schaue, ich habe wahrscheinlich 200 Apps installiert und täglich verwende ich davon fünf. Und ärgere mich, dass Siri nicht mehr kann. Felix: spreche es nur noch rein. Shezan Kazi: Ja, aber ich glaube, wir werden, ich weiß nicht, hast du von dem Rabbit R1 mal gehört? Ich denke ich habe das Produkt bestellt, ich war nicht sonderlich zufrieden damit. Felix: mal kurz für alle, die zuhören was es ist. Shezan Kazi: Ja der Rabbit, das ist ein schönes orangenes kleines Gadget auf dem eben ein Large Action Model liegt. Das ist sowas wie ein Large Language Model, aber eins was eben darauf spezialisiert ist, wirklich End-to-End-Aktionen auszuführen. Als Beispiel buche mir einen Urlaub nach Gran Canaria und dann kann Rabbit... Weil du dich [00:17:00] vorher über deren Plattform bei PayPal und bei Booking usw. schon eingeloggt hast, kann dann diese Reise für dich buchen. Und die Schwierigkeit bei Rabbit wird natürlich sein, dass die Smartphone-Anbieter das irgendwann nativ anbieten. Aber ich glaube, wir werden uns bewegen in eine Richtung wo einzelne Apps und damit auch einzelne Benutzeroberflächen Immer rarer werden und das Ganze eher zu einem Skill übergeht. Amazon hat ja da mit Alexa früh angefangen. Die haben keine Apps mehr gehabt, sondern die haben einfach nur noch Skills angeboten. Und ich glaube, das werden wir auch sehen, dass eben diese Agenten also Siri, Google Assistant, Bixby und so weiter, die werden orchestrieren für uns. Die werden dann quasi gewisse Skills lernen und dann Aufgaben für uns übernehmen. Und die klassische [00:18:00] Benutzeroberfläche, wo es darum geht, Buttons anzuklicken und Wörter zu schreiben, die Ich kann mir vorstellen, dass die zunehmend verschwinden wird. Man sieht es ja im Auto schon, da ist ganz viel über Sprachbedienung. Ich würde jetzt die Automobilindustrie nicht zwangsläufig als Indikator für die Zukunft nehmen, aber in dem Fall schon. Und das wird spannend. Und die Herausforderungen hast du auch intern, wenn du ein Tool entwickelst. Da musst du dir überlegen, machst du jetzt für jeden Use Case, den du kriegst ein neues Tooling. Dann hast du nämlich... Felix: Lass uns da mal konkret Ich glaube, Shezan Kazi: Vielen Dank. Felix: verstehen, wie setzt ihr eigentlich AI in eurer Wertschöpfungskette ein und was hat sich jetzt insbesondere durch immer bessere Gen-AI-Modelle? Weil du hattest jetzt schon einmal... Einen prädiktiven KI-Use Case beschrieben über euer Market Insights [00:19:00] Tool, was verschiedene Daten zusammenzieht analysiert Vorhersagen darauf macht, zum Beispiel, wo wird ein Arbeitskräftebedarf entstehen und das könnt ihr intern nutzen, aber bietet ihr wahrscheinlich auch euren Kunden an, oder? Shezan Kazi: Genau. Wir haben ja auch bei Ransat Enterprise einen sehr großen Bereich, der nennt sich Talent Advisory und da haben beispielsweise dann auch Kunden Zugriff auf solche Sachen. Vielen Dank Felix: sich denn jetzt in der Art und Weise, wie man mit prädiktiver KI, klassischer analytischer KI basierend auf maschinellem Lernen und generativer KI und vielleicht kannst du uns das auch mal an einem Use Case beschreiben und was genau, du hattest jetzt gerade schon mal angeschnitten was so die Herausforderungen sind, da würde ich jetzt gerne mal Wie setzt ihr generative KI ein und was sind die Herausforderungen, sowas wirklich produktiv zu bekommen und habt ihr für Lösungen in der Zeit entwickelt? Shezan Kazi: Predictivica ist ja in der Regel sehr datenlastig. [00:20:00] Bei Daten ist zum einen die Interpretation eine Herausforderung Also das ist wirklich eine Fähigkeit die du haben musst. Und das andere ist aber dann, an den Punkt zu kommen, wo du überhaupt etwas interpretieren kannst. Das heißt, du musst Abfragen schreiben. Vielleicht musst du sie schreiben in SQL, da brauchst du dann Auch fortgeschrittene Kenntnisse. Es kann aber auch sein, dass du eine Benutzeroberfläche hast. Und wenn du dir mal ein Dashboard angeschaut hast für Vertriebskennzahlen oder für irgendwelche KPIs, dann nimmt es sehr schnell eine hohe Komplexität an, dieses Dashboard. Du hast zig Dropdown-Menüs, du hast auf einmal irgendwelche Stellräder, die du drehen musst. Dann gibt es Beziehungen zwischen den einzelnen Kennzahlen Die vielleicht nicht sofort auffallen. Und da brauchst du wirklich ein Händchen für Daten. Und das ist nicht [00:21:00] selbstverständlich. Das heißt, du schließt bei dieser Benutzererfahrung mit einer dedizierten Benutzeroberfläche Leute aus, die nicht wissen, wie sie es bedienen wollen. Und ein gutes Beispiel dafür ist eben, Randstadt Market Insights, das ist, glaube ich, was den Arbeitsmarkt angeht eine der größten Datenbasen die man finden wird und die Funktionalitäten sind hervorragend. Aber wenn du es das erste Mal bedienst, dann bist du erst mal erschlagen, weil du dir denkst wow, so viel Wald, da sehe ich die Bäume nicht mehr. Wenn du jetzt auf so ein Tool mit einer hohen Datenkomplexität und mit einer hohen Benutzeroberflächenkomplexität aber ein Sprachmodell legst, welches für dich im Hintergrund die Filter anlegt und die Ansichten erstellt, also die Views oder [00:22:00] auch diese Abfragungen in SQL schreiben kann, und das machen wir nämlich gerade, dann ist es so, dass... Zum einen, die Leute es viel lieber verwenden, weil sie halt sehr schnell an den Punkt kommen, an den sie kommen wollen. Felix: Also, Sie stellen dann nur noch eine Frage, welche Insights, welche Daten, eine Frage, die Sie beantwortet bekommen mit den Daten die angezeigt werden. Shezan Kazi: sagen wir mal wir haben jetzt die Firma Acme Inc., die gab es immer bei Looney Tunes. Die Firma Acme Inc. sucht jetzt Felix: Vielen Shezan Kazi: du dir deren Kunden an und du guckst dir aber auch an, wie ist die Verfügbarkeit von Arbeitskräften. Weil Schlimmste ist ein Logistikzentrum ohne Mitarbeiter. Und da würde jetzt ein Mitarbeiter von Runstart reingehen in RMI. Und würde anhand von gewissen Kennzahlen versuchen, da einen guten [00:23:00] Standort zu finden, den man den Kunden danach vorschlagen kann. Beziehungsweise zu bewerten, ob das ein Auftrag ist, den wir überhaupt annehmen wollen. Weil vielleicht sitzt der mitten in Hanau und da kriegst du die Leute nicht. Kann man jetzt machen, indem man ganz viele Listen auswählt und Filter manuell setzt. Wir machen es mittlerweile so, dass wir diese Frage stellen lassen mit menschlicher Sprache. Ich brauche für den Kunden ACME Inc. einen Vorschlag für einen Standort Basierend auf diesen Parametern. Und dann hast du deine Notizen aus dem Meeting, was du mitgeschrieben hast. Die kannst du ja handschriftlich gemacht haben oder du kannst sie fein säuberlich in Google Doc reingeschrieben haben. Lädst du das hoch, schaust du Und dann kann das Sprachmodell auswerten wie es daraus eine Query baut. Das kriegst du gar nicht mit als Mensch, das passiert im Hintergrund und dich interessiert der Teil ja eigentlich nicht. Als nicht technischer [00:24:00] Personaldienstleister, als Personalberater, möchtest du eigentlich nur die Daten haben, die du dem Kunden vorlegen kannst. Und das finde ich, haben wir hier ganz gut hinbekommen. Für mich ist das auch so ein Punkt, wo wir wirklich nochmal das User Interface neu definiert haben, weil wir haben gesagt, es muss doch gar nicht so sein, dass man... Noch diese Dropdown-Listen hat. Oder muss ich wirklich ein komplexes User-Interface haben oder kann ich alles auf einem Large-Language-Model auslagern? Und wo es noch einen Schritt weiter geht, ist dann zu sagen, muss das denn eigentlich ein separates Tool sein? Oder ist das einfach nur ein Microservice, eine API, die du abrufst Der Großteil von unserer täglichen Arbeit findet in Google Workspace statt. Das ist das Gleiche wie Office 365 oder Microsoft 365. Und wenn ich was von dem Kollegen brauche, dann rufe ich den nicht mehr an. [00:25:00] Und selbst wenn der drei Tische weiter sitzt, in der Regel schreibe ich dem in Google Chat schnell eine Chatnachricht. Also ist es für mich naheliegend zu sagen... Behandle die KI doch wie so einen Kollegen und chatte den auch einfach an. Gehe dazu nicht erst auf ein externes Tool, da hast du dann auch wieder Schwierigkeiten mit Monitoring und du musst eine Benutzeroberfläche am Laufen halten und vor allem musst du dafür sorgen, Dass deine Mitarbeiter diese hunderten Webadressen irgendwo abspeichern. Das heißt, bei uns liegt es einfach in Google Chat und da kannst du das dann anschreiben wie jeden anderen. Das hat ja dann auch multimodale Ausgabemöglichkeiten, also du kannst ja nicht nur Text zurückgeben, du kannst auch Tabellen erzeugen du kannst Bilder erzeugen du kannst PDFs erzeugen und so weiter. Ja, und das ist für mich auch generative KI, dass du einfach... Überdenkst ob die Human-Machine-Interaction, die wir in der Vergangenheit hatten, In der Zukunft [00:26:00] noch notwendig ist. Also Spaß macht es auf jeden Fall. Ich entwickle auch gerade privat wieder eine kleine Website und es ist wunderschön ein Frontend zu programmieren. Aber gerade im Enterprise-Kontext Felix, glaube ich, dass es vor allem darum geht, die Komplexität der Applikationslandschaft zu reduzieren. Und das ist jetzt nichts was Randstadt als große Firma betrifft. Ich hatte vorher erwähnt Eine kleine Firma, wir waren knapp 25 Mitarbeiter und selbst da war es schon schwierig dafür zu sorgen, dass die Tools, die du einführst als Unternehmen, auch von allen genutzt werden, weil es gibt halt dann immer so Lieblingstools, die werden verwendet und die anderen, die liebevoll ausgesucht und eingeführt wurden, davon wird halt ein Teil dann einfach vergessen und das ist schade, das ist kostentechnisch ineffizient Und es sorgt auch im Unternehmen für Ineffizienzen weil einfach das volle Potenzial nicht ausgeschöpft wird. Felix: Also kann ich mir das so vorstellen in der Zukunft, dass ich [00:27:00] ein Eingabeinterface habe, was wahrscheinlich über Sprache funktioniert, wahrscheinlich nicht mal Text, sondern ich spreche da einfach rein und dieses Interface ist dann mit meiner gesamten Systemlandschaft verbunden. Und holt sich dann die Informationen aus den Systemen die es benötigt und führt Aufgaben in anderen Systemen aus, die ausgeführt werden müssen. Und da hinten liegen Sprachmodelle, KI-Agenten Logiken, die meine Spracheingabe in Ausgaben ausführen, die dann zu dem Ergebnis führen, wofür ich heute über fünf verschiedene Systeme viele Knöpfe drücken müsste, Eingaben machen müsste, Informationen copy-paste nehme und so weiter. Shezan Kazi: Ja, ich glaube, das ist für mich das einzig denkbare Szenario. Und jetzt ist das natürlich Hollywood, was ich gleich nenne. Wenn man sich anschaut Iron Man hat Jarvis, Person of Interest, da gab es auch, das war [00:28:00] so eine Serie, da gab es auch eine allübergreifende KI, dann gab es den Film Her. Aber darauf wird es hinauslaufen meiner Meinung nach Es wird nicht so sein, dass wir für jeden Edge-Case ein eigenes Tool bedienen, sondern es wird halt einen Orchestrator geben, das ist dann dein... Ja, dein Agent, dein Assistent, dein Butler, dein Concierge wie du es auch nennen magst. Und der wird halt dann entscheiden, an wen raute ich dich am besten weiter. Kurz in eigener Sache. Wenn dir der AI First Podcast gefällt und du mehr spannende Inhalte und hochkarätige Gäste hören möchtest, dann freue ich mich über deine Unterstützung. Mit einer Fünf-Sterne-Bewertung und einem Abo für den Podcast hilfst du uns sichtbarer zu werden und AI First weiterzuentwickeln. Für dich und die gesamte Community. Ich danke dir. Felix: Wir hatten jetzt aber schon über Adoption mal kurz ein, zweimal gesprochen. Also wie schafft man es, dass die [00:29:00] Tools genutzt werden, die es in Unternehmen gibt? Das war schon immer ein Riesenthema Ich sehe aber jetzt besonders bei den mehr werdenden generativen KI-Tools. Ihr Shezan Kazi: Untertitelung des ZDF, Felix: entwickelt, dass die Nutzungsraten oft noch sehr niedrig sind und es eine ganz große Herausforderung in vielen Unternehmen ist, wie schaffe ich es, in die Köpfe der Menschen in meinem Unternehmen zu bekommen, diese Werkzeuge einzusetzen um damit die Produktivität zu steigern und die Versprechen, die die Technologie auch mitbringt einhalten und realisieren zu können. Wie geht ihr denn damit um? Shezan Kazi: User-Dopfen ist, glaube ich, wirklich der schwierigste Teil von einer Tool- Einführung oder Naturentwicklung mit generativer KI. Es geht ja vor allem nicht mehr nur darum, dass die Leute es verwenden, sondern es geht auch darum, wie sie es verwenden. Du hast aber da auch Compliance-Herausforderungen, weil du willst möglichst wenig von den [00:30:00] Konversationen von den Interaktionen aufzeichnen. Wie gehen wir damit um? Also wir haben jetzt unser internes GPT eingeführt, wir haben erstmal einen Piloten gestartet mit ein paar tausend Usern mittlerweile, der geht jetzt Ende des Jahres dann live an alle 48.000 Mitarbeiter bei uns, aber im Piloten machen wir es so, wir haben Gruppen wo die Leute alle drin sind, wo sie sich erstmal austauschen können. Wir haben wöchentlich mehrere Walk-In Sessions, so Ask-Me-Anythings wo wir dann auch Best Practices teilen. Wir machen ein globales Gen-AI Fundamentals Training Program heißt das jetzt offiziell. Da geht es wirklich darum, die Mitarbeiter zu befähigen mit dieser ja doch noch neuen, kann man schon sagen, Technologie umzugehen weil So wie ich Google bedient habe, bediene ich einfach ein Large-Language-Model. Und es geht vor allem darum, [00:31:00] sich die Metriken auch anzuschauen. Gestern hatten wir eine Unterhaltung darüber, wie viel Mitarbeiter eigentlich unseren internen Chatbot verwenden und ich glaube, das ist gar nicht so die richtige Frage. Du musst auch angucken, wie lang sind die einzelnen Interaktionen, weil es geht ja nicht nur darum, was reinzuschicken und was rauszuholen. Bei einem positiven oder negativen Feedback ist es vor allem wichtig... Nehmen wir mal das positive Feedback, kam es sofort zu einem positiven Feedback oder gab es mehrere Iterationen beispielsweise jetzt von dem Prompt hat er seine Frage nochmal angepasst hat er vielleicht ein anderes Prompting Framework wie Chain of Thought oder so weiter verwendet. Und vor allem bei den negativen Feedbacks ist es wichtig zu wissen, ist es ein Nutzer, der eine Frage gestellt hat, eine Antwort bekommen hat und sofort einen Daumen runter macht, oder ist es ein User, der eine Frage gestellt hat, [00:32:00] unzufrieden war, die Frage neu formuliert hat, also sich wirklich damit auseinandergesetzt hat. was wir schon sehen, ist, dass die große Mehrheit von den negativen Feedbacks, die wir bekommen, So single shots sind. Da fragt jemand was, kriegt nicht die Antwort, die er will und sagt dann Mist, es funktioniert nicht. Und an die Leute musst du ran. Da musst du ran mit Trainings da musst du ran mit Upskilling, was ohnehin wichtig ist, weil es halt einfach nicht trivial ist. Und wenn ich auf LinkedIn schon wieder einen Post gesehen habe vorgestern wo jemand einen Kurs Geteilt hat in zwei Stunden zum Prompt-Engineer. Felix: Dank. Shezan Kazi: Ich prompte jetzt seit drei Jahren so richtig intensiv aber ich prompte letztendlich seit 2019. Felix: [00:33:00] Vielen Dank Shezan Kazi: lernt man ständig dazu und ich glaube, so ein halbes Jahr braucht man schon, um da wirklich reinzukommen. Und das ist wichtig bei der User-Adoption, dass du den Leuten das auch sagst es ist nicht so, dass wir das von heute auf morgen lernen. Ich hätte es gerne generative KI-Führerschein genannt weil auch nämlich die Zeit die man braucht, um sich damit vertraut zu machen, vergleichbar ist. Aber du kannst es nicht einfach von heute auf morgen lernen. Du musst dich damit intensiver auseinandersetzen und die Aufgabe von Unternehmen ist es, dafür zu sorgen, dass Leute sich damit auseinandersetzen. Wir sprechen auch bei Adoption viel über Compliance, weil es natürlich auch so ist, dass diese Schatten-KE, die in Unternehmen entsteht, ein Compliance-Risiko sein kann. Du möchtest beispielsweise, wir sind ja im HR-Bereich der EU-AI-Act kommt jetzt dann [00:34:00] nächstes Jahr und so HR-Use-Cases sind erstmal als High-Risk katalogisiert Und wenn es jetzt darum geht, dass jemand einen Lebenslauf nimmt und den bei ChatGPT hochlädt und ChatGPT trainiert sein Modell darauf weiter, dann leuchtet das ein, dass das nicht richtig ist. Aber auch das musst du den Leuten erstmal beibringen. Das heißt nicht, dass du ChatGPT sperrst, weil ich glaube, man spricht jetzt viel darüber solche Sachen auch zu sperren, aber es hat nie jemand darüber gesprochen, Yahoo zu sperren oder Google zu sperren oder Wikipedia zu sperren. Ich glaube, das ist einfach die neue Wissensarbeit, die hier entsteht und die muss man auch allen zugänglich machen. Die Mitarbeiter sollten sich darauf konzentrieren können, wie sie an die Informationen kommen, die sie brauchen. Die Entwickler sollten sich darauf konzentrieren können, wie sie Lösungen dafür bereitstellen. Und die Compliance-Abteilungen die müssen sich darauf konzentrieren wie sie einen Rahmen schaffen, der für die anderen beiden Parteien passt. [00:35:00] Damit sie bei der Arbeit nicht eingeschränkt werden. Und darum ist unser KI-Strategie-Team eben auch nicht nur IT oder nur Business, sondern wir haben von Legal-Leute mit drin, wir haben von Data-Ethics-Leute mit drin, wir haben Data-Protection mit drin, aber auch von den verschiedenen Geschäftsbereichen. Felix: Da hätte ich mal eine Frage, weil auch in anderen Unternehmen wird ja oft jetzt die Frage gestellt, wer soll denn überhaupt dafür verantwortlich sein? Und ihr seid jetzt natürlich Shezan Kazi: Vielen. Felix: mit zehntausenden Mitarbeitenden und habt all diese Funktionen wahrscheinlich auch schon produziert Teams aufgesetzt, was würdest du denn sagen, nehmen wir mal ein kleines mittelständisches Unternehmen, 500 gibt noch kein Datenteam, es gibt... Eine Inhouse-IT, aber eher klassische ist und die Hardware und Software vielleicht verantwortet und es gibt auch kein Inhouse-Entwicklungsteam oder sowas. [00:36:00] Was würdest du sagen, wer sollte dort die KI-Themen verantworten und steuern? Braucht man das überhaupt oder soll das irgendwie in den Teams aufgehangen sein? Was ist dein Blick darauf? Shezan Kazi: Und das ist ja die Regel, also wirklich so eine strukturierte Einheit wie bei uns jetzt zu haben, ist da eher die Ausnahme. Das Schöne bei dem ganzen KI-Thema ist, dadurch, dass wir so stark am Anfang sind und sich die Sachen so schnell entwickeln, wenn du dich wirklich dahinter klemmst und Interesse an dem Thema hast, dann bist du in kurzer Zeit, ich will jetzt nicht sagen ein Experte, aber du kannst wirklich mitreden und du hast wirklich ein Verständnis davon. Und das zweite Schöne daran ist, das ist einfach so populär Die Konsequenz die sich daraus für mich ergibt, ist, dass es innerhalb der Unternehmen nicht schwierig sein wird, Interessenten dafür zu finden. Und ich glaube, danach sollte man auch gehen. Bei KI geht es ja auch viel um Selbstbefähigung. [00:37:00] Und wenn ich jetzt versuche, ein kleines... Team an Kompetenzen aufzubauen, dann sollte ich nicht danach gehen, wer die Qualifikation dafür mitbringt heute, sondern wer bringt eigentlich die Skills dafür mit. Es gibt ja den Begriff skillsbasierte Organisation, also da geht es darum, dass Leute etwas vom Typ her können, dass Leute intrinsisch motiviert sind, etwas zu machen Felix: Dank. Shezan Kazi: würde das Thema relativ nah an der Geschäftsführung aufhängen. Warum? Weil es eben die Organisation übergreift. Es ist nicht mehr so, dass KI ein IT-Thema ist. KI macht ja IT zu einem Tool und nicht zu einem Skill. Das heißt, du musst wissen, wie [00:38:00] sehen deine Prozesse im Einkauf aus, wie sehen deine Prozesse im Vertrieb aus. Wenn du eine Produktion hast, ist es da ein Thema. Klar, in der IT, im Marketing, im Operations-Bereich. Und dann jemanden zu haben, der das nur aus IT-Sicht betrachtet, das ist mit Sicherheit nicht sinnvoll. Das ist, glaube ich, auch ein Grund, warum Warum wir bei Randstadt gesagt haben, wir setzen keinen reichenden ITler drauf. Ich habe ja auch Erfahrungen im Vertrieb lange gehabt, sondern gesagt haben, wir brauchen jemanden, der das Business versteht. Und wenn du jetzt ein Maschinenbauer bist mit 500 Mitarbeitern, dann hast du ohnehin schon technikaffine Leute. Ich glaube, das ist eine super Voraussetzung. Aber ich arbeite auch gerade mit einer Freundin zusammen, die macht sich gerade selbstständig mit drei Freundinnen. Und ich habe Die haben jetzt auch eine KI-Beauftragte, weil die sich eben mit den Personas beschäftigt und mit dem Marketing-Collateral, was sie brauchen. Da geht es wirklich [00:39:00] vor allem darum, jemanden zu finden, der Lust drauf hat. Felix: Vielen Shezan Kazi: Und dann kannst du das Ganze bootstrappen, das kannst du wirklich. Du brauchst da nicht große Ressourcen dafür. Es gibt so viel Austausch auf LinkedIn in verschiedenen Foren. Es gibt in allen Städten irgendwie Meetups. Ich muss da auch nicht eine große Beratung anheuern. Es ist ja so, ich habe letztens einen Bericht gesehen, dass McKinsey glaube ich, 40 Prozent von seinem Umsatz mit KI macht. Das war vor ein paar Jahren noch ein einstelliger Betrag. Das ist wirklich enorm. Aber ich muss nicht das Geld für die ausgeben. Wenn ich irgendwann groß skalieren will, wenn ich wirklich... Transformationsprozesse habe, die KI getrieben sind, dann ja. Aber das Schöne an so einem neuen Thema, was ich bootstrappen kann, was ich vielleicht wie ein Corporate Startup behandeln möchte, ist doch dass du mit Bordmitteln sehr viel erreichen kannst und auch bei Runstart, wir haben für Runstart [00:40:00] GPT, für unser eigenes GPT, da saß kein großes Team dran. Das waren drei Leute, die haben das in zwei Wochen hingestellt, weil sie gesagt haben, das ist eine geile Idee und bevor ich mir da jetzt einen großen Approval-Prozess einhole, mache ich erstmal und stelle es dann vor. Und das ist neben der Arbeitszeit gelaufen, weil du natürlich auch viel davon mit KI selber machen kannst. Das hat wirklich nichts mit der Unternehmenskrise zu tun. Du brauchst jemanden der Bock drauf hat. Und dann entwickelst du dich. Ich habe es bei Otto. Da hattest du ja auch den Podcast mit OGGPT. Und ich finde, das hat mal Philipp, glaube ich, hieß er. Hat man da auch... Ah, sorry, Florian. Genau. Hat man auch sehr gut rausgehört bei Florian, dass er halt einfach Bock auf die Thematik hatte und dadurch entwickelt sich dann so eine richtig schöne Eigendynamik Felix: Ja, [00:41:00] kann ich nur zustimmen erlebe ich immer wieder. steht und fällt das ganze Thema auch mit den ersten Leuten, die man da mit ransetzt und inwieweit sie das vorantreiben. Ich würde gerne zum Abschluss mit dir noch mal einen anderen Use Case reingehen und zwar hattest du jetzt schon mal prädiktive KI, über euer Market Insights Tool gesprochen, wir haben über euren GPT gesprochen, was ja in vielen Unternehmen gerade eingeführt und ausgerollt wird, hatten wir auch hier in dem Podcast schon Was ist ein anderer generativer KI Use Case, den ihr in eure Wertschöpfungskette mit eingebaut habt und der da, also wo ihr einen Service neu denkt oder neu erschafft auf Basis generativer KI? Und was hast du da für Erfahrungen gemacht, so ein Use Case auch produktiv zu bekommen? Shezan Kazi: Also der erste Use Case, den wir hatten, und da war ich auch der Tech-Lead in der Entwicklung, das war unser Stellenanzeigengenerator. [00:42:00] Also bei Stellenanzeigen gibt es eigentlich zwei Möglichkeiten, wie das gemacht wird. Das eine ist mit sehr viel Liebe und Hingabe und das andere ist halt mal schnell geschrieben an einem Freitagnachmittag. Und ersteres was ja auch viel mit SEO, Keyword Research und so weiter zu tun hat, Das ist ein End-to-End-Prozess, den kann man auch mit KI machen, aber das ist nichts, was du jetzt jedem machen lässt. Und letzteres wo wir wirklich immense Qualitätsschübe erlebt haben, haben wir gesagt, lass uns das mit KI machen. Es ist so, dass die meisten Stellenanzeigen werden geschrieben mit einem Baukasten, aber da musst du immer noch die Module für deinen Baukasten raussuchen und zusammenschreiben. Wir haben mittlerweile in Deutschland Über zehn Ländern diesen Stellenanzeigen-Generator im Einsatz. Der hat die Zeit, die wir durchschnittlich für eine Stellenanzeige benötigen, wir schreiben diese [00:43:00] Stellenanzeige, von zwischen 35 und 45 Minuten auf drei Minuten reduziert. Die Conversion Rate auf die Stellenanzeigen ist im Schnitt 30 Prozent höher. Also es ist sowohl quantitativ als qualitativ messbar. Und wenn wir die Leute fragen, was macht ihr mit der Zeit, dann sehen wir, die führen halt einfach mehr Gespräche mit Bewerbern. Und das ist auch das, was wir eigentlich machen sollten. Eine Aufgabe, wo du immer wieder copy-pasten musst, die sollte es eigentlich nicht mehr geben. Die solltest du automatisieren. Aber was wo du wirklich dein Gehirn anstrengen musst... Wo du wirklich mit Menschen interagieren musst, da müssen wir uns drauf konzentrieren. Und ich habe auf LinkedIn letztens ein cooles Zitat gehört. Also in der Vergangenheit ging es bei Jobs um Muskelkraft, also um Muscle. Und heute geht es um Hirn Brains. Und in der Zukunft geht es um [00:44:00] Herz. Und ich glaube, das ist genau die Richtung, in die wir uns bewegen, dass wir sagen, alles vom Tisch, was nicht wirklich mit dem Faktor Mensch zu tun hat, Und wir kümmern uns um unsere Talente und um unsere Kunden und um unsere Mitarbeiter. Und das ist auch in der Vision von Randstadt mit KI verankert dass wir wirklich KI einsetzen, um die Talent, die Client und die Employee Experience, so nennen wir es, zu verbessern. Also dieser Stellenanzeigen-Generator, da bin ich super zufrieden damit, wie der performt. Wir haben ganz lean angefangen, das war erstmal eine Chrome-Extension. Ja. War ganz weit weg von dem Produkt, was wir jetzt haben, haben angefangen mit zwölf Leuten zu testen und wir hatten pro Woche vier bis fünf Releases. Also wir haben wirklich jeden Tag mit den Usern gesprochen, hatten eine super Product Ownerin damals, haben jetzt eine andere, [00:45:00] die ist aber genauso gut. Wir haben jeden Tag mit den Usern gesprochen und gefragt, was müssen wir verändern? Ich glaube, wir hatten in den Ersten drei Monaten hatten wir 80 Releases oder so. Waren halt immer nur ganz kleine Sachen. Und ja, mittlerweile ist das ein Produkt, das könnte man wahrscheinlich verkaufen. Wir haben auch Kunden, die schon angefragt haben, die werden es auch umsonst kriegen. Verkaufen werden wir es wahrscheinlich nicht. Aber das war ein super Beispiel dafür, wie man eben ein KI-Produkt ähm Entwickelt, zur Adoption bringt und dann auch produktionisiert. Damals war es so, als wir angefangen haben, das war im August 2023, da gab es so ML Ops schon, aber so LLM Ops, wo man sich die Prompts dann Seite an Seite vergleichen kann und über die Zeit schauen kann, [00:46:00] hatten eine neue Modellversion vielleicht dazu geführt dass das Ergebnis nicht mehr das gleiche ist. Und das gab es noch nicht so wirklich. Jetzt gibt es ein paar coole Lösungen so wie GenKit von Firebase. Landchain kennt jeder. Und damit kannst du das mittlerweile einfach richtig gut machen. Felix: Was war die größte Herausforderung dabei, diesen Anwendungsfall, der ja sehr offensichtlich ist? Also sehe ich total, dass das hilft und generative KI-Sprachmodelle dort perfekt zum Einsatz kommen können. Was ich immer wieder erlebe, ist, dass so die ersten 80% total easy sind. Also so ein 80%-Ergebnis kriegt man easy hin. Prozent dann mit ein bisschen Aufwand auch, Shezan Kazi: Vielen Dank. Felix: um sowas wirklich über zehn Länder, tausende von Nutzer, zehntausende von Abfragen auszurollen dann wird es hart. Wie habt ihr das gemacht? Shezan Kazi: haben den unbequemen Schritt genommen und die [00:47:00] Applikation irgendwann komplett refactored. Weil was wirklich in der Regel passiert, die Dinger fangen an als ein Pilot, als ein Proof Concept und funktionieren so gut bis zu diesen 80%, aber die 80% sind phänomenal, die funktionieren so gut, dass Leadership dann im Team irgendwann sagt, oh, das muss der verwenden und das muss der verwenden und auf einmal siehst du dich in der Situation, wo es kein Pilot mehr ist, sondern du findest auf einmal live, das ist ein Release Candidate und dann, oh shit, wie, jetzt können wir nicht mehr zurück und da ist es schon wichtig, dass man dann sagt, wenn es wirklich skalieren soll, dann fahren wir jetzt nochmal zurück Ja, mit weniger PS für die nächsten vier Wochen. Aber bringen die Basics nochmal rein. Sowas wie Prompt Management oder LLM Ops oder richtiges Logging. Das sind so ganz richtige [00:48:00] Basics. Und da arbeiten wir viel mit Partnern zusammen, weil sich das eben so schnell entwickelt. Wir arbeiten super eng mit Google zusammen. Wir arbeiten sehr eng mit Accenture auch zusammen oder mit einer Firma die heißt MR6. Das ist eine kleinere, ja, klein kann man eigentlich auch nicht mehr sagen, aber es ist eher eine Machine Learning Boutique und die helfen uns halt dann dabei zu gucken, Felix: Vielen Dank. Shezan Kazi: Und wie holst du nochmal einen Prozent raus? Wie kommst du auf 81 Prozent? Wie kommst du auf 82 Prozent? Und darum geht es. Es geht nicht darum, von 80 auf 100 Prozent zu kommen. Das kriegst du ja auch nicht hin. Da bist du frustriert und dann heißt es, ja gut, dann machen wir halt Human in the Loop und der schaut sich das nochmal an Felix: genau. Ja Shezan Kazi: heißt, ja mein Gott, das Modell halluziniert halt, das kann man nicht ändern. Ist aber nicht so. Das kannst du ändern, nur du musst halt von 80 auf 81, von 81 auf 82 und die Reise auf die muss man sich einlassen und man muss sich halt dann auch eingestehen dass dieses [00:49:00] exponentielle Wachstum, was du am Anfang hattest, dass sich das ein bisschen verlangsamt. Aber das ist okay. Also ich bin jetzt mit... Den neuen iPhone, da bin ich auch nicht mehr so leicht zu begeistern wie das früher mal war. Da ist das rausgekommen, jede Keynote, oh mein Gott, muss ich haben. Jetzt kann ich auf zwei Generationen warten und das ist bei allen Produkten so. Nur bei generativer KI sind die Erwartungen in der Regel so hoch, dass sie halt dann auch sehr schnell enttäuscht werden. Felix: Ja, danke für den Reality-Check mit der Technologie. Kann man unfassbare Sachen Shezan Kazi: Dank. Felix: die Produktion, in Business-Prozesse zu bekommen mit einer zuverlässig extrem hohen Qualität an Antworten. Das ist auch eben mal nicht einfach so gemacht, indem ich die [00:50:00] GPT-4-API anbinde und irgendein Prompt reinschreibe, sondern da gehört dann schon etwas mehr dazu. Danke dafür und auch allgemein für deine ganzen Insights. Wir haben Shezan Kazi: So. Felix: kann künstliche Intelligenz die Personaldienstleistung verändern. Ich fand das total spannend, Brain, Heart, die Ära des Herzens bricht an, hört sich sehr romantisch an. Use Cases gelernt, wie ihr mit der Adoption umgeht. Ich hoffe, da können viele von den Zuhörern sich was rauspicken, was in ihren Unternehmen hilft, AI weiter voranzutreiben und wir sind uns beide einig dass das spannendste Thema ist, was es aktuell gibt. Jeder, der die Chance hat, da Verantwortung in seiner Company zu übernehmen, ist sicherlich eine gute Idee. Wir können es nur empfehlen. Cezanne vielen Dank. Shezan Kazi: Danke Felix, hat Spaß gemacht.
Logge Dich ein oder registriere Dich, um am Austausch teilzunehmen.
Diskutiere mit