No.
24
Ashoka

AI Tinkering bei Ashoka

Mit
Odin Mühlenbein
Entdecke, wie Ashoka den Sozialsektor mit KI revolutioniert: Ein kleines Team erzielt mit "Conscious Tinkering" große Wirkung. Von KI-gestützter Datenanalyse bis zu automatisiertem Fundraising - lerne innovative Lösungen für Non-Profits mit begrenzten Ressourcen kennen.

In dieser Folge des AI First Podcasts spricht Felix mit Odin Mühlenbein, Co-Gründer des AI Labs bei der Non-Profit-Organisation Ashoka. Odin teilt Einblicke in Ashokas innovativen "Conscious Tinkering"-Ansatz zur KI-Integration und erklärt, wie sie mit begrenzten Ressourcen beeindruckende Ergebnisse erzielen.


Inhaltsübersicht

  1. Einführung zu Ashoka und dem AI Lab
  2. Der "Conscious Tinkering"-Ansatz
  3. Konkrete KI-Anwendungsfälle bei Ashoka
  4. Herausforderungen und Lösungen im KI-Einsatz für Non-Profits
  5. Ausblick auf die KI-Entwicklung und deren Bedeutung für den Sozialsektor


Detaillierte Inhaltszusammenfassung

1. Einführung zu Ashoka und dem AI Lab

Ashoka ist das weltweit größte Netzwerk von Sozialunternehmern, gegründet vor etwa 40 Jahren. Die Organisation unterstützt rund 4000 innovative Sozialunternehmer weltweit und wird oft als Wegbereiter des Begriffs "Sozialunternehmertum" angesehen. Innerhalb dieser Organisation hat Odin Mühlenbein die Rolle des "Haus-und-Hof-AI-Entwicklers" übernommen und leitet das AI Lab.

2. Der "Conscious Tinkering"-Ansatz

Odin erklärt den von Ashoka entwickelten "Conscious Tinkering"-Ansatz:

  • Fokus auf schnelles Prototyping statt langwieriger Strategieprozesse
  • Entwicklung von KI-Anwendungen in 6-8 Wochen-Zyklen
  • Kontinuierliche Verbesserung der "AI-Readiness" in fünf Kernbereichen
  • Pragmatischer Umgang mit begrenzten Ressourcen (1,5 Vollzeitstellen für das AI Lab)

3. Konkrete KI-Anwendungsfälle bei Ashoka

Ashoka hat mehrere erfolgreiche KI-Projekte entwickelt: Eine Fellow-Suche zur Analyse von 20.000 Seiten Informationen, ein Policy-Tool zur Identifikation von Verbündeten im EU-Parlament, KI-gestützte Fundraising-Unterstützung und ein Wissensextraktions-Tool. Letzteres ermöglicht komplexe Abfragen wie: "Finde alle Fellows weltweit, die Schülern mehr Mitspracherechte geben." Diese Anwendungen zeigen, wie KI effektiv im Sozialsektor eingesetzt werden kann.

4. Herausforderungen und Lösungen im KI-Einsatz für Non-Profits

  • Begrenzte finanzielle Ressourcen für technische Innovationen
  • Schwierigkeit, hochqualifizierte KI-Experten zu gewinnen und zu halten
  • Kreative Lösungen durch Pro-bono-Partnerschaften und effiziente Ressourcennutzung

5. Ausblick auf die KI-Entwicklung und deren Bedeutung für den Sozialsektor

Odin betont die Notwendigkeit eines ausgewogenen Ansatzes zwischen Innovation und Risikomanagement bei der KI-Entwicklung. Er sieht großes Potenzial für Effizienzsteigerungen im Sozialsektor durch KI, ruft aber auch zu mehr Investitionen in KI-Sicherheit und -Verständnis auf. Es ist wichtig, die Technologie verantwortungsvoll zu nutzen, um positive Auswirkungen zu maximieren und Risiken zu minimieren.


Kernaussagen:

"Das Problem ist ja, wir Menschen sind nicht so gestrickt, dass wir gerne die Kontrolle an das ominöse Nichts, die KI, abgeben."

"In der Zukunft wird es autonom agierende ERP-Systeme geben. Die Prozesse werden abgewickelt von dem System selbst."

"FOMO is real. Und das muss man managen und nicht den Anspruch haben, auf dem Laufenden zu bleiben."

"Wenn jemand ein bisschen technischen Hintergrund hat, ihr könnt einfach anfangen. Also nicht warten, dass irgendein Management irgendwas sagt und es macht wirklich Spaß, so zu arbeiten."


Fazit und Takeaways

  • Der "Conscious Tinkering"-Ansatz von Ashoka zeigt, wie auch mit begrenzten Ressourcen effektive KI-Lösungen im Sozialsektor entwickelt werden können.
  • Schnelles Prototyping und kontinuierliches Lernen sind Schlüssel zum Erfolg bei der KI-Integration.
  • KI bietet enormes Potenzial für Effizienzsteigerungen und Wirkungsverstärkung im Non-Profit-Bereich.
  • Es besteht ein dringender Bedarf an mehr Unterstützung und Ressourcen für KI-Innovationen im Sozialsektor.
  • Balancierter Umgang mit KI-Entwicklung: Innovation vorantreiben bei gleichzeitiger Berücksichtigung von Sicherheitsaspekten.

Links:

Zum Gast: ⁠⁠⁠⁠Odin Mühlenbein

Zum Host: ⁠⁠⁠⁠Felix Schlenther

[00:00:00] Herzlich willkommen zum AI First Podcast. Heute habe ich Odin Mühlenbein bei mir zu Gast, der Co-Gründer des AI Labs bei der Non-Profit-Organisation Ashoka ist und ich habe Odin vor etwa einem halben Jahr bei den AI Impact Days kennengelernt Wir waren dort zusammen auf einem Panel und er hat dort von dem Conscious Tinkering-Ansatz erklärt, den sie nutzen, um KI in die Organisation zu bringen, neue Use Cases zu finden und das Ganze auf eine sehr, sehr pragmatische Art und Weise, die aber schon zu so einigen Ergebnissen und Erfolgen geführt hat. Und da dachte ich mir damals schon, ich muss unbedingt, Odin, mit dir mal einen Podcast machen und dir noch viel mehr Fragen dazu stellen, weil ich glaube... Dass auch viele Unternehmen aus der Privatwirtschaft von euch eine ganze Menge lernen können, wie man KI in den Einsatz bringt und deshalb freue ich mich, dass du da bist und dir die Zeit nimmst. Danke für die [00:01:00] Einladung. Magst du vielleicht noch kurz sagen, wer du bist, was du bei Ashoka machst und was ihr bei Ashoka allgemein macht für alle, die euch nicht kennen? Ashoka ist das weltweit größte Netzwerk von SozialunternehmerInnen, wurde vor gut 40 Jahren gegründet. Wir unterstützen ungefähr 4000 besonders innovative SozialunternehmerInnen aus aller Welt. Ashoka wird... Oft die Ehre zugeschrieben, diesen Begriff Sozialunternehmertum überhaupt erst in die Welt getragen zu haben. Und das ist aber auch weiterhin ein großer Teil unserer Arbeit, also diese besonders innovativen Menschen zu finden, ihre Innovationen genau zu verstehen und sie dann ein Leben lang zu begleiten. Innerhalb dieser Organisation habe ich erst einige Jahre was völlig anderes gemacht und bin jetzt so eine Art Haus und Hof AI-Entwickler würde ich mal sagen. Ja, sehr spannend. Der nochmal, um euren Leistungsumfang zu verstehen. [00:02:00] Du hast gesagt, ihr begleitet dann Sozialunternehmer ein Leben lang. In welchen Bereichen oder wie steht ihr da zur Seite? Die Fellowship hat verschiedene Aspekte, der erste ist erstmal ganz pragmatisch, also die Leute, die sich mit ihrer neuen Idee noch nicht selber vollständig finanzieren können, denen geben wir ein Lebensunterhaltsstipendium, mit dem sie dann drei Jahre lang an dieser Idee arbeiten können, für die wir sie ausgewählt haben und das ist auch ohne irgendwelche Auflagen, also Und dann das Zweite ist, wir haben so alle möglichen Netzwerkdienstleistungen, Pro Bono-Partnerschaften also wenn diese Menschen spezifische Rechtsberatung brauchen für Replikationen in anderen Ländern oder irgendwelche ganz neuen Rechtsgutachten, weil sie wieder irgendwelche Gesetzgebung ändern wollen oder so, dann haben wir halt zig internationale Kanzleien, die ihnen dann helfen und also mehr so praktische Unterstützungssachen. Und das Dritte und mal spätestens ab Jahr vier wahrscheinlich das Wichtigste ist so eine Art, also ich würde mal sagen, so eine Art Heimat. Also [00:03:00] das sind, wenn die zu unseren Veranstaltungen kommen und die anderen Menschen treffen, die wir auch ausgewählt haben, Dann ist da eine andere Atmosphäre, als wenn sie sich mit anderen Leuten treffen. Also da fragt niemand, was die da machen und was das bedeutet und wie das funktioniert und ob sie nicht, also da ist man dann unter seinesgleichen und das ist manchmal sehr wohltuend für diese Menschen. Ja großartig Wenn ich jetzt an KI denke und in welchen Bereichen KI so zum Einsatz kommt, dann schweben mir alle möglichen Branchen vor. Aber Sozialunternehmen sind ja nicht in meiner ersten... Ja, meine ersten Auswahl so gesehen. Wie kam das denn und wann seid ihr denn zu KI gekommen oder ist KI zu euch gekommen? Wie waren da die Anfänge? Also zunächst mal... Also ich kann natürlich nicht für den Sektor als Ganzes sprechen, ja, aber dadurch, dass wir natürlich die [00:04:00] besonders innovativen Leute in unserem Netzwerk haben, also ich würde mal sagen, dass also zumindest unser Netzwerk ist weiter im Durchschnitt als so der Mittelständler in Deutschland, ja, also wir haben da schon Leute drin. Die schon seit Jahren mit, also AI-gestützt die Regenwälder Brasiliens mit einem neuen Monitoring-System versehen haben oder die so rudimentäre Rechtsberatungen in die hintersten Ecken von Indien bringen und was, also das, da geht schon so einiges, ja. Und Ashoka ist halt bei solchen Sachen nicht ganz vorne mit dabei, aber weil wir das natürlich mitkriegen aus den Leuten in unserer Fellowship können wir auch nicht immer so ewig warten. Das Thema ist zu uns gekommen. Ja, ich denke, es ist fair zu sagen, weil ich das lustig fand. Ich habe einfach angefangen, also immer wenn die Menschheit wieder was Lustiges baut, ja, dann gucke ich mir das gerne an. Also es kann irgendein neuer Trick sein für irgendeinen mathematischen Beweis oder so die [00:05:00] Blockchain-Technologie wie genau das funktioniert. Und diesmal war es halt AI, okay. Und dann habe ich also irgendwann angefangen mit GPT-2 damals noch. Also das habe ich damals gefüttert Also feingetunt wie man sagen würde, mit ein paar hundert Wirkungsstrategien, die wir von unseren Fellows kennen und habe das Modell dann gefragt, was Ashoka denn machen könnte, um unsere Ziele zu erreichen. Und dann hat das halt lauter Antworten ausgespuckt und von zehn Antworten waren natürlich sechs totaler Quatsch Also da konnte man nur drüber lachen und zwei waren so ein bisschen trivial. Ja, da haben wir natürlich längst drüber nachgedacht aber zwei waren auch so Momente Das ist vielleicht gar nicht so dumm da müsste man jetzt vielleicht mal irgendwie drüber nachdenken. Und da war ich so, okay, also wenn... Wenn jetzt auf einmal irgendeine algorithmische Blackbox mit irgendwie zwei Stunden Arbeit Ideen ausspuckt, die man nicht direkt als bescheuert verwerfen kann, und ich muss dazu sagen, ich habe die ersten acht Jahre bei [00:06:00] Ashoka mich nur mit Wirkungsstrategien beschäftigt also wenn ich das nicht direkt verwerfen kann, dann ist das jetzt nicht, also das ist ein gewisser Standard zumindest, ja, dann... Dann ist hier Musik drin und dann hat es mich nicht mehr losgelassen. Und dann habe ich einfach im Grunde meine eigentliche Arbeit ein Stück weit ignoriert und angefangen AI-Applikationen für die Organisation zu bauen. So lange, bis ich das nicht mehr so richtig verheimlichen ließ. Und als wir dann so die ersten sechs Applikationen hatten, wurde es dann dem globalen Board präsentiert und dann haben die mir einen neuen Job gegeben. Kannst du mal sagen, was waren da die ersten Apps, die du entwickelt hast? So die ersten, ersten Versionen von so einer Fellow-Suche, also diese 4.000 Fellows, die wir ausgewählt haben bisher, da haben wir wirklich sehr detaillierte Informationen zu. Das ist ein Datenschatz von 20.000 Seiten oder so. Also zu den Innovationen und den sozialen Problemen und den sozialen Kontexten in denen die arbeiten und so weiter. Es ist [00:07:00] wahrscheinlich die mächtigste Datenbank in diesem Bereich auf der Welt. Aber das sind natürlich große Mengen an qualitativen Daten, die man jetzt nicht so einfach analysieren kann. Und mit diesen Tools ging das dann aber schon. Das war alles noch sehr hässlich, also da mussten immer alle Anfragen über mich laufen. Ich habe das dann auf meinem Laptop laufen lassen und die Ergebnisse per E-Mail geschickt und so ganz furchtbar alles noch. Aber die Dinger haben halt funktioniert. Und ja, das waren die Anfänge. Wenn ich auch zum Teil mit meinen Kunden arbeite, aber auch so viel aus anderen Unternehmen höre dann ist ein großer Blocker dafür, dass ich Dass KI nicht so richtig vorwärtskommt. Zum einen dass keine Ressourcen bereitstehen also kein Budget, keine Menschen, die sich darum kümmern können, vor allem diese beiden Dinge. Und das Zweite ist, dass es nicht so richtiges Verständnis gibt von der obersten Etage. Wie soll uns das denn jetzt eigentlich weiterbringen? Und da eigentlich noch kein Fokus drauf [00:08:00] liegt, das mal zu durchdenken wie das die eigene Wertschöpfung, aber auch die Art und Weise, wie... Dinge erledigt werden in der Organisation verändert. Wie war das denn dann bei dir? Hast du das dann am Anfang so als Hobby nebenbei gemacht oder hast du dann schon relevant Zeit dafür bereitgestellt bekommt und was hat sich dann verändert, nachdem dann eher die Führungskräfte oder das Management davon Wind bekommen hat? Ich muss vielleicht erstmal dazu sagen, also nicht, dass Leute jetzt voreilig das nachmachen, was ich jetzt gleich erzähle. Also Ashoka versteht sich selbst als eine Plattform für Intrapreneure. Also wenn da Leute ein bisschen abstruse Dinge tun, dann ist das erstmal nicht schlimm. Also das ist Teil des Programms weil dadurch neue Sachen entstehen bei uns. Also die entstehen selten dadurch, dass... Dass irgendeine Führungsriege sagt, wir machen jetzt X, sondern Leute bauen halt Dinge und das, was funktioniert, wird dann halt größer und so. Und [00:09:00] ich habe einfach ein Stück weit meinen alten Job ignoriert und meine Teams haben das eine Zeit lang mitgetragen Dass ich dann halt nur noch 50 Prozent das gemacht habe, was ich eigentlich hätte tun sollen, bis dann halt ich auch für die neuen Sachen bezahlt wurde. Und ich habe explizit nicht darauf gewartet, dass mir irgendjemand den Auftrag gibt, das zu tun, sondern ich fand es halt lustig ich habe Potenzial darin gesehen und Dinge gebaut. Und das ist ja, wenn man einfach Dinge baut, Und ich habe die auch nicht immer, also bis auf dieses Allererste, aber ich habe die auch nicht alleine gebaut, sondern ich habe halt Leuten gesagt, ich finde das interessant. Wollt ihr mal explorieren? Wollt ihr auch mal Prototypen bauen? Und dann habe ich ja mit denen zusammen Dinge gebaut. Das heißt, immer wenn da etwas entsteht, sind da ja schon Teams dahinter, denen irgendwo der Schuh drückt, also denen irgendwas auf die Nerven geht, was sie loswerden wollen. Und wenn dann irgendwas auch funktioniert, dann hat man ja auch direkt Fans, die das jetzt haben wollen. Ja Und so. Also das heißt, ich musste ja dann auch nicht da auftreten und sagen, hallo hallo, [00:10:00] eigentlich bezahlt ihr mich für was ganz anderes, aber ich glaube, wir sollten das verändern, sondern da kommen ja dann fünf, sechs Teams, die sagen, können wir das bitte behalten und ausbauen und so weiter. Und dann, also mit diesem Momentum kann man dann so erste Teams gründen und mehr Ressourcen bekommen Okay so da gehen wir jetzt gleich nochmal genauer drauf ein, denn es gibt ja den ganz klassischen Ansatz, dass top-down ein Strategieprozess gemacht wird und dann werden aus dieser Strategie werden dann Handlungsfelder abgeleitet und die werden dann noch runtergebrochen in Use Cases die werden dann bewertet und priorisiert und dann, Wird an ganz konkreten Use Cases gearbeitet in einem Projekt und die werden dann budgetiert und Ressourcen dafür aufgeteilt und dann gibt es ein Projektmanagement und so weiter. Und du hast mir auch im Vorgespräch gesagt, dass du nicht daran glaubst dass das so funktioniert, insbesondere bei KI und [00:11:00] hast einen ganz anderen Ansatz gewählt, den du Conscious Tinkering nennst Äh nennst, äh und du sagst dass ihr baut, um eine KI-Strategie möglich zu machen, aber nicht andersherum, äh nimm uns da mal mit, ja, wie, wie wie wie funktioniert das, hast gerade schon so ein bisschen angefangen aber, dass wir das wirklich mal im Detail verstehen, wie dieser Ansatz funktioniert. Ja als du gerade den traditionellen Ansatz skizziert hast, da ist ja, also ich war auch mal, anderthalb Jahre war ich auch mal so ein Berater, ja bei so einer klassischen Strategieberatung, da ist ja mein altes Beraterherz so richtig aufgeblüht ja, also das, solche Leute mögen das, das ist so das ist so richtig schön, da sitzt man sich in den Lehnstuhl und macht dann so einen Flipchart und macht sich Gedanken und bricht das dann runter, wie das in Zukunft alles auszusehen hat, ne, super, ja Und ich glaube aber auch, dass das der Grund ist, warum dieser traditionelle Ansatz so verbreitet ist, weil nämlich solche Leute damit Geld verdienen. Na gut. Und ich will aber auch, wenn ich jetzt die Alternative skizziere, ich möchte diesen Ansatz gar nicht zu sehr diskreditieren. Also der [00:12:00] kann durchaus funktionieren und der kann auch im Sozialsektor funktionieren. Es ist nur so, dass es nicht der einzige Ansatz ist und Organisationen sollten sich bewusst sein, was die Alternativen sind und dann eine Entscheidung treffen. Und so mit diesem Disclaimer vorweg, was würden wir unter Conscious Tinkering bezeichnen? Das ist ein ganz einfacher Kreislauf, der beginnt immer mit Sachen bauen, konkrete Dinge bauen. Also wir reden nie, was wäre wenn, wir machen nie ein Dokument mit, wie soll die App, wir machen ein 30-minütiges Gespräch mit unseren Kunden Mit unseren Tüftler-Patenschaften also mit den Teams, die irgendwas haben wollen. Und entweder starten wir dann danach am Tag oder halt nicht. Und wenn nicht, dann ist es aber auch tot. Und wenn ja, dann geht es aber auch los. Und dann wird etwas gebaut über so einen Zeitraum von vielleicht sechs bis acht Wochen. Und dann danach [00:13:00] funktioniert irgendetwas. Also das ist halt Rapid Prototyping. Also man hat dann ein Produkt, irgendeine App, die irgendetwas macht. Und auf dem Weg dahin hat man wahrscheinlich irgendwas gelernt. Also man ist jetzt als Organisation wahrscheinlich in irgendeinem Bereich ein Stück weit weitergekommen. Also wir sprechen da von AI-Readiness, die wir in fünf Bereiche unterteilen. Da geht es um so die IT-Infrastruktur, das Datenmanagement, AI-Governance die Tüftlerfähigkeiten, die man so hat. Also so verschiedene Bereiche. Und mit jeder App, die wir bauen, versuchen wir, In mindestens einem dieser Bereiche mindestens einen kleinen Schritt weiterzukommen. Also es kann sein, dass man für eine App eine rechtliche Frage klären muss. Aber die ist dann halt auch geklärt und dann kann man die in Zukunft einfach als gegeben ansehen. Oder man braucht vielleicht für ein Produkt irgendein kleines neues Feature auf den Servern, auf denen man diese Apps nachher packt damit die da laufen können. Und dann hat man dieses Feature für die nächsten, [00:14:00] die man baut und so weiter. Oder man muss irgendwie bei Sachen mal drei Teams koordinieren und dafür muss man so eine Governance-Frage klären. Wer redet denn jetzt eigentlich mit wem und wer entscheidet denn jetzt und so. Und in Zukunft kann man das aber schneller machen, weil man das ja jetzt sich einmal überlegt hat. Und auf der Grundlage dieser verbesserten AI-Readiness kann man dann immer anspruchsvollere, immer kompliziertere, immer sensitivere Applikationen bauen. Das ist der Tinkering-Teil und wie das Prototypenbauen einem hilft, als Organisation immer weiter voranzukommen und größere ambitioniertere Dinge machen zu können. Und dann gibt es noch diesen Conscious-Teil, also man muss das halt auf eine verantwortungsbewusste Art und Weise machen. Man kann jetzt nicht anfangen, also wenn man halt noch keine robuste IT-Infrastruktur hat und noch keinen AI-Ethics-Kodex durch seine Gremien gejagt hat und so, dann sollte man vielleicht nicht gleich mit den sensitivsten Daten und [00:15:00] den kritischsten Prozessen seine Prototypen bauen, weil das fliegt einem um die Ohren. Das heißt, also der Conscious-Teil sagt eigentlich nur, hab ein gewisses Verständnis dafür, Wo du als Organisation gerade stehst und was du dir in diesem Rahmen zumuten kannst, was du bauen kannst, ohne dass die Welt untergeht, du verklagt wirst, die Leute dich hassen, deine Kunden dir... Also so, all das darf nicht passieren. Und natürlich musst du dann am Anfang relativ banale Dinge machen, mit Daten, die nicht sensitiv sind, in Prozessen die nicht kritisch sind usw., Aber das machst du, um Stück für Stück immer schwierigere Sachen machen zu können. Okay, ich habe noch ein paar Fragen dazu. Und zwar, die Teams, das habe ich jetzt so verstanden, die wissen praktisch dass du und dein AI-Lab, dass ihr helfen könnt, spannende Apps zu bauen, um Probleme zu lösen. Und [00:16:00] die können sich bei euch melden mit ... Jeder Idee, die sie so haben, ihr setzt euch 30 Minuten mit denen zusammen, versucht dann herauszufinden, ist das ein Problem, was sich lohnt zu lösen und ist es lösbar mit den Möglichkeiten, die ihr habt und wenn ihr innerhalb der 30 Minuten entscheidet, das ist so, dann fangt ihr sofort an oder ihr kommt in diesen 30 Minuten nicht zu einer Entscheidung und dann macht ihr es nicht. Habe ich das so richtig verstanden? Auch wenn wir nicht wissen, ob es funktioniert, das hält uns nicht ab. Also das ist kein Grund, das nicht zu machen. Also es sind ja Prototypen, da will man ja was lernen, möglichst schnell. Und wenn man noch nicht genau weiß, wie man es umsetzt, ja, das ist unser Problem, aber nicht das Problem unserer Partnerteams. Da müssen wir dann halt mit klarkommen. Also, und wenn wir dann halt lernen, dass es nicht geht oder dass es zu schwierig wäre für unsere aktuelle IT-Infrastruktur oder zu teuer oder wie auch immer, dann können wir das den Leuten ja dann immer noch sagen. Das ist, also wir setzen so einen humoristisch formulierten kleinen Vertrag mit diesen Leuten auf und da steht drin, ja, also Achtung [00:17:00] Prototyp-Projekt. Kann schief gehen, kann hässlich aussehen am Ende, also alles mögliche was da schief gehen kann, ja? Und das müssen die unterschreiben. Und nur dann geht's los. Aber nur, weil wir noch nicht wissen, wie es geht, das ist kein Grund. Ja, okay. Und inwiefern setzt ihr, also inwiefern müssen die Teams schon ein Verständnis davon haben, ob das Problem überhaupt ein Durch KI zu lösendes Problem ist, weil das erlebe ich auch oft, dass wir jetzt irgendwie Sprachmodelle haben und Gen-AI und irgendwie Machine Learning und jetzt wird eine Wenn-Dann-Automation mit einem Large-Language-Model auf einmal gelöst, was irgendwie keinen Sinn macht. Wie geht ihr damit um, dass ihr irgendwie diese Ideen die da kommen, Er ist ein bisschen qualifiziert und kategorisiert. Ja, also da gucken wir schon drauf. Also es muss schon eine Problemstellung [00:18:00] sein, für die sich ... AI-Technologien besonders gut eignen und ansonsten schicken wir die zurück zu unserem Salesforce-Support, damit die den irgendeinen Makro bauen, so das ist schon klar, ja, oder wir sagen denen kurz hier, gib das und das mal in Chat-GPT ein, das ist die Excel-Funktion die du eigentlich brauchst und lass uns in Ruhe so, also das kann schon auch passieren, also das blocken wir ab, wir sind schon ein AI-Lab und nicht ein Wir lösen all deine digitalen Probleme, App, so. Aber oft ist eher das Problem, dass die Leute mit, also die denken halt immer, AI ist irgendeine Art Zauberstab ne? Und da muss man so ein bisschen Realismus reinbringen und sagen, also in diesem Prototypenprojekt, was wir jetzt über so ein paar Wochen und ja auch nur mit wenig Zeitaufwand, also wir machen ja von denen drei, vier parallel und so, machen, müssen wir uns auf eine Kernfunktion fokussieren. Und dann sehen wir weiter. Dann gucken wir erstmal, ob die wirklich den Wert bringt, den ihr glaubt ob die Leute das annehmen, was die für Feedback haben, ob ihr es überhaupt größer machen wollt und so. Immer schön kleine Schritte. Und dann müssen die erstmal überlegen, okay, [00:19:00] was ist denn wirklich die Kernfunktion, um die es hier gehen soll bei dem Prototypenprojekt und was ist mehr so netter Schnickschnack, den wir vielleicht dann später machen, wenn wir schon gesehen haben, dass da Musik drin ist. Okay, also ich finde den Ansatz total spannend, weil ich glaube, dass ihr damit sowohl ganz viel Know-how in der Organisation aufbaut, weil ihr einfach an ganz, ganz vielen unterschiedlichen Projekten Anwendungsfällen arbeitet und vor allem ja im permanenten Austausch auch mit den Anwendern Seid, die wahrscheinlich auch gut verstehen, was geht, was nicht, wo sind Stärken Schwächen und so. Ich finde diesen sehr iterativen Ansatz, die AI-Readiness zu steigern und zwar nicht über einen theoretischen strategischen Prozess, sondern halt Im Labor, finde ich klasse. Trotzdem wirkt das auf mich noch in Teilen sehr kleinteilig. Also das Tier irgendwie ein Prototyp da ein Prototyp wahrscheinlich irgendwie sehr unterschiedliche Arten [00:20:00] auch von Aufgaben. Wie sieht denn deine technische Plattform Aus, auf der du das machst und schaut ihr dann auch, dass ihr wirklich so ein Use-Case-Portfolio aufbaut, was ihr dann weiterentwickelt auch nachhaltig in eure Prozesse integriert, also wie, worauf baut ihr das und wie integriert ihr das dann später vielleicht auch in Prozesse und Systeme und so weiter? Ja Erstmal die technische Frage ist, glaube ich, gar nicht so zentral und da werden auch Organisationen unterschiedliche Lösungen für finden. Wir haben halt, eines unserer IT-Teams kennt sich halt gut mit diesen Amazon-Web-Cloud-Geschichten aus und deshalb packen wir halt alles da auf irgendeinen Server, den die für uns managen, aber hätten jetzt, Hätte jetzt unser anderes IT-Team, was sich besser mit den Microsoft-Cloud-Lösungen auskennt, gesagt, wir wollen das aber unbedingt machen, dann hätten wir halt jetzt alles auf Azure, das ist uns im Grunde wohl. Also darum geht es gar nicht so sehr. Die [00:21:00] entscheidendere Frage ist dieses, was ist dann letztlich der Sinn von diesen Prototypen? Und du hast ganz recht, der Sinn ist nicht der Prototyp. Das ist nur Mittel zu einem anderen Zweck nämlich mit den Prototypen identifiziert man die Anwendungsfälle, die man größer machen will. Und die dann auch es rechtfertigen zu investieren und Management-Fokus und Kapazität dahinter zu packen. Also die bislang größte Applikation ist halt eine stark ausgebaute Variante von dem Tool, was ich am Anfang schon mal erwähnt hatte, mit dem wir nämlich diesen Schatz von 20.000 Seiten Fellow-Informationen analysieren können. Und die Analysekapazitäten von diesem Tool sind jetzt wirklich also sehr, sehr schön und flexibel. Ja, man kann jetzt sehr abgefahrene Dinge in 30 Sekunden machen, für die man sonst Tage gebraucht hätte. Also nicht übertrieben Wir haben echte, routinemäßig auftretende Analyseschritte, die viele Teams auf der Welt ständig machen müssen und Tage dauern jeweils auf [00:22:00] eine Minute reduziert so. Und und da wären wir aber jetzt so, also da sind wir aber drauf gekommen, weil insgesamt vier Prototypen alle in so eine ähnliche Richtung, auf der Grundlage ähnlicher Daten, aber mit etwas anderen Stoßrichtungen und so gegangen sind. Irgendwann haben wir gesagt, so, also das ist jetzt für uns Signal genug, ja, wir haben jetzt hier vier Truppen Die alle irgendwas hier so, was Ähnliches machen wollten. Wir bauen das jetzt alles in eine schicke App mit einer schönen Benutzeroberfläche mit einer schönen API-Schnittstelle mit schnell und performant und alles, was man halt in so einer echten App gerne hätte, nicht in diesen kleinen, also diesen Proto-Dingern. Und das Ding, das spart jetzt mehrere Vollzeitequivalente an Zeit. Einfach so, ja, aber das, da wären wir halt nicht drauf gekommen, hätten wir nicht die Prototypen gemacht, weil wer weiß, was die Leute so wollen, also wir haben ja auch vorher mal, wir haben ja auch unseren Chef mal gefragt, unseren globalen CEO, was, was glaubst du denn, ja, was der so gesagt hat hat sich als nicht so hilfreich heraus, also das ist halt, man lernt es halt nur, Wenn [00:23:00] man mit den Teams, die es dann am Ende nutzen sollen, wirklich sich die Hände dreckig macht, viele Sachen ausprobiert und dann die paar Perlen findet, bei denen es sich lohnt viel mehr zu investieren. Aber das muss man dann halt auch machen. Sonst hat man nur in der Tat ein Sammelsurium An kleinen Applikationen die jeweils nur von ein paar Teams benutzt werden. Das haben wir auch und da sind wir auch stolz drauf und das macht auch viel Spaß und gerade wenn es sehr bunt wird und auch lustig sein darf und so, ist das schön, aber das ist nur ein Schritt hin, um diese paar wirklich schönen Use Cases groß zu machen. Ja also es ist spannend. Ich kann es tatsächlich aus meiner Erfahrung nur bestätigen. Ich glaube, unser Ansatz ist immer noch, entscheidet sich noch ein wenig, aber ist, glaube ich, in der Natur sich doch sehr ähnlich. Also, Ich hatte auch vor Jahren angefangen irgendwie auf die großen Moonshot-Use Cases zu schauen, die ganze Abteilungen [00:24:00] wirklich von Grund auf irgendwie verändern können. Aber die Komplexität dahinter ist halt enorm hoch, auch die Investitionen die man irgendwie tätigen müsste. Und es hat immer wieder dazu geführt, Dass nicht so richtig Momentum und Geschwindigkeit entstanden ist. Man immer wieder vor diesen großen Projekten stand mit sowieso sehr vielen Unsicherheiten, die es gerade so auf der Welt gibt und nicht so richtig in die Umsetzung gekommen sind. Mittlerweile Fangen wir auch tatsächlich eher explorativ an, um die Tools, Modelle, die es sehr, sehr niedrigschwellig zugänglich gibt, auf Alltagsaufgaben und Herausforderungen anzuwenden und dabei herauszufinden, wie kann es uns eigentlich weiterhelfen um dann daraus ganz konkrete Anwendungsfälle auch zu schneiden und die erstmal als Erweiterung für Mitarbeiter umzusetzen, bevor man anfängt Irgendwas zu automatisieren oder über irgendwelche Agenten oder komplexeren Systeme nachzudenken und das funktioniert [00:25:00] wunderbar, weil wir darüber sehr, sehr schnell in der Breite über verschiedene Teams herausfinden, was hilft wirklich, was können wir jetzt sehr schnell und einfach ansetzen mehr Kompetenzen und Wissen in den Teams aufgebaut wird und wir von da aus mit den ersten Erfolgen die wir auch zeigen können und dem Vertrauen, das in KI aufgebaut wurde, dann auch viel Informierter über größere ambition sprechen können ja  Felix Schlenther: Kurz in eigener Sache. Wenn dir der AI First Podcast gefällt und du mehr spannende Inhalte und hochkarätige Gäste hören möchtest, dann freue ich mich über deine Unterstützung. Mit einer Fünf-Sterne-Bewertung und einem Abo für den Podcast hilfst du uns sichtbarer zu werden und AI First weiterzuentwickeln. Für dich und die gesamte Community. Ich danke dir.  Felix: Lass uns mal da weitergehen in ein paar Use Cases. Du hast immer schon mal wieder was angeschnitten aber vielleicht kannst du uns mal so drei, vier Beispiele geben, [00:26:00] was das denn für Apps sind, die ihr da gebaut habt und Was die heute für einen Mehrwert erzeugen. Und du hast ja auch gesagt, ein paar Sachen sind eher auch unterhaltsam wäre auch gerne so ein Beispiel. Es gibt Ashoka hat so eine schöne Tradition, einmal im Jahr geben wir so eine interne Satire-Zeitschrift heraus, in der wir uns selbst aufs Korn nehmen. Und zu diesem Anlass hat das AI Lab auch einen kleinen Beitrag geleistet Also wir haben eine App gebaut, wo man Wo man beliebigen Text eingeben kann. Und der wird dann auf ein absurdes Level jargonifiziert mit all diesen Begriffen die wir intern bei Ashoka nutzen und die sonst kein Mensch versteht. Und ja, das ist auch immer noch, glaube ich in den Top 5 genutzten Anwendungen bis heute, weil Leute das nicht so gut finden. Aber gut, das ist natürlich, das treibt jetzt nicht so schrecklich viel Wert für die Organisation. Vielleicht ein paar andere Sachen, [00:27:00] ähm, Also wir haben zum Beispiel so ein Policy-Team auf europäischer Ebene, das einige der Erkenntnisse von unseren Fellows versucht, in den politischen Betrieb in Brüssel einzuschleusen. Und wir haben für die ein Tool gebaut, da kann man ein beliebiges politisches Ziel eingeben und dann liest es die... Die Profile von allen Mitgliedern des Europäischen Parlaments also was die in Reden gemacht haben, was für Dokumente die mit veröffentlicht haben, geht auf deren persönliche Website, scrapt das alles, analysiert das und findet dann raus, was die wahrscheinlichsten Verbündeten sind, um dieses politische Ziel zu erreichen oder zumindest die Idee zu lancieren. Und natürlich müssen dann Leute noch nachrecherchieren, aber wahrscheinlich sind die 20, mit denen man reden will, unter den ersten 50 Treffern. Von diesem Tool und da muss man nicht mehr 700 Leute scannen, sondern nur noch halt diese 50. Und das ist eine Art von, das sind Datenmengen die da prozessiert werden, also viel Spaß das händisch zu machen, ja, also wer [00:28:00] immer das machen muss, der kündigt danach sonst. Sowas ähnliches haben wir auch gemacht für Fundraising, also Fundraising ist ja immer für soziale Organisationen so eine besonders schreckliche Tätigkeit. Und in dieser Tätigkeit gibt es aber auch nochmal Aktivitäten, die besonders schlimm sind. Und also die wirklich besonders schlimme ist, aus so Datenbanken mit tausenden von Stiftungen und Geldgebern und so möglichen Partnern die rauszufinden, bei denen es sich überhaupt lohnt mal eine E-Mail zu schreiben. Und auch das können wir jetzt ein Stück weit automatisieren. Also wir haben ein Tool gebaut, da gibt man auf der einen Seite ein, was sind die verschiedenen Programme und Initiativen für die Ashoka aktuell Geld sucht Also 15 bis 20 Einträge oder so, zum Beispiel für Ashoka Europa gerade. Und dann packt man auf die andere Seite so eine Liste mit tausend Webseiten von tausend Stiftungen, die kann man einfach, die gibt es im Internet oder kann man kaufen für 10 Euro oder so. Und dann geht das Tool auf die Seiten, versteht genau, was sind deren, also von diesen Stiftungen, was kostet Worauf spezialisieren die sich, welche Art von Wirkung wollen die haben, in welchen Regionen sind die [00:29:00] aktiv, welche Arten der Förderung geben die raus, alles wird da schön auseinandergebösert. Auf dieser Grundlage entwickelt das Tool dann einen Vorschlag was die beste Kombination an Initiativen wäre, die man diesem Partner vorschlagen könnte in einem ersten Gespräch So eine Art Elevator-Pitch wird dann gebastelt individuell für diesen möglichen Partner. Und diese Elevator-Pitches werden dann gerankt danach wie erfolgsversprechend die aussehen gegeben. Was wir wissen über diese Partner. Und dann kriegst halt eine Liste und dann hast du nicht mehr einen Wust von tausend sondern dann weißt du halt, okay, hier hat die AI gesagt, das hat 90 von 100 Punkten da fangen wir mal mit an und die 20 von 100, die ignorieren wir mal schön. Und da, also das ist auch wiederum, also da kannst du mehrere Leute mit ersetzen, weil das auf dieser Website, das einfach so viel. Und halt Was wir halt gerade versuchen noch ganz stark auszubauen, ist weiter die Analysekapazität über die Daten, die wir über unsere Fellows haben, weil das ist wirklich, das ist ein [00:30:00] weltweit einmaliger Datenschatz, da kann man so viel raus, also wir können jetzt sowas machen wie, du bist... Ein Schulleiter in einer Realschule in Hessen möchte seinen SchülerInnen gerne mehr Mitspracherechte geben im Schulalltag. Finde mir alle Fellows auf der Welt, die SchülerInnen mehr Mitsprachemöglichkeiten in ihren Schulen geben. Fass mir die Innovationen zusammen und mach daraus ein 100-Tage-Sofort-Programm das diese Schulleitung jetzt umsetzen könnte. Und das macht das. Das dauert halt eine Minute und dann kommt das da raus. Also man kann jetzt wirklich Wert rausschäffeln aus diesen Seiten und Seiten an Text. Sehr spezifisch. Also wir haben eine Variante für Geldgeber wir haben eine für Partnerschaft. Also wenn irgendein Fellow irgendwas erreichen will auf der Welt. Ich möchte... Dass man Paketlieferungen in Afrika elegant zu ganzen [00:31:00] Containern zusammenfassen kann, damit die günstiger nach Amerika shippern können oder irgendwie sowas Und dann sagt er einem, welche Fellows einem dabei helfen können und zwar genau wie, also was die beitragen können, welche Kontakte die haben, welche Daten die haben, welche Erfahrungen die einbringen können und so. Und dann kriegen die sozusagen das E-Mail-Anschreiben direkt geliefert und können dann direkt sagen, hier. Willst du mir nicht helfen, können wir mal reden und so. Also phänomenal, was man aus diesem Netzwerk auf einmal rausquetschen kann, wenn man es endlich vernünftig analysieren kann. Woher habt ihr denn die Daten? Sind die alle schon da oder musstet ihr die auch aufbauen Da sind wir jetzt in einer extrem privilegierten Situation, nämlich dass wir seit 40 Jahren, also dieser Auswahlprozess um die Leute auszuwählen, der ist sehr intensiv. Das ist auch immer nicht unbedingt so das Allerangenehmste für die Leute, die da durchgehen, weil also das dauert ein Jahr. Da sind viele Gespräche, da gehen wir zu denen nach Hause. Natürlich nicht nach Hause, aber also da, wo die ihre Arbeit machen und holen Referenzen ein und fragen ganz viele andere Leute, was die davon denken. Und dann [00:32:00] müssen die durch drei Panels durch und dann, also es hört überhaupt nicht auf. Und in diesem Prozess da fallen natürlich schöne viele Daten an. Und die kondensieren wir in ein Profil Das strukturiert ist und auch in der Struktur sich seit 40 Jahren nicht verändert hat. Und das ist unser Datenschatz. Und den kann man natürlich nicht so einfach aufbauen jetzt. Also deshalb, aber wenn man ihn eh schon hat, dann ist AI natürlich ein Segen. Ja. Okay. Großartig Genau diesen Segen den gibt es in vielen Organisationen nicht, aber umso besser, wenn ihr da jetzt gut mit Modellen draufsetzen könnt. Ja. Mit welchem Team macht ihr das jetzt gerade? Wie seid ihr in dem AI-Lab aufgestellt? Weil das sind ja schon wirklich handfeste Anwendungsfälle und die wahrscheinlich ja weit über Prototypen-Status hinausgegangen sind und im Produktivbetrieb sind, relevante Effizienzen in der Organisation heben. Mit welchen Leuten macht ihr das? [00:33:00] Also, neben diesen drei Sachen, die ich da jetzt kurz skizziert habe, also wir haben ein Portfolio von gut 20 Sachen, die in irgendeiner Form funktionieren aber natürlich nicht alle diesen Mehrwert bringen. Und wir machen das seit knapp anderthalb Jahren. So, wenn du das jetzt hörst, was glaubst du denn, was da so an Ressourcen hintersteckt? Ja, das ist ein bisschen schwierig, weil ich glaube, ich habe das mal von dir gehört. Deswegen bin ich da sehr stark geprimed. Aber das, was ihr da jetzt gemacht habt, kriegen andere mit 20 Leuten nicht auf die Straße. Ja, vielen Dank. Das werde ich genauso mitnehmen in meine nächste Gehaltsverhandlung. Also wir machen das mit anderthalb Leuten. Ja das ist halt dieser wahrscheinlich wirklich sehr pragmatische Ansatz dass ihr wahrscheinlich sehr, sehr viel Freiraum habt in der Art und Weise, wie ihr arbeiten könnt und einfach sehr stark, ja, dieser Conscious [00:34:00] Tinkering-Ansatz sehr stark auf Wert und Output getrieben, um das in der echten Welt zu verproben, von den Anwendern Feedback einzusammeln und dann von dort weiterzuentwickeln Entwickeln ja, das ist total, total faszinierend. Gucken was geht, schnell bauen, nicht reden, nicht verzetteln, die Leute gar nicht erst in ihren typischen Modus von, ja, dann lass uns mal in zwei Wochen wieder, nein, entweder ihr unterschreibt jetzt oder das ist durch hier, also man muss da wirklich auch so ein Stück weit eine andere Kultur etablieren und was man aber schon auch sagen muss, Als globale NGO mit zumindest im Bereich Sozialunternehmertum einer gewissen Reputation haben wir es natürlich auch leicht, wenn wir es mal brauchen, externe pro bono Unterstützung reinzuholen. Also in zwei Fällen zum Beispiel hatten wir so ganze Entwicklerteams, die dann mal Sachen schnell hübsch gemacht haben. Also die Prototypen bauen wir alle selber, aber immer wenn es darum geht, Sachen wirklich schick und performant zu machen und so, dann suchen wir uns einfach Partner, [00:35:00] weil es dann schneller geht. Wie blickst du denn gerade auf die AI-Welt? Allein in den letzten Wochen kommen immer neue Modelle. Jetzt kam Grog 3, hat wieder in sämtlichen Benchmarks andere Anbieter geschlagen, was ich zumindest nicht so erwartet hätte. Es kommen immer mehr agentische Fähigkeiten, Operator, Deep Research wird jetzt von allen Anbietern mit implementiert, OpenAI und Entropic haben ihre Roadmaps verkündet, das müssen sie natürlich auch tun, weil sie sehr, sehr viel Geld benötigen, aber wahrscheinlich sehen wir, vielleicht auch wenn, das haben wir jetzt den 19. Februar muss man immer dazu sagen, wenn der Podcast hier raus ist, vielleicht ist schon GPT 4.5 draußen. Ja Also, Agenten sind in aller Munde. Wir erleben wahrscheinlich das größte technologische Wettrennen was es jemals gegeben hat. Ja, wie blickst du darauf? Was [00:36:00] schaust du dir davon an? Wie bleibst du auf dem Laufenden und wie schätzt du diese Entwicklung ein? Zu den Entwicklungen, ich bin kein systemischer Marktbeobachter da werde ich mich schon zurückhalten. Bis jetzt habe ich eigentlich immer nur gesehen, wie Leute damit auf die Nase gefallen sind, irgendwelche Einschätzungen und Prognosen zu geben. Ich werde einfach da nicht mitspielen bei diesem. Also wie bleibe ich auf dem Laufenden? Ich glaube die wichtigere Frage ist, wie managt man die Tatsache, dass man nicht auf dem Laufenden bleiben kann? Also wir haben für unser Team festgelegt, dass jeder nur zwei Newsletter abonnieren darf, weil, also was sonst passiert nämlich ist, dass wenn du zu viel liest was wieder alles Neues kommt und ja auch nicht nur bei den Modellen die so die Schlagzeilen dominieren sondern für unseren Bereich sind ja fast noch wichtiger diese ganzen Softwarepakete mit denen man dann mit diesen Modellen schöner arbeiten kann. Und, also jeden Tag kommen fünf Sachen raus, die man [00:37:00] sich ja eigentlich angucken müsste. Nur wenn man sich die, also wenn man erstmal von ihnen gehört hat, dann will man sie auch testen weil sie ja versprechen, dass man irgendwas eleganter machen kann, als man das bisher machen konnte. Aber dann baut man nicht mehr Dinge. Dann ist man nur noch damit beschäftigt immer dem... Aktuell elegantesten letzten Trick hinterher zu hecheln und deshalb muss das eingedämmt werden. Also FOMO is real. Und das muss man managen und nicht den Anspruch haben, auf dem Laufenden zu bleiben. Also man muss natürlich schon merken, okay, wenn jetzt wieder in einem Bereich wirklich was Wichtiges Neues möglich ist, dann müssen wir da jetzt mal reingucken und so, aber dafür reicht es halt, wenn man zwei Newsletter abonniert und wenn man fünf hat und auf LinkedIn noch zugebombardiert wird und so. Dann geht zu viel mentaler Fokus drauf, um auf dem Laufenden zu bleiben. Und dann gibt es natürlich, also das ist jetzt so mein Tipp an KI-EntwicklerInnen da draußen, also nicht verrückt machen lassen, dann [00:38:00] gibt es natürlich diesen Aspekt von, es macht einfach Spaß Also was ist doch genial. Man kann es sich überhaupt nicht leisten, mal einen Monat lang nichts zu lernen. Das geht doch überhaupt nicht. Und das ist doch nett. Also so als ein großer Quell der Glückseligkeit geht da mit einher. Und gleichzeitig so auf so einer, also ich finde diese Argumente nicht gut Nicht dumm dass da große Risiken mit verbunden sind, wie wir das gerade machen, also in verschiedenen Szenarien. Dass böse Akteure diese Techniken nutzen, um damit Schindluder zu treiben oder auch, dass wir die Kontrolle über diese Agenten verlieren Weil sie sich selber zu schnell optimieren können oder sich replizieren oder was auch immer. Und ich würde mir wünschen dass wir als Menschheit da so ein bisschen mehr investieren. Also was wir nicht hinkriegen werden, glaube ich ist, dass wir die Entwicklungsgeschwindigkeit drosseln Weil es einfach zu viele Akteure [00:39:00] gibt, die bei diesem Wettrennen mitmachen und mindestens einer wird sich nicht daran halten, wenn alle anderen auf einmal stoppen. Das ist, glaube ich zum Scheitern verurteilt. Was man aber, denke ich schon machen kann, ist, Geld in das Verständnis dieser Modelle zu stecken, in Sicherheitsprinzipien aller Art. Und ich könnte mir sogar vorstellen... Dass es sich lohnen würde, als Staatenverbund da ein sehr großes Projekt mal draus zu machen, also wirklich so Moonshot-mäßig, also sowas wie, wir kaufen jetzt einfach mal die 100 cleversten Köpfe ein und es ist uns auch total egal, was die an Geld haben wollen, die werden weggezogen aus allen Labs und Unis und wo sie halt herkommen müssen und die schließen wir jetzt fünf Jahre auf so eine Insel ein und Bis sie dieses Alignment-Problem gelöst haben auf einer technischen Ebene oder wie auch immer. Also so ein bisschen Manhattan-Project-mäßig, weil selbst wenn das nur dazu [00:40:00] führen würde, Dass die Chance für existenzielle Risiken von einem Prozent auf 0,5 Prozent gesenkt wird, also so für die Menschheit, hätte sich das gelohnt Also bester Return on Investment ever, was wir jemals ausgegeben haben. Und wahrscheinlich wäre aber der Vorteil noch größer. Und leider sehe ich das im Moment nicht. Also ich sehe eher, wie alle Staaten versuchen, noch schneller und noch schneller und bloß nicht aufhalten lassen und so. Und ich hoffe nur sehr, dass uns das nicht auf die Füße fällt. Wir werden es sehen. Es gibt ja viele utopische Theorien und dystopische Theorien. Ich glaube, es ist Glaskugel gucken, aber beide Szenarien haben auf jeden Fall Chancen einzutreten Ja, wir müssen nicht in die Glaskugel gucken, glaube ich. Also das wäre natürlich schön, weil wenn die gut ist, dann müssten wir nicht investieren. Also wenn man weiß, dass es gut geht, braucht man keine Versicherung. Das ist nett. Aber um die Entscheidung zu treffen, ob wir mehr in Alignment und Sicherheit und Verständnis Transparenz dieser [00:41:00] Modelle investieren sollten, müssen wir nur wissen, dass wir die richtig blöden Szenarien nicht ausschließen können. Und ich glaube, also das halte ich für wichtig Für erwiesen. Absolut, aber die Incentives sind ja aktuell nicht so gesetzt. Ja, für die Leute, die in dem Leistungswettbewerb sind, für die nicht. Aber für die politischen Entscheidungsträger auf nationaler und supranationaler Ebene sind die Anreize schon, die Menschheit zu schützen. Oder was heißt Anreize? Aber zumindest ist es ihr expliziter Auftrag unter anderem. Und ich fände es schon, also es wäre schon ein Armutszeugnis, wenn zum Beispiel europäische Staaten oder die UN es nicht hinbekämen, signifikante Summen bereitzustellen um dieses Problem zumindest mal sehr sauber zu verstehen. Und selbst das tun wir ja aktuell nicht. Zum Abschluss würde ich gerne noch deinen Blick bekommen auf [00:42:00] KI im Sozialsektor. Also steht die Technologie da gerade? Ich habe jetzt echt gelernt, dass ihr auf jeden Fall vor der Welle seid, das Feld von vorne anführt massiv wert für Ashoka durch euer Konzept Kleines, feines, sehr, sehr performantes AI-Lab geschaffen habt, dass diese Möglichkeiten müsste es doch dann auch für andere Sozialorganisationen dadurch ja massiv profitieren würden und die wahrscheinlich eh kleinen Budgets dann für wichtigere, wertstiftendere Dinge einsetzen könnten, anstatt für zum Beispiel administrative Bewältigung von Arbeit vorzunehmen Ja, wo der Bereich gerade im Bereich KI? Also generell deshalb sage ich die, das was ich mitbekomme aus unserem Netzwerk ist nicht repräsentativ für den Sektor. Insgesamt ist der Sektor glaube ich nicht so weit wie, also natürlich weiter als Bürokratie aber also Verwaltung, aber das ist klar, ja, das [00:43:00] kann man ja nicht unterbieten, aber nicht so weit wie zum Beispiel Unternehmen und das liegt schlicht daran, Also es gibt zwei limitierende Faktoren da. Das eine ist, also nicht weil wir nicht technisch also es ist einfach nur, diese Menschen, es braucht halt so ein paar Menschen, es braucht so ein paar Tüftler, so, nicht viele, also wie gesagt, wir machen das für eine Truppe mit weltweit 400 Leuten mit nicht mal zwei Vollzeitequivalenten so, also man braucht nicht viele, aber, also irgendjemanden der Python kann, braucht es schon, ja. Und diese Menschen, gerade wenn die sich mit KI-Anwendungen auskennen, die verdienen gerade ganz nette Gehälter da draußen. Und Leute mit netten Gehältern kriegt der Sozialsektor quasi generell nicht. Und das liegt an zwei Dingen. Also einerseits werden wir halt nicht für unsere Wirkung bezahlt. Also wenn wir etwas Gutes in der Welt bewirken, dann bringt das finanziell erstmal gar nichts. Also unsere Finanzierungs Was [00:44:00] wir an Einnahmen generieren, hat keine Feedback-Schleife mit dem, wie viel Gutes wir tun in der Welt. Während Unternehmen, wenn sie erfolgreich sind mehr Geld bekommen, dann kann man halt wachsen und exponentiell und tralala, das haben wir nicht. Das ist ein Stück weit auch ein Versagen von natürlich den politischen Rahmenbedingungen und so. Und das Zweite ist, was die privaten Rahmenbedingungen gibt, also Förderpartner und so, das, was wir machen bei Ashokai in diesem AI-Lab, das würde eine Stiftung unter Overhead fassen. Also, so internen Selbstorganisationskosten, die es dringend zu minimieren gilt. Meine Kollegin und ich, wir wählen keine Fellows aus. Wir sind quasi... Abfall, so, also und das ist kaum übertrieben, also das ist die Logik von Stiftungen, ja, und das heißt, wenn man als soziale Organisation solche technischen Innovationsteams aufbauen will, ja, viel Spaß, also das verkauf mal wem ja, das ist eigentlich kaum möglich und wir [00:45:00] können das jetzt mit ein paar Leuten machen, weil wir halt Mit einem gewissen Renommee und international und 40 Jahre, also wir kriegen so ein paar Leute zusammengekratzt, aber selbst das, also wir selbst haben auch uns noch nicht selber mit Fundraising finanzieren können. Bisher wurden alle unsere Anträge abgelehnt und wir konnten es machen, weil wir halt eine gewisse Größe haben. Also wenn wir zwei Leute dafür abstellen, dann profitieren davon 398 andere Leute. Wenn du hier eine soziale Organisation bist, nur in Deutschland mit, sagen wir mal, 20 Mitarbeitenden, dann wird es schon viel schwieriger, auch nur eine Person zu rechtfertigen die sich damit auseinandersetzt. Ja, okay. du da für Möglichkeiten oder das in Zukunft lösen zu können? Müsste es da irgendwie zentrale... Ja, wiederum Organisationen geben, die soziale Einrichtungen mit KI-Know-how unterstützen oder was siehst du da für Ansätze? Ja also die [00:46:00] üblichen Mechanismen also dieses Ressourcenproblem gibt es ja nicht nur im Bereich AI. Und das ist ja auch bei rechtlicher Expertise, also was immer man braucht, was Geld kostet ist immer dasselbe. Und ein Stück weit behelfen wir uns damit, dass wir uns einfach kostenlose Hilfe oder sehr günstige Hilfe aus der Privatwirtschaft holen, weil es gibt genug Leute, die sich in irgendeiner Form engagieren wollen, die gerne ein bisschen mehr Sinn in ihrem Leben hätten, was auch immer es dann jeweils ist und das zapfen wir dann halt ab. Machen wir ja auch. Also wir holen uns ja auch externe Entwicklerteams für bestimmte Aufgaben, damit wir mit den wenigen Kapazitäten, die wir finanzieren können, uns auf andere Dinge konzentrieren können. Aber viel mehr, viel mehr gibt es nicht. Das ist aber auch, das ist ein viel grundlegenderes also ich meine, da reden wir über eine völlig andere Welt letztlich. Also sobald Unternehmen für die negativen Externalitäten bezahlen müssen, Also für die sozialen Schäden, für die Umweltschäden und so weiter. Und für die positiven [00:47:00] Dinge, die sie bewirken Geld bekommen. Dann müssen wir gar nicht mehr von einem Feld Sozialunternehmertum reden, weil dann die ganze Wirtschaft Sozialunternehmertum ist. Weil nämlich alles andere dann wirtschaftlich keinen Sinn mehr macht. Nur da sind wir nicht. Und solange wir da nicht sind, müssen wir uns ein Stück weit behelfen. Ich hoffe, dass... Einige hier zugehört haben und sich an euch ein Beispiel nehmen können und das dabei hilft, zu zeigen, was möglich ist, auch mit verhältnismäßig wenigen Ressourcen aber verstehen natürlich diese Komplexität und die Systeme die einfach mit der Zeit gewachsen sind und die man jetzt auch nicht so einfach aufbrechen kann. Also wenn es hier Zuhörerinnen gibt Gibt, die Lust haben, soziale Einrichtungen mit ihrem KI-Know-how zu unterstützen, dann wird das dringend benötigt und die Potenziale sind auf jeden Fall gegeben, wie wir heute von Odin gelernt haben. Vielen Dank, dass du uns einmal durch euren Ansatz geführt hast, den ich sehr, sehr freue. Erfrischend finde durch die [00:48:00] vielen Use Cases dein Blick auf die KI-Entwicklung und sich nicht nervös machen zu lassen, sondern einfach fleißig weiterzubauen und auf dem Weg zu lernen und die Ambitionen wachsen zu lassen. Hat mir große Freude gemacht. Vielen Dank. Ja, sehr gerne. Und für die Leute, die das vielleicht in irgendeiner Form ansprechend oder charmant finden, also das ist halt das Schöne an diesem Ansatz. Wenn jemand ein bisschen technischen Hintergrund hat, ihr könnt einfach anfangen Also nicht warten, dass irgendein Management irgendwas sagt und es macht wirklich Spaß, so zu arbeiten. Es ist nicht nur effizient, es ist auch ein sehr schönes Leben, was da mit einhergeht. Also ja, viel Spaß dabei. Danke.
This is a success message.
This is an error message.