Man lernt es nur, wenn man sich die Hände dreckig macht – viel ausprobiert und dann die wenigen Perlen findet, in die es sich lohnt zu investieren.
Odin Mühlenbein
Co-Gründer AI Lab
Ashoka
Odin Mühlenbein

#24AI Tinkering bei Ashoka

Intro

In dieser Episode des AI First Podcasts spricht Felix mit Odin Mühlenbein, Co-Gründer des AI Labs bei Ashoka, dem weltweit größten Netzwerk von Sozialunternehmern. Odin erklärt den innovativen "Conscious Tinkering"-Ansatz, mit dem sie bei Ashoka KI-Anwendungen entwickeln – pragmatisch, schnell und mit beeindruckenden Ergebnissen. Mit nur anderthalb Vollzeitstellen hat das AI Lab über 20 funktionierende Anwendungen geschaffen, die mehrere Vollzeitäquivalente an Arbeitszeit einsparen. Das Gespräch zeigt, wie auch Organisationen mit begrenzten Ressourcen durch schnelles Prototyping und konsequenten Fokus auf Wertschöpfung KI erfolgreich implementieren können – und warum dieser Ansatz für viele Unternehmen lehrreicher sein könnte als traditionelle Strategieprozesse.


Inhaltsübersicht

  • Wie Ashoka als weltweit größtes Netzwerk von 4.000 Sozialunternehmern mit KI arbeitet und was das AI Lab leistet
  • Der "Conscious Tinkering"-Ansatz: Schnelles Prototyping statt langwieriger Strategieprozesse als Alternative zu klassischen Top-Down-Ansätzen
  • Konkrete KI-Anwendungsfälle: Von Fellow-Suche über Policy-Tools bis zu Fundraising-Unterstützung
  • Die AI-Readiness-Strategie: Wie jeder Prototyp die Organisation in fünf Kernbereichen weiterbringt
  • Mit anderthalb Vollzeitstellen zu über 20 Anwendungen: Wie das AI Lab trotz minimaler Ressourcen maximale Wirkung erzielt
  • Pro-Bono-Partnerschaften als Lösung für Ressourcenengpässe im Sozialsektor
  • Umgang mit FOMO: Warum man nicht auf dem Laufenden bleiben kann und wie man damit umgeht
  • Die Herausforderungen des Sozialsektors bei KI-Adoption und warum Overhead-Denken Innovation verhindert
  • Odins Perspektive auf KI-Sicherheit und die Notwendigkeit eines "Manhattan Project" für AI Alignment
  • Praktische Tipps für KI-Entwickler: Einfach anfangen statt auf Management-Freigabe warten

Über den Gast

Odin Mühlenbein ist Co-Gründer des AI Labs bei Ashoka, dem weltweit größten Netzwerk von Sozialunternehmern. Nach mehrjähriger Arbeit in anderen Bereichen bei Ashoka und einem Hintergrund in der Strategieberatung hat Odin sich zum "Haus-und-Hof-AI-Entwickler" der Organisation entwickelt. Er begann mit eigenen Experimenten mit GPT-2, bei denen er Wirkungsstrategien von Ashoka-Fellows analysierte, und baute daraus systematisch ein Portfolio von über 20 KI-Anwendungen auf. Odin vertritt einen pragmatischen, praxisorientierten Ansatz zur KI-Integration, der auf schnellem Prototyping und kontinuierlichem Lernen basiert – und beweist, dass auch mit minimalen Ressourcen im Sozialsektor bedeutende KI-Innovation möglich ist.


Detaillierte Zusammenfassung

Ashoka und die Anfänge des AI Labs

Ashoka wurde vor etwa 40 Jahren gegründet und gilt als Wegbereiter des Begriffs "Sozialunternehmertum". Die Organisation unterstützt weltweit rund 4.000 besonders innovative Sozialunternehmer mit einem Lebensunterhaltsstipendium, Netzwerkdienstleistungen und Pro-Bono-Partnerschaften. Das Fellowship-Programm bietet den ausgewählten Sozialunternehmern drei Jahre finanzielle Unterstützung ohne Auflagen, Zugang zu internationalen Kanzleien für Rechtsberatung und vor allem eine "Heimat" unter Gleichgesinnten.

Odins Weg zum AI Lab begann aus persönlichem Interesse: "Immer wenn die Menschheit wieder was Lustiges baut, dann gucke ich mir das gerne an." Er begann mit GPT-2 zu experimentieren, fütterte das Modell mit Wirkungsstrategien von Ashoka-Fellows und war überrascht, dass von zehn generierten Antworten zwei tatsächlich bedenkenswert waren. Dieses Potenzial ließ ihn nicht mehr los. Er begann, parallel zu seiner eigentlichen Arbeit KI-Anwendungen für die Organisation zu entwickeln – so lange, bis es sich nicht mehr verheimlichen ließ. Nach der Präsentation der ersten sechs Applikationen vor dem globalen Board erhielt er einen neuen Job als Leiter des AI Labs.

Der "Conscious Tinkering"-Ansatz als Alternative zur klassischen Strategie

Odin kritisiert den traditionellen Top-Down-Strategieansatz nicht grundsätzlich, stellt aber eine pragmatischere Alternative vor. "Solche Leute mögen das, das ist so richtig schön, da sitzt man sich in den Lehnstuhl und macht dann so einen Flipchart", beschreibt er ironisch seinen eigenen Beratungshintergrund. Der Conscious Tinkering-Ansatz funktioniert anders: Er beginnt immer mit konkretem Bauen, nicht mit Dokumenten oder "Was-wäre-wenn"-Gesprächen.

Der Prozess ist radikal einfach: Ein 30-minütiges Gespräch mit einem Team, das ein Problem hat. Entweder startet das Projekt danach sofort oder es ist tot. Kein Mittelweg. Über sechs bis acht Wochen entsteht dann ein funktionierender Prototyp – kein Konzeptpapier, sondern eine App, die etwas macht. Entscheidend ist: Mit jedem Prototyp verbessert sich die AI-Readiness der Organisation in mindestens einem von fünf Bereichen: IT-Infrastruktur, Datenmanagement, AI-Governance, Tüftlerfähigkeiten oder Prozessintegration.

Der "Conscious"-Teil des Ansatzes bedeutet Verantwortungsbewusstsein: Organisationen müssen verstehen, wo sie stehen und was sie sich zumuten können. Am Anfang sollten nur banale Anwendungen mit nicht-sensitiven Daten in nicht-kritischen Prozessen entwickelt werden. Mit jeder erfolgreichen Anwendung wächst aber die Fähigkeit, anspruchsvollere, sensitivere und kritischere Use Cases anzugehen. Odin betont: "Man lernt es halt nur, wenn man mit den Teams, die es dann am Ende nutzen sollen, wirklich sich die Hände dreckig macht."

"Wir reden nie, was wäre wenn, wir machen nie ein Dokument mit, wie soll die App. Wir machen ein 30-minütiges Gespräch mit unseren Kunden. Und entweder starten wir dann danach am Tag oder halt nicht. Und wenn nicht, dann ist es aber auch tot."

Konkrete KI-Anwendungsfälle bei Ashoka

Die Fellow-Suche ist die wahrscheinlich wichtigste Anwendung des AI Labs. Ashoka verfügt über einen einzigartigen Datenschatz von 20.000 Seiten detaillierter Informationen zu allen 4.000 Fellows – ihren Innovationen, den sozialen Problemen, an denen sie arbeiten, und den Kontexten, in denen sie operieren. Diese qualitativen Daten waren bisher kaum analysierbar. Mit KI kann das Tool nun komplexe Abfragen in 30 Sekunden beantworten, die früher Tage gedauert hätten. Ein Beispiel: "Finde mir alle Fellows auf der Welt, die Schülern mehr Mitsprachemöglichkeiten in ihren Schulen geben. Fass mir die Innovationen zusammen und mach daraus ein 100-Tage-Sofort-Programm." Das System liefert nicht nur die relevanten Fellows, sondern erklärt auch, welche Kontakte, Daten oder Erfahrungen diese beitragen können, inklusive vorgefertigtem E-Mail-Anschreiben.

Das Policy-Tool für das europäische Ashoka-Team analysiert die Profile aller Mitglieder des Europäischen Parlaments – Reden, veröffentlichte Dokumente, persönliche Websites. Bei Eingabe eines politischen Ziels identifiziert es die wahrscheinlichsten Verbündeten unter den 700 Abgeordneten. Die 20 vielversprechendsten Kontakte sind mit hoher Wahrscheinlichkeit unter den ersten 50 Treffern, was die Recherchearbeit massiv reduziert.

Beim Fundraising-Tool können verschiedene Ashoka-Programme als Input gegeben werden, dazu eine Liste von tausend Stiftungs-Websites. Das Tool analysiert automatisch, worauf sich jede Stiftung spezialisiert, welche Wirkung sie erzielen will, in welchen Regionen sie aktiv ist und welche Förderarten sie vergibt. Daraus entwickelt es für jede Stiftung einen maßgeschneiderten Elevator-Pitch und rankt diese nach Erfolgsaussichten. "Da kannst du mehrere Leute mit ersetzen, weil das auf dieser Website, das einfach so viel."

Auch unterhaltsame Projekte haben ihren Platz: Für Ashokas jährliche interne Satire-Zeitschrift entwickelte das Team eine App, die beliebigen Text mit Ashoka-Jargon auf absurde Weise "jargonifiziert". Das Tool gehört zu den Top-5-genutzten Anwendungen – ein Beispiel dafür, dass auch spielerische Projekte Akzeptanz und Engagement für KI schaffen können.

Vom Prototyp zum Produktivsystem: Portfolio-Management und Skalierung

Nicht jeder Prototyp wird zum großen Wurf. Ashoka hat mittlerweile über 20 funktionierende Anwendungen, aber nur wenige davon erzeugen den transformativen Mehrwert der Fellow-Suche. Der entscheidende Punkt: Die Prototypen dienen der Identifikation der Use Cases, die es wert sind, groß gemacht zu werden. "Der Sinn ist nicht der Prototyp. Das ist nur Mittel zu einem anderen Zweck."

Die Fellow-Suche etwa entstand aus vier verschiedenen Prototypen, die alle mit ähnlichen Daten arbeiteten, aber unterschiedliche Stoßrichtungen hatten. Das war das Signal, diese Funktionalitäten in eine professionelle App mit schöner Benutzeroberfläche, API-Schnittstelle und Performance zu konsolidieren. Die resultierende Anwendung spart mehrere Vollzeitäquivalente an Zeit – aber nur, weil vorher durch Prototypen gelernt wurde, was die Teams wirklich brauchen.

Dieser Ansatz unterscheidet sich fundamental von traditionellen Anforderungserhebungen. Odin erzählt: "Wir haben ja auch unseren Chef mal gefragt, unseren globalen CEO, was, was glaubst du denn, ja, was der so gesagt hat hat sich als nicht so hilfreich herausgestellt." Die wahren Bedürfnisse kristallisieren sich erst im praktischen Arbeiten mit den Teams heraus.

Die technische Infrastruktur ist dabei pragmatisch gewählt: Ashoka nutzt Amazon Web Services, aber nur, weil ein IT-Team sich damit gut auskennt. Hätte ein anderes Team Microsoft Azure bevorzugt, wäre diese Plattform zum Einsatz gekommen. Die konkrete Technologiewahl ist zweitrangig gegenüber der schnellen Umsetzungsfähigkeit.

Mit 1,5 Vollzeitstellen zu 20+ Anwendungen: Ressourceneffizienz durch Fokus

Die beeindruckendste Zahl: Das AI Lab bei Ashoka arbeitet mit nur anderthalb Vollzeitäquivalenten. Odin und eine weitere Person haben in eineinhalb Jahren über 20 funktionierende Anwendungen entwickelt, von denen mehrere signifikante Effizienzgewinne bringen. Zum Vergleich: Viele Unternehmen schaffen mit 20-köpfigen Teams nicht annähernd diese Produktivität.

Der Schlüssel liegt im konsequenten Fokus: Keine langwierigen Strategieprozesse, keine endlosen Abstimmungsrunden, keine theoretischen Machbarkeitsstudien. "Wir machen nie ein Dokument mit, wie soll die App, wir machen ein 30-minütiges Gespräch mit unseren Kunden." Entweder das Projekt startet sofort oder es wird verworfen. Diese Radikalität verhindert, dass Ressourcen in Projekten versickern, die nie zur Umsetzung kommen.

Ein weiterer Erfolgsfaktor ist der Intrapreneur-Ansatz bei Ashoka. Die Organisation versteht sich als Plattform für internes Unternehmertum. Odin musste nicht auf eine Management-Freigabe warten: "Ich habe explizit nicht darauf gewartet, dass mir irgendjemand den Auftrag gibt, das zu tun, sondern ich fand es halt lustig, ich habe Potenzial darin gesehen und Dinge gebaut." Als die ersten Anwendungen funktionierten, entstanden automatisch Teams von Nutzern, die diese Tools haben wollten – und damit das Momentum für offizielle Unterstützung.

Wo die internen Ressourcen nicht ausreichen, nutzt Ashoka Pro-Bono-Partnerschaften mit Entwicklerteams aus der Privatwirtschaft. Diese übernehmen dann die Aufgabe, Prototypen professionell und performant zu machen, während sich das AI Lab auf neue Prototypen konzentrieren kann.

AI-Readiness als kontinuierlicher Verbesserungsprozess

Das Konzept der AI-Readiness ist zentral für den Conscious Tinkering-Ansatz. Ashoka unterteilt sie in fünf Bereiche: IT-Infrastruktur, Datenmanagement, AI-Governance, Tüftlerfähigkeiten und Prozessintegration. Mit jedem Prototyp-Projekt wird gezielt versucht, in mindestens einem dieser Bereiche einen messbaren Fortschritt zu erzielen.

Ein Beispiel: Für eine Anwendung muss vielleicht eine rechtliche Frage geklärt werden – etwa zur Nutzung bestimmter Daten oder zur Erfüllung von Compliance-Anforderungen. Diese Klärung ist Aufwand, aber einmal erledigt, kann sie als gegeben für alle zukünftigen Projekte angesehen werden. Oder ein Prototyp erfordert ein neues Feature auf den Servern – auch dieses Feature steht dann für alle folgenden Anwendungen zur Verfügung. Governance-Fragen wie "Wer redet mit wem? Wer entscheidet?" werden einmal geklärt und beschleunigen dann künftige Abstimmungen.

Dieser iterative Ansatz erlaubt es, mit banalen, risikoarmen Projekten zu starten und kontinuierlich anspruchsvollere, sensitivere und kritischere Anwendungsfälle anzugehen. Die Organisation lernt mit jedem Schritt und baut systematisch Fähigkeiten auf, ohne sich zu überfordern oder existenzielle Risiken einzugehen.

Umgang mit technologischer FOMO und Informationsflut

Die Geschwindigkeit der KI-Entwicklung ist überwältigend. Täglich erscheinen neue Modelle, Tools und Softwarepakete. Odin hat dafür eine klare Strategie entwickelt: "FOMO is real. Und das muss man managen und nicht den Anspruch haben, auf dem Laufenden zu bleiben." Im AI Lab darf jedes Teammitglied nur zwei Newsletter abonnieren.

Die Begründung ist pragmatisch: Wer zu viel liest über alles Neue, verbringt mehr Zeit mit dem Testen neuer Tools als mit dem Bauen konkreter Anwendungen. Das Versprechen jedes neuen Tools, etwas eleganter machen zu können, verführt dazu, ständig der neuesten Entwicklung hinterherzuhecheln. Das Ergebnis: Man baut nichts mehr Neues, sondern optimiert nur noch bestehende Prozesse.

Zwei Newsletter reichen aus, um die wirklich wichtigen Entwicklungen mitzubekommen – etwa wenn in einem Bereich grundlegend neue Möglichkeiten entstehen. Für KI-Entwickler gibt Odin einen ermutigenden Rat: "Was ist doch genial. Man kann es sich überhaupt nicht leisten, mal einen Monat lang nichts zu lernen. Das geht doch überhaupt nicht. Und das ist doch nett. Also so als ein großer Quell der Glückseligkeit geht da mit einher." Die permanente Lernkurve ist nicht Fluch, sondern Privileg.

KI-Sicherheit und die Notwendigkeit von Alignment-Forschung

Trotz aller Begeisterung für die Möglichkeiten von KI sieht Odin auch die Risiken. Er hält Bedenken über böse Akteure, die die Technologie missbrauchen, oder über Kontrollverlust durch selbstoptimierende Agenten für berechtigt. Sein Lösungsansatz ist pragmatisch: Die Entwicklungsgeschwindigkeit zu drosseln, hält er für unrealistisch – zu viele Akteure nehmen am Wettrennen teil, und mindestens einer würde sich nicht an einen Stopp halten.

Stattdessen plädiert er für massive Investitionen in das Verständnis der Modelle und in Sicherheitsprinzipien. Sein Vorschlag ist radikal: "Ich könnte mir sogar vorstellen, dass es sich lohnen würde, als Staatenverbund da ein sehr großes Projekt mal draus zu machen, also wirklich so Moonshot-mäßig, also sowas wie, wir kaufen jetzt einfach mal die 100 cleversten Köpfe ein." Ein "Manhattan Project" für AI Alignment, bei dem die besten Forscher aus Labs und Unis unabhängig vom Gehalt rekrutiert und fünf Jahre lang auf das Alignment-Problem angesetzt werden.

Die Rechtfertigung: Selbst wenn ein solches Projekt die Wahrscheinlichkeit existenzieller Risiken nur von einem Prozent auf 0,5 Prozent senken würde, wäre es der beste Return on Investment, den die Menschheit je getätigt hat. Odin kritisiert, dass aktuell alle Staaten versuchen, immer schneller zu werden, statt in Sicherheit und Verständnis zu investieren: "Ich hoffe nur sehr, dass uns das nicht auf die Füße fällt."

Die Herausforderungen des Sozialsektors bei der KI-Adoption

Der Sozialsektor hinkt bei KI-Adoption hinterher – nicht aus technischen Gründen, sondern aus strukturellen. Das zentrale Problem: Soziale Organisationen werden nicht für ihre Wirkung bezahlt. Im Gegensatz zu Unternehmen, die bei Erfolg mehr Einnahmen generieren und exponentiell wachsen können, gibt es bei Non-Profits keine Feedback-Schleife zwischen erzielter Wirkung und finanziellen Mitteln.

Das zweite Problem ist das Overhead-Denken von Stiftungen und Förderpartnern. Was Ashoka im AI Lab macht, wird von Förderern als "Overhead" klassifiziert – als interne Selbstorganisationskosten, die zu minimieren sind. Odin formuliert drastisch: "Meine Kollegin und ich, wir wählen keine Fellows aus. Wir sind quasi Abfall. Und das ist kaum übertrieben, also das ist die Logik von Stiftungen." Technische Innovationsteams aufzubauen ist unter diesen Bedingungen kaum möglich.

"Sobald Unternehmen für die negativen Externalitäten bezahlen müssen und für die positiven Dinge, die sie bewirken, Geld bekommen, dann müssen wir gar nicht mehr von einem Feld Sozialunternehmertum reden, weil dann die ganze Wirtschaft Sozialunternehmertum ist."

Ashoka kann sich das AI Lab nur leisten, weil die Organisation eine gewisse Größe und Reputation hat. Bei 400 Mitarbeitenden weltweit profitieren 398 davon, dass zwei Personen KI-Tools entwickeln. Für eine soziale Organisation mit 20 Mitarbeitenden ist es wesentlich schwieriger, auch nur eine Person für KI-Entwicklung zu rechtfertigen. Selbst Ashoka konnte bisher kein Fundraising für das AI Lab erfolgreich abschließen – alle Anträge wurden abgelehnt.

Die Lösungen sind begrenzt: Pro-Bono-Partnerschaften mit der Privatwirtschaft helfen, Menschen zu finden, die sich engagieren und Sinn in ihrer Arbeit suchen wollen. Aber das grundlegende Problem bleibt: Solange Unternehmen nicht für negative Externalitäten bezahlen und positive Wirkung nicht finanziell belohnt wird, bleibt der Sozialsektor strukturell benachteiligt.


Kernaussagen

  1. Neugier als Antrieb — "Immer wenn die Menschheit wieder was Lustiges baut, dann gucke ich mir das gerne an. Es kann irgendein neuer Trick sein für irgendeinen mathematischen Beweis oder die Blockchain-Technologie. Und diesmal war es halt AI." Experimentierfreude, GPT-2, persönliches Interesse
  2. Bauen statt Planen — "Wir reden nie, was wäre wenn, wir machen nie ein Dokument mit, wie soll die App. Wir machen ein 30-minütiges Gespräch mit unseren Kunden. Und entweder starten wir dann danach am Tag oder halt nicht. Und wenn nicht, dann ist es aber auch tot." Conscious Tinkering, Prototyping, Go/No-Go
  3. Lernen durch Praxis — "Man lernt es halt nur, wenn man mit den Teams, die es dann am Ende nutzen sollen, wirklich sich die Hände dreckig macht, viele Sachen ausprobiert und dann die paar Perlen findet, bei denen es sich lohnt, viel mehr zu investieren." Teamarbeit, iteratives Vorgehen, Use-Case-Identifikation
  4. FOMO managen — "FOMO is real. Und das muss man managen und nicht den Anspruch haben, auf dem Laufenden zu bleiben." Informationsflut, Fokus, zwei Newsletter
  5. Moonshot für AI Safety — "Ich könnte mir sogar vorstellen, dass es sich lohnen würde, als Staatenverbund da ein sehr großes Projekt mal draus zu machen, also wirklich so Moonshot-mäßig. Wir kaufen jetzt einfach mal die 100 cleversten Köpfe ein und es ist uns auch total egal, was die an Geld haben wollen." AI Alignment, Sicherheit, Manhattan Project
  6. Overhead-Logik als Innovationsbremse — "Meine Kollegin und ich, wir wählen keine Fellows aus. Wir sind quasi Abfall. Und das ist kaum übertrieben, also das ist die Logik von Stiftungen." Sozialsektor, Förderlogik, strukturelle Hürden
  7. Einfach anfangen — "Wenn jemand ein bisschen technischen Hintergrund hat, ihr könnt einfach anfangen. Also nicht warten, dass irgendein Management irgendwas sagt und es macht wirklich Spaß, so zu arbeiten." Intrapreneur, Bottom-up, Eigeninitiative

Fazit und Takeaways

Für Führungskräfte und Entscheider

  • Conscious Tinkering statt Strategieprozess: Schnelles Prototyping mit klaren Go/No-Go-Entscheidungen bringt mehr Erkenntnisse als monatelange Strategieentwicklung. 30 Minuten Gespräch, dann sofortiger Start oder Verwerfen – kein Mittelweg.
  • Bottom-up kann funktionieren: Odins Erfolg kam nicht durch Management-Mandat, sondern durch eigenes Bauen und das Schaffen von internen Fans. Wenn Prototypen funktionieren, entsteht organisches Momentum.
  • AI-Readiness als iterativer Prozess: Jedes Projekt sollte die Organisation in mindestens einem Bereich weiterbringen – IT-Infrastruktur, Datenmanagement, Governance, Fähigkeiten oder Prozesse. Kleine Schritte führen zu großen Zielen.
  • Prototypen identifizieren Use Cases: Der Zweck von Prototypen ist nicht der Prototyp selbst, sondern herauszufinden, welche Anwendungsfälle es wert sind, groß gemacht zu werden. Portfolio-Management ist entscheidend.

Für KI-Praktiker und Entwickler

  • Einfach anfangen: Warten auf Management-Freigabe kann lähmend sein. Mit technischem Hintergrund kann man einfach beginnen, Dinge zu bauen und Mehrwert zu demonstrieren.
  • FOMO managen: Man kann nicht auf dem Laufenden bleiben bei der Geschwindigkeit der KI-Entwicklung. Zwei Newsletter reichen – mehr führt zu permanentem Optimieren statt Bauen.
  • Fokus auf Wertschöpfung: Nicht die eleganteste Lösung zählt, sondern die, die schnell funktioniert und echten Nutzen bringt. Perfektion kommt später, wenn der Use Case bewiesen ist.
  • Pro-Bono-Partnerschaften nutzen: Externe Entwicklerteams können bei spezifischen Aufgaben unterstützen, während sich das Kernteam auf neue Prototypen konzentriert.

Für den Sozialsektor

  • KI ist auch mit minimalen Ressourcen möglich: Ashoka beweist, dass 1,5 Vollzeitäquivalente ausreichen, um 20+ Anwendungen zu entwickeln, die mehrere Vollzeitstellen einsparen. Es braucht nicht viel, aber es braucht Menschen mit Python-Kenntnissen.
  • Overhead-Denken überdenken: Technische Innovation als "Abfall" zu klassifizieren verhindert Fortschritt. Förderer müssen verstehen, dass AI Labs Multiplikatoren für Wirkung sind, nicht Kostenfaktoren.
  • Einzigartige Daten sind ein Schatz: Viele soziale Organisationen haben qualitative Daten, die bisher nicht analysierbar waren. KI macht diesen Schatz zugänglich und nutzbar.
  • Unterstützung wird dringend benötigt: Wenn KI-erfahrene Menschen soziale Einrichtungen pro bono unterstützen würden, könnten enorme Effizienzgewinne und Wirkungssteigerungen erzielt werden.

Odins Beispiel zeigt: KI-Innovation erfordert keine perfekte Strategie, kein riesiges Budget und kein großes Team. Sie erfordert Pragmatismus, Experimentierfreude und den Mut, einfach anzufangen. Der Conscious Tinkering-Ansatz ist nicht nur für den Sozialsektor relevant – er bietet eine erfrischende Alternative für jede Organisation, die schneller lernen und iterieren will, statt in langwierigen Planungsprozessen zu verharren.

Felix Riedl

Erfahre jeden Freitag aus erster Hand, wie Unternehmer und Führungskräfte AI einsetzen.