Herzlich Willkommen zu den AI FIRST Insights!
Ein Programm, das mit Internetzugriff und einem eigenen PC autonom Aufgaben bearbeitet: Das ist der chinesische KI-Agent Manus.
Vor wenigen Tagen habe ich ein Experiment gestartet:
Ich wollte Manus jeden Morgen ein Aufgabenbriefing geben und ihn dann asynchron zu mir arbeiten lassen - wie das ein Mitarbeiter auch tun würde. Mein Ziel war es, die Stärken und Schwächen, Potenziale und Grenzen dieser allgemeinen KI-Agenten besser zu verstehen.
Die ersten Ergebnisse waren besser als erwartet. Nur einen Tag später hat sogar Sascha Lobo das Thema in seiner Keynote auf der data:unplugged aufgegriffen:

(Danke an alle, die in dem Moment ein Foto oder Video gemacht haben und mir über WhatsApp und LinkedIn geschrieben haben!)
Heute ist mein 7-tägiges Manus-Experiment vorbei und ich teile mit Dir:
- Wie Manus funktioniert und warum wir davon noch viel mehr sehen werden
- Mein Workflow für das Aufgaben-Briefing des Agenten
- Anwendungsfälle (die guten und schlechten)
- Video mit einer kompletten Demo
- Fazit und Ausblick
Los geht's!
Ein Blick in Manus' Inneres
Manus ist ein Multi-Agenten-System. Das bedeutet, dass Manus eine Aufgabe in viele Unteraufgaben herunterbricht, diese an spezialisierte KI-Agenten übergibt, welche die Aufgabe parallel bearbeiten und später zusammentragen.
Unter der Haube läuft das LLM Claude 3.7 Sonnet von Anthropic. Hier bekommst du einen detaillierten Einblick in die Prompts und Tools, die Manus im Hintergrund nutzt.
Das Wichtigste fasse ich Dir zusammen:
Tools
Manus hat Zugriff auf eine Vielzahl von Werkzeugen zur Erledigung der Aufgaben:
- Nachrichten schreiben
- Kann Websites bereitstellen
- Linux Sandbox mit Internetverbindung
- Text Editor, um Dokumente zu erstellen
- Kann verschiedene Programmiersprachen wie Python ausführen
Vereinfacht gesagt: Er hat einen eigenen PC und Zugriff auf's Internet.
Agent Loop
Manus bearbeitet jede Aufgabe in einer iterativen Schleife und wiederholt die Schleife so lange, bis die Aufgabe erledigt ist. Das ist eine typische Charakteristika von Agents im Vergleich zu regelbasierten Automationen. Der Prozess läuft immer so ab:
- Verstehen: Zuerst schaut Manus, was der Nutzer will und was bisher passiert ist.
- Werkzeug wählen: Dann entscheidet ein "Planungs"-Agent, welches Werkzeug (z.B. eine Suche oder Berechnung) er als Nächstes braucht.
- Warten: Der Agent wartet, bis der Sub-Agent seine Aufgabe erledigt hat und neue Informationen da sind.
- Wiederholen: Die Schritte 1 bis 3 werden immer wiederholt, bis die Aufgabe fertig ist (immer nur ein Werkzeug pro Runde).
- Ergebnis senden: Wenn alles erledigt ist, schickt der Agent die Antwort oder das Ergebnis an den Nutzer. In meinen Manus-Chats wird eine rote 1 angezeigt, womit ich immer weiß, welche Aufgabe mein Feedback erfordert.
- Pause: Wenn die Aufgabe fertig ist oder der Nutzer Stopp sagt, geht der Assistent in einen Wartezustand für neue Aufgaben.
To-Do Liste
Zum Start jeder Aufgabe erstellt Manus eine To-Do Liste, die auf dem Prompt des Nutzers basiert. Die Liste aktualisiert er während des Arbeitsprozesses kontinuierlich.
Das hat 2 Vorteile:
- Manus kommt seltener vom Weg ab: Sobald eine Aufgabe erledigt ist, schaut er in der Liste nach der nächsten Aufgabe und macht damit weiter. Er kontrolliert sich so ständig selbst.
- Ist für Nutzer transparent, was Manus macht: Der gesamte Arbeitsprozess wird im Interface dokumentiert.

Wissen
Ich kann Manus zwar Wissen zur Verfügung stellen, aber nur per Text-Eingabe. Aktuell gibt es noch keine Schnittstellen oder hinterlegte Dateien, wie zB in Claude Projects. Ich frage mich aber auch, wer wirklich sensible Daten an einen chinesichen KI-Agenten geben würde :)

Mein Workflow mit Manus
Meine Zusammenarbeit mit Manus sah wie folgt aus:
Planung am Vorabend
Ich gehe die Aufgaben des kommenden Tages durch und prüfe, welche (Teil-)aufgaben sich mit Zugriff auf das Internet und einfache PC-Programme (Word, Excel, ..) erledigen lassen. Ich definiere die Aufgabe und wie das Ergebnis aussehen soll.
Briefing am Morgen
Morgens habe ich Manus bis zu 5 Aufgaben parallel gegeben. Dafür habe ich vorab mit Gemini 2.5 Pro einen Briefing-Prompt erstellt, indem ich die Aufgabe vom Vorabend diktiere und mir daraus einen optimierten Prompt erstellen lasse. Diesen neuen Prompt (siehe unten) war dann der Input für Manus.
Input für Gemini:

Output von Gemini:

> Diesen Briefing-Prompt habe ich Manus gegeben.
Check-In am Vormittag
Manus hat losgelegt und wenn er fertig war oder eine Rückfrage hatte, hat es "Bing" gemacht und im Manus Chatverlauf wurde mit einer roten 1 die Benachrichtigung angezeigt. Das war echt interessant, weil es mir vorkam, als hätte ich eine WhatsApp Nachricht bekommen. Oft hat es 30-60 Minuten gedauert, bis das erste Ergebnis fertig war. Ich habe in den meisten Fällen drübergeschaut, Feedback gegeben und Manus ist wieder losgezogen - und das ganze passierte an bis zu 5 Aufgaben parallel.
Fertigstellung am Nachmittag
Nach der ersten Iteration hat Manus oft deutlich länger weitergearbeitet. Teilweise mehrere Stunden an vermeintlich einfachen Aufgaben. Ich hatte manchmal das Gefühl, dass er ab einem bestimmten Punkt im Kreis lief. Auch wenn es manchmal lang dauerte, wurde die Aufgabe im Verlauf des Tages meist fertig und ich konnte mit dem Ergebnis weiterarbeiten.
Ist das die Zukunft der Mensch-KI-Interaktion?
Für mich hat sich die "Zusammenarbeit" sehr natürlich angefühlt. Immer wieder habe ich mich dabei ertappt, dass ich das Gefühl hatte, ich würde einem Mitarbeiter eine Aufgabe geben. Die asynchrone Zusammenarbeit an vielschrittigen Aufgaben mit mehreren Check-Ins kannte ich in der Form nur aus der Zusammenarbeit mit Menschen.
Anwendungsfälle & Demo
Kommen wir zum spannendsten Teil: Was habe ich mit Manus gemacht und wie hat's funktioniert?
Ich teile im folgenden eine Reihe an Anwendungsfälle mit dem Replay-Link (Überschrift). Über diesen Link kannst Du Dir die Arbeit von Manus nochmal ansehen und verfolgen, wie er die Aufgabe bearbeitet.
Aufgabe: Erstelle einen umfassenden, taktischen, umsetzbaren ABM Plan für die Akquisition der Würth Gruppe für unser GenAI Adoption Programm.

Fazit: Sehr umfangreiche Analyse und Dokumentation der Ausgangssituation, AI-Initiativen, Buying Center (leider halluziniert, die Person gibt's nicht.) und Definition der ABM-Strategie über verschiedene Kanäle und bis hin zu Outreach-Templates. Insgesamt ein solider Start, aber inhaltlich nicht konkret genug. Das kann insbesondere daran liegen, dass ich recht wenig Informationen zu unseren Angeboten gegeben habe.
Aufgabe: Entwickle eine KI-Challenge in Excel-Format aus einer Aufgabe, die über 30 Tage nach dem Abschluss unserer KI-Schulungen an die Teilnehmer versendet werden kann.

Fazit: Hat wunderbar funktioniert. Hier sehe ich auch die größte Stärke von Manus: Recherche + Dateneintragung/Formattierung in einen Dokument, auf einer Website oder in einem Sheet. Die Kombination aus beidem hat mir tatsächlich viel zeit gespart.
Aufgabe: Führe eine tiefe Social Listening Analyse zu den Themen Skincare, Facecare und Haircare durch. Insbesondere auf den Plattformen TikTok und Instagram. Ich will im Detail verstehen, worüber die Nutzerinnen zu diesen Themen gerade sprechen.

Fazit: Hat ebenfalls sehr gut funktioniert. Manus hat diverse passende Creator-Profile gefunden, die Trends aus den Posts und Captions identifiziert, zusätzliche Trend-Recherche gemacht und alle Erkenntnisse konsolidiert aufbereitet mit konkreten Taktiken, wie sich Marken auf diese Trends einstellen können.
Aufgabe: Finde 20 Podcast Gäste aus Unternehmen mit öffentlichen KI Use Cases / Success Stories aus Deutschland.

Fazit: Das war nix. Die Bearbeitung der Aufgabe hat glaube ich 10 Stunden gedauert (wenn nicht länger), ist ständig abgebrochen und am Ende bekam ich ein sehr schwaches Ergebnis mit fast ausschließlich DAX-Konzernen und falschen Links zu den Profilen der "KI-Verantwortlichen", die oft der CEO waren :)
Was deutlich besser funktionierte: Vorbereitende Recherche auf Podcasts zum Gast, Unternehmen und den KI-Initiativen. Das war top.
Aufgabe: Erstelle einen einfachen Business Case Rechner für GenAI Use Cases, der einen ersten Überblick über die Rentabilität des Use Cases gibt.

Fazit: Für eine Excel-Niete wie mich war das eine große Erleichterung. Manus hat das komplette Sheet mit 5 Tabs, komplett verformelt, sinnvollen Input und Output-Parametern, Charts und Erklärungen erstellt. Hier muss noch nachgearbeitet werden beim Format und einigen inhaltlichen Punkten (was auch am Prompt liegt), aber die Grundlage ist klasse.
Aufgabe: Erstelle eine einfache HTML-Website, auf der ich lernen kann, wie Large Language Models funktionieren.

Fazit: Auch hier bin ich zufrieden. Die Website ist interaktiv (zB Navigation, Quizzes, Nutzer können auf Symbole klicken für mehr Info's), der Inhalt ist passend für Anfänger (hatte ich auf Rückfrage angegeben) und der Aufbau ist sinnvoll. Für Prototypen und Konzeption super geeignet.
Ich habe Dir noch ein Video aufgenommen, wo ich ein paar Use Cases und die Funktionsweise von Manus vorstelle:
Manus' Stärken und Schwächen
Der System Prompt (die zugrundeliegende Anweisung) von Manus gibt uns bereits Anhaltspunkte dafür, worin Manus wirklich gut ist. Dort steht geschrieben:
"You excel at the following tasks:
- Information gathering, fact-checking, and documentation
- Data processing, analysis, and visualization
- Writing multi-chapter articles and in-depth research reports
- Creating websites, applications, and tools
- Using programming to solve various problems beyond development
- Various tasks that can be accomplished using computers and the internet"
✅ Also: Recherche, Dokumentation, Datenanalyse, Coding.
❌ Aber: Manus ist nicht die eierlegende Wollmilchsau. Bei weitem nicht.
Diese 12 Erfahrungen kann ich nach 7 Tagen mit Dir teilen:
- Die Bearbeitung der Aufgaben hat im Schnitt ca. 60 Minuten gedauert. Die Iterationen mit spezifischeren Feedbacks teils deutlich länger. Das war aber kein Problem für mich, weil Manus asynchron gearbeitet hat.
- Die Planung und Nachhaltung des Aufgabenprozesses funktioniert sehr gut, die To Do Liste sind immer logisch aufgebaut und werden konsistent befolgt und aktualisiert.
- Manus funktioniert gut für mehrstufige Recherche. Je genauer die Erwartungen an die Quellen gegeben werden, desto besser die Ergebnisse (irgendwo auch logisch).
- Die Erstellung von Excel, csv und Word-Dateien klappt einwandfrei. Powerpoint funktioniert allerdings nicht. Auch HTML-Folien haben bei mir nicht funktioniert.
- Die Erstellung einfacher Websites (mein Beispiel: "Lern-Website für LLMs inkl. Quiz") hat sehr gut funktioniert und ging schnell.
- Je spezifischer der Output sein muss, desto schwieriger war für mich der Einsatz von Manus. Durch die vielen Sub-Agenten und Schritte hat die Präzision gelitten.
- Der "High Effort" Modus, der im 200$/Monat Plan inkludiert ist, hatte gefühlt keinen großen Mehrwert. Auch in diesem Modus ist er an manchen Aufgaben gescheitert.
- Die erstellten Dokumente sind sehr umfangreich, aber inhaltlich zu fluffy für meinen Geschmack.
- Auch Manus halluziniert und ich muss weiterhin jedes Ergebnis überprüfen.
- Wenn Manus einmal eine Aufgabe abbrechen musste, hat er es meist auch nach einem dutzend neuer Anläufe nicht mehr auf den richtigen Pfad geschafft. Das war teils frustrierend, weil jeder neue Versuch auch mal 1-2 Stunden dauern konnte.
- Manus kann noch keine E-Mails versenden :)
Unter'm Strich:
Trotz aller Fehler und Schwächen hat mir Manus 5 bis 10 Stunden allein in dieser Woche gespart. Dabei ist zu bedenken, dass ich ihn noch "onboarden" und in meine Routine integrieren musste. Neben der Zeitersparnis hat er meine mentale Last verringert, weil ich tatsächlich Arbeit delegieren konnte.
🏁 Fazit
KI-Agenten wie Manus sind unser Teleskop in die Zukunft.
Das Experiment hat viele meiner Thesen bestätigt:
- Intellektuelle Fleißarbeit wird von KI-Systemen übernommen. Nur eine Frage der Zeit.
- KI-Agenten sind keine Alleskönner und Super-Wunder-Werkzeuge. Für gute Ergebnisse brauchen sie klare Anweisungen, Regeln, Zugriff auf Tools und Zugriff auf saubere Daten.
- Simple Aufgaben können von KI-Agenten fast vollständig autonom erledigt werden (Automation). Komplexere Aufgaben erfordern die Steuerung des Nutzers (Augmentation).
- Wir werden immer mehr Zeit mit der Definition von Problemen und kreativen Ideen verbringen. Das Briefing geben wir einem KI-System, welches einen immer größeren Teil des Abarbeitens übernimmt. Genau diese Dynamik habe ich mit Manus erfahren.
- Die Orchestrierung und Überwachung der Agenten wird vorerst bei uns liegen. Bis ein Agent kommt, der das besser kann als wir.
- KI-Agenten müssen in der Organisationsstruktur (Rollen + Aufgaben) mitgedacht werden.
- Für allgemeine Tätigkeiten werden immer mehr allgemeine KI-Agenten entwickelt, die immer besser auf unsere Daten und Systeme zugreifen können. Wir müssen uns nicht alle unsere eigenen Agenten entwickeln. Auch hier wird es auf die produktive, richtige Nutzung ankommen.
Mach Dir eins klar:
KI-Systeme wie Manus sind das Schlechteste, was wir jemals wieder sehen werden. Sie werden ein fester Bestandteil jedes PC-Jobs und jedes Unternehmens.
Neugier, Lernbereitschaft, kritisches Denken und Anpassungsfähigkeit sind jetzt gefragt, um die Chancen zu entdecken und für sich nutzbar zu machen.
Bis nächsten Sonntag,
Felix
P.S. Der Zugang zu Manus ist aktuell noch streng limitiert. Ich habe 2 Einladungscodes für die AI FIRST Mitglieder reserviert. Wenn Du Zugang zu Manus haben willst, dann kommentiere hier mit "Manus" oder schreibe “Manus” an hi@ai-first.ai und ich lose aus.
Logge Dich ein oder registriere Dich,
um am Austausch teilzunehmen.