Hermes AI-Assistenten-Fähigkeiten für echte Produktionsumgebungen

Profil-basierte Hermes-Konfigurationen für anspruchsvolle Workloads

Inhaltsverzeichnis

Der Hermes KI-Assistent, offiziell dokumentiert als Hermes Agent, positioniert sich nicht als einfacher Chat-Wrapper.

Für die Installation, die Konfiguration des Anbieters, das Sandboxing von Tools und die Gateway-Konfiguration siehe die Hermes KI-Assistenten-Anleitung. Dieser Artikel konzentriert sich auf die Architektur von Fähigkeiten (Skills) und Profilen, die das Verhalten von Hermes bestimmt, sobald es läuft.

Die offiziellen Dokumente und das Repository beschreiben einen selbstverbessernden Agenten mit einer integrierten Lernschleife, die Fähigkeiten aus Erfahrungen erstellt, sie während der Nutzung verbessert, Wissen über Sitzungen hinweg speichert und auf allem von einem kostengünstigen VPS bis hin zu Cloud-Sandboxes läuft.

hermes ai assistant skills

Im April 2026 weist das öffentliche GitHub-Repository etwa 94,6k Sterne, 13,2k Forks und eine neueste Version mit dem Tag v0.10.0 vom 16. April 2026 auf. Das ist genug Aktivität, um das Projekt als schnelllebend, gut angenommen und gleichzeitig operationell noch jung zu bezeichnen.

Diese duale Natur ist für das Produktionsdesign von Bedeutung. Hermes ist reif genug, um echte Arbeit zu unterstützen, aber dynamisch genug, dass eine unordentliche Einrichtung schnell veraltet. Der folgende Artikel behandelt Konfiguration und Fähigkeiten als Frage der operativen Architektur und nicht als eine Liste von Funktionen.

Warum Hermes eine profilorientierte Architektur benötigt

Hermes-Fähigkeiten sind bedarfsgesteuerte Wissensdokumente. Sie nutzen progressive Enthüllung, sodass der Agent zuerst einen kompakten Fähigkeitsindex sehen kann und den vollständigen Inhalt der Fähigkeit erst bei Bedarf lädt. Dies hält den Tokenverbrauch unter Kontrolle, selbst wenn viele Fähigkeiten installiert sind. Jede installierte Fähigkeit wird zu einem Slash-Befehl in der CLI und in Messaging-Oberflächen. Die Dokumente positionieren Fähigkeiten explizit als bevorzugten Erweiterungsmechanismus, wenn eine Fähigkeit durch Anweisungen, Shell-Befehle und vorhandene Tools ausgedrückt werden kann, anstatt durch benutzerdefinierten Agenten-Code.

Die Komplikation in der Produktion besteht darin, dass Hermes Fähigkeiten als lebendigen Zustand behandelt, nicht als eingefrorene Pakete. Gepackte Fähigkeiten, über den Hub installierte Fähigkeiten und vom Agenten erstellte Fähigkeiten befinden sich alle unter ~/.hermes/skills/, und die Dokumente besagen, dass der Agent Fähigkeiten ändern oder löschen kann. Dasselbe System bietet Aktionen zum Erstellen, Patchen, Bearbeiten, Löschen und Unterstützen für die Verwahrung von Fähigkeiten an. Das ist mächtig, bedeutet aber auch, dass ein überdimensionierter „Alleskönner"-Agent tendenziell zu einem prozeduralen Unordnungsschublade wird.

Profile sind die Antwort. Hermes-Profile sind vollständig isolierte Umgebungen, von denen jede ihre eigene config.yaml, .env, SOUL.md, Erinnerungen, Sitzungen, Fähigkeiten, Cron-Jobs und Zustandsdatenbank hat. Die CLI macht aus einem Profil auch seinen eigenen Befehlsalias, sodass ein Profil namens coder zu coder chat, coder setup, coder gateway start usw. wird. In der Praxis macht das Profile zur eigentlichen Einheit des Produktionsbesitzes und nicht zur einzelnen Fähigkeit.

Die Produktionsbasislinie

Die Basislinie ist überraschend sauber. Hermes speichert nicht-geheimes Verhalten in ~/.hermes/config.yaml, Geheimnisse in ~/.hermes/.env, die Identität in SOUL.md, persistente Fakten in memories/, prozedurales Wissen in skills/, geplante Jobs in cron/, Sitzungen in sessions/ und Protokolle in logs/. Der Befehl hermes config set leitet API-Schlüssel in .env und alles andere in config.yaml um, und die dokumentierte Prioritätsreihenfolge lautet: CLI-Flags zuerst, dann config.yaml, dann .env und schließlich integrierte Standards. Das ist auch die sauberste Antwort auf die häufig gestellte Produktionsfrage, wie Geheimnisse und Konfiguration aufgeteilt werden sollten.

Ein praktisches Layout für mehrere Profile sieht in der Regel so aus, mit einem Profil pro Verantwortungsbereich und nicht einem Profil pro Person:

~/.hermes/profiles/
  eng/
  research/
  ops/
  execops/
  ml/

Dieses Muster entspricht der Dokumentation von Hermes-Profilen: Jedes Profil ist seine eigene isolierte Umgebung, und Profile können von einer Basiskonfiguration geklont werden, wenn gemeinsame Standards nützlich sind. Die Dokumente weisen auch darauf hin, dass Profile keine Erinnerungen oder Sitzungen teilen und dass aktualisierte Fähigkeiten synchronisiert werden können, wenn die Hauptinstallation aktualisiert wird.

Die nächste Produktionsgrenze ist die Ausführung. Hermes unterstützt sechs Terminal-Backends – lokal, Docker, SSH, Modal, Daytona und Singularity – und die Sicherheitsdokumente beschreiben ein „Defense-in-Depth"-Modell, das die Genehmigung gefährlicher Befehle, Container-Isolierung, MCP-Credential-Filterung, Kontextdateiscans, Isolierung über Sitzungen hinweg und Eingabe-Sanitization umfasst. Mit anderen Worten: Die Entscheidung „Profil zuerst" beantwortet, wer den Zustand besitzt, und die Backend-Entscheidung beantwortet, wo riskante Arbeit erlaubt ist.

Automatisierung baut auf dieser Basislinie auf. Hermes-Cron-Jobs können null, eine oder mehrere Fähigkeiten anhängen und laufen in neuen Agentensitzungen, statt die aktuelle Chat-Sitzung zu erben. Das Messaging-Gateway ist auch der Hintergrundprozess, der Sitzungen verwaltet, Cron-Jobs ausführt und Ergebnisse an Plattformen wie Telegram, Discord, Slack, WhatsApp, E-Mail, Matrix und andere zurückleitet. Die offizielle MCP-Anleitung fügt eine weitere Produktionsregel hinzu, die leicht übersehen wird: Das beste Muster besteht nicht darin, alles zu verbinden, sondern die kleinste nützliche Oberfläche freizugeben.

Das Software-Ingenieur-Profil

Das offensichtlichste Hermes-Persona ist der Software-Ingenieur, der möchte, dass der Agent weniger wie ein Chat-Fenster und mehr wie ein wiederholbarer Repository-Betreiber wirkt. Dieses Profil kümmert sich in der Regel um Repository-Authentifizierung, Triage von Issues, Erstellung von Pull-Requests, Code-Reviews, Debugging und planungsgestützte Ausführung. In den Hermes-Katalogen ist das Kernpaket der integrierten Fähigkeiten für diese Aufgabe ungewöhnlich kohärent: github-auth, github-issues, github-pr-workflow, github-code-review, code-review, plan, writing-plans, systematic-debugging und test-driven-development. Wenn Delegierung wichtig ist, liefert Hermes auch integrierte autonome Agentenfähigkeiten wie codex, claude-code, opencode und hermes-agent-spawning.

Was dieses Paket nützlich macht, ist nicht eine einzelne Fähigkeit. Es ist die Art und Weise, wie die Fähigkeiten das Entwicklungsverfahren kodieren. github-pr-workflow deckt den gesamten PR-Lebenszyklus ab, github-issues formalisiert Issue-Operationen, github-code-review und code-review machen das Review zu einem eigenen Schritt und nicht nur ein nachträglicher Gedanke, und systematic-debugging hindert den Agenten daran, direkt zu vorzeitigen Lösungen zu springen. Das beantwortet auch die praktische Frage, welche KI-Assistentenfähigkeiten für Coding-Workflows am wichtigsten sind. Die wertvollsten Fähigkeiten sind in der Regel diejenigen, die Repository-Hygiene und Review-Disziplin verankern, nicht diejenigen, die mehr rohe Code-Generierung versprechen.

Hermes-Delegierung stärkt dieses Profil noch weiter. Die Plattform kann isolierte Kindagenten mit eigener Konversation, Terminal-Sitzung und Werkzeugset erzeugen, und nur die endgültige Zusammenfassung wird an den Elternteil zurückgegeben. Für Codebasen ist das eine sauberere Lösung, als jede Zwischen-Diff, Stack-Trace und Review-Notiz in eine einzige Konversation zu stopfen. In Produktionstermen profitiert das Ingenieurprofil von engen Fähigkeitensets, einem sandboxierten Backend wie Docker oder SSH und einem großzügigen Einsatz von Delegierung, wenn Kontextrauschen zu dominieren beginnt.

Das Profil für Forschung und Wissen

Das Forschungsprofil ist der Ort, an dem sich Hermes von gewöhnlichen Assistenten zu unterscheiden beginnt. Die integrierten Kataloge enthalten bereits arxiv, duckduckgo-search, blogwatcher, llm-wiki, ocr-and-documents, obsidian, domain-intel und ml-paper-writing, während der offizielle optionale Katalog qmd, parallel-cli, scrapling und eine breitere Forschungsebene für spezialisierte Domänen hinzufügt. Dieser Stapel deckt Papersuche, Quellenüberwachung, OCR, lokale Notizsysteme, Domänen-Aufklärung, Schreiben und hybride Abrufmechanismen ab, ohne alles in ein einziges RAG-Muster zu zwingen.

Dieses Profil ist auch der klarste Ort, um die Frage nach Gedächtnis versus Fähigkeiten zu beantworten. Die Hermes-Dokumentation definiert Gedächtnis als Fakten über Benutzer, Projekte und Präferenzen, während Fähigkeiten Verfahren speichern, wie Dinge zu tun sind. Forschungsarbeit benötigt beides. Das Gedächtnis speichert, was der Assistent bereits über die Domäne und die Präferenzen des Lesers gelernt hat; Fähigkeiten kodieren wiederholbare Verfahren wie „Arxiv scannen, neue Papers zusammenfassen und Notizen in Obsidian schreiben." Diese Unterscheidung ist wichtig, weil produktionsechte Forschungssysteme scheitern, wenn alles als Gedächtnis oder alles als Workflow behandelt wird. Hermes gibt diesen Bedenken separate Heimstätten.

Das Forschungsprofil profitiert auch unverhältnismäßig stark von Cron. Hermes-Cron-Jobs können Fähigkeiten vor der Ausführung explizit laden, und die Automatisierungsleitlinien betonen, dass geplante Prompts vollständig in sich geschlossen sein müssen, da sie in neuen Sitzungen laufen. Eine wiederkehrende Pipeline, die blogwatcher, arxiv, obsidian oder llm-wiki kombiniert, ist daher zuverlässiger als ein vager Job „prüfen, was sich heute geändert hat". Mit anderen Worten: Forschungsprofile funktionieren am besten, wenn Entdeckung von Quellen, Notizschreiben und Langzeitspeicherung jeweils durch eine benannte Fähigkeit repräsentiert werden, anstatt in einem langen natürlichen Sprach-Prompt versteckt zu sein.

Das Profil für Automatisierung und Betrieb

Das Betriebsprofil ist weniger glänzend und oft wertvoller. Dies ist der Benutzer, der möchte, dass Hermes auf Ereignisse reagiert, Systeme inspiziert, skriptgesteuerte Checks ausführt, die Ausgabe an einen Kanal leitet und all das tut, ohne den Host zu einer Haftung zu machen. Hermes hat die richtigen Bausteine für diese Art von Arbeit: Integrierte webhook-subscriptions für ereignisgesteuerte Aktivierung, integrierte native-mcp und mcporter für MCP-basierte Tools sowie offizielle optionale Fähigkeiten wie docker-management, fastmcp, cli und 1password, wenn der Workflow in Container, benutzerdefinierte MCP-Server oder Geheimnisinjektion expandiert.

Der Grund, warum dieses Paket funktioniert, ist, dass jede Fähigkeit eine eigene Grenze besitzt. webhook-subscriptions verarbeitet den Eingangsstrom von externen Systemen. docker-management verwandelt Container-Chores in ein benanntes Verfahren statt in ein freiformes Shell-Spiel. fastmcp ist nützlich, wenn Hermes zum Orchestrierer um neue MCP-Tools werden muss, und 1password hält die Geheimnisbehandlung explizit, anstatt sie in Shell-Historien oder Markdown-Dateien zu schmuggeln. Die offiziellen MCP-Leitlinien verstärken denselben Produktionsinstinkt: Verbinde das Richtige mit der kleinsten nützlichen Oberfläche.

Dieses Profil ist auch der sauberste Ort, um zu beantworten, wie geplante KI-Workflows zuverlässig bleiben. Die Hermes-Cron-Dokumentation besagt, dass Jobs in neuen Sitzungen laufen, eine oder mehrere Fähigkeiten anhängen können und selbstständige Prompts verwenden sollten. Die Cron-Fehlerbehebungsanleitung fügt hinzu, dass das automatische Auslösen vom Gateway-Ticker abhängt und nicht von einer gewöhnlichen CLI-Chat-Sitzung. Das zuverlässige Muster ist also direkt, auch wenn die Implementierung es nicht ist: explizite Fähigkeiten, explizites Lieferziel, selbstständiger Prompt, isoliertes Backend und ein Gateway, das tatsächlich läuft.

Das Profil für Führungskräfte und operative Leitung

Es gibt eine ruhigere, aber sehr reale Hermes-Persona, die wie ein Stabschef, ein Betriebsleiter oder ein überlasteter Gründer aussieht. Die relevanten Fähigkeiten sind weniger glänzend und mehr bürokratisch geprägt: google-workspace, notion, linear, nano-pdf, powerpoint und die integrierte himalaya-E-Mail-Fähigkeit sowie offizielle optionale Fähigkeiten wie agentmail, telephony und one-three-one-rule. Diese Mischung gibt Hermes Zugriff auf den Posteingang, den Kalender, Dokumente, Aufgaben, Präsentationen, PDF-Reinigung, einen strukturierten Kommunikationsrahmen und sogar Telefon- und SMS-Workflows, wo das tatsächlich wichtig ist.

Der Fluss ist hier wichtiger als der Katalog. google-workspace verankert die tägliche Ausführung. Notion und Linear verhindern, dass der Assistent zum Aufzeichnungssystem für Aufgaben wird. one-three-one-rule ist überraschend nützlich, weil Entscheidungsunterstützung oft das Schwerste zu standardisieren ist, und diese Fähigkeit gibt Hermes ein benanntes Verfahren für Vorschläge statt generischem „fasse das zusammen"-Verhalten. nano-pdf und powerpoint sind die Art von operativen Multiplikatoren, die klein aussehen, bis ein Team täglich mit Präsentationen und PDFs arbeitet.

Die Messaging- und Sprachfunktionen von Hermes machen dieses Profil praktischer, als es auf den ersten Blick erscheint. Das Gateway kann den Agenten über Slack, Telegram, Discord, WhatsApp, E-Mail, Matrix und mehrere andere Kanäle ausliefern, und der Sprachstack unterstützt Mikrofoneingaben, gesprochene Antworten im Messaging und Live-Discord-Sprachgespräche. Die Dokumente weisen auch darauf hin, dass eine Hermes-Instanz mehrere Benutzer über Zulassungslisten und DM-Paarung bedienen kann, während Bot-Token exklusiv für ein einzelnes Profil bleiben. Deshalb profitiert eine kommunikationsintensive Implementierung in der Regel von mindestens einem dedizierten Profil, anstatt die gleiche Bot-Identität mit Engineering oder Betrieb zu teilen.

Das Profil für ML und Datenplattformen

Hermes wurde von einem Forschungslabor entwickelt, und diese Abstammung zeigt sich. Die Kataloge enthalten jupyter-live-kernel für zustandsbehaftete Notebook-artige Arbeiten, huggingface-hub für Modell- und Datensatzoperationen, evaluating-llms-harness und weights-and-biases für Evaluierung und Experimentverfolgung, qdrant-vector-search für Produktions-RAG-Speicher sowie eine große integrierte und optionale MLOps-Ebene mit Fähigkeiten wie axolotl, fine-tuning-with-trl, modal-serverless-gpu, lambda-labs-gpu-cloud, flash-attention, tensorrt-llm, pinecone, qdrant und nemo-curator.

Was hier bemerkenswert ist, ist nicht nur die Breite. Es ist, dass die Fähigkeiten den gesamten Stapel abdecken, von der Notebook-Iteration über Datenkuratierung, Evaluierung, Vektorsuche, Feinabstimmung bis hin zur Inferenzoptimierung. Für einen ML-Plattform-Nutzer hört Hermes auf, sich wie ein Assistent anzufühlen und beginnt, sich wie eine SteuerungsEbene zu fühlen, die Verfahren über den gesamten Lebenszyklus tragen kann. jupyter-live-kernel verarbeitet iterative Exploration, evaluating-llms-harness und weights-and-biases formalisieren Messungen, und die optionalen Compute- und Optimierungsfähigkeiten ermöglichen es Hermes, kohärent über Experimente und Bereitstellung zu sprechen.

Dies ist auch das Profil, in dem Zurückhaltung am wichtigsten ist. Da der optionale MLOps-Katalog so groß ist, profitiert eine produktionsreife Hermes-Installation für ML-Arbeit in der Regel davon, dass sie sich eine Meinung über den Umfang macht. Ein Plattform-Engineering-Profil, das Evaluierung und Bereitstellung besitzt, benötigt nicht jedes Trainingsframework installiert. Ein Forschungsprofil, das Papers und Notizsysteme besitzt, benötigt nicht jede Vektordatenbank-Fähigkeit. Hermes kann riesige Fähigkeitsinventare tragen, aber der produktive Nutzen kommt immer noch durch die Eingrenzung der aktiven Oberfläche.

Wo Fähigkeiten zu Lasten werden

Der stärkste Teil des Hermes-Fähigkeitssystems ist auch der Ort, an dem Produktionssetups schiefgehen. Hermes kann Fähigkeiten aus seinem integrierten Katalog, dem offiziellen optionalen Katalog, Vercels skills.sh, bekannten Skill-Endpunkten, direkten GitHub-Repositories und marktplatzartigen Community-Quellen durchsuchen und installieren. Das Sicherheitsmodell unterscheidet zwischen builtin, official, trusted und community-Quellen, führt Sicherheits-Scans für über den Hub installierte Fähigkeiten durch und erlaubt --force nur für nicht-gefährliche Politikblöcke. Ein gefährliches Scan-Ergebnis bleibt blockiert. Hermes zeigt auch Upstream-Metadaten wie Repository-URL, wöchentliche Installationen und Audit-Signale während der Inspektion an. Das ist ein solides Vertrauensmodell, aber es ist kein Ersatz für Geschmack.

Es gibt auch eine Grenze dafür, was eine Fähigkeit tun soll. Die Hermes-Dokumentation ist explizit, dass Fähigkeiten die bevorzugte Wahl sind, wenn die Aufgabe als Anweisungen plus Shell-Befehle plus vorhandene Tools ausgedrückt werden kann, während Plugins die ehrlichere Abstraktion für benutzerdefinierte Tools, Haken und Lebenszyklusverhalten sind. Der Plugin-Guide zeigt sogar, wie ein Plugin seine eigene Fähigkeit bündeln kann. In der Produktion bedeutet das, dass Fähigkeiten am besten als wiederverwendbare Verfahren behandelt werden, nicht als erzwungener Ersatz für ein ordentliches Tool- oder Plugin-Design.

Community und Support sehen gesund aus, aber sie tilgen nicht die Geschwindigkeit von Veränderungen. Die Hermes-Dokumentation weist Benutzer auf Discord, GitHub-Diskussionen, Issues und den Skills Hub hin, und das öffentliche Repository zeigt häufige Releases und einen großen Beitragsfußabdruck. Der operative Takeaway ist einfach genug: Updates sind Teil des Systems, kein Ereignis außerhalb davon. Eine echte Produktionsinstallation geht davon aus, dass Profile, Fähigkeiten und Workflow-Voraussetzungen sich entwickeln werden, und verwendet dann Isolierung und enge Fähigkeitspakete, damit der Wandel lokal bleibt, wenn er unvermeidlich eintritt.

Hermes funktioniert am besten, wenn Fähigkeiten als prozedurale Verträge um klar getrennte Profile herum behandelt werden. Im Moment, in dem ein Profil zum Ingenieur-Agenten, Forschungsassistenten, Betriebsarbeiter, Posteingangs-Bot und ML-Plattform alles auf einmal wird, hört das System auf, sich aufzubauen, und beginnt, Verantwortlichkeiten zu lecken. Das saubere Produktionsmuster geht weniger darum, mehr Fähigkeiten zu haben, und mehr darum, jedem Profil eine Stellenbeschreibung zu geben, die es tatsächlich einhalten kann.

Dieser Artikel ist Teil des KI-Systeme-Clusters, das selbst gehostete Assistenten, Abrufarchitektur, lokale LLM-Infrastruktur und Observability abdeckt.