🐋 Docker Dynamic MCP + HuggingFace
30. Dez 2025 • Neun Komponenten, ein Ökosystem
Neun Dinge kommen hier zusammen:
1. Docker Dynamic MCP Gateway (Infrastructure)
Das Gateway macht alle Tools on-demand verfügbar - ohne Context-Overhead.
Docker Dynamic MCP Docs
• 272+ MCP Server im Catalog
• On-demand Activation ohne Token-Overhead
• Zentraler Registry für alle MCP Tools
2. Docker MCP Server (Standard im Gateway)
Docker-Befehle direkt als MCP Tools - vollständige Container-Steuerung.
Docker MCP Server Docs
• Container starten, stoppen, verwalten
• Images bauen, pullen, pushen
• Docker Compose, Volumes, Networks
• GPU-Container für ML Workloads
• Standardmäßig im Gateway aktiviert!
3. Claude Code Skills (HF Model Training)
HuggingFace Skills für Model-Training und Publish-Workflows.
GitHub: huggingface/skills
Blog Post: HF Skills Training
• SFT, DPO, GRPO Training auf HF Jobs
• Papers veröffentlichen, Datasets erstellen, Evaluations
4. OpenAI Codex Skills (Code Generation)
OpenAI Codex direkt in Claude Code für Code-Workflows.
GitHub: huggingface/skills
Blog Post: HF Codex Integration
• Code-Generierung und -Vervollständigung
• Bug-Finding und Fixing, Refactoring
• Dokumentation schreiben, Unit-Tests erstellen
5. Beads (AI Task-Tracking)
Git-backed graph issue tracker für AI Agents.
GitHub: steveyegge/beads
• Persistenter Graph-Speicher für LLM Tasks
• Dependency Tracking zwischen Tasks
• Hash-basierte IDs vermeiden Konflikte
• Git-backed - alle Tasks sind versioniert
6. Gemma Scope 2 + Neuronpedia (Interpretability)
Mechanistic Interpretability für transparentes Agent-Training.
neuronpedia.org/gemma-scope-2
• Discovery: Wichtige Neuronen/Circuits finden
• Steering: Agent-Verhalten aktiv beeinflussen
• Freezing: Gelernte Patterns fixieren
7. Custom MCP Skills (Eigene erstellen)
Du kannst eigene MCP Skills erstellen und ins Docker Dynamic MCP Gateway integrieren.
Docker MCP Authoring Docs
• Eigene Tools schreiben und publishen
• Skills im MCP Catalog teilen
• On-demand für andere verfügbar machen
8. On-Demand Agents (LLM Collections)
Spezialisierte Agenten on-demand aus Model-Mixen erstellen.
• Code-Agent: Claude Sonnet + GPT-4o + DeepSeekCoder
• Research-Agent: Claude Opus + Qwen2.5 + Llama 3.1
• Writing-Agent: GPT-4o + Gemini + Mistral
• Local-First: Llama, Qwen, DeepSeek lokal
• Auf hohem Niveau spezialisieren durch Model-Mix!
9. DSPy + GEPA (Reliability Layer)
Prompt-Optimierung durch Reflection statt Reinforcement Learning.
• DSPy: LLMs wie CPUs/GPUs - deklariere Signaturen, nicht Prompts
• GEPA: Genetic Pareto Prompt Optimizer mit Reflection
• Agentic RAG: Confidence-based + Multihop mit "Ich weiß es nicht"
• 35x effizienter als herkömmliche Optimierung
• 9x kürzere Prompts bei 10% besserer Performance
• Firmen-Ready: Konsistente Outputs, keine Halluzinationen
Die Kombination: Gateway liefert Infrastruktur + Catalog (272+ Server), Docker MCP ist Standard, HuggingFace/Codex liefern AI-Fähigkeiten, Beads tracked Tasks, Gemma Scope macht Training transparent, Custom Skills erweitern das Ökosystem, On-Demand Agents spezialisieren auf Tasks, DSPy+GEPA garantiert Verlässlichkeit.
Plus im Gateway: GitHub, Sentry, Z-Image, Web-Search, Browser Automation
Alle Tools on-demand - verfügbar wenn benötigt, ohne Token-Overhead!
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
🔓 Freedom & Ownership
Anti-Vendor-Lock:
• Selbst-hosted mit Docker MCP Gateway
• On-Demand Agents mit beliebigem Model-Mix
• Wechsle zwischen Models (Anthropic, HF, OpenAI, Local)
• Keine Cloud-Bindung durch lokale Container
• Open-Source Stack voll austauschbar
Data Ownership:
• Beads: Git-backed - deine Tasks gehören dir
• Datasets: HF Hub mit eigenen Repos
• Models: Lokale Finetuning-Ergebnisse
• Steering-Vektoren: Exportierbar und wiederverwendbar
• DSPy Prompt-Evolution: Baum der optimierten Prompts gehört dir
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━