🤖 Claude Code Skills

Dokumentation und Übersicht nützlicher Skills & Tools

HuggingFace MCP

🐋 Docker Dynamic MCP + HuggingFace

30. Dez 2025 • Neun Komponenten, ein Ökosystem
Neun Dinge kommen hier zusammen: 1. Docker Dynamic MCP Gateway (Infrastructure) Das Gateway macht alle Tools on-demand verfügbar - ohne Context-Overhead. Docker Dynamic MCP Docs • 272+ MCP Server im Catalog • On-demand Activation ohne Token-Overhead • Zentraler Registry für alle MCP Tools 2. Docker MCP Server (Standard im Gateway) Docker-Befehle direkt als MCP Tools - vollständige Container-Steuerung. Docker MCP Server Docs • Container starten, stoppen, verwalten • Images bauen, pullen, pushen • Docker Compose, Volumes, Networks • GPU-Container für ML Workloads • Standardmäßig im Gateway aktiviert! 3. Claude Code Skills (HF Model Training) HuggingFace Skills für Model-Training und Publish-Workflows. GitHub: huggingface/skills Blog Post: HF Skills Training • SFT, DPO, GRPO Training auf HF Jobs • Papers veröffentlichen, Datasets erstellen, Evaluations 4. OpenAI Codex Skills (Code Generation) OpenAI Codex direkt in Claude Code für Code-Workflows. GitHub: huggingface/skills Blog Post: HF Codex Integration • Code-Generierung und -Vervollständigung • Bug-Finding und Fixing, Refactoring • Dokumentation schreiben, Unit-Tests erstellen 5. Beads (AI Task-Tracking) Git-backed graph issue tracker für AI Agents. GitHub: steveyegge/beads • Persistenter Graph-Speicher für LLM Tasks • Dependency Tracking zwischen Tasks • Hash-basierte IDs vermeiden Konflikte • Git-backed - alle Tasks sind versioniert 6. Gemma Scope 2 + Neuronpedia (Interpretability) Mechanistic Interpretability für transparentes Agent-Training. neuronpedia.org/gemma-scope-2 • Discovery: Wichtige Neuronen/Circuits finden • Steering: Agent-Verhalten aktiv beeinflussen • Freezing: Gelernte Patterns fixieren 7. Custom MCP Skills (Eigene erstellen) Du kannst eigene MCP Skills erstellen und ins Docker Dynamic MCP Gateway integrieren. Docker MCP Authoring Docs • Eigene Tools schreiben und publishen • Skills im MCP Catalog teilen • On-demand für andere verfügbar machen 8. On-Demand Agents (LLM Collections) Spezialisierte Agenten on-demand aus Model-Mixen erstellen. • Code-Agent: Claude Sonnet + GPT-4o + DeepSeekCoder • Research-Agent: Claude Opus + Qwen2.5 + Llama 3.1 • Writing-Agent: GPT-4o + Gemini + Mistral • Local-First: Llama, Qwen, DeepSeek lokal • Auf hohem Niveau spezialisieren durch Model-Mix! 9. DSPy + GEPA (Reliability Layer) Prompt-Optimierung durch Reflection statt Reinforcement Learning. • DSPy: LLMs wie CPUs/GPUs - deklariere Signaturen, nicht Prompts • GEPA: Genetic Pareto Prompt Optimizer mit Reflection • Agentic RAG: Confidence-based + Multihop mit "Ich weiß es nicht" • 35x effizienter als herkömmliche Optimierung • 9x kürzere Prompts bei 10% besserer Performance • Firmen-Ready: Konsistente Outputs, keine Halluzinationen Die Kombination: Gateway liefert Infrastruktur + Catalog (272+ Server), Docker MCP ist Standard, HuggingFace/Codex liefern AI-Fähigkeiten, Beads tracked Tasks, Gemma Scope macht Training transparent, Custom Skills erweitern das Ökosystem, On-Demand Agents spezialisieren auf Tasks, DSPy+GEPA garantiert Verlässlichkeit. Plus im Gateway: GitHub, Sentry, Z-Image, Web-Search, Browser Automation Alle Tools on-demand - verfügbar wenn benötigt, ohne Token-Overhead! ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 🔓 Freedom & Ownership Anti-Vendor-Lock: • Selbst-hosted mit Docker MCP Gateway • On-Demand Agents mit beliebigem Model-Mix • Wechsle zwischen Models (Anthropic, HF, OpenAI, Local) • Keine Cloud-Bindung durch lokale Container • Open-Source Stack voll austauschbar Data Ownership: • Beads: Git-backed - deine Tasks gehören dir • Datasets: HF Hub mit eigenen Repos • Models: Lokale Finetuning-Ergebnisse • Steering-Vektoren: Exportierbar und wiederverwendbar • DSPy Prompt-Evolution: Baum der optimierten Prompts gehört dir ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Agent Training Loop

🔄 Self-Improving Agent Loop

30. Dez 2025 • Closed-Loop AI Agent Training
Die Vision: Ein Agent, der sich selbst verbessert durch iterative Schleifen. Die Komponenten: 1. Ralph Wiggum (Loop Engine) Iterative AI-Agentenschleifen mit selbstreferenziellem Feedback. Ralph Wiggum GitHub • /ralph-loop startet die Schleife • Stop-Hook fährt Resultat ein • /cancel-ralph bricht ab 2. Beads (Task Memory) Git-backed graph issue tracker für Tasks. Beads GitHub • Tasks als Graph-Nodes gespeichert • Dependencies und Blocker sichtbar • Git-backed - jeder Loop ist versioniert 3. Docker MCP Server (Container Runtime) Alles läuft in Containern - reproduzierbar und isoliert. Docker MCP Server Docs • Container on-demand erstellen • Nach Gebrauch automatisch kill & cleanupAlle mit Docker Sandboxes! • GPU-Container für ML Workloads Zwei Disziplinen für Agent-Verbesserung: ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 🔧 PATH A: Finetuning (Permanent) HF Skills GitHubWas: Model-Gewichte werden dauerhaft geändert • Wie: SFT, DPO, GRPO auf HF Jobs • Resultat: Neues Model mit gelerntem Verhalten • Dauer: Permanent • Vorteil: Gelerntes Wissen bleibt erhalten 🎯 PATH B: Steering (Runtime) Gemma Scope 2 + NeuronpediaWas: Verhalten zur Laufzeit beeinflussen • Wie: Activation Engineering / Feature Steering • Resultat: Verändert Output ohne Gewichtsänderung • Dauer: Nur während Inference • Vorteil: Reversible, kein Retraining nötig ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ Beide Pfade kombinieren: Discovery Skills (Gemma Scope 2 + Neuronpedia) • SAE Features finden die Verhalten bestimmen • Circuits identifizieren (Kausal-Ketten) • 4TB+ activations, explanations, metadata Steering Skills (Runtime Control) • Feature-Stärke erhöhen/verringern (↑/↓) • API: POST /api/steer mit strength_multiplier • Sofortige Wirkung ohne Training Freezing Skills (Persistenz) • Wichtige Circuits identifizieren und speichern • Erfolgreiche Patterns in Finetuning übernehmen • Agent-Verhalten konsistent halten Der Loop mit beiden Disziplinen: 1. Ralph startet → Agent führt Task aus 2. Beads tracked → Graph speichert Fortschritt 3. Docker MCP → Container on-demand erstellen 4. Agent arbeitet → Isoliert im Sandbox-Container 5. [PATH A] HF Skills → Finetuning für permanentes Lernen 6. [PATH B] Gemma Scope → Activations analysieren 7. [PATH B] Neuronpedia → Discovery: Features finden 8. [PATH B] Steering → Laufzeit-Korrektur 9. [BOTH] Freezing → Erfolgreiche Patterns fixieren 10. Container cleanup → Automatisch kill & löschen 11. Loop wiederholt → Verbesserter Agent Use Cases: • Code-Refactoring Agent trainieren • Bug-Finding Skills verbessern • Domain-spezifische Tasks optimieren Links: Ralph Wiggum GitHub Beads GitHub Docker MCP Server HF Skills GitHub HF Skills Blog Neuronpedia API Gemma Scope 2 DeepMind
Claude Code Plugin

🐑 Ralph Wiggum

Anthropic Official Plugin
Ein Claude Code Plugin für iterative AI-Agentenschleifen. GitHub: anthropics/claude-code/plugins/ralph-wiggum Was es macht: • /ralph-loop - Startet iterative Schleife • /cancel-ralph - Bricht die Schleife ab • Stop-Hook erstellt selbstreferenzielle Feedback-Schleife Benannt nach Ralph Wiggum (Simpsons) - "I'm a member of the 508th Airborne!"
Mechanistic Interpretability

🔬 Gemma Scope 2 + Neuronpedia

AI Interpretability Stack
Das komplette Ökosystem für mechanistic interpretability: Gemma Scope 2 (Google DeepMind) • 110 Petabytes an Daten für Gemma 3 (270M-27B) • SAEs und Transcoders • DeepMind Blog Neuronpedia (Open Source) • Interactive Steering Platform • Explore & Experiment mit gemscope-2 • neuronpedia.org/gemma-scope-2 Zusammen: Transcoders übertreffen SAEs • Circuit Insights • Real-time Steering
HuggingFace

🤗 HuggingFace Skills

Available Skills
In deiner Claude Code Installation verfügbar: • model-trainer - SFT, DPO, GRPO Training • hugging-face-paper-publisher - Papers veröffentlichen • hugging-face-dataset-creator - Datasets erstellen • hugging-face-evaluation-manager - Eval Ergebnisse Über Skills-Tool verfügbar.