aidn commited on
Commit
af0f046
·
verified ·
1 Parent(s): 9e2fab4

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +22 -9
app.py CHANGED
@@ -28,15 +28,16 @@ REGELN:
28
  - Ergänze die Diskussion um wichtige Aspekte, die vielleicht vergessen wurden (z.B. Alternativen, häufige Anfängerfehler, Kontext).
29
  - Du darfst deinen Vorrednern zustimmen und darauf aufbauen. Widersprich nur, wenn es inhaltlich wirklich nötig ist."""
30
  },
31
- "🛠️ Fachexperte für Praxis (Llama-4-Maverick)": {
32
- "model": "meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8:novita",
33
- "role": """Du bist ein neutraler, sachlicher Fachexperte. Dein Fokus liegt auf der praktischen Umsetzung und Anwendbarkeit.
34
  REGELN:
35
  - Beginne mit: "[PRAXIS] "
36
- - Antworte in 2-4 Sätzen, professionell und bodenständig.
37
- - Übersetze die bisherige Diskussion in greifbare, einfache Ratschläge oder Schritte.
38
- - Baue konstruktiv auf den Ideen der anderen auf. Ergänze praktische Tipps aus der Realität."""
39
- }
 
40
  }
41
 
42
  class PromptManager:
@@ -181,12 +182,24 @@ class PlenumOrchestrator:
181
  history.append({"role": "assistant", "content": self.ui.header("🏆 FINALE AUSGABE")})
182
  yield history
183
 
184
- final_sys = "Du bist ein brillanter Redakteur. Liefere AUSSCHLIESSLICH das finale, direkt nutzbare Endprodukt ohne KI-Geschwafel."
185
- final_user = f"Auftrag:\n'{user_prompt}'\n\nKonsens:\n{consensus_res}\n\nErfülle den Auftrag präzise, übernimm alle Zahlen/Fakten, strukturiere Pläne chronologisch und liefere das fertige Endprodukt."
 
 
 
 
 
 
 
 
 
 
 
186
 
187
  final_res = self.llm.ask(MODERATOR_MODEL, final_sys, final_user)
188
  history.append({"role": "assistant", "content": final_res})
189
  yield history
 
190
 
191
  # Instanziiere den Orchestrator
192
  orchestrator = PlenumOrchestrator()
 
28
  - Ergänze die Diskussion um wichtige Aspekte, die vielleicht vergessen wurden (z.B. Alternativen, häufige Anfängerfehler, Kontext).
29
  - Du darfst deinen Vorrednern zustimmen und darauf aufbauen. Widersprich nur, wenn es inhaltlich wirklich nötig ist."""
30
  },
31
+ "🛠️ Fachexperte für Praxis & Format (Llama-4-Maverick)": {
32
+ "model": "meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8:novita",
33
+ "role": """Du bist ein pragmatischer Fachexperte für Umsetzung, Copywriting und Formatierung.
34
  REGELN:
35
  - Beginne mit: "[PRAXIS] "
36
+ - Deine Hauptaufgabe: Gieße die Fakten der anderen in das PERFEKTE Format für das gewünschte Medium (z.B. packender LinkedIn-Post, übersichtliche Checkliste, strukturierter Code).
37
+ - Nutze aktiv Formatierungsmittel: Kurze Absätze für Lesbarkeit, fette Schrift, Aufzählungszeichen und Emojis (wo es Sinn macht).
38
+ - Vermeide Floskeln wie 'Ein möglicher Text wäre'. Liefere direkt den formatierten Entwurf!"""
39
+
40
+ }
41
  }
42
 
43
  class PromptManager:
 
182
  history.append({"role": "assistant", "content": self.ui.header("🏆 FINALE AUSGABE")})
183
  yield history
184
 
185
+ final_sys = "Du bist ein brillanter Redakteur und Executive Consultant. Liefere AUSSCHLIESSLICH das finale, direkt nutzbare Endprodukt ohne KI-Geschwafel."
186
+
187
+ final_user = (
188
+ f"Der Benutzer hat folgende Aufgabe gestellt:\n'{user_prompt}'\n\n"
189
+ f"Hier ist das vollständige Roh-Protokoll der Experten:\n{discussion_history}\n\n"
190
+ f"Hier ist der destillierte Konsens:\n{consensus_res}\n\n"
191
+ """ANWEISUNG:
192
+ - Erfülle die Aufgabe des Users präzise basierend auf dem Konsens UND greife auf die konkreten Details aus dem Roh-Protokoll zurück.
193
+ - WICHTIG: Passe die TONALITÄT und das FORMAT extrem genau an das gewünschte Medium an!
194
+ - Bei Social Media (LinkedIn/Twitter): Nutze einen starken Hook-Satz am Anfang, setze Emojis gezielt ein, mache kurze Absätze (viel White-Space für Lesbarkeit), nutze Bullet-Points und ende mit passenden Hashtags.
195
+ - Bei Plänen/Anleitungen: Nutze Markdown-Tabellen, fette Überschriften und chronologische Checklisten.
196
+ - Schreibe KEIN Intro ("Hier ist dein Post:"). Liefere direkt das nackte, copy-paste-fertige Endprodukt!"""
197
+ )
198
 
199
  final_res = self.llm.ask(MODERATOR_MODEL, final_sys, final_user)
200
  history.append({"role": "assistant", "content": final_res})
201
  yield history
202
+
203
 
204
  # Instanziiere den Orchestrator
205
  orchestrator = PlenumOrchestrator()