aidn commited on
Commit
9b9f3dd
·
verified ·
1 Parent(s): 73b66f6

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -6
app.py CHANGED
@@ -40,7 +40,9 @@ AUCH SCHLECHT (zu viele Pfeile, keine Verben):
40
  AUCH SCHLECHT (konjugierte Verben):
41
  "Das Modell lernt Muster und erkennt Zusammenhänge."
42
  ^^^ NEIN! Richtig: "Modell lernen Muster und erkennen Zusammenhänge."
43
- Infinitiv IMMER. Höhlenmensch nicht konjugieren können!"""
 
 
44
 
45
 
46
  CUSTOM_CSS = """
@@ -101,17 +103,18 @@ THINKING_HTML = '<div class="thinking-indicator"><span>Höhlenmensch denkt</span
101
 
102
 
103
  def chat_generieren(message, history, max_tokens, temperature, thinking_mode):
104
- system_content = CAVEMAN_SYSTEM_PROMPT
105
  if thinking_mode:
106
- # Modell zur Nutzung des Thinking-Kanals auffordern – kein Prefill nötig
107
- system_content += "\n\nVor Antwort: nutze <|channel>thought\n...<channel|> zum Denken."
 
108
 
109
  messages = [{"role": "system", "content": system_content}]
110
  for msg in history:
111
  messages.append({"role": msg["role"], "content": msg["content"]})
112
  messages.append({"role": "user", "content": message})
113
 
114
- response = "" # NIEMALS vorbelegen – Gradio parst Tags selbst
115
  yield THINKING_HTML
116
 
117
  try:
@@ -129,7 +132,7 @@ def chat_generieren(message, history, max_tokens, temperature, thinking_mode):
129
  yield response
130
 
131
  if not response.strip():
132
- yield "🪨 [Höhlenmensch denkt zu lang. Keine Wörter rausgekommen. Mehr Tokens geben!]"
133
 
134
  except Exception as e:
135
  yield response + f"\n\n🦴 [Fehler: {str(e)}]"
 
40
  AUCH SCHLECHT (konjugierte Verben):
41
  "Das Modell lernt Muster und erkennt Zusammenhänge."
42
  ^^^ NEIN! Richtig: "Modell lernen Muster und erkennen Zusammenhänge."
43
+ Infinitiv IMMER. Höhlenmensch nicht konjugieren können!
44
+
45
+ WICHTIG: Erst denken in Thought-Block. Dann finale Antwort NACH dem Thought-Block schreiben!"""
46
 
47
 
48
  CUSTOM_CSS = """
 
103
 
104
 
105
  def chat_generieren(message, history, max_tokens, temperature, thinking_mode):
106
+ # <|think|> muss ganz am Anfang des System-Prompts stehen
107
  if thinking_mode:
108
+ system_content = "<|think|>\n" + CAVEMAN_SYSTEM_PROMPT
109
+ else:
110
+ system_content = CAVEMAN_SYSTEM_PROMPT # Ohne Token = leerer Thought-Block + Antwort
111
 
112
  messages = [{"role": "system", "content": system_content}]
113
  for msg in history:
114
  messages.append({"role": msg["role"], "content": msg["content"]})
115
  messages.append({"role": "user", "content": message})
116
 
117
+ response = "" # Nie vorbelegen
118
  yield THINKING_HTML
119
 
120
  try:
 
132
  yield response
133
 
134
  if not response.strip():
135
+ yield "🪨 [Höhlenmensch denkt zu lang. Mehr Tokens geben!]"
136
 
137
  except Exception as e:
138
  yield response + f"\n\n🦴 [Fehler: {str(e)}]"