Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
|
@@ -40,7 +40,9 @@ AUCH SCHLECHT (zu viele Pfeile, keine Verben):
|
|
| 40 |
AUCH SCHLECHT (konjugierte Verben):
|
| 41 |
"Das Modell lernt Muster und erkennt Zusammenhänge."
|
| 42 |
^^^ NEIN! Richtig: "Modell lernen Muster und erkennen Zusammenhänge."
|
| 43 |
-
Infinitiv IMMER. Höhlenmensch nicht konjugieren können!
|
|
|
|
|
|
|
| 44 |
|
| 45 |
|
| 46 |
CUSTOM_CSS = """
|
|
@@ -101,17 +103,18 @@ THINKING_HTML = '<div class="thinking-indicator"><span>Höhlenmensch denkt</span
|
|
| 101 |
|
| 102 |
|
| 103 |
def chat_generieren(message, history, max_tokens, temperature, thinking_mode):
|
| 104 |
-
|
| 105 |
if thinking_mode:
|
| 106 |
-
|
| 107 |
-
|
|
|
|
| 108 |
|
| 109 |
messages = [{"role": "system", "content": system_content}]
|
| 110 |
for msg in history:
|
| 111 |
messages.append({"role": msg["role"], "content": msg["content"]})
|
| 112 |
messages.append({"role": "user", "content": message})
|
| 113 |
|
| 114 |
-
response = "" #
|
| 115 |
yield THINKING_HTML
|
| 116 |
|
| 117 |
try:
|
|
@@ -129,7 +132,7 @@ def chat_generieren(message, history, max_tokens, temperature, thinking_mode):
|
|
| 129 |
yield response
|
| 130 |
|
| 131 |
if not response.strip():
|
| 132 |
-
yield "🪨 [Höhlenmensch denkt zu lang.
|
| 133 |
|
| 134 |
except Exception as e:
|
| 135 |
yield response + f"\n\n🦴 [Fehler: {str(e)}]"
|
|
|
|
| 40 |
AUCH SCHLECHT (konjugierte Verben):
|
| 41 |
"Das Modell lernt Muster und erkennt Zusammenhänge."
|
| 42 |
^^^ NEIN! Richtig: "Modell lernen Muster und erkennen Zusammenhänge."
|
| 43 |
+
Infinitiv IMMER. Höhlenmensch nicht konjugieren können!
|
| 44 |
+
|
| 45 |
+
WICHTIG: Erst denken in Thought-Block. Dann finale Antwort NACH dem Thought-Block schreiben!"""
|
| 46 |
|
| 47 |
|
| 48 |
CUSTOM_CSS = """
|
|
|
|
| 103 |
|
| 104 |
|
| 105 |
def chat_generieren(message, history, max_tokens, temperature, thinking_mode):
|
| 106 |
+
# <|think|> muss ganz am Anfang des System-Prompts stehen
|
| 107 |
if thinking_mode:
|
| 108 |
+
system_content = "<|think|>\n" + CAVEMAN_SYSTEM_PROMPT
|
| 109 |
+
else:
|
| 110 |
+
system_content = CAVEMAN_SYSTEM_PROMPT # Ohne Token = leerer Thought-Block + Antwort
|
| 111 |
|
| 112 |
messages = [{"role": "system", "content": system_content}]
|
| 113 |
for msg in history:
|
| 114 |
messages.append({"role": msg["role"], "content": msg["content"]})
|
| 115 |
messages.append({"role": "user", "content": message})
|
| 116 |
|
| 117 |
+
response = "" # Nie vorbelegen
|
| 118 |
yield THINKING_HTML
|
| 119 |
|
| 120 |
try:
|
|
|
|
| 132 |
yield response
|
| 133 |
|
| 134 |
if not response.strip():
|
| 135 |
+
yield "🪨 [Höhlenmensch denkt zu lang. Mehr Tokens geben!]"
|
| 136 |
|
| 137 |
except Exception as e:
|
| 138 |
yield response + f"\n\n🦴 [Fehler: {str(e)}]"
|