Vedika commited on
Update app.py
Browse files
app.py
CHANGED
|
@@ -14,7 +14,7 @@ from transformers import pipeline, AutoModelForCausalLM, AutoTokenizer, TextIter
|
|
| 14 |
print("🔱 आदरणीय दिव्य जी, वेदिका की त्रिवेणी (कान, मस्तिष्क, मुँह) द्विभाषी और लाइव मोड में जागृत हो रही है...")
|
| 15 |
|
| 16 |
# 👂 कान (STT) - अत्यंत हल्का, विश्वसनीय और बहुभाषी
|
| 17 |
-
STT_ID = "
|
| 18 |
|
| 19 |
# 🧠 मस्तिष्क (LLM) - Qwen 0.5B (हगिंग फेस फ्री स्पेस के लिए एकदम सही)
|
| 20 |
LLM_ID = "Qwen/Qwen2.5-0.5B-Instruct"
|
|
@@ -91,7 +91,7 @@ def process_all_in_one(audio_filepath):
|
|
| 91 |
generation_kwargs = dict(
|
| 92 |
**inputs,
|
| 93 |
streamer=streamer,
|
| 94 |
-
max_new_tokens=
|
| 95 |
temperature=0.7,
|
| 96 |
do_sample=True
|
| 97 |
)
|
|
|
|
| 14 |
print("🔱 आदरणीय दिव्य जी, वेदिका की त्रिवेणी (कान, मस्तिष्क, मुँह) द्विभाषी और लाइव मोड में जागृत हो रही है...")
|
| 15 |
|
| 16 |
# 👂 कान (STT) - अत्यंत हल्का, विश्वसनीय और बहुभाषी
|
| 17 |
+
STT_ID = "nvidia/stt_ar_fastconformer_hybrid_large_pcd_v1.0"
|
| 18 |
|
| 19 |
# 🧠 मस्तिष्क (LLM) - Qwen 0.5B (हगिंग फेस फ्री स्पेस के लिए एकदम सही)
|
| 20 |
LLM_ID = "Qwen/Qwen2.5-0.5B-Instruct"
|
|
|
|
| 91 |
generation_kwargs = dict(
|
| 92 |
**inputs,
|
| 93 |
streamer=streamer,
|
| 94 |
+
max_new_tokens=512,
|
| 95 |
temperature=0.7,
|
| 96 |
do_sample=True
|
| 97 |
)
|