Vedika commited on
Update app.py
Browse files
app.py
CHANGED
|
@@ -13,8 +13,8 @@ from transformers import pipeline, AutoModelForCausalLM, AutoTokenizer, TextIter
|
|
| 13 |
|
| 14 |
print("🔱 आदरणीय दिव्य जी, वेदिका की त्रिवेणी (कान, मस्तिष्क, मुँह) द्विभाषी और लाइव मोड में जागृत हो रही है...")
|
| 15 |
|
| 16 |
-
# 👂 कान (STT) -
|
| 17 |
-
STT_ID = "openai/whisper-small"
|
| 18 |
|
| 19 |
# 🧠 मस्तिष्क (LLM) - Qwen 0.5B (हगिंग फेस फ्री स्पेस के लिए एकदम सही)
|
| 20 |
LLM_ID = "Qwen/Qwen2.5-0.5B-Instruct"
|
|
@@ -58,20 +58,12 @@ def process_all_in_one(audio_filepath):
|
|
| 58 |
return
|
| 59 |
|
| 60 |
try:
|
| 61 |
-
|
| 62 |
# चरण 1: सुनना (Speech to Text) - बहुभाषी (Multilingual)
|
| 63 |
# ==========================================
|
| 64 |
-
#
|
| 65 |
-
stt_result = stt_pipeline(
|
| 66 |
-
audio_filepath,
|
| 67 |
-
generate_kwargs={
|
| 68 |
-
"condition_on_previous_text": False, # यह मॉडल को शोर के कारण भटकने से रोकता है
|
| 69 |
-
"no_speech_threshold": 0.6, # अगर केवल शोर है और आवाज़ नहीं है, तो उसे इग्नोर करेगा
|
| 70 |
-
"logprob_threshold": -1.0 # गलत शब्दों को छांटने में मदद करता है
|
| 71 |
-
}
|
| 72 |
-
)
|
| 73 |
user_text = stt_result["text"].strip()
|
| 74 |
-
|
| 75 |
|
| 76 |
if not user_text:
|
| 77 |
yield None, "क्षमा करें, मैं सुन नहीं पाई। कृपया पुनः बोलें।"
|
|
|
|
| 13 |
|
| 14 |
print("🔱 आदरणीय दिव्य जी, वेदिका की त्रिवेणी (कान, मस्तिष्क, मुँह) द्विभाषी और लाइव मोड में जागृत हो रही है...")
|
| 15 |
|
| 16 |
+
# 👂 कान (STT) - अत्यंत हल्का, विश्वसनीय और बहुभाषी
|
| 17 |
+
STT_ID = "openai/whisper-small"
|
| 18 |
|
| 19 |
# 🧠 मस्तिष्क (LLM) - Qwen 0.5B (हगिंग फेस फ्री स्पेस के लिए एकदम सही)
|
| 20 |
LLM_ID = "Qwen/Qwen2.5-0.5B-Instruct"
|
|
|
|
| 58 |
return
|
| 59 |
|
| 60 |
try:
|
| 61 |
+
# ==========================================
|
| 62 |
# चरण 1: सुनना (Speech to Text) - बहुभाषी (Multilingual)
|
| 63 |
# ==========================================
|
| 64 |
+
# यहाँ हमने कोई भाषा नहीं बताई है, Whisper खुद समझेगा कि आप हिंदी बोल रहे हैं या अंग्रेजी
|
| 65 |
+
stt_result = stt_pipeline(audio_filepath)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 66 |
user_text = stt_result["text"].strip()
|
|
|
|
| 67 |
|
| 68 |
if not user_text:
|
| 69 |
yield None, "क्षमा करें, मैं सुन नहीं पाई। कृपया पुनः बोलें।"
|