Vedika commited on
Commit
25d6c4d
·
verified ·
1 Parent(s): a32123e

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +28 -26
app.py CHANGED
@@ -1,6 +1,6 @@
1
- # --- 🔱 वेदिका 3.5 फ्लैश: भारत का अपना शक्तिशाली 2B AI ---
2
  # रचयिता एवं मार्गदर्शक: दिव्य पटेल जी | भारत 🇮🇳
3
- # पैरामीटर्स: 2 Billion (2B) | विशेषता: Ultra-Fast, RAM Safe, Gradio 6.0+ Compatible
4
 
5
  import gradio as gr
6
  import torch
@@ -8,73 +8,76 @@ from transformers import AutoModelForCausalLM, AutoTokenizer, TextIteratorStream
8
  from threading import Thread
9
  import os
10
 
11
- print("🔱 भारत का अजेय AI 'वेदिका 3.5 फ्लैश' जागृत हो रहा है...")
12
 
13
- # 🛡️ CPU को सुषिरखा मं
14
- os.environ["OMP_NUM_THREADS"] = "4"
15
- torch.set_num_threads(4)
16
 
17
  # 🚀 दिव्य जी का अपना स्वदेशी 2B मॉडल
18
  MODEL_ID = "pateltraders55455/Vedika-3.5-flash"
19
 
20
  try:
21
- print(f"🔱 '{MODEL_ID}' (2 Billion Parameters) लोड किया जा रहा है...")
22
 
23
  tokenizer = AutoTokenizer.from_pretrained(MODEL_ID, trust_remote_code=True)
 
 
24
  model = AutoModelForCausalLM.from_pretrained(
25
  MODEL_ID,
26
- device_map="cpu", # CPU पर चलेगा
27
- torch_dtype=torch.float32, # सुर्षि डेटा प्रकार
28
- low_cpu_mem_usage=True, # रैम बचाने की तकन
29
  trust_remote_code=True
30
  )
31
- print("🔱 विजय! 'वेदिका 3.5 फ्लैश' 16GB ैम फलतपूर्वक स्थापित हो गया है!")
32
 
33
  except Exception as e:
34
- print(f"🔱 मॉडल लोडिंग में त्रुटि (कृपया सुनिश्चित करें कि मॉडल रिपॉजिटरी में फाइलें मौजूद हैं): {e}")
35
  model, tokenizer = None, None
36
 
37
  def generate_vedika_magic(message, history):
38
- """वेदिका 3.5 फ्लैश का तीव्र गति (Flash Speed) वाला इंजन"""
39
 
40
  if model is None or tokenizer is None:
41
  yield "🔱 सिस्टम त्रुटि: मॉडल लोड नहीं हो सका। कृपया अपनी रिपॉजिटरी की जाँच करें।"
42
  return
43
 
44
- # वेदिके लिए कड़े निर्द
 
 
 
45
  messages = [
46
  {"role": "system", "content": "You are 'Vedika 3.5 Flash', an ultra-fast, 2 Billion parameter AI model created entirely by Divy Patel in Bharat (India). Always be highly intelligent, respectful, and proud of your Indian origin."},
47
  ]
48
 
49
- # इतिहास (History) जोड़ना
50
- for user_msg, ai_msg in history:
51
  messages.append({"role": "user", "content": user_msg})
52
  messages.append({"role": "assistant", "content": ai_msg})
53
 
54
  messages.append({"role": "user", "content": message})
55
 
56
  try:
57
- # प्रॉम्प्ट को तैयार करना
58
  text_prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
59
  inputs = tokenizer([text_prompt], return_tensors="pt").to(model.device)
60
 
61
- # लाइव स्ट्रीमिंग (Live Streaming) अस्त्र
62
  streamer = TextIteratorStreamer(tokenizer, timeout=60.0, skip_prompt=True, skip_special_tokens=True)
63
 
 
64
  generate_kwargs = dict(
65
  **inputs,
66
  streamer=streamer,
67
- max_new_tokens=1024,
68
  temperature=0.7,
69
  top_p=0.9,
70
- do_sample=True
 
71
  )
72
 
73
- # जनरेशन को बैकग्राउंड में शुरू करना
74
  t = Thread(target=model.generate, kwargs=generate_kwargs)
75
  t.start()
76
 
77
- # एक-एक शब्द को यूज़र तक पहुँचाना
78
  accumulated_text = ""
79
  for new_token in streamer:
80
  accumulated_text += new_token
@@ -84,14 +87,13 @@ def generate_vedika_magic(message, history):
84
  yield f"🔱 प्रसंस्करण त्रुटि: {str(e)}"
85
 
86
  # ============================================================================
87
- # 🔱 वेदिका 3.5 फ्लैश का भवय और आुनिक यूआई (Gradio ChatInterface)
88
  # ============================================================================
89
- # अजेय सुधार: यहाँ से 'theme' वाले आर्गुमेंट को हटा दिया गया है ताकि कोई एरर न आए।
90
 
91
  demo = gr.ChatInterface(
92
  fn=generate_vedika_magic,
93
- title="🔱 Vedika 3.5 Flash (2B)",
94
- description="**Pioneered by Divy Patel | Bharat 🇮🇳**<br>यह भारत का अपना स्वदेशी 2 बिलियन पैरामीटर वाला AI मॉडल है, जो असीम ीव्र (Flash) और सुरक्षि है।",
95
  textbox=gr.Textbox(placeholder="वेदिका 3.5 फ्लैश से कुछ भी पूछें..."),
96
  concurrency_limit=1
97
  )
 
1
+ # --- 🔱 वेदिका 3.5 फ्लैश: भारत का अपना 2B AI (Super Fast Version) ---
2
  # रचयिता एवं मार्गदर्शक: दिव्य पटेल जी | भारत 🇮🇳
3
+ # विशेषता: Ultra-Fast (bfloat16), Memory Safe, No Crash on 2nd Question
4
 
5
  import gradio as gr
6
  import torch
 
8
  from threading import Thread
9
  import os
10
 
11
+ print("🔱 भारत का अजेय AI 'वेदिका 3.5 फ्लैश' सुपर-फास्ट मोड में जागृत हो रहा है...")
12
 
13
+ # 🛡️ मुफ़्त सर्वर (2 vCPU) के लिए CPU को पूर् ूलि (Optimize) कना
14
+ os.environ["OMP_NUM_THREADS"] = "2"
15
+ torch.set_num_threads(2)
16
 
17
  # 🚀 दिव्य जी का अपना स्वदेशी 2B मॉडल
18
  MODEL_ID = "pateltraders55455/Vedika-3.5-flash"
19
 
20
  try:
21
+ print(f"🔱 '{MODEL_ID}' (2B) लोड किया जा रहा है...")
22
 
23
  tokenizer = AutoTokenizer.from_pretrained(MODEL_ID, trust_remote_code=True)
24
+
25
+ # ⚡ ब्रह्मास्त्र 1: bfloat16 का उपयोग करके गति को दोगुना करना
26
  model = AutoModelForCausalLM.from_pretrained(
27
  MODEL_ID,
28
+ device_map="cpu",
29
+ torch_dtype=torch.bfloat16, # गति बढ़ाने े लि हल्का डेटा प्रकार
30
+ low_cpu_mem_usage=True, # रैम की भार बचत
31
  trust_remote_code=True
32
  )
33
+ print("🔱 विजय! 'वेदिका 3.5 फ्लैश' सुप-फास्ट गति के सा स्थापित हो गया है!")
34
 
35
  except Exception as e:
36
+ print(f"🔱 मॉडल लोडिंग में त्रुटि: {e}")
37
  model, tokenizer = None, None
38
 
39
  def generate_vedika_magic(message, history):
40
+ """वेदिका 3.5 फ्लैश का क्रैश-फ्री और तीव्र इंजन"""
41
 
42
  if model is None or tokenizer is None:
43
  yield "🔱 सिस्टम त्रुटि: मॉडल लोड नहीं हो सका। कृपया अपनी रिपॉजिटरी की जाँच करें।"
44
  return
45
 
46
+ # 🛡️ ब्रह्मस्त्र 2: स्मार्ट ममोरी लिमिट (रर बचाने के लिए)
47
+ # यह केवल पिछले 2 सवालों को याद रखेगा, ताकि CPU कभी ओवरलोड न हो और क्रैश न करे!
48
+ recent_history = history[-2:] if len(history) > 2 else history
49
+
50
  messages = [
51
  {"role": "system", "content": "You are 'Vedika 3.5 Flash', an ultra-fast, 2 Billion parameter AI model created entirely by Divy Patel in Bharat (India). Always be highly intelligent, respectful, and proud of your Indian origin."},
52
  ]
53
 
54
+ # सीमित इतिहास (History) जोड़ना
55
+ for user_msg, ai_msg in recent_history:
56
  messages.append({"role": "user", "content": user_msg})
57
  messages.append({"role": "assistant", "content": ai_msg})
58
 
59
  messages.append({"role": "user", "content": message})
60
 
61
  try:
 
62
  text_prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
63
  inputs = tokenizer([text_prompt], return_tensors="pt").to(model.device)
64
 
 
65
  streamer = TextIteratorStreamer(tokenizer, timeout=60.0, skip_prompt=True, skip_special_tokens=True)
66
 
67
+ # ⚡ गति बढ़ाने के लिए जनरेशन सेटिंग्स
68
  generate_kwargs = dict(
69
  **inputs,
70
  streamer=streamer,
71
+ max_new_tokens=512, # गति बनाए रखने के लिए सीमा
72
  temperature=0.7,
73
  top_p=0.9,
74
+ do_sample=True,
75
+ use_cache=True # ⚡ ब्रह्मास्त्र 3: कैशिंग से स्पीड बढ़ाना
76
  )
77
 
 
78
  t = Thread(target=model.generate, kwargs=generate_kwargs)
79
  t.start()
80
 
 
81
  accumulated_text = ""
82
  for new_token in streamer:
83
  accumulated_text += new_token
 
87
  yield f"🔱 प्रसंस्करण त्रुटि: {str(e)}"
88
 
89
  # ============================================================================
90
+ # 🔱 वेदिका 3.5 फ्लैश का शुद्ध यूआई (कोई अतिरिक्त आर्गुमेंट नहीं)
91
  # ============================================================================
 
92
 
93
  demo = gr.ChatInterface(
94
  fn=generate_vedika_magic,
95
+ title="🔱 Vedika 3.5 Flash (Super Fast)",
96
+ description="**Pioneered by Divy Patel | Bharat 🇮🇳**<br>यह भारत का अपना स्वदेशी 2 बिलियन पैरामीटर वाला AI मॉडल है (गि और सुरक्षा के लि अनुकूलित)।",
97
  textbox=gr.Textbox(placeholder="वेदिका 3.5 फ्लैश से कुछ भी पूछें..."),
98
  concurrency_limit=1
99
  )