Create app.py
import gradio as gr
import requests
1. आपके मॉडल का एड्रेस
API_URL = "https://api-inference.huggingface.co/models/Rajaramai1/rajaram-ai-final"
2. अपना असली 'Write' टोकन यहाँ डालें (hf_...)
TOKEN = "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"
HEADERS = {"Authorization": f"Bearer {TOKEN}"}
def chat_response(message, history):
# मॉडल को भेजने के लिए सेटिंग
payload = {
"inputs": f"Human: {message}\nAssistant:",
"parameters": {
"max_new_tokens": 150,
"temperature": 0.7,
"top_p": 0.9,
"return_full_text": False
}
}
try:
response = requests.post(API_URL, headers=HEADERS, json=payload)
if response.status_code == 200:
result = response.json()
# सिर्फ AI का जवाब निकालें
output = result[0].get('generated_text', 'कोई जवाब नहीं मिला।')
return output.split("Assistant:")[-1].strip()
elif response.status_code == 503:
return "⏳ मॉडल अभी लोड हो रहा है... कृपया 20 सेकंड रुकें और फिर ट्राई करें।"
else:
return f"❌ एरर: {response.status_code}. अपना टोकन चेक करें।"
except Exception as e:
return f"Error: {str(e)}"
इंटरफेस डिजाइन
demo = gr.ChatInterface(
fn=chat_response,
title="👑 राजाराम AI",
description="स्वदेशी दिमाग - मेरा अपना AI मॉडल"
)
if name == "main":
demo.launch()
import gradio as gr
import requests
API_URL = "https://api-inference.huggingface.co/models/Rajaramai1/rajaram-ai-final"
TOKEN = "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"
HEADERS = {"Authorization": f"Bearer {TOKEN}"}
def chat_response(message, history):
payload = {
"inputs": f"Human: {message}\nAssistant:",
"parameters": {
"max_new_tokens": 150,
"temperature": 0.7,
"top_p": 0.9,
"return_full_text": False
}
}
try:
response = requests.post(API_URL, headers=HEADERS, json=payload)
if response.status_code == 200:
result = response.json()
output = result[0].get('generated_text', 'कोई जवाब नहीं मिला।')
return output.split("Assistant:")[-1].strip()
elif response.status_code == 503:
return "⏳ मॉडल अभी लोड हो रहा है... कृपया 20-30 सेकंड रुकें।"
else:
return f"❌ एरर: {response.status_code}. अपना टोकन चेक करें।"
except Exception as e:
return f"Error: {str(e)}"
demo = gr.ChatInterface(
fn=chat_response,
title="👑 राजाराम AI",
description="स्वदेशी दिमाग - मेरा अपना AI मॉडल"
)
if name == "main":
demo.launch()
import gradio as gr
import requests
API_URL = "https://api-inference.huggingface.co/models/Rajaramai1/rajaram-ai-final"
TOKEN = "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"
HEADERS = {"Authorization": f"Bearer {TOKEN}"}
def chat_response(message, history):
payload = {
"inputs": f"Human: {message}\nAssistant:",
"parameters": {
"max_new_tokens": 150,
"temperature": 0.7,
"top_p": 0.9,
"return_full_text": False
}
}
try:
response = requests.post(API_URL, headers=HEADERS, json=payload)
if response.status_code == 200:
result = response.json()
output = result[0].get('generated_text', 'कोई जवाब नहीं मिला।')
return output.split("Assistant:")[-1].strip()
elif response.status_code == 503:
return "⏳ मॉडल अभी लोड हो रहा है... कृपया 20-30 सेकंड रुकें।"
else:
return f"❌ एरर: {response.status_code}. अपना टोकन चेक करें।"
except Exception as e:
return f"Error: {str(e)}"
demo = gr.ChatInterface(
fn=chat_response,
title="👑 राजाराम AI",
description="स्वदेशी दिमाग - मेरा अपना AI मॉडल"
)
if name == "main":
demo.launch()