๐ฐ ShweYon-Qwen2.5-Burmese-1.5B-v1.0
ShweYon-Qwen2.5-Burmese-1.5B-v1.0 แแแบ Qwen 2.5 1.5B แแญแฏ แกแแผแฑแแถแ แแผแแบแแฌแแฌแแฌแ แแฌแธแกแแฝแแบ แกแแฐแธแแผแฏแแผแแบแแฌแธแแฑแฌ Base Model แแผแ แบแแซแแแบแ แค Version แแฝแแบ แแแแบ Version แแปแฌแธแแฒแทแแญแฏแท Tokenizer แแฎแธแแผแฌแธแแฏแถแธแแแบ แแแญแฏแแฑแฌแทแแฒ Model แ Embedding แแฒแแญแฏแท แแผแแบแแฌแแฏแถแแแบแแปแฌแธแแญแฏ แแญแฏแแบแแญแฏแแบแแฑแซแแบแธแ แแบแแฌแธแแซแแแบแ ShweYon-Qwen2.5-Burmese-1.5B-v1.0 is a Myanmar-centric base language model built on top of the Qwen 2.5 1.5B architecture. This model is a milestone in the "ShweYon" project, focusing on improving the efficiency of Myanmar script processing through a custom tokenizer.
๐ฏ Purpose (แแแบแแฝแแบแแปแแบ)
แค Model แแแบ แแผแแบแแฌแแฌแแฌแ แแฌแธแกแแฝแแบ Foundation Base Model แแ แบแแฏแกแแผแ แบ แแแบแแฝแแบแแซแแแบแ แค Model แแญแฏ แกแแผแฑแแถแ Chatbot แแปแฌแธแ Question Answering แ แแ แบแแปแฌแธแแพแแทแบ แกแแผแฌแธแแฑแฌ Downstream NLP Task แแปแฌแธแกแแฝแแบ แแแบแแถแ Fine-tuning (SFT/RLHF) แแผแฏแแฏแแบแแแบ แกแแฑแฌแแบแธแแฏแถแธ แกแฏแแบแแผแ แบแแผแ แบแแซแแแบแ
๐ Quick Start
แค Base Model แแญแฏ แกแฑแฌแแบแแซแกแแญแฏแแบแธ แแฑแซแบแแฐแกแแฏแถแธแแผแฏแแญแฏแแบแแซแแแบแ
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "URajinda/ShweYon-V3-Base"
# แแปแแบแแพแแบแแฑแฌ แฆแธแแพแฑแฌแแบแแฑแฌ แแ
แบแแซแแแบแธ แแซแแฌแแซแแแบ
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# แ
แแบแธแแแบแแผแแทแบแแแบ
prompt = "แแผแแบแแฌแแญแฏแแบแแถแ แแแญแฏแแบแธแแผแฑแฌแแบแธแแพแฌ"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=32)
print(tokenizer.decode(outputs[0]))
โ ๏ธ Note
แค Model แแแบ Base Model แแฌ แแผแ
แบแแฑแฌแแผแฑแฌแแทแบ แแฐแแฌแธแแพแแทแบ แ
แแฌแธแแผแฑแฌแแญแฏแแแบ (Instruction Following) แกแแฝแแบ แแแบแแถแ Chat Fine-tuning แแฏแแบแแแบ แแญแฏแกแแบแแซแแฑแธแแแบแ
โ๏ธ License
Apache License 2.0
- Downloads last month
- 11