๐ฐ ShweYon-V3-Base (แแฝแพแฑแแฏแแบ-V3)
ShweYon-V3-Base แแแบ Qwen 2.5 1.5B แแญแฏ แกแแผแฑแแถแ แแผแแบแแฌแแฌแแฌแ แแฌแธแกแแฝแแบ แกแแฐแธแแผแฏแแผแแบแแฌแธแแฑแฌ Base Model แแผแ แบแแซแแแบแ แค Version แแฝแแบ แแแแบ Version แแปแฌแธแแฒแทแแญแฏแท Tokenizer แแฎแธแแผแฌแธแแฏแถแธแแแบ แแแญแฏแแฑแฌแทแแฒ Model แ Embedding แแฒแแญแฏแท แแผแแบแแฌแแฏแถแแแบแแปแฌแธแแญแฏ แแญแฏแแบแแญแฏแแบแแฑแซแแบแธแ แแบแแฌแธแแซแแแบแ ShweYon-V3-Base is a Myanmar-centric base language model built on top of the Qwen 2.5 1.5B architecture. This model is a milestone in the "ShweYon" project, focusing on improving the efficiency of Myanmar script processing through a custom tokenizer.
๐ฏ Purpose (แแแบแแฝแแบแแปแแบ)
แค Model แแแบ แแผแแบแแฌแแฌแแฌแ แแฌแธแกแแฝแแบ Foundation Base Model แแ แบแแฏแกแแผแ แบ แแแบแแฝแแบแแซแแแบแ แค Model แแญแฏ แกแแผแฑแแถแ Chatbot แแปแฌแธแ Question Answering แ แแ แบแแปแฌแธแแพแแทแบ แกแแผแฌแธแแฑแฌ Downstream NLP Task แแปแฌแธแกแแฝแแบ แแแบแแถแ Fine-tuning (SFT/RLHF) แแผแฏแแฏแแบแแแบ แกแแฑแฌแแบแธแแฏแถแธ แกแฏแแบแแผแ แบแแผแ แบแแซแแแบแ
โจ Technical Highlights
- Integrated Tokenizer: แแผแแบแแฌแแญแแแบแแปแฌแธแแพแแทแบ แ แแฌแธแแฏแถแธแแฑแซแแบแธ แ,แแแ แแปแฑแฌแบ แแซแแแบแแฑแฌ Custom Tokenizer แแญแฏ แแ แบแแซแแแบแธ แแแทแบแแฝแแบแธแแฌแธแแซแแแบแ
- Extended Vocabulary: Vocabulary Size แแญแฏ
160,746แกแแญ แแญแฏแธแแผแพแแทแบแแฌแธแแแผแแทแบ แแผแแบแแฌแ แฌแแฌแธแแปแฌแธแแญแฏ แแญแฏแแญแฏแแปแ แบแแปแ แบแ แฝแฌแแพแแทแบ แแผแแบแแแบแ แฝแฌ แแฝแแบแแปแแบแแญแฏแแบแแซแแแบแ - Base Training: แแผแแบแแฌแ แฌแแฑ แ แฌแกแฏแแบแแปแฌแธแ แฝแฌแแผแแทแบ Model แ แแผแแบแแฌแ แฌ แกแแผแฑแแถแแแฏแแฏแ แแญแฏแแญแฏแแฑแฌแแบแธแแฝแแบแแฌแ แฑแแแบ แแฑแทแแปแแทแบแแฑแธแแฌแธแแซแแแบแ
๐ Quick Start
แค Base Model แแญแฏ แกแฑแฌแแบแแซแกแแญแฏแแบแธ แแฑแซแบแแฐแกแแฏแถแธแแผแฏแแญแฏแแบแแซแแแบแ
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "URajinda/ShweYon-V3-Base"
# แแปแแบแแพแแบแแฑแฌ แฆแธแแพแฑแฌแแบแแฑแฌ แแ
แบแแซแแแบแธ แแซแแฌแแซแแแบ
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# แ
แแบแธแแแบแแผแแทแบแแแบ
prompt = "แแผแแบแแฌแแญแฏแแบแแถแ แแแญแฏแแบแธแแผแฑแฌแแบแธแแพแฌ"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=32)
print(tokenizer.decode(outputs[0]))
โ ๏ธ Note
แค Model แแแบ Base Model แแฌ แแผแ
แบแแฑแฌแแผแฑแฌแแทแบ แแฐแแฌแธแแพแแทแบ แ
แแฌแธแแผแฑแฌแแญแฏแแแบ (Instruction Following) แกแแฝแแบ แแแบแแถแ Chat Fine-tuning แแฏแแบแแแบ แแญแฏแกแแบแแซแแฑแธแแแบแ
โ๏ธ License
Apache License 2.0
- Downloads last month
- 88