YEJI-8B-RSLoRA-v7
한국어 운세/점술 도메인 특화 8B LLM. Qwen3-8B-Base 기반 RSLoRA 파인튜닝.
Model Description
YEJI 프로젝트의 8B 주력 모델입니다. Qwen3-8B-Base를 RSLoRA (Rank-Stabilized LoRA)로 파인튜닝하여
사주, 점성술, 타로, 화투 4개 도메인에서 전문 상담 능력을 갖추었습니다.
- Base Model: Qwen/Qwen3-8B-Base
- Parameters: 8.2B
- Fine-tuning: RSLoRA
- Training Data: yeji-fortune-telling-ko-v3
- Domains: 사주(Bazi) · 서양 점성술(Astrology) · 타로(Tarot) · 화투
Version History
| Version |
Base |
Method |
Params |
Status |
| v1 |
Qwen3-8B |
QDoRA |
8.2B |
Deprecated |
| v2 |
Qwen3-8B |
QLoRA |
8.2B |
Deprecated |
| v4 |
Qwen3-8B |
RSLoRA + T-Shirt |
8.2B |
Deprecated |
| v7 |
Qwen3-8B |
RSLoRA |
8.2B |
Stable |
Usage
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "tellang/yeji-8b-rslora-v7"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto")
messages = [
{"role": "system", "content": "당신은 전문 사주 상담사입니다."},
{"role": "user", "content": "1997년 10월 24일생의 올해 운세를 봐주세요."}
]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512, temperature=0.7)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Quantized Versions
Successor Models (4B, Lighter)
Limitations
- 한국어 운세/점술 도메인에 특화. 범용 대화 성능은 Qwen3-8B-Instruct 대비 저하.
- 점술 결과는 엔터테인먼트 목적. 실제 의사결정에 사용 금지.
- 8B 모델로 VRAM ~16GB 필요. 경량화가 필요하면 4B 또는 AWQ 버전 권장.