YEJI-8B-RSLoRA-v7

한국어 운세/점술 도메인 특화 8B LLM. Qwen3-8B-Base 기반 RSLoRA 파인튜닝.

Model Description

YEJI 프로젝트의 8B 주력 모델입니다. Qwen3-8B-Base를 RSLoRA (Rank-Stabilized LoRA)로 파인튜닝하여 사주, 점성술, 타로, 화투 4개 도메인에서 전문 상담 능력을 갖추었습니다.

  • Base Model: Qwen/Qwen3-8B-Base
  • Parameters: 8.2B
  • Fine-tuning: RSLoRA
  • Training Data: yeji-fortune-telling-ko-v3
  • Domains: 사주(Bazi) · 서양 점성술(Astrology) · 타로(Tarot) · 화투

Version History

Version Base Method Params Status
v1 Qwen3-8B QDoRA 8.2B Deprecated
v2 Qwen3-8B QLoRA 8.2B Deprecated
v4 Qwen3-8B RSLoRA + T-Shirt 8.2B Deprecated
v7 Qwen3-8B RSLoRA 8.2B Stable

Usage

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "tellang/yeji-8b-rslora-v7"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto")

messages = [
    {"role": "system", "content": "당신은 전문 사주 상담사입니다."},
    {"role": "user", "content": "1997년 10월 24일생의 올해 운세를 봐주세요."}
]

text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512, temperature=0.7)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Quantized Versions

Format Model Use Case
AWQ 4-bit yeji-8b-rslora-v7-AWQ vLLM 서빙

Successor Models (4B, Lighter)

Model Params Status
yeji-4b-instruct-v9 4.0B Latest
yeji-4b-instruct-v9-AWQ ~1.3B Production

Limitations

  • 한국어 운세/점술 도메인에 특화. 범용 대화 성능은 Qwen3-8B-Instruct 대비 저하.
  • 점술 결과는 엔터테인먼트 목적. 실제 의사결정에 사용 금지.
  • 8B 모델로 VRAM ~16GB 필요. 경량화가 필요하면 4B 또는 AWQ 버전 권장.
Downloads last month
4
Safetensors
Model size
8B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for tellang/yeji-8b-rslora-v7

Finetuned
(381)
this model
Quantizations
1 model

Dataset used to train tellang/yeji-8b-rslora-v7