YEJI-4B-Instruct-v9

한국어 운세/점술 도메인 특화 LLM. Qwen3-4B 기반 RSLoRA 파인튜닝 모델 (v9, 최종).

Model Description

YEJI는 사주(四柱), 서양 점성술, 타로, 화투 4개 도메인에 특화된 한국어 LLM입니다. v1부터 v9까지 9회 반복 실험을 거쳐 최적화되었습니다.

  • Base Model: Qwen3-4B
  • Fine-tuning: RSLoRA (Rank-Stabilized LoRA)
  • Training Data: yeji-fortune-telling-ko-v9 (31,625 samples)
  • Domains: 사주(Bazi) · 서양 점성술(Astrology) · 타로(Tarot) · 화투

Training Details

Parameter Value
Base Model Qwen/Qwen3-4B
Method RSLoRA
Dataset Size 31,625 samples
Domains 4 (사주, 점성술, 타로, 화투)
Language Korean
Framework Unsloth + Transformers

Version History

Version Base Method Status
v1 Qwen3-8B QDoRA Deprecated
v2 Qwen3-8B QLoRA Deprecated
v7 Qwen3-8B RSLoRA Stable (8B)
v9 Qwen3-4B RSLoRA Latest (4B)

Usage

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "tellang/yeji-4b-instruct-v9"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto")

messages = [
    {"role": "system", "content": "당신은 전문 사주 상담사입니다."},
    {"role": "user", "content": "1997년 10월 24일생 사주 풀이를 부탁합니다."}
]

text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512, temperature=0.7)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Quantized Versions

Format Model Use Case
AWQ 4-bit yeji-4b-instruct-v9-AWQ vLLM 서빙, GPU 추론
MLX 4-bit yeji-4b-instruct-v9-mlx-4bit Apple Silicon
GGUF yeji-4b-gguf llama.cpp, Ollama

Limitations

  • 한국어 운세/점술 도메인에 특화되어 있어 일반 대화 성능은 베이스 모델 대비 저하될 수 있습니다.
  • 점술 결과는 엔터테인먼트 목적이며, 실제 의사결정에 사용해서는 안 됩니다.
  • 중국어 사주 용어가 포함된 학습 데이터 특성상, 일부 응답에 중국어가 혼합될 수 있습니다.

Citation

@misc{yeji-4b-instruct-v9,
  author = {tellang},
  title = {YEJI-4B-Instruct-v9: Korean Fortune-Telling Domain LLM},
  year = {2026},
  publisher = {Hugging Face},
  url = {https://huggingface.co/tellang/yeji-4b-instruct-v9}
}
Downloads last month
10
Safetensors
Model size
4B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for tellang/yeji-4b-instruct-v9

Finetuned
Qwen/Qwen3-4B
Finetuned
(574)
this model
Quantizations
2 models

Dataset used to train tellang/yeji-4b-instruct-v9