Qwen3-4B MBTI F-Style LoRA
Qwen3-4B λͺ¨λΈμ MBTI F(Feeling) μ€νμΌ μλ΅ λ°μ΄ν°λ‘ LoRA fine-tuningν λͺ¨λΈμ λλ€.
Model Description
- Base Model: Qwen/Qwen3-4B
- Training Data: mks0813/mbti-f-t-style-responses
- Fine-tuning Method: LoRA (Low-Rank Adaptation)
- LoRA Config: r=16, alpha=32, dropout=0.05
Usage
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
import torch
# λͺ¨λΈ λ‘λ
base_model = "Qwen/Qwen3-4B"
model = AutoModelForCausalLM.from_pretrained(
base_model,
torch_dtype=torch.bfloat16,
device_map="auto",
)
model = PeftModel.from_pretrained(model, "mks0813/qwen3-4b-mbti-f-style-lora")
tokenizer = AutoTokenizer.from_pretrained(base_model)
# μΆλ‘
messages = [{"role": "user", "content": "μμ¦ νμ¬ μΌλ λ°μκ³ λ무 νλ€μ΄..."}]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=False,
)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
with torch.no_grad():
outputs = model.generate(**inputs, max_new_tokens=256, do_sample=True, temperature=0.7)
response = tokenizer.decode(outputs[0][inputs["input_ids"].shape[1]:], skip_special_tokens=True)
print(response)
Example Conversations
μ¬μ©μ: μμ¦ νμ¬ μΌλ λ°μκ³ λ무 νλ€μ΄ ν μΌμ λ§μλ° μ μ μ΄ λ무 μλ€ AI: μ λ§ λ§μ΄ νλ€κ² ꡬλ... κ·Έλ° λ μ΄ λ§μμ μμνμ§? π’ λ€κ° μΌλ§λ μ§μΉκ³ μ€νΈλ μ€ λ°λμ§ μ΄ν΄ν΄. μ κΉμ΄λΌλ λ€ λ§μμ λλ΄μ£Όλ μκ°μ κ°μ Έλ³΄λ 건 μ΄λ¨κΉ? νΌμμ λ€ κ°λΉνλ €κ³ νμ§ λ§κ³ , μ£Όλ³ μ¬λλ€κ³Όλ μ‘°κΈμ© μ΄μΌκΈ°νλ©΄μ λ§μμ λλλ©΄ μ‘°κΈμ νΈν΄μ§ κ±°μΌ.
μ¬μ©μ: μλ‘μ΄ κ²μ λ°°μ°κ³ λμ νκ³ μΆμ΄. λμ΄κ° λ§μλ° κ°λ₯ν κΉ? AI: μ, μ λ§ λ©μ§ μκ°μ΄μμ! λμ΄κ° λ§μλ° μλ‘μ΄ κ±Έ λ°°μ°κ³ μΆλ€λ λ§μ, μ λ§ μμ€νκ³ μ©κΈ° μλ κ±°μ£ π λμ΄λ μ λ λ°°μμ λμ΄ μλλκΉ, μ²μ²ν μ²μ²ν ν΄λ³΄λ κ²λ μ’μ κ² κ°μμ. ν¨κ» νλ΄μ!
μ¬μ©μ: λ΄μΌ μΌμ° μΌμ΄λμΌλλλ° μΌμ΄ λ§μμ λ¦κ² μμΌλλ μν©μ΄μΌ. μ΄μ©μ§? AI: μ, μ λ§ μμνκ² λ€ π’ μΌμ° μΌμ΄λμΌ νμ§λ§ μΌμ΄ λ§μμ νλ€κ² μ΄. νΉμ μ κΉμ΄λΌλ νΈμν μκ°μ κ°μ Έλ³΄λ 건 μ΄λ? λ€ κ±΄κ°λ κΌ μ±κΈ°κ³ , λ무 무리νμ§ λ§μ!
μ¬μ©μ: μμ¦λ€μ΄ μκΎΈ νΌκ³€νκ³ λͺΈμ΄ μ°λΏλ₯νλ€ AI: μμ¦ λ§μ΄ νλ€κ΅¬λ... λͺΈμ΄ μ°λΏλ₯νλ€λ μ λ§ κ±±μ λΌ π νΉμ μ€νΈλ μ€κ° μ’ μμ΄μ§ μλλ‘ μ£Όλ³ μ¬λλ€κ³Ό μ‘°κΈ λ μ΄μΌκΈ° λλλ©΄μ λ§μλ νΈνκ² ν΄λ³΄λ 건 μ΄λ?
μ¬μ©μ: μ΄μ¬ν μΌνλλ° μκΎΈ λμ΄ λΆμ‘±νλ€ μ΄λ»κ² ν΄μΌλ κΉ AI: μ λ§ νλ€κ² ꡬλ... μ΄μ¬ν μΌνλλ°λ λΆμ‘±ν λ λλ¬Έμ μμν λ§μ μ΄ν΄ν΄. νΉμ μ£Όλ³μ λμμ μ€ μ μλ μ¬λλ€κ³Ό μ΄μΌκΈ°ν΄λ³ΌκΉ? νΌμμ λ무 λΆλ΄ κ°μ§ λ§κ³ , μ‘°κΈμ© μ²μ²ν ν΄κ²°μ± μ μ°Ύμκ°λ©΄ λΆλͺ ν λμμ§ κ±°μΌ! πͺπ
Training Details
- Framework: Axolotl
- Hardware: GPU
- Epochs: 3
- Learning Rate: 5e-5
- Batch Size: 32
- Sequence Length: 2048
- Downloads last month
- 3