Gemma 3 4B IT LoRA Adapter
๊ฐ์
์ด ์ ์ฅ์๋ RunPod์์ ํ์ธํ๋ํ google/gemma-3-4b-it ๊ธฐ๋ฐ LoRA ์ด๋ํฐ์
๋๋ค.
ํ์ต ๋ฐ์ดํฐ
- ๊ณต๊ฐ ์ฌ๋ถ: ๋น๊ณต๊ฐ
- ์ค๋ช : ์ ๊ณต๋์ง ์์
ํ์ต ํ๊ฒฝ
- ํ๋ซํผ: RunPod
- ๋ฐฉ๋ฒ: LoRA (PEFT)
์ฌ์ฉ ๋ฐฉ๋ฒ
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
base_model_id = "google/gemma-3-4b-it"
adapter_id = "your-username/your-lora-repo"
tokenizer = AutoTokenizer.from_pretrained(base_model_id)
model = AutoModelForCausalLM.from_pretrained(base_model_id)
model = PeftModel.from_pretrained(model, adapter_id)
์ฐธ๊ณ
- ์ด ์ ์ฅ์๋ ์ด๋ํฐ๋ง ํฌํจํฉ๋๋ค. ๋ฒ ์ด์ค ๋ชจ๋ธ์ ๋ณ๋๋ก ๋ฐ์์ผ ํฉ๋๋ค.
- Downloads last month
- 1