Dijet photoproduction at low x at next-to-leading order and its back-to-back limit
Paper โข 2204.11650 โข Published
โ ๏ธ ์ด ๋ชจ๋ธ์ ๋ ์ด์ ์ฌ์ฉ๋์ง ์์ต๋๋ค. tellang/yeji-8b-rslora-v7-AWQ๋ฅผ ์ฌ์ฉํ์ธ์.
์ด ๋ชจ๋ธ์ T-SHIRT ๋ฐ์ดํฐ ์ ํ ๋ฐฉ์์ผ๋ก ํ์ต๋์์ผ๋ ๋ค์ ๋ฌธ์ ๋ก ์ธํด ํ๊ธฐ๋์์ต๋๋ค:
# ์์ ์ถ๋ ฅ
"์ค๋์ ์ข์ ๋ ์
๋๋ค."
# ์ค์ ์ถ๋ ฅ
"Hรดm nay lร mแปt ngร y tแปt lร nh."
# ํ๋กฌํํธ
"์ค๋์ ์ฐ์ ์ด์ ์๋ ค์ฃผ์ธ์."
# v4-tshirt ์ถ๋ ฅ (๋ฐ๋ณต ๋ฐ์)
"์ค๋์ ์ข์ ๋ ์
๋๋ค. ์ค๋์ ์ข์ ๋ ์
๋๋ค. ์ค๋์ ์ข์ ๋ ์
๋๋ค. ์ค๋์ ์ข์ ๋ ์
๋๋ค..."
์์ธ ๋ถ์:
T-SHIRT (Training Short Is a Hassle, Retrieve Training)๋:
์ด๋ก ์ ์ฅ์ :
์ค์ ๋ฌธ์ :
# 1. ์๋ฒ ๋ฉ ๊ธฐ๋ฐ difficulty ์ธก์
embeddings = embed_model.encode(training_samples)
difficulty_scores = calculate_difficulty(embeddings)
# 2. ์์ 20% ์ ํ
threshold = np.percentile(difficulty_scores, 80)
selected_samples = samples[difficulty_scores >= threshold]
# 3. ์ ํ๋ ์ํ๋ก ํ์ต
# ๋ฌธ์ : ๋ค์์ฑ ๋ถ์กฑ โ ๋ฐ๋ณต ๋ฃจํ ๋ฐ์
tellang/yeji-8b-rslora-v7-AWQfrom vllm import LLM, SamplingParams
llm = LLM(
model="tellang/yeji-8b-rslora-v7-AWQ",
quantization="awq",
)
# ๋ฐ๋ณต ๋ฐฉ์ง ์ค์
sampling_params = SamplingParams(
temperature=0.7,
top_p=0.9,
max_tokens=512,
repetition_penalty=1.05, # v4์์๋ ํจ๊ณผ ์์์, v7์์๋ ์ ์ ์๋
)
tellang/yeji-4b-rslora-v8.1 (์ ์ฒด ๋ฐ์ดํฐ ํ์ต)tellang/yeji-8b-rslora-v7-AWQ (์ ์ฒด ๋ฐ์ดํฐ ํ์ต)| ์งํ | v4-tshirt (20% ๋ฐ์ดํฐ) | v7-AWQ (100% ๋ฐ์ดํฐ) |
|---|---|---|
| ํ์ต ์ํ | 1,000 (20%) | 5,000 (100%) |
| ํ์ต ์๊ฐ | 2์๊ฐ | 10์๊ฐ |
| ๋ฐ๋ณต ๋ฃจํ | 30% ๋ฐ์ | <1% ๋ฐ์ |
| ๋ฒ ํธ๋จ์ด ์ถ๋ ฅ | 15-20% | <1% |
| ๋ค์์ฑ | ๋ฎ์ | ๋์ |
| ์ ํ๋ | Baseline | +15% |
| ์ธก๋ฉด | ๋ ผ๋ฌธ (ImageNet) | YEJI (์ด์ธ ๋ฐ์ดํฐ) |
|---|---|---|
| ๋ฐ์ดํฐ ๊ท๋ชจ | 100๋ง+ ์ํ | 5,000 ์ํ |
| 20% ์ ํ ์ | 20๋ง ์ํ (์ถฉ๋ถ) | 1,000 ์ํ (๋ถ์กฑ) |
| ๋ค์์ฑ | ์ ์ง๋จ | ์ฌ๊ฐํ๊ฒ ๊ฐ์ |
| ๊ฒฐ๊ณผ | โ ์ฑ๊ณต | โ ์คํจ |
๊ตํ: T-SHIRT๋ ๋๊ท๋ชจ ๋ฐ์ดํฐ์ (10๋ง+ ์ํ)์์๋ง ํจ๊ณผ์
์ ์ฒด ๋ฐ์ดํฐ ์ฌ์ฉ (v7 ๋ฐฉ์)
Data Augmentation
# Back-translation์ผ๋ก ๋ฐ์ดํฐ ์ฆ๊ฐ
ko โ en โ ko # ๋์ผ ์๋ฏธ, ๋ค๋ฅธ ํํ
Few-Shot Learning
# v4-tshirt - ๋ฐ๋ณต ๋ฃจํ ๋ฐ์
llm = LLM(model="tellang/yeji-8b-lora-v4-tshirt")
output = llm.generate("์ค๋์ ์ด์ธ๋?")
# ์ถ๋ ฅ: "์ค๋์ ์ข์ ๋ ์
๋๋ค. ์ค๋์ ์ข์ ๋ ์
๋๋ค..." โ
# v7-AWQ - ์ ์ ์ถ๋ ฅ
llm = LLM(model="tellang/yeji-8b-rslora-v7-AWQ", quantization="awq")
sampling_params = SamplingParams(
temperature=0.7,
repetition_penalty=1.05,
)
output = llm.generate("์ค๋์ ์ด์ธ๋?", sampling_params)
# ์ถ๋ ฅ: "์ค๋์ ๊ธ์ ์ ์ธ ์๋์ง๊ฐ ๊ฐ๋ํ ๋ ์
๋๋ค. ์๋ก์ด ๊ธฐํ๋ฅผ ๋ง๋๊ฒ ๋ ๊ฒ์
๋๋ค." โ
Apache 2.0
@misc{yeji-8b-lora-v4-tshirt,
title={YEJI Fortune Telling Model (T-SHIRT v4 - Deprecated)},
author={SSAFY YEJI Team},
year={2026},
note={Deprecated: Repetition loop and Vietnamese output. Use yeji-8b-rslora-v7-AWQ instead}
}
Base model
Qwen/Qwen3-8B-Base