Chinese Poetry GPT-2 Model

这是一个基于GPT-2架构的中文古诗生成模型,经过微调可以生成中国古诗词。

用法

from transformers import GPT2LMHeadModel, GPT2Tokenizer

tokenizer = GPT2Tokenizer.from_pretrained("xingyu1996/chinese-poems-gpt2")
model = GPT2LMHeadModel.from_pretrained("xingyu1996/chinese-poems-gpt2")

# 生成诗歌
input_text = "作者:李白\n标题:望月\n\n"
input_ids = tokenizer.encode(input_text, return_tensors='pt')

output = model.generate(
    input_ids,
    max_length=100,
    num_return_sequences=1,
    no_repeat_ngram_size=2,
    top_k=50,
    top_p=0.95,
    temperature=0.7
)

generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)

训练数据

模型在中国古诗词数据集上进行了微调,包含了唐诗宋词等经典作品。

限制

模型生成的诗歌可能不完全符合古诗词的韵律和格式要求。

Downloads last month
5
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support