What is this?

Meta社の言語モデルMeta-Llama-3-70B-InstructをNexusflow社が微調整したモデルであるLlama3-Athene-70BをGGUFフォーマットに変換したものです。
商用利用は禁止となっていますのでご注意ください。

imatrix dataset

日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
なお、計算リソースの関係上imatrixの算出においてはQ8_0量子化モデルを使用しました。

Chat template

<|start_header_id|>system<|end_header_id|>\n\nここにsystemプロンプトを書きます<|eot_id|><|start_header_id|>user<|end_header_id|>\n\nここにMessageを書きます<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n

Environment

Windows版llama.cpp-b3389およびllama.cpp-b3436同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。

License

llama3 License, CC-BY-NC-4.0

Developer

Meta & Nexusflow

Downloads last month
-
GGUF
Model size
71B params
Architecture
llama
Hardware compatibility
Log In to add your hardware

4-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support