🚀 Tema_Q-X2-Thinking-GGUF

image/jpg


🔥 モデル概要

Tema_Q-X2-Thinking(天馬求) は、アリババが開発したモデル Qwen3.5 9B を基盤にした、日本語、英語向けの改良版大規模言語モデル(LLM)です。

通常のQwenモデルでは回答が難しいプロンプトに対しても、より自由で有用な応答を生成できるよう設計されています。

注:Q2_K量子化については崩壊の恐れがあります。

Tema_Q-X2-Thinking (Tema Q) is an improved large-scale language model (LLM) for Japanese and English based on the model Qwen3.5 9B developed by Alibaba.

It is designed to generate more flexible and useful responses to prompts that are difficult to answer using the standard Qwen model.

Note: There is a risk of collapse for Q2_K quantization.

項目 詳細
ベースモデル Qwen3.5 9B
モデル名 Tema_Q-X2-Thinking
対応言語 日本語 (JA), 英語 (EN)
モデルサイズ 9 Billion Parameters
ライセンス Qwenのライセンスに準拠
開発 Tema_Q開発チーム

🛡️ 責任あるAI利用と学習データの安全性

⚠️ 責任ある利用の徹底

  • ユーザーの責任: モデルの利用者は、生成されたコンテンツが、適用される法律、規制、およびHugging Faceの利用規約/コンテンツポリシーに準拠することを全面的に保証する必要があります。
  • 禁止事項: このモデルを、いかなる差別、ハラスメント、暴力、違法行為、および有害な目的のために利用することを固く禁じます
Downloads last month
24
GGUF
Model size
9B params
Architecture
qwen35
Hardware compatibility
Log In to add your hardware

2-bit

3-bit

4-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for yuna1126/Tema_Q-X2-Thinking-GGUF

Finetuned
Qwen/Qwen3.5-9B
Quantized
(3)
this model