🇬🇧 English

🚀 Qwen3.5-4B-Base FP16 (Colab T4 Ready, Norm FP32 Stable)

A lightweight FP16-converted version of Qwen3.5-4B-Base, specifically optimized for Google Colab T4 GPUs, with critical normalization layers kept in FP32 for numerical stability.


✨ Why this model?

The original model uses BF16, which is not fully supported on NVIDIA T4 GPUs.

This repository provides a carefully engineered FP16 conversion, while preserving Norm layers in FP32, resulting in:

  • ✅ Stable training on Colab (T4)
  • ✅ Improved numerical stability vs pure FP16
  • ✅ Reduced NaNs / training divergence
  • ✅ Drop-in compatibility with standard pipelines

⚡ Key Features

  • 🔄 BF16 → FP16 conversion
  • 🧠 Norm layers kept in FP32 (critical for stability)
  • ⚙️ Fully compatible with Hugging Face ecosystem
  • 🚀 Optimized for T4 (16GB VRAM)
  • 🔧 Ready for LoRA / QLoRA fine-tuning

🧠 Why FP32 Norm Matters

Pure FP16 conversion can introduce:

  • Gradient instability
  • Loss spikes
  • Training divergence

By keeping normalization layers in FP32:

  • ✔ More stable forward/backward passes
  • ✔ Better convergence during fine-tuning
  • ✔ Reduced precision-related artifacts

This mirrors best practices used in modern LLM training pipelines.


🧪 Verified Environment

  • GPU: NVIDIA T4
  • Platform: Google Colab
  • Precision: FP16 (Norm: FP32)
  • Framework: PyTorch + Transformers

⚠️ Notes

  • This is a precision-converted model, not retrained
  • Norm layers are intentionally kept in FP32
  • Minor differences from BF16 may exist
  • All original weights and architecture are preserved

💡 Recommended Use Cases

  • Colab-based prototyping
  • Fine-tuning pipelines (LoRA / QLoRA)
  • Educational experiments
  • Low-resource environments

🤝 Acknowledgements

  • Original model: Qwen/Qwen3.5-4B-Base
  • Conversion & stabilization: This repository

⭐ Support

If this model helps your workflow, consider liking ❤️ the model or following me!


🇯🇵 日本語

🚀 Qwen3.5-4B-Base FP16 (Colab T4 対応、重要な正規化レイヤーは数値的安定性確保のため FP32 維持)

Qwen3.5-4B-Base を FP16 に変換した軽量版であり、Google Colab T4 GPU向けに特別に最適化されています。また、数値的安定性を確保するため、重要な正規化レイヤーは FP32 のまま維持されています。


✨ このモデルを選ぶ理由

元のモデルはBF16を使用していますが、これはNVIDIA T4 GPUでは完全にはサポートされていません。

このリポジトリでは、Norm層をFP32のまま維持しつつ、入念に設計されたFP16変換を提供しており、その結果として以下の利点があります:

  • ✅ Colab (T4) での安定したトレーニング
  • ✅ 純粋なFP16と比較して数値的安定性が向上
  • ✅ NaNの発生やトレーニングの収束不良が減少
  • ✅ 標準的なパイプラインとのドロップイン互換性

⚡ 主な機能

  • 🔄 BF16 → FP16変換
  • 🧠 Norm層をFP32で保持(安定性にとって重要)
  • ⚙️ Hugging Faceエコシステムと完全互換
  • 🚀 T4(16GB VRAM)向けに最適化
  • 🔧 LoRA / QLoRAによる微調整に対応

🧠 なぜFP32でNorm層のみ保存することが重要なのか

純粋なFP16変換では、以下の問題が発生する可能性があります:

  • 勾配の不安定化
  • 損失の急上昇
  • トレーニングの収束不良

Norm層をFP32で保持することで:

  • ✔ フォワード/バックワードパスの安定性向上
  • ✔ 微調整時の収束性の向上
  • ✔ 精度に関連するアーティファクトの低減

これは、最新のLLMトレーニングパイプラインで採用されているベストプラクティスを反映しています。


🧪 検証環境

  • GPU: NVIDIA T4
  • プラットフォーム: Google Colab
  • 精度: FP16 (Norm層正規化: FP32)
  • フレームワーク: PyTorch + Transformers

⚠️ 注意事項

  • これは再学習されたものではなく、精度変換されたモデルです
  • Norm層は意図的に FP32 のままにしています
  • BF16 との間に些細な違いが存在する可能性があります
  • オリジナルの重みとアーキテクチャはすべて保持されています

💡 推奨ユースケース

  • Colab ベースのプロトタイピング
  • 微調整パイプライン (LoRA / QLoRA)
  • 教育目的の実験
  • リソースが限られた環境

🤝 謝辞

  • オリジナルモデル:Qwen/Qwen3.5-4-Base
  • 変換および安定化:本リポジトリ

⭐ サポート

このモデルがあなたのお役に立った場合は、モデルに❤️、または私をフォローしていただけると嬉しいです!

Citation(引用)

@misc{qwen3.5,
    title  = {{Qwen3.5}: Towards Native Multimodal Agents},
    author = {{Qwen Team}},
    month  = {February},
    year   = {2026},
    url    = {https://qwen.ai/blog?id=qwen3.5}
Downloads last month
59
Safetensors
Model size
5B params
Tensor type
F32
·
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for rikunarita/Qwen3.5-4B-Base-FP16-FP32Norm

Finetuned
(54)
this model

Collection including rikunarita/Qwen3.5-4B-Base-FP16-FP32Norm