YAML Metadata Warning:empty or missing yaml metadata in repo card

Check out the documentation for more information.

Chimera GGUF Import — v2.0 Optimized

Importer universel : convertit n'importe quel modèle GGUF (n'importe quelle quantisation, n'importe quelle architecture) en checkpoint compatible Chimera 5.1.

Ce que fait le script

GGUF (Q4_0, Q5_1, Q8_0, F16, F32, BF16...)
  → Déquantification FP32 via gguf.dequantize()
  → Noise reduction (outlier-aware, par ligne ou global)
  → Conversion ternaire {-1, 0, +1} avec AbsMean par ligne
  → 2-bit packing (4 poids/byte = 16× réduction mémoire)
  → Checkpoint Chimera 5.1 (.pt)

Installation

pip install gguf torch numpy

Usage rapide

python gguf_import.py \
    --gguf /chemin/vers/nimportequel-modele.gguf \
    --config /chemin/vers/chimera/config.json \
    --scale tiny \
    --output ./imported_chimera.pt

Modes de stockage

Mode Description Quand l'utiliser
fp32 (défaut) Sauvegarde weight latent FP32 natif Chimera. Compatible avec Chimera51ForCausalLM.load_state_dict(). Recommandé — le plus simple.
packed Sauvegarde uniquement packed_weight + alpha pour les couches linéaires. Nécessite un loader custom dans Chimera. Expérimental — checkpoint ultra-compact.
both Sauvegarde les deux : weight FP32 + packed + alpha. Pour migration progressive vers packed.
# Mode packed (expérimental)
python gguf_import.py \
    --gguf model.gguf \
    --config config.json \
    --scale tiny \
    --storage packed \
    --output ./chimera_packed.pt

Réduction de bruit configurable

Méthode Description Par défaut
row_outlier_clip Clip par ligne mean ± 3σ — préserve la structure locale des poids. ✅ défaut
global_clip Clip global mean ± σ — plus agressif, moins de granularité.
median_center Center par médiane, scale par MAD — robuste aux distributions lourdes.
none Passthrough — si la source est déjà propre.
python gguf_import.py \
    --gguf model.gguf \
    --config config.json \
    --noise-method row_outlier_clip \
    --noise-sigma 2.5 \
    --output ./model_chimera.pt

Stratégies de resize

Stratégie Description Par défaut
crop_pad Copie les zones communes, init le reste avec des gaussiennes de même std. ✅ défaut
interpolate Interpolation bilinéaire (préserve la structure spatiale).
strict Échoue si les shapes ne matchent exactement.

Auto-transpose

Détecte automatiquement si les dimensions source et cible sont inversées ([out, in] vs [in, out]) et transpose silencieusement.

Désactiver avec --no-auto-transpose.

Quantisations GGUF supportées

Type Statut
F32 ✅ Direct
F16 ✅ Cast
BF16 ✅ Cast
Q8_0 / Q8_1 ✅ Déquantification
Q5_0 / Q5_1 ✅ Déquantification
Q4_0 / Q4_1 ✅ Déquantification
Q2_K / Q3_K / Q4_K / Q5_K / Q6_K ✅ Via gguf.dequantize

Architectures source supportées

Tout modèle GGUF : LLaMA, Qwen, Mistral, Phi, Gemma, DeepSeek, etc.

Mapping GGUF → Chimera

GGUF source Chimera cible
token_embd embed.weight
output lm_head.weight
output_norm norm.weight
blk.N.attn_q/k/v/output layers.N.attn.q/k/v/o_proj
blk.N.ffn_gate/up/down layers.N.mlp.gate/up/down_proj
blk.N.attn_norm layers.N.attn_norm
blk.N.ffn_norm layers.N.mlp_norm

Clés manquantes

Par défaut (--no-init-missing désactivé), toutes les couches Chimera absentes du GGUF source sont initialisées automatiquement :

  • Norms : torch.ones(...)
  • Embeddings/Head : normal_(0, 0.02)
  • Linéaires BitLinear : normal_(0, sqrt(2/fan_in)) + ternarisation

Après import : fine-tuning obligatoire

Chimera utilise des couches récurrentes hybrides (GatedDeltaNet, xLSTM, Titans, TSP Span Knot) — pas du transformer standard. Le mapping QKV↔recurrence est intrinsèquement lossy. Fine-tunez avec MeZO sur CPU :

OMP_NUM_THREADS=20 python train.py \
  --optimizer mezo --scale tiny --seq_len 64 --max_steps 100000 \
  --dataset_name HuggingFaceFW/fineweb-2 --dataset_config fra_Latn \
  --max_tokens 50000000 --compile --no-bf16 --num_workers 0 \
  --output_dir ./finetune_imported

Exemple complet

python gguf_import.py \
    --gguf ./models/mistral-7b-q4_0.gguf \
    --config ./chimera/config.json \
    --scale tiny \
    --storage fp32 \
    --param-dtype fp32 \
    --noise-method row_outlier_clip \
    --noise-sigma 3.0 \
    --ternary-threshold 0.5 \
    --resize-strategy crop_pad \
    --output ./mistral_chimera_tiny.pt

Dépôt

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support