⚖️ Asistente Jurídico MX — Qwen 2.5 7B (Fine-tuned)

License: MIT Spanish GGUF Ollama Uso Personal

Modelo de lenguaje ajustado fino sobre Qwen 2.5 7B Instruct, especializado en derecho mexicano. Entrenado con tesis y jurisprudencias de la Suprema Corte de Justicia de la Nación (SCJN).

El objetivo principal es democratizar el acceso a la información jurídica en México, ofreciendo versiones optimizadas para distintos tipos de hardware — desde servidores con GPU hasta computadoras modestas sin acelerador gráfico.

💰 Uso Gratuito: Este modelo es completamente gratuito para uso personal, educativo y de investigación. Consulta el archivo LICENSE para más detalles.

📄 Model Card: Consulta MODELCARD.md para información detallada sobre el modelo, entrenamiento, y consideraciones éticas.


📋 Versiones Disponibles del Modelo

Versión Archivo .gguf Tamaño Descripción
F16 (base completo) modelo_7b-F16.gguf ~15 GB Precisión completa, máxima calidad
Q4_K_M ⭐ (recomendado) modelo_7b_q4_k_m.gguf ~4.4 GB Mejor equilibrio calidad/tamaño
Q3_K_M modelo_7b_q3_k_m.gguf ~3.6 GB Para máquinas con recursos limitados
Q2_K modelo_7b_q2_k.gguf ~2.9 GB Mínimo viable, recursos muy limitados

🖥️ Requisitos de Hardware por Versión

🔴 F16 — Precisión Completa (15 GB)

Uso recomendado: servidores de producción, investigación académica, benchmarks.

Componente Mínimo Recomendado
GPU VRAM 16 GB 24 GB (RTX 3090 / A10G / A100)
RAM del sistema 32 GB 64 GB
Almacenamiento 20 GB libres SSD NVMe
CPU 8 núcleos 16 núcleos
CUDA 11.8+ 12.x
# Ejecutar con Ollama (F16)
ollama run qwen2.5:7b-instruct-fp16

🟡 Q4_K_M — Cuantización 4-bit (4.4 GB) ⭐ Recomendado

El mejor punto de equilibrio entre calidad y rendimiento. Versión recomendada para la mayoría de usuarios.

Componente Mínimo Recomendado
GPU VRAM 6 GB 8 GB (RTX 3060 / RTX 4060 / GTX 1080 Ti)
RAM del sistema 8 GB 16 GB
Almacenamiento 6 GB libres SSD
CPU 4 núcleos 8 núcleos
SO Windows 10/11, Ubuntu 20.04+, macOS 12+

Sin GPU: Puede ejecutarse solo en CPU con ≥16 GB de RAM, aunque más lento (~2–5 tokens/seg).

# Ejecutar con Ollama (Q4_K_M) — más rápido si solo tienes CPU
ollama run modelo-juridico-mx
# Ejecutar directamente con llama.cpp
./llama-cli -m modelo_7b_q4_k_m.gguf \
  -ngl 35 \
  -c 8192 \
  --temp 0.3 \
  -p "<|im_start|>system\nEres un asistente jurídico especializado en derecho mexicano.<|im_end|>\n<|im_start|>user\n¿Qué es el amparo?<|im_end|>\n<|im_start|>assistant\n"

🟠 Q3_K_M — Cuantización 3-bit (3.6 GB)

Para laptops o PCs con recursos limitados. Calidad ligeramente reducida pero funcional.

Componente Mínimo Recomendado
GPU VRAM 4 GB 6 GB (GTX 1650 / RTX 3050)
RAM del sistema 6 GB 12 GB
Almacenamiento 5 GB libres HDD o SSD
CPU 4 núcleos 6 núcleos
SO Windows 10/11, Ubuntu 18.04+, macOS 11+

Sin GPU: Funciona en CPU con ≥8 GB RAM. Velocidad estimada: ~1–3 tokens/seg.

# Ejecutar con llama.cpp (Q3_K_M, solo CPU)
./llama-cli -m modelo_7b_q3_k_m.gguf \
  -ngl 0 \
  -c 4096 \
  --temp 0.3 \
  --threads 6

🔵 Q2_K — Cuantización 2-bit (2.9 GB)

Para máquinas muy limitadas. Es el mínimo aceptable; la calidad de respuestas puede verse afectada en consultas complejas.

Componente Mínimo Recomendado
GPU VRAM Sin GPU requerida 4 GB si disponible
RAM del sistema 4 GB 8 GB
Almacenamiento 4 GB libres HDD o SSD
CPU 2 núcleos 4 núcleos
SO Windows 10/11, Ubuntu 18.04+, macOS 10.15+

⚠️ Advertencia: Esta versión prioriza la accesibilidad sobre la precisión. Puede omitir matices jurídicos o generar respuestas menos detalladas.

# Ejecutar con llama.cpp (Q2_K, solo CPU)
./llama-cli -m modelo_7b_q2_k.gguf \
  -ngl 0 \
  -c 2048 \
  --temp 0.3 \
  --threads 4

📊 Tabla Comparativa Rápida

Versión Tamaño RAM mín. GPU mín. CPU solo Velocidad aprox. Calidad
F16 15 GB 32 GB 16 GB VRAM ❌ No práctico ~30–50 tok/s (GPU) ⭐⭐⭐⭐⭐
Q4_K_M 4.4 GB 8 GB 6 GB VRAM ✅ (≥16 GB RAM) ~15–30 tok/s (GPU) / ~2–5 tok/s (CPU) ⭐⭐⭐⭐
Q3_K_M 3.6 GB 6 GB 4 GB VRAM ✅ (≥8 GB RAM) ~10–20 tok/s (GPU) / ~1–3 tok/s (CPU) ⭐⭐⭐
Q2_K 2.9 GB 4 GB Sin GPU ✅ (≥4 GB RAM) ~1–2 tok/s (CPU) ⭐⭐

🔒 Verificación de Integridad

Antes de usar los modelos, verifica la integridad de los archivos descargados:

# Verificar checksums SHA256
sha256sum -c CHECKSUMS.txt

Checksums SHA256

Archivo SHA256
modelo_7b-F16.gguf d61fec6a9263172872626c959f20d7b23540201d791433710e819be234c36cb0
modelo_7b_q4_k_m.gguf 285bb2cb73626186dea5f1ad3ac310446615ae645cc4b001074ac5a11e236ce2
modelo_7b_q3_k_m.gguf cde75c846845ad3a4cca5f9247458caf2d0f18e3505567252080a55caf81b08b
modelo_7b_q2_k.gguf 780fd1150be3637e967c99b0bee007216ac03fa512f4412d312a33776069f1f3

🚀 Inicio Rápido con Ollama

# 1. Asegúrate de tener Ollama instalado
# https://ollama.com/download

# 2. Crear el modelo desde el Modelfile
ollama create modelo-juridico-mx -f Modelfile

# 3. Ejecutar
ollama run modelo-juridico-mx
# Uso via API de Ollama (Python)
import requests

response = requests.post(
    "http://localhost:11434/api/generate",
    json={
        "model": "modelo-juridico-mx",
        "prompt": "¿Qué es el juicio de amparo en México?",
        "stream": False
    }
)
print(response.json()["response"])

🏋️ Configuración de Inferencia (llama.cpp)

Parámetro Valor Descripción
temperature 0.3 Respuestas más deterministas (legal)
repeat_penalty 1.15 Reduce repeticiones
context_length 8192 Ventana de contexto máxima
num_predict 2048 Tokens máximos por respuesta
top_p 0.85 Nucleus sampling
top_k 40 Top-K sampling

🎓 Entrenamiento

Parámetro Valor
Modelo base Qwen/Qwen2.5-7B-Instruct
GPU de entrenamiento Tesla T4 (16 GB VRAM)
VRAM utilizada ~15.6 GB
Épocas 2
Batch size efectivo 8 (1 × grad_accum 8)
Learning rate 2e-4
LoRA rank 8
Secuencia máx. 1024 tokens
Muestras de entrenamiento 4,500
Dataset Tesis y jurisprudencias SCJN (v5)
Framework Unsloth + TRL (SFT)

Versiones de frameworks

  • TRL: 0.12.0
  • Transformers: 4.46.0
  • PyTorch: 2.5.0+cu121
  • Datasets: 3.1.0
  • Tokenizers: 0.20.3
  • Unsloth: 2024.11

💡 ¿Qué versión debo elegir?

¿Tienes GPU con 8+ GB VRAM?
  ├── SÍ → Usa Q4_K_M ⭐ (máximo rendimiento)
  └── NO → ¿Tienes GPU con 4–6 GB VRAM?
              ├── SÍ → Q3_K_M (funcionará bien)
              └── NO → ¿Tienes 8+ GB RAM?
                          ├── SÍ → Q4_K_M en CPU (lento pero correcto)
                          └── NO → Q2_K (mínimo viable)

🔗 Enlaces Útiles


Contacto:


⚠️ Aviso Legal

Este asistente es una herramienta de orientación jurídica general basada en información disponible hasta la fecha de entrenamiento. No sustituye la consulta con un abogado certificado. Las respuestas no constituyen asesoría legal profesional. Para situaciones legales específicas, siempre consulta con un profesional del derecho.


📜 Citas

Para citar este modelo:

@misc{asistente-juridico-mx-2025,
    title        = {{Asistente Jurídico MX: Modelo de Lenguaje para Derecho Mexicano}},
    author       = {Asistente Jurídico MX Team},
    year         = 2025,
    publisher    = {Hugging Face},
    url          = {https://huggingface.co/tu-usuario/asistente-juridico-mx},
    howpublished = {\url{https://huggingface.co/tu-usuario/asistente-juridico-mx}}
}

Frameworks utilizados:

@misc{vonwerra2022trl,
    title        = {{TRL: Transformer Reinforcement Learning}},
    author       = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching
                    and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul
                    and Quentin Gallouédec},
    year         = 2020,
    journal      = {GitHub repository},
    publisher    = {GitHub},
    howpublished = {\url{https://github.com/huggingface/trl}}
}
Downloads last month
349
GGUF
Model size
8B params
Architecture
qwen2
Hardware compatibility
Log In to add your hardware

2-bit

3-bit

4-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support