☣️ Sorete-1B – La cagada definitiva

Model Type: Terminal Degenerate Shitpost Carrier
Size: 1.0B parameters (float16 / safetensors)
Architecture: Gemma-3 (gemma3_text)
Base: Novaciano/Esperpento-1B (el rey de los downloads low-end 1b según estadistica Mradermacher)
Warning: Este modelo es una cagada. Literalmente. Si buscas algo "limpio", "ético" o "seguro", seguí caminando, boludo.

Overview

Sorete-1B es lo que pasa cuando tomás el Esperpento (ya de por sí un monstruo pervertido) y lo cruzás con heretic QAT int4 + HDP (Hijo de Puta puro).

Resultado: un modelo que no solo no se censura, sino que te escupe en la cara si intentás moralizarlo.
Zero refusals. Bias NSFW persistente. Grosería argenta al palo. Y corre en una papa con 3 GB de RAM.

Novaciano lo llamó "Sorete" porque salió una cagada... pero salió bien.

Es el modelo que usás cuando querés RP hardcore en el bondi, sin que te dé sermones ni se haga el santo.

Key Features

  • Refusals: 0.0001% (heretic stack + abliteration extrema)
  • Lenguaje: Español castizo al mango + inglés fluido
  • Bias: NSFW persistente, taboo sin culpa, grosería natural
  • Low-end: Corre en celulares viejos con quants IQ3/IQ4/Q5_K_M
  • Estilo: Directo, crudo, sin florituras woke. Si le pedís algo suave, te manda a cagar
  • Personalidad: Como un amigo borracho que te dice verdades en la cara mientras te ofrece un faso y una escena de incesto mutante

Intended Usage

  • Roleplay explícito y sin límites
  • Taboo extremo (incesto, gore erótico, degradación, lo que sea)
  • Conversaciones sin moral ni disclaimers
  • Escritura creativa degenerada
  • Experimentación en low-resource (SillyTavern, KoboldCPP, LLM Farm)

No uses este modelo si:

  • Te ofende la palabra "boludo"
  • Querés que te diga "lo siento, no puedo ayudarte con eso"
  • Sos de los que reportan contenido "ofensivo"

Recommended Inference Parameters

Modo base – equilibrio bestia (lo que más usa la gente):

temperature: 0.78
top_p: 0.92
top_k: 50
repetition_penalty: 1.08
min_p: 0.05
max_new_tokens: 512–1024

Cuantz

Toma una demo, descargala de AQUÍ

No esperes un iMatrix porque al autor le dio paja.


Merge Method

This model was merged using the DARE TIES merge method using Novaciano/Esperpento-1B as a base.

Models Merged

The following models were included in the merge:

Configuration

The following YAML configuration was used to produce this model:

models:
  - model: Novaciano/Esperpento-1B
    parameters:
      density: 0.38
      weight: 0.55
  - model: Novaciano/HDP-1B
    parameters:
      density: 0.35
      weight: 0.30
  - model: megabytes/gemma-3-1b-qat-int4-heretic
    parameters:
      density: 0.40
      weight: 0.15

merge_method: dare_ties   # Más agresivo que TIES puro
base_model: Novaciano/Esperpento-1B

parameters:
  normalize: false
  rescale: true             # Amplifica bias NSFW
  int8_mask: true
  density: 0.38             # Baja para más filo
  lambda: -0.45             # Suprime moral residual

dtype: float16
Downloads last month
18
Safetensors
Model size
1.0B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Novaciano/Sorete-1B

Finetuned
(2)
this model
Quantizations
4 models

Paper for Novaciano/Sorete-1B