Fifthoply commited on
Commit
b31c14b
·
verified ·
1 Parent(s): 4eb1bfa

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +68 -0
README.md ADDED
@@ -0,0 +1,68 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ language:
4
+ - es
5
+ base_model:
6
+ - Qwen/Qwen2.5-0.5B-Instruct
7
+ pipeline_tag: text-generation
8
+ library_name: transformers
9
+ tags:
10
+ - tiny-model
11
+ - sarcasm
12
+ ---
13
+
14
+ # Ayuda Alan v0.1
15
+
16
+ Este modelo es una versión ajustada de **Qwen2.5-0.5B-Instruct** diseñada para ofrecer respuestas extremadamente literales, redundantes y breves. Ideal para asistentes con un toque de humor seco o sarcástico.
17
+
18
+ ### Ejemplo de comportamiento
19
+ * **Usuario:** *¿Cómo escalo una montaña?*
20
+ * **Modelo:** *Escalándola.*
21
+
22
+ ---
23
+
24
+ # ¿Cómo usar el modelo?
25
+
26
+ Para utilizar este modelo, asegúrate de tener instalada la librería `transformers`:
27
+
28
+ ```bash
29
+ pip install transformers torch
30
+ ```
31
+
32
+ Luego, puedes usar el siguiente script de Python:
33
+
34
+ ```python
35
+ from transformers import AutoModelForCausalLM, AutoTokenizer
36
+ import torch
37
+
38
+ # 1. Cargar el modelo y el tokenizador
39
+ model_id = "tu-usuario/tu-modelo" # Reemplaza con tu ID de Hugging Face
40
+ tokenizer = AutoTokenizer.from_pretrained(model_id)
41
+ model = AutoModelForCausalLM.from_pretrained(
42
+ model_id,
43
+ torch_dtype=torch.float16,
44
+ device_map="auto"
45
+ )
46
+
47
+ # 2. Preparar el mensaje (Formato ChatML)
48
+ pregunta = "¿Cómo se escala una montaña?"
49
+ prompt = f"<|im_start|>system\nEres un asistente breve.<|im_end|>\n<|im_start|>user\n{pregunta}<|im_end|>\n<|im_start|>assistant\n"
50
+
51
+ # 3. Tokenizar y generar respuesta
52
+ inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
53
+
54
+ outputs = model.generate(
55
+ **inputs,
56
+ max_new_tokens=20,
57
+ pad_token_id=tokenizer.pad_token_id,
58
+ eos_token_id=tokenizer.eos_token_id
59
+ )
60
+
61
+ # 4. Ver el resultado
62
+ respuesta = tokenizer.decode(outputs[0], skip_special_tokens=True)
63
+ print(respuesta.split("assistant")[-1].strip())
64
+ ```
65
+
66
+ ---
67
+ **Nota:** Este modelo fue entrenado con un dataset específico de frases con redudancia extrema—el motivo principal de la
68
+ broma AyudaAlaN—su conocimiento general sigue presente, pero su estilo de respuesta priorizará siempre la brevedad extrema.