File size: 1,864 Bytes
b31c14b 8ca2826 b31c14b d4e7c85 b31c14b | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 | ---
license: mit
language:
- es
pipeline_tag: text-generation
library_name: transformers
tags:
- tiny-model
- sarcasm
---
# Ayuda Alan 0.1
### Ejemplo de comportamiento
* **Usuario:** *¿Cómo escalo una montaña?*
* **Modelo:** *Escalándola.*
---
# ¿Cómo usar el modelo?
La mejor forma es ir al espacio de Hugging Face creado para este modelo:
```
https://huggingface.co/spaces/Fifthoply/AyudaAlan-0.1
```
Para utilizar este modelo en tu computadora, asegúrate de tener instalada la librería `transformers`, no necesitas GPU:
```bash
pip install transformers torch
```
Luego, puedes usar el siguiente script de Python:
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
# 1. Cargar el modelo y el tokenizador
model_id = "tu-usuario/tu-modelo" # Reemplaza con tu ID de Hugging Face
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.float16,
device_map="auto"
)
# 2. Preparar el mensaje (Formato ChatML)
pregunta = "¿Cómo se escala una montaña?"
prompt = f"<|im_start|>system\nEres un asistente breve.<|im_end|>\n<|im_start|>user\n{pregunta}<|im_end|>\n<|im_start|>assistant\n"
# 3. Tokenizar y generar respuesta
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(
**inputs,
max_new_tokens=20,
pad_token_id=tokenizer.pad_token_id,
eos_token_id=tokenizer.eos_token_id
)
# 4. Ver el resultado
respuesta = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(respuesta.split("assistant")[-1].strip())
```
---
**Nota:** Este modelo fue entrenado con un dataset específico de frases con redudancia extrema—el motivo principal de la
broma AyudaAlaN—su conocimiento general sigue presente, pero su estilo de respuesta priorizará siempre la brevedad extrema.
|