How to use from
SGLang
Install from pip and serve model
# Install SGLang from pip:
pip install sglang
# Start the SGLang server:
python3 -m sglang.launch_server \
    --model-path "Fifthoply/AyudaAlan-0.1" \
    --host 0.0.0.0 \
    --port 30000
# Call the server using curl (OpenAI-compatible API):
curl -X POST "http://localhost:30000/v1/chat/completions" \
	-H "Content-Type: application/json" \
	--data '{
		"model": "Fifthoply/AyudaAlan-0.1",
		"messages": [
			{
				"role": "user",
				"content": "What is the capital of France?"
			}
		]
	}'
Use Docker images
docker run --gpus all \
    --shm-size 32g \
    -p 30000:30000 \
    -v ~/.cache/huggingface:/root/.cache/huggingface \
    --env "HF_TOKEN=<secret>" \
    --ipc=host \
    lmsysorg/sglang:latest \
    python3 -m sglang.launch_server \
        --model-path "Fifthoply/AyudaAlan-0.1" \
        --host 0.0.0.0 \
        --port 30000
# Call the server using curl (OpenAI-compatible API):
curl -X POST "http://localhost:30000/v1/chat/completions" \
	-H "Content-Type: application/json" \
	--data '{
		"model": "Fifthoply/AyudaAlan-0.1",
		"messages": [
			{
				"role": "user",
				"content": "What is the capital of France?"
			}
		]
	}'
Quick Links

Ayuda Alan 0.1

Ejemplo de comportamiento

  • Usuario: ¿Cómo escalo una montaña?
  • Modelo: Escalándola.

¿Cómo usar el modelo?

La mejor forma es ir al espacio de Hugging Face creado para este modelo:

https://huggingface.co/spaces/Fifthoply/AyudaAlan-0.1

Para utilizar este modelo en tu computadora, asegúrate de tener instalada la librería transformers, no necesitas GPU:

pip install transformers torch

Luego, puedes usar el siguiente script de Python:

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

# 1. Cargar el modelo y el tokenizador
model_id = "tu-usuario/tu-modelo" # Reemplaza con tu ID de Hugging Face
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.float16,
    device_map="auto"
)

# 2. Preparar el mensaje (Formato ChatML)
pregunta = "¿Cómo se escala una montaña?"
prompt = f"<|im_start|>system\nEres un asistente breve.<|im_end|>\n<|im_start|>user\n{pregunta}<|im_end|>\n<|im_start|>assistant\n"

# 3. Tokenizar y generar respuesta
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

outputs = model.generate(
    **inputs,
    max_new_tokens=20,
    pad_token_id=tokenizer.pad_token_id,
    eos_token_id=tokenizer.eos_token_id
)

# 4. Ver el resultado
respuesta = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(respuesta.split("assistant")[-1].strip())

Nota: Este modelo fue entrenado con un dataset específico de frases con redudancia extrema—el motivo principal de la broma AyudaAlaN—su conocimiento general sigue presente, pero su estilo de respuesta priorizará siempre la brevedad extrema.

Downloads last month
284
Safetensors
Model size
0.5B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Fifthoply/AyudaAlan-0.1

Quantizations
1 model

Space using Fifthoply/AyudaAlan-0.1 1