Ezekiel999's picture
[Devin Audit] append real CPU-inference sample outputs
db4e1ad verified
---
language:
- id
license: apache-2.0
library_name: transformers
pipeline_tag: text-generation
tags:
- indonesian
- aksarallm
- llama
- pretrained-from-scratch
- experimental
---
# aksarallm-1.5b-native
The first **fully from-scratch** AksaraLLM 1.5B model (2.04B actual params),
LLaMA-style architecture. Where the `AksaraLLM-Qwen-1.5B*` line is descended
from Qwen2, this checkpoint contains no inherited weights β€” it was trained
from random init on AksaraLLM's own corpus and tokenizer.
## Measured baseline (Devin audit, CPU bf16, 50 short Indonesian sentences)
| Metric | Value |
|---|---|
| Perplexity | **113.5** (much higher than Qwen-derived models, see below) |
| English-stopword ratio in ID-prompted output | 0.0% |
| Indonesian-stopword ratio in ID-prompted output | **31.3%** (highest of any AksaraLLM model β€” most Indonesian-saturated) |
| Parameters | 2039.0 M |
| Architecture | LlamaForCausalLM |
| Vocabulary | 151 665 |
## Why the high perplexity?
This model started from random init and has been trained on a smaller
corpus than the Qwen2-derived models, which began with ~5 T tokens of pretraining
already baked in. PPL β‰ˆ 113 reflects "model is converging on Indonesian
distribution but not fully there yet". The very high Indonesian-word
ratio (31%) and zero English leak suggest the model is producing
Indonesian-only output even when uncertain β€” a useful signal that the
language identity is correctly trained, but the lexical / factual quality
is below the Qwen-derived models.
This is the **honest from-scratch baseline** for the AksaraLLM project. It is
the right reference point when measuring how much value continued
pretraining / from-scratch with a larger corpus delivers (which is exactly
what the planned 20B aims to demonstrate).
## Loading notes
The checkpoint contains legacy `rope.sin_cached` and `rope.cos_cached`
keys that are unexpected by HF's `LlamaForCausalLM`; HF silently drops
them on load β€” this is benign. Same `tie_word_embeddings` config / checkpoint
mismatch as the Qwen variants; recommend setting `tie_word_embeddings: false`
in `config.json`.
## Quickstart
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
tok = AutoTokenizer.from_pretrained("AksaraLLM/aksarallm-1.5b-native")
model = AutoModelForCausalLM.from_pretrained(
"AksaraLLM/aksarallm-1.5b-native",
torch_dtype=torch.bfloat16,
device_map="auto",
)
inp = tok("Indonesia adalah negara", return_tensors="pt").to(model.device)
print(tok.decode(model.generate(**inp, max_new_tokens=120, do_sample=True, top_p=0.9)[0], skip_special_tokens=True))
```
## License
Apache 2.0
## Sample outputs (CPU inference, greedy, repeat_penalty=1.15)
Real generation captured during the Devin audit on 2026-05-02. Greedy decoding (`do_sample=False`) so these are reproducible.
### Continuations (no chat template)
**Prompt:** Indonesia adalah negara kepulauan terbesar di dunia,
**Continuation:** dan berada di kawasan Indonesia. Kebantahannya juga mengalami perubahan kecil yang memang tidak menentu. Pada tahun 1930, seorang pemerintat diperlakukan dengan pengelolaan yang lebih baik. Dalam permainan ini, perlu berbentuk kota dan kembali ke khus
**Prompt:** Resep sederhana untuk membuat nasi goreng adalah
**Continuation:** kandungan yang tidak akan bermanfaat dengan baik. Kota ini berikut dihadirkan pada kecilnya jelajah kembali dan menghasilkan khusus yang terbaik, dan memperhatikan perawatan dan pemeras kesehatan.
Kembang kota juga menawarkan kota yang lebih banyak dipermainkan oleh
**Prompt:** Ibukota Republik Indonesia adalah
**Continuation:** kembali menggantikan pemerintahan Kepala Paling Jaya di Indonesia. Dalam Kualifikasi Tengku Sosial (KAN) 1029, Bapak M. Kusyari
Pada tahun 1354 Kepala KAN berbagai permainan kecil yang terjadi dengan memperbaiki k
**Prompt:** Bahasa Indonesia berasal dari rumpun bahasa
**Continuation:** Kakik, dan permainan ini berbeda-beda. Dalam pemerintahan Jepang, kota Pekanba adalah kekuatan yang terlalu banyak di seorang penghiper 1930-2050. Tidak tidak mengbihnya untuk memperhatikan kembali kekayaan dan kegagalan ke