--- license: llama3.2 language: - vi - en tags: - reasoning - cybersecurity - edge-ai - evonet - llama-3.2 base_model: unsloth/Llama-3.2-3B-Instruct --- # ⚡ EvoNet-3B-Reasoning (Edge AI Edition) **EvoNet-3B-Reasoning** là phiên bản rút gọn (Lightweight) thuộc hệ sinh thái EvoNet Security Audit System. Được xây dựng trên nền tảng `Llama-3.2-3B-Instruct` mới nhất của Meta và tích hợp tư duy suy luận logic, mô hình này được thiết kế đặc biệt cho các thiết bị có phần cứng giới hạn (Edge Devices, Mobile, Low-VRAM GPUs). Dù chỉ có kích thước 3 tỷ tham số, mô hình vẫn giữ được khả năng phân tích bảo mật từng bước (Step-by-step reasoning) và giao tiếp tiếng Việt trôi chảy. ## 🚀 Điểm nổi bật * **Siêu nhẹ & Siêu tốc:** Với kích thước cực nhỏ, có thể chạy mượt mà trên các máy tính cá nhân không có GPU chuyên dụng, hoặc tích hợp trực tiếp vào ứng dụng di động. * **Tư duy phân tích (Reasoning):** Tích hợp LoRA Reasoning giúp mô hình suy nghĩ trước khi trả lời, cải thiện độ chính xác trong các bài toán nhận diện mã độc. * **Hỗ trợ Tiếng Việt:** Khả năng sinh ngữ cảnh và giải thích lỗi bảo mật bằng tiếng Việt tự nhiên. ## ⚠️ Giới hạn (Limitation Notice) Do giới hạn vật lý về số lượng tham số (3B so với 8B), mô hình có thể gặp hiện tượng *Hallucination* (ảo giác) trong các kịch bản phân tích lỗ hổng quá sâu hoặc giải thích sai cơ chế hoạt động của một số payload phức tạp. 👉 **Khuyến nghị:** Sử dụng phiên bản [EvoNet-8B-Reasoning](https://huggingface.co/EvoNet/EvoNet-8B-Reasoning) cho các môi trường Production đòi hỏi độ chính xác tuyệt đối. ## 🛠️ Chi tiết kỹ thuật * **Kiến trúc:** Llama 3.2 * **Kích thước:** 3 Billion Parameters * **Base Model:** `unsloth/Llama-3.2-3B-Instruct` * **Người phát triển:** Phong Huỳnh (EvoNet) ## 💻 Hướng dẫn sử dụng (Python) Mô hình có thể chạy dễ dàng trên bất kỳ GPU nào (thậm chí là CPU) với thư viện `transformers`. ```python from transformers import AutoModelForCausalLM, AutoTokenizer import torch model_id = "EvoNet/EvoNet-3B-Reasoning" tokenizer = AutoTokenizer.from_pretrained(model_id) model = AutoModelForCausalLM.from_pretrained( model_id, torch_dtype=torch.float16, device_map="auto" # Chạy siêu mượt trên các GPU nhỏ ) messages = [ {"role": "system", "content": "Bạn là EvoNet Pentester. Hãy suy nghĩ từng bước trước khi trả lời."}, {"role": "user", "content": "Phân tích payload sau: `admin' AND (SELECT 1 FROM (SELECT SLEEP(5))A) AND '1'='1`. Đây là lỗi gì?"} ] prompt_text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) inputs = tokenizer(prompt_text, return_tensors="pt").to(model.device) outputs = model.generate(**inputs, max_new_tokens=1024, temperature=0.7) print(tokenizer.decode(outputs[0][inputs['input_ids'].shape[-1]:], skip_special_tokens=True))