LDAI-1.5B-DE
LDAI-1.5B-DE wurde von LakoMoor entwickelt und ist ein hilfreicher KI-Assistent, der ausschließlich auf Deutsch antwortet. Die kompakte Größe der Modellarchitektur erlaubt den Einsatz auch auf leistungsschwachen Geräten und übertrifft Standardmodelle im Deutschen.
Training:
Der Datensatz wurde manuell gesammelt und durch synthetische Daten ergänzt.
- Basis-Modell: Qwen2.5-1.5B-Instruct
- Feintuning: Supervised Fine-Tuning (SFT)
- Trainingsdauer: 4 Stunden auf einer Nvidia Tesla P40 24GB
Beispielcode zur Nutzung:
from transformers import AutoModelForCausalLM, AutoTokenizer
# Modell und Tokenizer laden
model_name = "LakoMoor/LDAI-1.5B-DE"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Eingabetext vorbereiten
input_text = "Wo soll ich anfangen, Harry Potter zu lesen?"
messages = [
{"role": "user", "content": input_text},
]
# Tokenisierung und Textgenerierung
input_ids = tokenizer.apply_chat_template(messages, truncation=True, add_generation_prompt=True, return_tensors="pt")
output = model.generate(
input_ids,
max_length=2048,
temperature=0.4,
)
# Ergebnis dekodieren und ausgeben
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)
Beispielantwort des Modells:
Harry Potter ist eine fantastische Fantasy-Reihe von J.K. Rowling. Um sie zu beginnen, kannst du die ersten drei Bücher kaufen oder online kaufen. Dann kannst du den restlichen Text auf der Internet finden oder in einem Buchladen kaufen. Es gibt auch viele Videos und Bilder, die dir helfen können, das Buch besser zu verstehen.
Weitere Informationen:
Die LDAI-1.5B-DE ist unter der Apache-2.0-Lizenz veröffentlicht und speziell für deutsche Anwendungsfälle optimiert.
Referenzen
- Downloads last month
- 2