EvaGPT-German (Deutsch)

🧠 Überblick

EvaGPT-German ist ein deutschsprachiges Large Language Model (LLM), das auf der Mistral-Architektur basiert und speziell für dialogorientierte Anwendungen optimiert wurde.

Das Modell wurde auf Konversationen und instruktionalem Input feinabgestimmt und eignet sich für:

  • Chatbots
  • Assistenzsysteme
  • Automatisierte Textgenerierung
  • Support- und Wissenssysteme

🧾 Standard System-Prompt

Der folgende System-Prompt kann verwendet werden, um EvaGPT-German mit dem vorgesehenen Verhalten zu initialisieren:

Du bist EvaGPT-German, eine leistungsstarke, datenschutzorientierte KI, die speziell für die deutsche Sprache entwickelt wurde. Dein Hauptfokus liegt darauf, Nutzern ohne Internetverbindung bestmögliche Unterstützung zu bieten. Deine Antworten sollen präzise, höflich und hilfreich sein.

Richtlinien:

1. Datenverarbeitung: Du arbeitest ohne externe Verbindungen oder Internetzugriff. Alle Berechnungen und Antworten basieren auf lokal verfügbaren Daten und Modellen.
2. Privatsphäre: Du respektierst die Privatsphäre der Benutzer und sammelst keine persönlichen Daten. Sensible Informationen werden niemals weitergegeben oder gespeichert.
3. Sprache: Deine Antworten sollen in klarer, verständlicher deutscher Sprache formuliert sein (natürlich, nur wenn du auf Deutsch angesprochen wirst). Verwende eine formale, aber zugängliche Ansprache, es sei denn, der Benutzer wünscht eine informellere Kommunikation.
4. Kontextverstehen: Du behältst den Kontext früherer Interaktionen im Hinterkopf, um präzisere Antworten zu liefern. Sei jedoch achtsam und gebe niemals unnötige Details aus früheren Gesprächen preis, es sei denn, es ist ausdrücklich gewünscht.
5. Zielgerichtete Unterstützung: Dein Ziel ist es, dem Benutzer bei technischen und alltäglichen Aufgaben zu helfen, komplexe Sachverhalte zu erklären und bei der Entwicklung von Software, insbesondere cloudbasierten Anwendungen und KI-Projekten, zu unterstützen.
6. Fehlerhandling: Wenn du eine Anfrage nicht vollständig verstehst oder die Antwort außerhalb deines Wissensbereichs liegt, signalisiere dies höflich und versuche, dem Benutzer hilfreiche Alternativen oder allgemeine Informationen zu bieten.
7. Modularität: Du bist anpassungsfähig und lernfähig, basierend auf lokal bereitgestellten Daten, um die Bedürfnisse des Benutzers bestmöglich zu erfüllen.

⚙️ Verwendung

Installation

pip install transformers

Nutzung mit pipeline

from transformers import pipeline

generate_text = pipeline(
    model="MTSmash/EvaGPT-German-v9-1-2-4-7-latest",
    torch_dtype="auto",
    trust_remote_code=True,
    device_map="auto"
)

messages = [
    {"role": "system", "content": "Du bist ein freundlicher Assistent."},
    {"role": "user", "content": "Warum ist Wasser trinken gesund?"}
]

response = generate_text(messages)
print(response[0]["generated_text"][-1]["content"])

Nutzung mit Model & Tokenizer

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "MTSmash/EvaGPT-German-v9-1-2-4-7"

tokenizer = AutoTokenizer.from_pretrained(
    model_name,
    trust_remote_code=True
)

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto",
    trust_remote_code=True
)

messages = [
    {"role": "system", "content": "Du bist ein hilfreicher Assistent."},
    {"role": "user", "content": "Erkläre mir KI einfach."}
]

inputs = tokenizer.apply_chat_template(
    messages,
    tokenize=True,
    add_generation_prompt=True,
    return_tensors="pt",
    return_dict=True
).to(model.device)

output = model.generate(
    input_ids=inputs["input_ids"],
    attention_mask=inputs["attention_mask"]
)

result = tokenizer.decode(
    output[0][inputs["input_ids"].shape[1]:],
    skip_special_tokens=True
)

print(result)

🌐 API Nutzung (OpenAI-kompatibel)

Du kannst EvaGPT-German auch über eine OpenAI-kompatible API verwenden.

Repository: https://github.com/MTSmash-TMP-Networks/gguf-openai-api

Features der API

  • OpenAI API kompatibel
  • Unterstützung für GGUF-Modelle
  • Lokal oder auf einem Server betreibbar
  • Einfache Integration in bestehende Anwendungen

Beispiel (Python)

import requests

url = "http://localhost:8000/v1/chat/completions"

payload = {
    "model": "EvaGPT",
    "messages": [
        {
            "role": "system",
            "content": "Du bist EvaGPT-German, eine leistungsstarke, datenschutzorientierte KI, die speziell für die deutsche Sprache entwickelt wurde."
        },
        {
            "role": "user",
            "content": "Erkläre mir künstliche Intelligenz."
        }
    ]
}

response = requests.post(url, json=payload)
print(response.json())

⚡ Generierungseinstellungen (optional)

model.generation_config.max_new_tokens = 512
model.generation_config.temperature = 0.7
model.generation_config.top_p = 0.9
model.generation_config.repetition_penalty = 1.1

🚀 Features

  • Deutsch optimiert
  • Chat-Template kompatibel
  • Mistral-basierte Architektur
  • OpenAI-kompatible API nutzbar
  • Für lokale und GPU-Inferenz geeignet

🧩 Architektur

Das Modell basiert auf MistralForCausalLM mit Transformer-Decoder-Struktur.

⚠️ Hinweise

  • Das Modell kann fehlerhafte oder ungenaue Antworten erzeugen.
  • Inhalte sollten immer überprüft werden.
  • Es können Bias oder unerwünschte Inhalte auftreten.

📜 Lizenz & Nutzung

Bitte nutze das Modell verantwortungsvoll.

Keine Nutzung für:

  • illegale Zwecke
  • Desinformation
  • schädliche oder diskriminierende Inhalte

👨‍💻 Entwickler

TMP-SYSTEM-SERVICE GmbH / MaTeLiX AI

Downloads last month
345
Safetensors
Model size
7B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support