File size: 1,142 Bytes
cf52a55 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 | # Configuração do Modelo Híbrido de LLM
# Carregada por config_loader.load_config()
# Banco de conhecimento: arquivo JSON com termo -> grau [0,1]. Se vazio, usa SEED interno.
knowledge_base:
path: "" # ex: data/kb.json
chroma_path: "" # ex: meu_vector_db — se preenchido, enriquece KB com RAG
# Modelo neural L3 (avaliação de verdade)
l3:
model_path: "truth_scoring_model.pt"
backbone: "bert-base-multilingual-cased"
# Base teórica L4 (Russell)
l4:
russell_concepts_path: "l4_russell_concepts.json"
# Geração de resposta (L5): "groq" | "template" | "custom_lm"
generation:
provider: "groq" # groq usa GROQ_API_KEY; template = só L4; custom_lm = EpistemicLanguageModel
groq_model: "mixtral-8x7b-32768"
custom_lm_path: "" # ex: checkpoints_lm/best.pt
# Agente de pesquisa (unificado ao pipeline)
agent:
use_agent: false # se true, usa busca Chroma + DuckDuckGo para enriquecer contexto
vector_db_path: "meu_vector_db"
embedding_model: "sentence-transformers/all-MiniLM-L6-v2"
# API
api:
host: "0.0.0.0"
port: 8000
# Chat: número máximo de turnos no contexto
chat:
max_turns_in_context: 10
|