File size: 1,142 Bytes
cf52a55
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
# Configuração do Modelo Híbrido de LLM
# Carregada por config_loader.load_config()

# Banco de conhecimento: arquivo JSON com termo -> grau [0,1]. Se vazio, usa SEED interno.
knowledge_base:
  path: ""   # ex: data/kb.json
  chroma_path: ""  # ex: meu_vector_db — se preenchido, enriquece KB com RAG

# Modelo neural L3 (avaliação de verdade)
l3:
  model_path: "truth_scoring_model.pt"
  backbone: "bert-base-multilingual-cased"

# Base teórica L4 (Russell)
l4:
  russell_concepts_path: "l4_russell_concepts.json"

# Geração de resposta (L5): "groq" | "template" | "custom_lm"
generation:
  provider: "groq"  # groq usa GROQ_API_KEY; template = só L4; custom_lm = EpistemicLanguageModel
  groq_model: "mixtral-8x7b-32768"
  custom_lm_path: ""  # ex: checkpoints_lm/best.pt

# Agente de pesquisa (unificado ao pipeline)
agent:
  use_agent: false   # se true, usa busca Chroma + DuckDuckGo para enriquecer contexto
  vector_db_path: "meu_vector_db"
  embedding_model: "sentence-transformers/all-MiniLM-L6-v2"

# API
api:
  host: "0.0.0.0"
  port: 8000

# Chat: número máximo de turnos no contexto
chat:
  max_turns_in_context: 10