| # Configuração do Modelo Híbrido de LLM | |
| # Carregada por config_loader.load_config() | |
| # Banco de conhecimento: arquivo JSON com termo -> grau [0,1]. Se vazio, usa SEED interno. | |
| knowledge_base: | |
| path: "" # ex: data/kb.json | |
| chroma_path: "" # ex: meu_vector_db — se preenchido, enriquece KB com RAG | |
| # Modelo neural L3 (avaliação de verdade) | |
| l3: | |
| model_path: "truth_scoring_model.pt" | |
| backbone: "bert-base-multilingual-cased" | |
| # Base teórica L4 (Russell) | |
| l4: | |
| russell_concepts_path: "l4_russell_concepts.json" | |
| # Geração de resposta (L5): "groq" | "template" | "custom_lm" | |
| generation: | |
| provider: "groq" # groq usa GROQ_API_KEY; template = só L4; custom_lm = EpistemicLanguageModel | |
| groq_model: "mixtral-8x7b-32768" | |
| custom_lm_path: "" # ex: checkpoints_lm/best.pt | |
| # Agente de pesquisa (unificado ao pipeline) | |
| agent: | |
| use_agent: false # se true, usa busca Chroma + DuckDuckGo para enriquecer contexto | |
| vector_db_path: "meu_vector_db" | |
| embedding_model: "sentence-transformers/all-MiniLM-L6-v2" | |
| # API | |
| api: | |
| host: "0.0.0.0" | |
| port: 8000 | |
| # Chat: número máximo de turnos no contexto | |
| chat: | |
| max_turns_in_context: 10 | |