# Configuração do Modelo Híbrido de LLM # Carregada por config_loader.load_config() # Banco de conhecimento: arquivo JSON com termo -> grau [0,1]. Se vazio, usa SEED interno. knowledge_base: path: "" # ex: data/kb.json chroma_path: "" # ex: meu_vector_db — se preenchido, enriquece KB com RAG # Modelo neural L3 (avaliação de verdade) l3: model_path: "truth_scoring_model.pt" backbone: "bert-base-multilingual-cased" # Base teórica L4 (Russell) l4: russell_concepts_path: "l4_russell_concepts.json" # Geração de resposta (L5): "groq" | "template" | "custom_lm" generation: provider: "groq" # groq usa GROQ_API_KEY; template = só L4; custom_lm = EpistemicLanguageModel groq_model: "mixtral-8x7b-32768" custom_lm_path: "" # ex: checkpoints_lm/best.pt # Agente de pesquisa (unificado ao pipeline) agent: use_agent: false # se true, usa busca Chroma + DuckDuckGo para enriquecer contexto vector_db_path: "meu_vector_db" embedding_model: "sentence-transformers/all-MiniLM-L6-v2" # API api: host: "0.0.0.0" port: 8000 # Chat: número máximo de turnos no contexto chat: max_turns_in_context: 10