# ========================================== # CONFIGURAZIONE AMBIENTE LOCALE # ========================================== # Copia questo file rinominandolo in ".env" e inserisci i tuoi valori. # ATTENZIONE: Non committare MAI il file ".env" nel repository! # --- Credenziali Backend LLM --- # Token per le Inference API di Hugging Face (necessario per Llama 3 / Mistral) HF_TOKEN=hf_qui_il_tuo_token_huggingface # (Opzionale) API Key per Groq, usato come fallback ultra-veloce nell'extractor GROQ_API_KEY=gsk_qui_la_tua_api_key_groq # --- Connessione Knowledge Graph (Neo4j AuraDB o Locale) --- # URI di connessione al database (es. neo4j+s://xxxxx.databases.neo4j.io per AuraDB) NEO4J_URI=bolt://localhost:7687 # Utente del database (di default 'neo4j') NEO4J_USER=neo4j # Password del database NEO4J_PASSWORD=la_tua_password_super_segreta