| # ========================================== | |
| # CONFIGURAZIONE AMBIENTE LOCALE | |
| # ========================================== | |
| # Copia questo file rinominandolo in ".env" e inserisci i tuoi valori. | |
| # ATTENZIONE: Non committare MAI il file ".env" nel repository! | |
| # --- Credenziali Backend LLM --- | |
| # Token per le Inference API di Hugging Face (necessario per Llama 3 / Mistral) | |
| HF_TOKEN=hf_qui_il_tuo_token_huggingface | |
| # (Opzionale) API Key per Groq, usato come fallback ultra-veloce nell'extractor | |
| GROQ_API_KEY=gsk_qui_la_tua_api_key_groq | |
| # --- Connessione Knowledge Graph (Neo4j AuraDB o Locale) --- | |
| # URI di connessione al database (es. neo4j+s://xxxxx.databases.neo4j.io per AuraDB) | |
| NEO4J_URI=bolt://localhost:7687 | |
| # Utente del database (di default 'neo4j') | |
| NEO4J_USER=neo4j | |
| # Password del database | |
| NEO4J_PASSWORD=la_tua_password_super_segreta |