GaetanoParente commited on
Commit
619d0fe
·
1 Parent(s): c1b1880

invertito ordine controllo provider llm

Browse files
Files changed (1) hide show
  1. src/extraction/extractor.py +12 -12
src/extraction/extractor.py CHANGED
@@ -37,7 +37,17 @@ class NeuroSymbolicExtractor:
37
 
38
  # Setup del provider LLM a cascata: do priorità ai servizi cloud ad alte performance,
39
  # se mancano le key faccio un fallback sull'istanza locale di Ollama.
40
- if hf_token:
 
 
 
 
 
 
 
 
 
 
41
  print("☁️ Rilevato ambiente Cloud (HF Spaces). Utilizzo HuggingFace Inference API.")
42
  repo_id = "meta-llama/Meta-Llama-3-8B-Instruct"
43
 
@@ -53,17 +63,7 @@ class NeuroSymbolicExtractor:
53
  print(f"✅ Connesso a {repo_id} via API.")
54
  except Exception as e:
55
  print(f"❌ Errore connessione HF API: {e}. Fallback su CPU locale (sconsigliato).")
56
- raise e
57
- elif groq_api_key:
58
- print("☁️ Rilevato ambiente Groq Cloud!")
59
- try:
60
- self.llm = ChatGroq(
61
- temperature=0,
62
- model="llama-3.3-70b-versatile",
63
- api_key=groq_api_key
64
- )
65
- except Exception as e:
66
- print(f"❌ Errore Groq API {e}")
67
  else:
68
  print(f"🏠 Ambiente Locale rilevato. Inizializzazione Ollama: {model_name}...")
69
  try:
 
37
 
38
  # Setup del provider LLM a cascata: do priorità ai servizi cloud ad alte performance,
39
  # se mancano le key faccio un fallback sull'istanza locale di Ollama.
40
+ if groq_api_key:
41
+ print("☁️ Rilevato ambiente Groq Cloud!")
42
+ try:
43
+ self.llm = ChatGroq(
44
+ temperature=0,
45
+ model="llama-3.3-70b-versatile",
46
+ api_key=groq_api_key
47
+ )
48
+ except Exception as e:
49
+ print(f"❌ Errore Groq API {e}")
50
+ elif hf_token:
51
  print("☁️ Rilevato ambiente Cloud (HF Spaces). Utilizzo HuggingFace Inference API.")
52
  repo_id = "meta-llama/Meta-Llama-3-8B-Instruct"
53
 
 
63
  print(f"✅ Connesso a {repo_id} via API.")
64
  except Exception as e:
65
  print(f"❌ Errore connessione HF API: {e}. Fallback su CPU locale (sconsigliato).")
66
+ raise e
 
 
 
 
 
 
 
 
 
 
67
  else:
68
  print(f"🏠 Ambiente Locale rilevato. Inizializzazione Ollama: {model_name}...")
69
  try: