jjvelezo commited on
Commit
63e73e5
·
verified ·
1 Parent(s): 7db86c7

Update agent.py

Browse files
Files changed (1) hide show
  1. agent.py +11 -15
agent.py CHANGED
@@ -1,17 +1,13 @@
1
- from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer, pipeline
2
- import torch
3
 
4
- class HuggingFaceAgent:
5
- def __init__(self, model_id, access_token):
6
- self.tokenizer = AutoTokenizer.from_pretrained(model_id, token=access_token)
7
- self.model = AutoModelForCausalLM.from_pretrained(
8
- model_id,
9
- token=access_token,
10
- torch_dtype=torch.float16 if torch.cuda.is_available() else torch.float32,
11
- device_map="auto"
12
- )
13
- self.pipeline = pipeline("text-generation", model=self.model, tokenizer=self.tokenizer)
14
 
15
- def responder(self, prompt):
16
- respuesta = self.pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7)[0]["generated_text"]
17
- return respuesta[len(prompt):].strip()
 
 
 
 
 
 
1
+ from transformers import pipeline
 
2
 
3
+ # Usaremos un modelo ligero para mejor compatibilidad
4
+ modelo = "google/gemma-2b-it"
 
 
 
 
 
 
 
 
5
 
6
+ generador = pipeline("text-generation", model=modelo)
7
+
8
+ def ejecutar_agente(texto):
9
+ """
10
+ Procesa una pregunta usando el modelo LLM.
11
+ """
12
+ resultado = generador(texto, max_new_tokens=300, do_sample=True, temperature=0.7)
13
+ return resultado[0]["generated_text"]