Spaces:
Sleeping
Sleeping
Update src/model_load.py
Browse files- src/model_load.py +1 -3
src/model_load.py
CHANGED
@@ -8,8 +8,6 @@ from langchain.chains import LLMChain
|
|
8 |
|
9 |
def load_model():
|
10 |
|
11 |
-
global qa_chain
|
12 |
-
global prompt
|
13 |
model_name="tiiuae/Falcon3-7B-Base"
|
14 |
|
15 |
# Cargar tokenizer y modelo de Hugging Face
|
@@ -48,7 +46,7 @@ def load_model():
|
|
48 |
|
49 |
# Crear una cadena de LLMChain que combine el retriever y el prompt
|
50 |
qa_chain = LLMChain(llm=llm, prompt=prompt)
|
51 |
-
|
52 |
def ask(pregunta: str,retriever):
|
53 |
|
54 |
#Busqueda de documentos mediante el retriever
|
|
|
8 |
|
9 |
def load_model():
|
10 |
|
|
|
|
|
11 |
model_name="tiiuae/Falcon3-7B-Base"
|
12 |
|
13 |
# Cargar tokenizer y modelo de Hugging Face
|
|
|
46 |
|
47 |
# Crear una cadena de LLMChain que combine el retriever y el prompt
|
48 |
qa_chain = LLMChain(llm=llm, prompt=prompt)
|
49 |
+
return qa_chain
|
50 |
def ask(pregunta: str,retriever):
|
51 |
|
52 |
#Busqueda de documentos mediante el retriever
|