Update app.py
Browse files
app.py
CHANGED
@@ -84,7 +84,7 @@ def query_with_llama(user_query, db_sample, chat_history):
|
|
84 |
response = hf_client.chat.completions.create(
|
85 |
model=LLAMA_MODEL,
|
86 |
messages=[{"role": "system", "content": full_prompt}],
|
87 |
-
max_tokens=
|
88 |
stream=False
|
89 |
)
|
90 |
llama_response = response["choices"][0]["message"]["content"]
|
@@ -98,7 +98,7 @@ def query_with_llama(user_query, db_sample, chat_history):
|
|
98 |
|
99 |
def refine_response_with_llama(user_query, sql_response):
|
100 |
prompt = f"""
|
101 |
-
Você é um assistente especializado em consolidar informações. Abaixo estão as entradas:\n
|
102 |
Pergunta:
|
103 |
{user_query}
|
104 |
Resposta do Agente:
|
|
|
84 |
response = hf_client.chat.completions.create(
|
85 |
model=LLAMA_MODEL,
|
86 |
messages=[{"role": "system", "content": full_prompt}],
|
87 |
+
max_tokens=800,
|
88 |
stream=False
|
89 |
)
|
90 |
llama_response = response["choices"][0]["message"]["content"]
|
|
|
98 |
|
99 |
def refine_response_with_llama(user_query, sql_response):
|
100 |
prompt = f"""
|
101 |
+
Você é um assistente especializado em consolidar e explicar as informações. Abaixo estão as entradas:\n
|
102 |
Pergunta:
|
103 |
{user_query}
|
104 |
Resposta do Agente:
|