Spaces:
Sleeping
Sleeping
update
Browse files
main.py
CHANGED
@@ -31,9 +31,9 @@ app.add_middleware(
|
|
31 |
app.include_router(summary_router)
|
32 |
|
33 |
|
34 |
-
async def trim_prompt(prompt: str, system_prompt: str):
|
35 |
|
36 |
-
result = await llm_api.tokenize(prompt
|
37 |
|
38 |
result_system = None
|
39 |
system_prompt_length = 0
|
@@ -45,8 +45,8 @@ async def trim_prompt(prompt: str, system_prompt: str):
|
|
45 |
|
46 |
|
47 |
# в случае ошибки при токенизации, вернем исходную строку безопасной длины
|
48 |
-
if result["result"] is None or result_system is None:
|
49 |
-
return prompt[llm_api.params.context_length / 3]
|
50 |
|
51 |
#вероятно, часть уходит на форматирование чата, надо проверить
|
52 |
max_length = result["max_length"] - len(result["result"]) - system_prompt_length - llm_api.params.predict_params.n_predict
|
|
|
31 |
app.include_router(summary_router)
|
32 |
|
33 |
|
34 |
+
async def trim_prompt(prompt: str, system_prompt: str = None):
|
35 |
|
36 |
+
result = await llm_api.tokenize(prompt)
|
37 |
|
38 |
result_system = None
|
39 |
system_prompt_length = 0
|
|
|
45 |
|
46 |
|
47 |
# в случае ошибки при токенизации, вернем исходную строку безопасной длины
|
48 |
+
if result["result"] is None or (system_prompt is not None and result_system is None):
|
49 |
+
return prompt[int(llm_api.params.context_length / 3)]
|
50 |
|
51 |
#вероятно, часть уходит на форматирование чата, надо проверить
|
52 |
max_length = result["max_length"] - len(result["result"]) - system_prompt_length - llm_api.params.predict_params.n_predict
|