muryshev commited on
Commit
f443975
·
1 Parent(s): 9347ad1
Files changed (1) hide show
  1. main.py +4 -4
main.py CHANGED
@@ -31,9 +31,9 @@ app.add_middleware(
31
  app.include_router(summary_router)
32
 
33
 
34
- async def trim_prompt(prompt: str, system_prompt: str):
35
 
36
- result = await llm_api.tokenize(prompt+system_prompt)
37
 
38
  result_system = None
39
  system_prompt_length = 0
@@ -45,8 +45,8 @@ async def trim_prompt(prompt: str, system_prompt: str):
45
 
46
 
47
  # в случае ошибки при токенизации, вернем исходную строку безопасной длины
48
- if result["result"] is None or result_system is None:
49
- return prompt[llm_api.params.context_length / 3]
50
 
51
  #вероятно, часть уходит на форматирование чата, надо проверить
52
  max_length = result["max_length"] - len(result["result"]) - system_prompt_length - llm_api.params.predict_params.n_predict
 
31
  app.include_router(summary_router)
32
 
33
 
34
+ async def trim_prompt(prompt: str, system_prompt: str = None):
35
 
36
+ result = await llm_api.tokenize(prompt)
37
 
38
  result_system = None
39
  system_prompt_length = 0
 
45
 
46
 
47
  # в случае ошибки при токенизации, вернем исходную строку безопасной длины
48
+ if result["result"] is None or (system_prompt is not None and result_system is None):
49
+ return prompt[int(llm_api.params.context_length / 3)]
50
 
51
  #вероятно, часть уходит на форматирование чата, надо проверить
52
  max_length = result["max_length"] - len(result["result"]) - system_prompt_length - llm_api.params.predict_params.n_predict