Ludovicollin commited on
Commit
79ef33a
·
1 Parent(s): 4d3d5cd

Update main.py

Browse files
Files changed (1) hide show
  1. main.py +4 -4
main.py CHANGED
@@ -40,7 +40,7 @@ def retriever_to_cache():
40
  vectorstore = Pinecone.from_existing_index(
41
  index_name=index_name, embedding=embeddings
42
  )
43
- retriever = vectorstore.as_retriever(search_type="similarity_score_threshold", search_kwargs={"score_threshold": .7, "k": 50,"filter": {'categorie': {'$eq': 'OF'}}})
44
  return retriever
45
 
46
  @cl.author_rename
@@ -128,7 +128,7 @@ async def start():
128
 
129
  await cl.Message(author="🌐🌐🌐",content="", elements=logo).send()
130
  await cl.Message(
131
- author="🌐🌐🌐",content=f"Commencez à poser vos questions sur les données \"{chat_profile}\"\n\n💡Voici des exemples de question \n\t1️⃣ Basée sur les formations : Quelles sont toutes les formations licences générales?\n\t2️⃣ Basée sur les compétences : Quelles sont les compétences de la licence Economie et gestion?\n\t3️⃣ Basée sur les métiers : Quelles sont les métiers possibles de la licence Economie et gestion?\n\t4️⃣ Basée sur un souhait : Quelles formations si je veux travailler dans la vente?\n\t5️⃣ Basée sur un savoir-être : Quelles formations si j'aime travailler en équipe?\n\t6️⃣ Basée sur un état : Quelles formations si je suis créatif?\n\t7️⃣ Question multi-critère : Quelles sont les activités, les compétences et les métiers possibles de la licence Economie et gestion?"
132
  ).send()
133
  settings = await cl.ChatSettings(
134
  [
@@ -169,11 +169,11 @@ async def start():
169
  )
170
  #question_generator = LLMChain(llm=llm, prompt=CONDENSE_QUESTION_PROMPT)
171
  #doc_chain = load_qa_chain(streaming_llm, chain_type="stuff")
172
-
173
  qa = ConversationalRetrievalChain.from_llm(
174
  streaming_llm,
175
  chain_type="stuff",
176
- retriever=retriever_to_cache(),
177
  #combine_docs_chain=doc_chain,
178
  #question_generator=question_generator,
179
  memory=memory,
 
40
  vectorstore = Pinecone.from_existing_index(
41
  index_name=index_name, embedding=embeddings
42
  )
43
+ retriever = vectorstore.as_retriever(search_type="similarity_score_threshold", search_kwargs={"score_threshold": .7, "k": 40,"filter": {'categorie': {'$eq': 'OF'}}})
44
  return retriever
45
 
46
  @cl.author_rename
 
128
 
129
  await cl.Message(author="🌐🌐🌐",content="", elements=logo).send()
130
  await cl.Message(
131
+ author="🌐🌐🌐",content=f"Commencez à poser vos questions sur les données \"{chat_profile}\"\n\n💡Voici des exemples de question \n\t1️⃣ Basée sur les formations : Quelles sont toutes les formations licences générales?\n\t2️⃣ Basée sur les compétences : Quelles sont les compétences de la licence Economie et gestion?\n\t3️⃣ Basée sur les métiers : Quels sont les métiers possibles de la licence Economie et gestion?\n\t4️⃣ Basée sur un souhait : Quelles formations si je veux travailler dans la vente?\n\t5️⃣ Basée sur un savoir-être : Quelles formations si j'aime travailler en équipe?\n\t6️⃣ Basée sur un état : Quelles formations si je suis créatif?\n\t7️⃣ Question multi-critère : Quelles sont les activités, les compétences et les métiers possibles de la licence Economie et gestion?"
132
  ).send()
133
  settings = await cl.ChatSettings(
134
  [
 
169
  )
170
  #question_generator = LLMChain(llm=llm, prompt=CONDENSE_QUESTION_PROMPT)
171
  #doc_chain = load_qa_chain(streaming_llm, chain_type="stuff")
172
+ relevant=retriever_to_cache()
173
  qa = ConversationalRetrievalChain.from_llm(
174
  streaming_llm,
175
  chain_type="stuff",
176
+ retriever=relevant,
177
  #combine_docs_chain=doc_chain,
178
  #question_generator=question_generator,
179
  memory=memory,