Spaces:
Running
Running
Upload app.py
Browse files
app.py
CHANGED
@@ -23,13 +23,12 @@ install_missing_packages()
|
|
23 |
|
24 |
# 現在導入其他依賴
|
25 |
from langchain_community.embeddings.huggingface import HuggingFaceEmbeddings
|
26 |
-
from langchain.vectorstores import FAISS
|
27 |
from langchain.llms import HuggingFacePipeline
|
28 |
from langchain.chains import RetrievalQA, LLMChain
|
29 |
from langchain.prompts import PromptTemplate
|
30 |
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
|
31 |
from langchain_community.vectorstores import FAISS
|
32 |
-
|
33 |
|
34 |
# 其餘代碼保持不變...
|
35 |
|
@@ -159,7 +158,8 @@ def hybrid_qa(query, qa_chain, general_chain, confidence_threshold=0.7):
|
|
159 |
try:
|
160 |
kb_result = qa_chain({"query": query})
|
161 |
# 檢查向量存儲的相似度分數,判斷是否有足夠相關的內容
|
162 |
-
if hasattr(kb_result, 'source_documents') and len(kb_result["source_documents"]) > 0:
|
|
|
163 |
# 這裡假設我們能獲取到相似度分數,實際上可能需要根據您使用的向量存儲方法調整
|
164 |
relevance = True # 在實際應用中,這裡應根據相似度分數確定
|
165 |
|
|
|
23 |
|
24 |
# 現在導入其他依賴
|
25 |
from langchain_community.embeddings.huggingface import HuggingFaceEmbeddings
|
|
|
26 |
from langchain.llms import HuggingFacePipeline
|
27 |
from langchain.chains import RetrievalQA, LLMChain
|
28 |
from langchain.prompts import PromptTemplate
|
29 |
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
|
30 |
from langchain_community.vectorstores import FAISS
|
31 |
+
|
32 |
|
33 |
# 其餘代碼保持不變...
|
34 |
|
|
|
158 |
try:
|
159 |
kb_result = qa_chain({"query": query})
|
160 |
# 檢查向量存儲的相似度分數,判斷是否有足夠相關的內容
|
161 |
+
#if hasattr(kb_result, 'source_documents') and len(kb_result["source_documents"]) > 0:
|
162 |
+
if hasattr(kb_result, 'source_documents') and kb_result.get("source_documents") and len(kb_result["source_documents"]) > 0:
|
163 |
# 這裡假設我們能獲取到相似度分數,實際上可能需要根據您使用的向量存儲方法調整
|
164 |
relevance = True # 在實際應用中,這裡應根據相似度分數確定
|
165 |
|