import time
import streamlit as st
from langchain.document_loaders import PyPDFLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.embeddings.base import Embeddings
from langchain.vectorstores import FAISS
from langchain.indexes import VectorstoreIndexCreator
from langchain.chains import RetrievalQA
from langchain.chat_models import ChatOpenAI
from typing import List
from together import Together
import pandas as pd
import streamlit as st
from docx import Document as DocxDocument
# ----------------- تنظیمات صفحه -----------------
st.set_page_config(page_title="رزم یار ارتش", page_icon="🪖", layout="wide")
# ----------------- استایل سفارشی -----------------
st.markdown("""
""", unsafe_allow_html=True)
# ----------------- بدنه اصلی -----------------
with st.sidebar:
st.image("log.png", width=90)
st.markdown("""
""", unsafe_allow_html=True)
st.markdown("""
""", unsafe_allow_html=True)
# محتوای اصلی
st.markdown("""
""", unsafe_allow_html=True)
st.markdown('👋 سلام! چطور میتونم کمکتون کنم؟
', unsafe_allow_html=True)
# چت اینپوت کاربر
#user_input = st.text_input("پیام خود را وارد کنید...")
#if user_input:
# st.markdown(f'📩 شما: {user_input}
', unsafe_allow_html=True)
# ----------------- لود csv و ساخت ایندکس -----------------
class TogetherEmbeddings(Embeddings):
def __init__(self, model_name: str, api_key: str):
self.model_name = model_name
self.client = Together(api_key=api_key)
def embed_documents(self, texts: List[str]) -> List[List[float]]:
# تقسیم متنها به دستههای کوچکتر برای جلوگیری از خطای 413
batch_size = 100 # این مقدار را میتوانید تنظیم کنید
embeddings = []
for i in range(0, len(texts), batch_size):
batch = texts[i:i + batch_size]
response = self.client.embeddings.create(model=self.model_name, input=batch)
embeddings.extend([item.embedding for item in response.data])
return embeddings
def embed_query(self, text: str) -> List[float]:
return self.embed_documents([text])[0]
@st.cache_resource
def get_docx_index(folder_path):
with st.spinner('📄 در حال پردازش فایلهای Word...'):
texts = []
# خواندن تمام فایلهای .docx در پوشه
for filename in os.listdir(folder_path):
if filename.endswith(".docx"):
full_path = os.path.join(folder_path, filename)
doc = DocxDocument(full_path)
# استخراج متن تمام پاراگرافها
file_text = "\n".join([para.text for para in doc.paragraphs])
if file_text.strip():
texts.append(file_text)
# تقسیم متنها
text_splitter = RecursiveCharacterTextSplitter(
chunk_size=300,
chunk_overlap=50,
length_function=len,
separators=["\n\n", "\n", " ", ""]
)
split_texts = []
for text in texts:
split_texts.extend(text_splitter.split_text(text))
# ایجاد embedding
embeddings = TogetherEmbeddings(
model_name="togethercomputer/m2-bert-80M-8k-retrieval",
api_key="0291f33aee03412a47fa5d8e562e515182dcc5d9aac5a7fb5eefdd1759005979"
)
# ساخت ایندکس
index_creator = VectorstoreIndexCreator(
embedding=embeddings,
text_splitter=text_splitter
)
documents = [Document(page_content=text) for text in split_texts]
return index_creator.from_documents(documents)
# مسیر فایل CSV
folder_path = '46/'
try:
docx_index = get_docx_index(folder_path)
except Exception as e:
st.error(f"❌ خطا در ساخت ایندکس: {e}")
#------------------------------------------
llm = ChatOpenAI(
base_url="https://api.together.xyz/v1",
api_key='0291f33aee03412a47fa5d8e562e515182dcc5d9aac5a7fb5eefdd1759005979',
model="meta-llama/Llama-3.3-70B-Instruct-Turbo-Free"
)
chain = RetrievalQA.from_chain_type(
llm=llm,
chain_type='stuff',
retriever=csv_index.vectorstore.as_retriever(),
input_key='question'
)
if 'messages' not in st.session_state:
st.session_state.messages = []
if 'pending_prompt' not in st.session_state:
st.session_state.pending_prompt = None
for msg in st.session_state.messages:
with st.chat_message(msg['role']):
st.markdown(f"🗨️ {msg['content']}", unsafe_allow_html=True)
prompt = st.chat_input("چطور میتونم کمک کنم؟")
if prompt:
st.session_state.messages.append({'role': 'user', 'content': prompt})
st.session_state.pending_prompt = prompt
st.rerun()
if st.session_state.pending_prompt:
with st.chat_message('ai'):
thinking = st.empty()
thinking.markdown("🤖 در حال فکر کردن...")
response = chain.run(f'پاسخ را فقط به زبان فارسی جواب بده به هیچ عنوان از زبان چینی در پاسخ استفاده نکن. سوال: {st.session_state.pending_prompt}')
answer = response.split("Helpful Answer:")[-1].strip() if "Helpful Answer:" in response else response.strip()
if not answer:
answer = "متأسفم، اطلاعات دقیقی در این مورد ندارم."
thinking.empty()
full_response = ""
placeholder = st.empty()
for word in answer.split():
full_response += word + " "
placeholder.markdown(full_response + "▌")
time.sleep(0.03)
placeholder.markdown(full_response)
st.session_state.messages.append({'role': 'ai', 'content': full_response})
st.session_state.pending_prompt = None