Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -1,53 +1,59 @@
|
|
1 |
-
import torch
|
2 |
-
import torch.nn.functional as F
|
3 |
import joblib
|
4 |
-
|
5 |
-
|
6 |
-
|
7 |
-
|
|
|
8 |
|
9 |
-
|
10 |
-
|
|
|
|
|
|
|
11 |
|
|
|
12 |
tokenizer = joblib.load('bert_tokenizer.pkl')
|
13 |
|
14 |
-
#
|
15 |
-
|
16 |
-
|
17 |
-
|
18 |
-
|
19 |
-
|
20 |
-
|
21 |
-
|
22 |
-
|
23 |
-
|
24 |
-
|
25 |
-
)
|
26 |
-
|
27 |
-
# Перенос токенизированных данных на устройство
|
28 |
-
encodings = {key: val.to(device) for key, val in encodings.items()}
|
29 |
-
|
30 |
with torch.no_grad():
|
31 |
-
|
32 |
-
|
33 |
-
|
34 |
-
|
35 |
-
|
36 |
-
|
37 |
-
|
38 |
-
|
39 |
-
|
40 |
-
|
41 |
-
|
42 |
-
|
43 |
-
|
44 |
-
|
45 |
-
|
46 |
-
|
47 |
-
|
48 |
-
|
49 |
-
|
50 |
-
|
51 |
-
|
52 |
-
|
53 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
import joblib
|
2 |
+
import streamlit as st
|
3 |
+
import pandas as pd
|
4 |
+
import numpy as np
|
5 |
+
import torch
|
6 |
+
from transformers import BertTokenizer
|
7 |
|
8 |
+
# Загрузка модели и токенизатора с обработкой ошибки CUDA
|
9 |
+
try:
|
10 |
+
model = torch.load('bert_model.pkl', map_location=torch.device('cpu'))
|
11 |
+
except RuntimeError as e:
|
12 |
+
st.error(f"Ошибка загрузки модели: {e}")
|
13 |
|
14 |
+
# Загрузка токенизатора BERT
|
15 |
tokenizer = joblib.load('bert_tokenizer.pkl')
|
16 |
|
17 |
+
# Загрузка данных для поиска сходства
|
18 |
+
try:
|
19 |
+
data = pd.read_excel('DATA_new.xlsx')
|
20 |
+
data_texts = data['Text'].tolist()
|
21 |
+
except FileNotFoundError:
|
22 |
+
st.error("Файл 'DATA_new.xlsx' не найден.")
|
23 |
+
except Exception as e:
|
24 |
+
st.error(f"Ошибка загрузки файла: {e}")
|
25 |
+
|
26 |
+
# Функция для нахождения сходства
|
27 |
+
def find_similar_texts(input_text, top_n=5):
|
28 |
+
inputs = tokenizer(input_text, return_tensors='pt', padding=True, truncation=True)
|
|
|
|
|
|
|
|
|
29 |
with torch.no_grad():
|
30 |
+
input_vector = model(**inputs).logits
|
31 |
+
data_vectors = []
|
32 |
+
for text in data_texts:
|
33 |
+
inputs = tokenizer(text, return_tensors='pt', padding=True, truncation=True)
|
34 |
+
with torch.no_grad():
|
35 |
+
data_vectors.append(model(**inputs).logits)
|
36 |
+
data_vectors = torch.stack(data_vectors).squeeze()
|
37 |
+
similarities = torch.nn.functional.cosine_similarity(input_vector, data_vectors)
|
38 |
+
similar_indices = torch.argsort(similarities, descending=True)[:top_n]
|
39 |
+
similar_texts = [data_texts[i] for i in similar_indices]
|
40 |
+
return similar_texts
|
41 |
+
|
42 |
+
# Streamlit интерфейс в файле app.py
|
43 |
+
if __name__ == "__main__":
|
44 |
+
st.title("Поиск сходства текстов")
|
45 |
+
st.write("Введите текст для поиска сходства")
|
46 |
+
|
47 |
+
input_text = st.text_area("Текст для поиска сходства")
|
48 |
+
|
49 |
+
if st.button("Найти похожие тексты"):
|
50 |
+
if input_text.strip():
|
51 |
+
similar_texts = find_similar_texts(input_text)
|
52 |
+
if similar_texts:
|
53 |
+
st.write("Похожие тексты:")
|
54 |
+
for text in similar_texts:
|
55 |
+
st.write(f"- {text}")
|
56 |
+
else:
|
57 |
+
st.write("Нет похожих текстов для данного ввода.")
|
58 |
+
else:
|
59 |
+
st.error("Пожалуйста, введите текст для поиска сходства.")
|