semviqa-demo / app.py
xuandin's picture
Update app.py
0be0916 verified
raw
history blame
23.3 kB
import streamlit as st
import torch
from transformers import AutoTokenizer
from semviqa.ser.qatc_model import QATCForQuestionAnswering
from semviqa.tvc.model import ClaimModelForClassification
from semviqa.ser.ser_eval import extract_evidence_tfidf_qatc
from semviqa.tvc.tvc_eval import classify_claim
import time
import pandas as pd
import os
import psutil
import gc
import numpy as np
from functools import lru_cache
import threading
from concurrent.futures import ThreadPoolExecutor
import torch.nn.functional as F
# Set environment variables to optimize CPU performance
os.environ["OMP_NUM_THREADS"] = str(psutil.cpu_count(logical=False))
os.environ["MKL_NUM_THREADS"] = str(psutil.cpu_count(logical=False))
torch.set_num_threads(psutil.cpu_count(logical=False))
# Set device globally
DEVICE = "cuda" if torch.cuda.is_available() else "cpu"
# Cache for model outputs
@lru_cache(maxsize=1000)
def cached_classify_claim(claim, evidence, model_name, is_bc=False):
tokenizer, model = load_model(model_name, ClaimModelForClassification, is_bc=is_bc, device=DEVICE)
with torch.no_grad():
prob, pred = classify_claim(claim, evidence, model, tokenizer, DEVICE)
return prob, pred
# Optimized model loading with caching
@st.cache_resource(ttl=3600) # Cache for 1 hour
def load_model(model_name, model_class, is_bc=False, device=None):
if device is None:
device = "cuda" if torch.cuda.is_available() else "cpu"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = model_class.from_pretrained(model_name, num_labels=3 if not is_bc else 2)
model.eval()
# Optimize model for inference
if device == "cuda":
model = model.half() # Use FP16 for faster inference
torch.cuda.empty_cache()
model.to(device)
return tokenizer, model
# Optimized text preprocessing
@st.cache_data(ttl=3600)
def preprocess_text(text):
# Add any text cleaning or normalization here
return text.strip()
# Batch processing for evidence extraction
def batch_extract_evidence(claims, contexts, model_qatc, tokenizer_qatc, batch_size=4):
results = []
for i in range(0, len(claims), batch_size):
batch_claims = claims[i:i + batch_size]
batch_contexts = contexts[i:i + batch_size]
with torch.no_grad():
batch_results = [
extract_evidence_tfidf_qatc(
claim, context, model_qatc, tokenizer_qatc,
DEVICE,
confidence_threshold=0.5,
length_ratio_threshold=0.5
)
for claim, context in zip(batch_claims, batch_contexts)
]
results.extend(batch_results)
return results
# Optimized verification function with parallel processing
def perform_verification(claim, context, model_qatc, tokenizer_qatc, model_tc, tokenizer_tc,
model_bc, tokenizer_bc, tfidf_threshold, length_ratio_threshold):
# Extract evidence with optimized settings
evidence_start_time = time.time()
evidence = extract_evidence_tfidf_qatc(
claim, context, model_qatc, tokenizer_qatc,
DEVICE,
confidence_threshold=tfidf_threshold,
length_ratio_threshold=length_ratio_threshold
)
evidence_time = time.time() - evidence_start_time
# Clear memory after evidence extraction
if DEVICE == "cuda":
torch.cuda.empty_cache()
gc.collect()
# Parallel classification using ThreadPoolExecutor
with ThreadPoolExecutor(max_workers=2) as executor:
future_tc = executor.submit(cached_classify_claim, claim, evidence, tc_model_name, False)
future_bc = executor.submit(cached_classify_claim, claim, evidence, bc_model_name, True)
prob3class, pred_tc = future_tc.result()
prob2class, pred_bc = future_bc.result()
verdict_start_time = time.time()
with torch.no_grad():
verdict = "NEI"
if pred_tc != 0:
verdict = "SUPPORTED" if pred_bc == 0 else "REFUTED" if prob2class > prob3class else ["NEI", "SUPPORTED", "REFUTED"][pred_tc]
verdict_time = time.time() - verdict_start_time
return {
"evidence": evidence,
"verdict": verdict,
"evidence_time": evidence_time,
"verdict_time": verdict_time,
"prob3class": prob3class.item() if isinstance(prob3class, torch.Tensor) else prob3class,
"pred_tc": pred_tc,
"prob2class": prob2class.item() if isinstance(prob2class, torch.Tensor) else prob2class,
"pred_bc": pred_bc
}
# Add performance monitoring
def monitor_performance():
if DEVICE == "cuda":
return {
"gpu_memory_used": torch.cuda.memory_allocated() / 1024**2,
"gpu_memory_cached": torch.cuda.memory_reserved() / 1024**2,
"cpu_percent": psutil.cpu_percent(),
"memory_percent": psutil.virtual_memory().percent
}
return {
"cpu_percent": psutil.cpu_percent(),
"memory_percent": psutil.virtual_memory().percent
}
# Set page configuration
st.set_page_config(
page_title="SemViQA - Hệ thống Kiểm chứng Thông tin Tiếng Việt",
page_icon="🔍",
layout="wide",
initial_sidebar_state="expanded"
)
# Custom CSS
st.markdown("""
<style>
/* Main theme colors */
:root {
--primary-color: #1f77b4;
--secondary-color: #2c3e50;
--accent-color: #e74c3c;
--background-color: #f8f9fa;
--text-color: #2c3e50;
--border-color: #e0e0e0;
}
/* General styling */
.stApp {
background-color: var(--background-color);
color: var(--text-color);
}
/* Header styling */
.main-header {
background: linear-gradient(135deg, var(--primary-color), var(--secondary-color));
color: white;
padding: 2rem;
border-radius: 10px;
margin-bottom: 2rem;
box-shadow: 0 4px 6px rgba(0, 0, 0, 0.1);
}
.main-title {
font-size: 2.5rem;
font-weight: bold;
text-align: center;
margin-bottom: 1rem;
}
.sub-title {
font-size: 1.2rem;
text-align: center;
opacity: 0.9;
}
/* Input styling */
.stTextArea textarea {
border: 2px solid var(--border-color);
border-radius: 8px;
padding: 1rem;
font-size: 1rem;
min-height: 150px;
background-color: white;
}
/* Button styling */
.stButton>button {
background: linear-gradient(135deg, var(--primary-color), var(--secondary-color));
color: white;
border: none;
border-radius: 8px;
padding: 0.8rem 2rem;
font-size: 1.1rem;
font-weight: bold;
transition: all 0.3s ease;
}
.stButton>button:hover {
transform: translateY(-2px);
box-shadow: 0 4px 8px rgba(0, 0, 0, 0.2);
}
/* Result box styling */
.result-box {
background-color: white;
border-radius: 12px;
padding: 2rem;
margin: 1rem 0;
box-shadow: 0 4px 6px rgba(0, 0, 0, 0.1);
}
/* Info section styling */
.info-section {
background-color: white;
border-radius: 12px;
padding: 2rem;
margin: 1rem 0;
box-shadow: 0 4px 6px rgba(0, 0, 0, 0.1);
}
.info-section h3 {
color: var(--primary-color);
font-size: 1.8rem;
margin-bottom: 1.5rem;
border-bottom: 2px solid var(--border-color);
padding-bottom: 0.5rem;
}
.info-section h4 {
color: var(--secondary-color);
font-size: 1.4rem;
margin: 1.5rem 0 1rem 0;
}
.info-section p {
font-size: 1.1rem;
line-height: 1.6;
color: var(--text-color);
margin-bottom: 1.5rem;
}
.info-section ol, .info-section ul {
margin-left: 1.5rem;
margin-bottom: 1.5rem;
}
.info-section li {
font-size: 1.1rem;
line-height: 1.6;
margin-bottom: 0.5rem;
}
.info-section strong {
color: var(--primary-color);
}
.verdict {
font-size: 1.8rem;
font-weight: bold;
padding: 1rem;
border-radius: 8px;
margin: 1rem 0;
text-align: center;
}
.verdict-supported {
background-color: #d4edda;
color: #155724;
}
.verdict-refuted {
background-color: #f8d7da;
color: #721c24;
}
.verdict-nei {
background-color: #fff3cd;
color: #856404;
}
/* Sidebar styling */
.css-1d391kg {
background-color: white;
padding: 2rem;
border-radius: 12px;
box-shadow: 0 4px 6px rgba(0, 0, 0, 0.1);
}
/* Stats box styling */
.stats-box {
background-color: white;
border-radius: 8px;
padding: 1rem;
margin: 0.5rem 0;
box-shadow: 0 2px 4px rgba(0, 0, 0, 0.05);
}
/* Code block styling */
.code-block {
background-color: #f8f9fa;
border: 1px solid var(--border-color);
border-radius: 8px;
padding: 1rem;
font-family: monospace;
margin: 1rem 0;
}
/* Tab styling */
.stTabs [data-baseweb="tab-list"] {
gap: 2rem;
}
.stTabs [data-baseweb="tab"] {
background-color: white;
border-radius: 8px;
padding: 0.5rem 1rem;
margin: 0 0.5rem;
}
.stTabs [aria-selected="true"] {
background-color: var(--primary-color);
color: white;
}
</style>
""", unsafe_allow_html=True)
# Main header
st.markdown("""
<div class="main-header">
<div class="main-title">SemViQA</div>
<div class="sub-title">Hệ thống Kiểm chứng Thông tin Tiếng Việt</div>
</div>
""", unsafe_allow_html=True)
# Sidebar
with st.sidebar:
st.markdown("### ⚙️ Cài đặt Hệ thống")
# Model selection
st.markdown("#### 🧠 Chọn Mô hình")
qatc_model_name = st.selectbox(
"Mô hình QATC",
[
"SemViQA/qatc-infoxlm-viwikifc",
"SemViQA/qatc-infoxlm-isedsc01",
"SemViQA/qatc-vimrc-viwikifc",
"SemViQA/qatc-vimrc-isedsc01"
]
)
bc_model_name = st.selectbox(
"Mô hình Phân loại Nhị phân",
[
"SemViQA/bc-xlmr-viwikifc",
"SemViQA/bc-xlmr-isedsc01",
"SemViQA/bc-infoxlm-viwikifc",
"SemViQA/bc-infoxlm-isedsc01",
"SemViQA/bc-erniem-viwikifc",
"SemViQA/bc-erniem-isedsc01"
]
)
tc_model_name = st.selectbox(
"Mô hình Phân loại Ba lớp",
[
"SemViQA/tc-xlmr-viwikifc",
"SemViQA/tc-xlmr-isedsc01",
"SemViQA/tc-infoxlm-viwikifc",
"SemViQA/tc-infoxlm-isedsc01",
"SemViQA/tc-erniem-viwikifc",
"SemViQA/tc-erniem-isedsc01"
]
)
# Threshold settings
st.markdown("#### ⚖️ Ngưỡng Phân tích")
tfidf_threshold = st.slider(
"Ngưỡng TF-IDF",
0.0, 1.0, 0.5,
help="Điều chỉnh độ nhạy trong việc tìm kiếm bằng chứng"
)
length_ratio_threshold = st.slider(
"Ngưỡng Tỷ lệ Độ dài",
0.1, 1.0, 0.5,
help="Điều chỉnh độ dài tối đa của bằng chứng"
)
# Display settings
st.markdown("#### 👁️ Hiển thị")
show_details = st.checkbox(
"Hiển thị Chi tiết Xác suất",
value=False,
help="Hiển thị thông tin chi tiết về xác suất dự đoán"
)
# Performance settings
st.markdown("#### ⚡ Hiệu suất")
num_threads = st.slider(
"Số luồng CPU",
1, psutil.cpu_count(),
psutil.cpu_count(logical=False),
help="Điều chỉnh hiệu suất xử lý"
)
os.environ["OMP_NUM_THREADS"] = str(num_threads)
os.environ["MKL_NUM_THREADS"] = str(num_threads)
# Main content
tabs = st.tabs(["🔍 Kiểm chứng", "📊 Lịch sử", "ℹ️ Thông tin"])
tokenizer_qatc, model_qatc = load_model(qatc_model_name, QATCForQuestionAnswering, device=DEVICE)
tokenizer_bc, model_bc = load_model(bc_model_name, ClaimModelForClassification, is_bc=True, device=DEVICE)
tokenizer_tc, model_tc = load_model(tc_model_name, ClaimModelForClassification, device=DEVICE)
verdict_icons = {
"SUPPORTED": "✅",
"REFUTED": "❌",
"NEI": "⚠️"
}
# --- Tab Verify ---
with tabs[0]:
col1, col2 = st.columns([2, 1])
with col1:
st.markdown("### 📝 Nhập Thông tin")
claim = st.text_area(
"Câu khẳng định cần kiểm chứng",
"Chiến tranh với Campuchia đã kết thúc trước khi Việt Nam thống nhất.",
help="Nhập câu khẳng định cần được kiểm chứng"
)
context = st.text_area(
"Ngữ cảnh",
"Sau khi thống nhất, Việt Nam tiếp tục gặp khó khăn do sự sụp đổ và tan rã của đồng minh Liên Xô cùng Khối phía Đông, các lệnh cấm vận của Hoa Kỳ, chiến tranh với Campuchia, biên giới giáp Trung Quốc và hậu quả của chính sách bao cấp sau nhiều năm áp dụng. Năm 1986, Đảng Cộng sản ban hành cải cách đổi mới, tạo điều kiện hình thành kinh tế thị trường và hội nhập sâu rộng. Cải cách đổi mới kết hợp cùng quy mô dân số lớn đưa Việt Nam trở thành một trong những nước đang phát triển có tốc độ tăng trưởng thuộc nhóm nhanh nhất thế giới, được coi là Hổ mới châu Á dù cho vẫn gặp phải những thách thức như tham nhũng, tội phạm gia tăng, ô nhiễm môi trường và phúc lợi xã hội chưa đầy đủ. Ngoài ra, giới bất đồng chính kiến, chính phủ một số nước phương Tây và các tổ chức theo dõi nhân quyền có quan điểm chỉ trích hồ sơ nhân quyền của Việt Nam liên quan đến các vấn đề tôn giáo, kiểm duyệt truyền thông, hạn chế hoạt động ủng hộ nhân quyền cùng các quyền tự do dân sự.",
help="Nhập ngữ cảnh hoặc văn bản tham khảo"
)
verify_button = st.button("🔍 Kiểm chứng", use_container_width=True)
with col2:
st.markdown("### 📊 Kết quả")
if verify_button:
with st.spinner("Đang kiểm chứng..."):
# Preprocess texts
preprocessed_claim = preprocess_text(claim)
preprocessed_context = preprocess_text(context)
# Clear memory and perform verification
gc.collect()
if DEVICE == "cuda":
torch.cuda.empty_cache()
start_time = time.time()
# Monitor initial performance
initial_perf = monitor_performance()
result = perform_verification(
preprocessed_claim, preprocessed_context,
model_qatc, tokenizer_qatc,
model_tc, tokenizer_tc,
model_bc, tokenizer_bc,
tfidf_threshold, length_ratio_threshold
)
total_time = time.time() - start_time
# Monitor final performance
final_perf = monitor_performance()
# Format details
details = ""
if show_details:
details = f"""
3-Class Probability: {result['prob3class']:.2f}
3-Class Predicted Label: {['NEI', 'SUPPORTED', 'REFUTED'][result['pred_tc']]}
2-Class Probability: {result['prob2class']:.2f}
2-Class Predicted Label: {['SUPPORTED', 'REFUTED'][result['pred_bc']] if isinstance(result['pred_bc'], int) and result['pred_tc'] != 0 else 'Not used'}
Performance Metrics:
- GPU Memory Used: {final_perf.get('gpu_memory_used', 'N/A'):.2f} MB
- GPU Memory Cached: {final_perf.get('gpu_memory_cached', 'N/A'):.2f} MB
- CPU Usage: {final_perf['cpu_percent']}%
- Memory Usage: {final_perf['memory_percent']}%
"""
# Store result with performance metrics
st.session_state.latest_result = {
"claim": claim,
"evidence": result['evidence'],
"verdict": result['verdict'],
"evidence_time": result['evidence_time'],
"verdict_time": result['verdict_time'],
"total_time": total_time,
"details": details,
"qatc_model": qatc_model_name,
"bc_model": bc_model_name,
"tc_model": tc_model_name,
"performance_metrics": final_perf
}
# Add to history
if 'history' not in st.session_state:
st.session_state.history = []
st.session_state.history.append(st.session_state.latest_result)
# Display result with performance metrics
res = st.session_state.latest_result
verdict_class = {
"SUPPORTED": "verdict-supported",
"REFUTED": "verdict-refuted",
"NEI": "verdict-nei"
}.get(res['verdict'], "")
st.markdown(f"""
<div class="result-box">
<h3>Kết quả Kiểm chứng</h3>
<p><strong>Câu khẳng định:</strong> {res['claim']}</p>
<p><strong>Bằng chứng:</strong> {res['evidence']}</p>
<p class="verdict {verdict_class}">
{verdict_icons.get(res['verdict'], '')} {res['verdict']}
</p>
<div class="stats-box">
<p><strong>Thời gian trích xuất bằng chứng:</strong> {res['evidence_time']:.2f} giây</p>
<p><strong>Thời gian phân loại:</strong> {res['verdict_time']:.2f} giây</p>
<p><strong>Tổng thời gian:</strong> {res['total_time']:.2f} giây</p>
<p><strong>Hiệu suất:</strong></p>
<ul>
<li>CPU: {res['performance_metrics']['cpu_percent']}%</li>
<li>RAM: {res['performance_metrics']['memory_percent']}%</li>
{f"<li>GPU Memory: {res['performance_metrics'].get('gpu_memory_used', 'N/A'):.2f} MB</li>" if DEVICE == "cuda" else ""}
</ul>
</div>
{f"<div class='code-block'><pre>{res['details']}</pre></div>" if show_details else ""}
</div>
""", unsafe_allow_html=True)
# Download button with performance metrics
result_text = f"""
Câu khẳng định: {res['claim']}
Bằng chứng: {res['evidence']}
Kết luận: {res['verdict']}
Chi tiết: {res['details']}
Hiệu suất:
- CPU: {res['performance_metrics']['cpu_percent']}%
- RAM: {res['performance_metrics']['memory_percent']}%
{f"- GPU Memory: {res['performance_metrics'].get('gpu_memory_used', 'N/A'):.2f} MB" if DEVICE == "cuda" else ""}
"""
st.download_button(
"📥 Tải kết quả",
data=result_text,
file_name="ket_qua_kiem_chung.txt",
mime="text/plain"
)
else:
st.info("Vui lòng nhập thông tin và nhấn nút Kiểm chứng để bắt đầu.")
# --- Tab History ---
with tabs[1]:
st.markdown("### 📊 Lịch sử Kiểm chứng")
if 'history' in st.session_state and st.session_state.history:
# Download full history
history_df = pd.DataFrame(st.session_state.history)
st.download_button(
"📥 Tải toàn bộ lịch sử",
data=history_df.to_csv(index=False).encode('utf-8'),
file_name="lich_su_kiem_chung.csv",
mime="text/csv"
)
# Display history
for idx, record in enumerate(reversed(st.session_state.history), 1):
st.markdown(f"""
<div class="result-box">
<h4>Kiểm chứng #{idx}</h4>
<p><strong>Câu khẳng định:</strong> {record['claim']}</p>
<p><strong>Kết luận:</strong> {verdict_icons.get(record['verdict'], '')} {record['verdict']}</p>
<p><strong>Thời gian:</strong> {record['total_time']:.2f} giây</p>
</div>
""", unsafe_allow_html=True)
else:
st.info("Chưa có lịch sử kiểm chứng.")
# --- Tab Info ---
with tabs[2]:
st.markdown("""
<div class="info-section">
<h3>ℹ️ Thông tin về SemViQA</h3>
<p>SemViQA là hệ thống kiểm chứng thông tin tự động cho tiếng Việt, được phát triển bởi nhóm nghiên cứu tại Đại học Công nghệ Thông tin - Đại học Quốc gia TP.HCM.</p>
<h4>🔍 Cách sử dụng</h4>
<ol>
<li>Nhập câu khẳng định cần kiểm chứng</li>
<li>Nhập ngữ cảnh hoặc văn bản tham khảo</li>
<li>Điều chỉnh các tham số trong phần Cài đặt nếu cần</li>
<li>Nhấn nút Kiểm chứng</li>
</ol>
<h4>⚙️ Các tham số</h4>
<ul>
<li><strong>Ngưỡng TF-IDF:</strong> Điều chỉnh độ nhạy trong việc tìm kiếm bằng chứng</li>
<li><strong>Ngưỡng Tỷ lệ Độ dài:</strong> Điều chỉnh độ dài tối đa của bằng chứng</li>
<li><strong>Số luồng CPU:</strong> Điều chỉnh hiệu suất xử lý</li>
</ul>
<h4>📊 Kết quả</h4>
<ul>
<li><strong>SUPPORTED:</strong> Câu khẳng định được hỗ trợ bởi bằng chứng</li>
<li><strong>REFUTED:</strong> Câu khẳng định bị bác bỏ bởi bằng chứng</li>
<li><strong>NEI:</strong> Không đủ bằng chứng để kết luận</li>
</ul>
</div>
""", unsafe_allow_html=True)