Spaces:
Sleeping
Sleeping
File size: 1,127 Bytes
8a2b953 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 |
import gradio as gr
from huggingface_hub import InferenceClient
import os
from dotenv import load_dotenv
# Загрузка файла .env (если ты тестируешь локально)
load_dotenv()
# Получение токена из переменной окружения
HF_TOKEN = os.getenv("HF_TOKEN")
# Настройка клиента Hugging Face с токеном
client = InferenceClient(model="IlyaGusev/saiga_llama3_8b", token=HF_TOKEN)
def summarize(text):
"""
Функция для вызова модели Hugging Face через API.
"""
try:
response = client.text_generation(text, max_new_tokens=100, do_sample=False)
return response
except Exception as e:
return f"Произошла ошибка: {e}"
# Интерфейс Gradio
demo = gr.Interface(
fn=summarize,
inputs=gr.Textbox(lines=5, label="Введите текст для суммаризации"),
outputs=gr.Textbox(label="Результат суммаризации"),
title="Суммаризация текста"
)
if __name__ == "__main__":
demo.launch()
|