# Hugging Face 모델 로드 from transformers import AutoTokenizer, AutoModelForSequenceClassification import streamlit as st import os import tensorflow as tf from absl import logging # Hugging Face 모델 설정 tokenizer = AutoTokenizer.from_pretrained("snunlp/KR-FinBert-SC") model = AutoModelForSequenceClassification.from_pretrained("snunlp/KR-FinBert-SC") # 환경 변수 설정 os.environ['TF_ENABLE_ONEDNN_OPTS'] = '0' # oneDNN 최적화 비활성화 # 로그 초기화 logging.set_verbosity(logging.INFO) logging.use_absl_handler() # GPU 설정 gpus = tf.config.experimental.list_physical_devices('GPU') if gpus: try: for gpu in gpus: tf.config.experimental.set_memory_growth(gpu, True) print("GPU 메모리 증가 허용 설정 완료") except RuntimeError as e: print(f"GPU 설정 오류: {e}") # TensorFlow 정보 출력 print("TensorFlow 버전:", tf.__version__) print("사용 가능한 장치:", tf.config.list_physical_devices()) # Streamlit 앱 인터페이스 st.title("Hello, Streamlit!") st.write("This is a sample Streamlit app.") # 입력 필드 추가 input_text = st.text_input("Enter some text:") if st.button("Analyze"): inputs = tokenizer(input_text, return_tensors="pt") outputs = model(**inputs) st.write("Model Output:", outputs.logits.tolist())