Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -3,8 +3,8 @@ from transformers import GPT2LMHeadModel, GPT2Tokenizer
|
|
3 |
import torch
|
4 |
|
5 |
# Initialisierung des Modells und des Tokenizers
|
6 |
-
tokenizer = GPT2Tokenizer.from_pretrained("Loewolf/GPT_1.
|
7 |
-
model = GPT2LMHeadModel.from_pretrained("Loewolf/GPT_1.
|
8 |
|
9 |
def generate_text(prompt):
|
10 |
input_ids = tokenizer.encode(prompt, return_tensors="pt")
|
@@ -34,7 +34,7 @@ def generate_text(prompt):
|
|
34 |
DESCRIPTION = """\
|
35 |
#Löwolf GPT1 Chat
|
36 |
|
37 |
-
Es wird neues Löwolf GPT 1.
|
38 |
|
39 |
Löwolf Chat verwendet immer das aktuelle GPT Modell von Löwolf Community!
|
40 |
"""
|
|
|
3 |
import torch
|
4 |
|
5 |
# Initialisierung des Modells und des Tokenizers
|
6 |
+
tokenizer = GPT2Tokenizer.from_pretrained("Loewolf/GPT_1.5")
|
7 |
+
model = GPT2LMHeadModel.from_pretrained("Loewolf/GPT_1.5")
|
8 |
|
9 |
def generate_text(prompt):
|
10 |
input_ids = tokenizer.encode(prompt, return_tensors="pt")
|
|
|
34 |
DESCRIPTION = """\
|
35 |
#Löwolf GPT1 Chat
|
36 |
|
37 |
+
<p>Es wird neues Löwolf GPT 1.5 verwendet.</p>
|
38 |
|
39 |
Löwolf Chat verwendet immer das aktuelle GPT Modell von Löwolf Community!
|
40 |
"""
|