JohnKouf commited on
Commit
7449bca
·
verified ·
1 Parent(s): 4c068de

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -4
app.py CHANGED
@@ -1,12 +1,12 @@
1
  import gradio as gr
2
  from transformers import AutoModelForCausalLM, AutoTokenizer
3
 
4
- #device = "cuda" # the device to load the model onto
5
 
6
  model = AutoModelForCausalLM.from_pretrained("ilsp/Meltemi-7B-Instruct-v1.5")
7
  tokenizer = AutoTokenizer.from_pretrained("ilsp/Meltemi-7B-Instruct-v1.5")
8
 
9
- #model.to(device)
10
 
11
  messages = [
12
  {"role": "system", "content": "Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη."},
@@ -23,7 +23,7 @@ messages = [
23
  #
24
 
25
  prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
26
- input_prompt = tokenizer(prompt, return_tensors='pt') #.to(device)
27
  outputs = model.generate(input_prompt['input_ids'], max_new_tokens=256, do_sample=True)
28
 
29
  print(tokenizer.batch_decode(outputs)[0])
@@ -48,7 +48,7 @@ messages.extend([
48
  #
49
 
50
  prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
51
- input_prompt = tokenizer(prompt, return_tensors='pt') #.to(device)
52
  outputs = model.generate(input_prompt['input_ids'], max_new_tokens=256, do_sample=True)
53
 
54
  print(tokenizer.batch_decode(outputs)[0])
 
1
  import gradio as gr
2
  from transformers import AutoModelForCausalLM, AutoTokenizer
3
 
4
+ device = "cuda" # the device to load the model onto
5
 
6
  model = AutoModelForCausalLM.from_pretrained("ilsp/Meltemi-7B-Instruct-v1.5")
7
  tokenizer = AutoTokenizer.from_pretrained("ilsp/Meltemi-7B-Instruct-v1.5")
8
 
9
+ model.to(device)
10
 
11
  messages = [
12
  {"role": "system", "content": "Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη."},
 
23
  #
24
 
25
  prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
26
+ input_prompt = tokenizer(prompt, return_tensors='pt').to(device)
27
  outputs = model.generate(input_prompt['input_ids'], max_new_tokens=256, do_sample=True)
28
 
29
  print(tokenizer.batch_decode(outputs)[0])
 
48
  #
49
 
50
  prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
51
+ input_prompt = tokenizer(prompt, return_tensors='pt').to(device)
52
  outputs = model.generate(input_prompt['input_ids'], max_new_tokens=256, do_sample=True)
53
 
54
  print(tokenizer.batch_decode(outputs)[0])