SivaResearch commited on
Commit
db3ef92
·
verified ·
1 Parent(s): 397093f

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +29 -30
app.py CHANGED
@@ -5,7 +5,7 @@ from transformers import AutoTokenizer, AutoModelForCausalLM
5
  tokenizer = AutoTokenizer.from_pretrained("ai4bharat/Airavata")
6
  model = AutoModelForCausalLM.from_pretrained("ai4bharat/Airavata")
7
 
8
- def generate_response(prompt):
9
  # Tokenize input prompt and generate response
10
  inputs = tokenizer(prompt, return_tensors="pt", max_length=256, truncation=True)
11
  outputs = model.generate(**inputs)
@@ -13,23 +13,22 @@ def generate_response(prompt):
13
 
14
  return response
15
 
16
- # Define Gradio interface
17
- iface = gr.Interface(
18
- fn=generate_response,
19
- inputs=gr.Textbox(),
20
- outputs=gr.Textbox(),
21
- live=True,
22
- title="CAMAI",
23
- description="Enter a prompt to generate text.",
 
 
24
  )
25
 
26
- # Launch Gradio interface
27
  iface.launch()
28
 
29
 
30
-
31
-
32
-
33
  # import torch
34
  # from transformers import AutoTokenizer, AutoModelForCausalLM
35
  # import gradio as gr
@@ -78,24 +77,24 @@ iface.launch()
78
  # return output_texts
79
 
80
 
81
- model_name = "ai4bharat/Airavata"
82
 
83
- tokenizer = AutoTokenizer.from_pretrained(model_name, padding_side="left")
84
- tokenizer.pad_token = tokenizer.eos_token
85
- model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16).to(device)
86
- print(f"Loading model: {model_name}")
87
 
88
- examples = [
89
- ["मैं अपने समय प्रबंधन कौशल को कैसे सुधार सकता हूँ? मुझे पांच बिंदु बताएं।"],
90
- ["मैं अपने समय प्रबंधन कौशल को कैसे सुधार सकता हूँ? मुझे पांच बिंदु बताएं और उनका वर्णन करें।"],
91
- ]
92
 
93
- def chat_interface(input_prompts):
94
- outputs = inference(input_prompts, model, tokenizer)
95
- return outputs
96
 
97
- gr.Interface(fn=chat_interface,
98
- inputs="text",
99
- outputs="text",
100
- examples=examples,
101
- title="CAMAI ChatBot").launch()
 
5
  tokenizer = AutoTokenizer.from_pretrained("ai4bharat/Airavata")
6
  model = AutoModelForCausalLM.from_pretrained("ai4bharat/Airavata")
7
 
8
+ def chat_interface(prompt):
9
  # Tokenize input prompt and generate response
10
  inputs = tokenizer(prompt, return_tensors="pt", max_length=256, truncation=True)
11
  outputs = model.generate(**inputs)
 
13
 
14
  return response
15
 
16
+ # Define Gradio Chat Interface
17
+ iface = gr.ChatInterface(
18
+ chat_model=chat_interface,
19
+ title="GPT-2 Chat Interface",
20
+ inputs=["text"],
21
+ outputs=["text"],
22
+ examples = [
23
+ ["मैं अपने समय प्रबंधन कौशल को कैसे सुधार सकता हूँ? मुझे पांच बिंदु बताएं।"],
24
+ ["मैं अपने समय प्रबंधन कौशल को कैसे सुधार सकता हूँ? मुझे पांच बिंदु बताएं और उनका वर्णन करें।"],
25
+ ],
26
  )
27
 
28
+ # Launch Gradio Chat Interface
29
  iface.launch()
30
 
31
 
 
 
 
32
  # import torch
33
  # from transformers import AutoTokenizer, AutoModelForCausalLM
34
  # import gradio as gr
 
77
  # return output_texts
78
 
79
 
80
+ # model_name = "ai4bharat/Airavata"
81
 
82
+ # tokenizer = AutoTokenizer.from_pretrained(model_name, padding_side="left")
83
+ # tokenizer.pad_token = tokenizer.eos_token
84
+ # model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16).to(device)
85
+ # print(f"Loading model: {model_name}")
86
 
87
+ # examples = [
88
+ # ["मैं अपने समय प्रबंधन कौशल को कैसे सुधार सकता हूँ? मुझे पांच बिंदु बताएं।"],
89
+ # ["मैं अपने समय प्रबंधन कौशल को कैसे सुधार सकता हूँ? मुझे पांच बिंदु बताएं और उनका वर्णन करें।"],
90
+ # ]
91
 
92
+ # def chat_interface(input_prompts):
93
+ # outputs = inference(input_prompts, model, tokenizer)
94
+ # return outputs
95
 
96
+ # gr.Interface(fn=chat_interface,
97
+ # inputs="text",
98
+ # outputs="text",
99
+ # examples=examples,
100
+ # title="CAMAI ChatBot").launch()