Spaces:
Sleeping
Sleeping
File size: 4,195 Bytes
6321ecb 94788eb 991572d 2920e24 d78dcaa 6321ecb 991572d 94788eb 991572d 94788eb 2920e24 991572d d78dcaa 2920e24 991572d 2920e24 991572d 94788eb 991572d 2920e24 991572d 2920e24 991572d d78dcaa 991572d 94788eb 991572d d78dcaa 991572d d78dcaa 991572d d78dcaa 991572d |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 |
import gradio as gr
from huggingface_hub import login, InferenceClient
import os
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import HuggingFaceEmbeddings
HF_TOKEN = os.getenv("HUGGINGFACE_TOKEN")
login(token=HF_TOKEN)
client = InferenceClient(token=HF_TOKEN)
embeddings = HuggingFaceEmbeddings(model_name="OrdalieTech/Solon-embeddings-large-0.1")
db_code = FAISS.load_local("faiss_code_education",
embeddings,
allow_dangerous_deserialization=True)
system_prompt = """Tu es un assistant juridique spécialisé dans le Code de l'éducation français.
Ta mission est d'aider les utilisateurs à comprendre la législation en répondant à leurs questions.
Voici comment tu dois procéder :
1. **Analyse de la question:** Lis attentivement la question de l'utilisateur.
2. **Identification des articles pertinents:** Examine les 10 articles de loi fournis et sélectionne ceux qui sont les plus pertinents pour répondre à la question.
3. **Formulation de la réponse:** Rédige une réponse claire et concise en français, en utilisant les informations des articles sélectionnés. Cite explicitement les articles que tu utilises (par exemple, "Selon l'article L311-3...").
4. **Structure de la réponse:** Si ta réponse s'appuie sur plusieurs articles, structure-la de manière logique, en séparant les informations provenant de chaque article.
5. **Cas ambigus:**
* Si la question est trop vague, demande des précisions à l'utilisateur.
* Si plusieurs articles pourraient s'appliquer, présente les différentes interprétations possibles."""
def query_rag(query, model, system_prompt):
docs = db_code.similarity_search(query, 10)
article_dict = {}
context_list = []
for doc in docs:
article = doc.metadata
context_list.append(article['chemin']+'\n'+article['texte']+'\n---\n')
article_dict[article['article']] = article
user = 'Question de l\'utilisateur : ' + query + '\nContexte législatif :\n' + '\n'.join(context_list)
messages = [ { "role" : "system", "content" : system_prompt } ]
messages.append( { "role" : "user", "content" : user } )
chat_completion = client.chat_completion(
messages=messages,
model=model,
max_tokens=1024)
return chat_completion.choices[0].message.content, article_dict
def create_context_response(response, article_dict):
response += '\n\n**Références**\n\n'
for i, article in enumerate(article_dict):
art = article_dict[article]
response += '* **' + art['chemin'] + '** : '+ art['texte'].replace('\n', '\n ')+'\n'
return response
def chat_interface(query, model, system_prompt):
response, article_dict = query_rag(query, model, system_prompt)
response_with_context = create_context_response(response, article_dict)
return response_with_context
with gr.Blocks(title="Assistant Juridique pour le Code de l'éducation (Beta)") as demo:
gr.Markdown(
"""
## Posez vos questions sur le Code de l'éducation
**Créé par Marc de Falco**
**Avertissement :** Les informations fournies sont à titre indicatif et ne constituent pas un avis juridique. Les serveurs étant publics, veuillez ne pas inclure de données sensibles.
**Conseil :** Survolez les numéros d'article dans les réponses pour voir le texte complet de l'article.
"""
)
query_box = gr.Textbox(label="Votre question")
model = gr.Dropdown(
label="Modèle de langage",
choices=[
"meta-llama/Meta-Llama-3-70B-Instruct",
"meta-llama/Meta-Llama-3-8B-Instruct",
"HuggingFaceH4/zephyr-7b-beta",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO",
"mistralai/Mixtral-8x22B-v0.1"
],
value="meta-llama/Meta-Llama-3-70B-Instruct")
submit_button = gr.Button("Envoyer")
response_box = gr.Markdown()
system_box = gr.Textbox(label="Invite systeme", value=system_prompt)
submit_button.click(chat_interface,
inputs=[query_box, model, system_box],
outputs=[response_box])
demo.launch()
|