--- license: apache-2.0 language: zh library_name: transformers tags: - deepseek - large-language-model - text-generation - drone-safety - peft - lora - fine-tuned - question-answering - zh pipeline_tag: text-generation base_model: deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B datasets: - GabrielCheng/Drone-flight-monitoring-reasoning-SFT --- # Deepseek-r1-finetuned-drone-safty ## 基于 DeepSeek-R1-Distill-Qwen-1.5B 微调的无人机飞行安全问答专家测试模型 这是一个基于 DeepSeek-R1-Distill-Qwen-1.5B,使用 PEFT LoRA 进行微调的语言模型。它的主要特点是能够针对无人机飞行安全监控和风险相关问题,生成包含思考过程(以 `` 标签标识)和最终答案的形式化的回复。 微调数据集来源: ([GabrielCheng/Drone-flight-monitoring-reasoning-SFT](https://huggingface.co/datasets/GabrielCheng/Drone-flight-monitoring-reasoning-SFT)) 注:微调数据集中只有问答文本数据,没有实时的飞行轨迹、环境信息等数据。所以模型不具备在真实动态场景中的实用性。仅用于展示形式化的微调训练的效果。 ### 模型调用示例 ```python from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline model_id = "GabrielCheng/Deepseek-r1-finetuned-drone-safty" model = AutoModelForCausalLM.from_pretrained(model_id).to("cuda") tokenizer = AutoTokenizer.from_pretrained(model_id) pipe = pipeline("text-generation", model=model, tokenizer=tokenizer) question = "在低能见度环境下,如何利用飞行轨迹数据综合评估无人机的安全风险?" prompt = f"""以下指令描述了一项任务,并附带了相关背景信息。 请用中文编写一个回复,以恰当地完成此任务请求。 在回答之前,请仔细思考问题,并创建一个逻辑连贯的思考过程,以确保回答准确无误。 ### 指令: 你是一位无人机飞行安全监测专家。 请回答以下关于无人机飞行的安全和风险相关问题。 ### 问题: {question} ### 回答: """ response = pipe(prompt, max_length=1000, num_return_sequences=1, eos_token_id=tokenizer.eos_token_id) print(response[0]['generated_text'])