Model Card for Model ID


license: [apache-2.0] language: - zh - en datasets: - FreedomIntelligence/medical-o1-reasoning-SFT base_model: unsloth/DeepSeek-R1-Distill-Llama-8B pipeline_tag: text-generation library_name: - transformers - trl - unsloth tags: - medical - question-answering - llama - deepseek - unsloth - finetuned - gguf - q8_0 - chinese - clinical-reasoning

医学模型 (微调的 DeepSeek-R1-Distill-Llama-8B)

此模型是 unsloth/DeepSeek-R1-Distill-Llama-8BFreedomIntelligence/medical-o1-reasoning-SFT 数据集(一个中文医学问答数据集)上的微调版本。它专为临床推理和回答医学问题而设计。该模型以 Q8_0 量化的 GGUF 格式保存。

模型详情

  • 基础模型: unsloth/DeepSeek-R1-Distill-Llama-8B
  • 数据集: FreedomIntelligence/medical-o1-reasoning-SFT
  • 微调库: Unsloth, TRL, Transformers
  • 量化: Q8_0 GGUF
  • 语言: 主要为中文 (zh)

预期用途

此模型旨在用于医学人工智能领域的研究和教育目的。它可用于回答医学问题、协助临床推理以及探索 LLM 在医疗保健中的能力。重要提示: 此模型不能替代专业的医疗建议。如有任何健康问题,请务必咨询合格的医疗保健提供者。

训练过程

该模型使用 LoRA(低秩适应)进行微调,参数如下:

  • LoRA r: 16
  • LoRA alpha: 16
  • LoRA dropout: 0
  • 目标模块: q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj
  • 优化器: adamw_8bit
  • 学习率: 2e-4
  • 批量大小(每个设备): 2
  • 梯度累积步数: 4
  • 最大步数: 60
  • 学习率调度器: Linear

训练使用 Unsloth 进行,以提高效率并减少 VRAM 使用。还使用了梯度检查点。

如何使用

您可以通过 Ollama 使用此模型:

ollama run Anita2023/medical-model:q8_0
from huggingface_hub import hf_hub_download

#下载模型
hf_hub_download(repo_id="Anita2023/medical-model", filename="medical-model.gguf")
以下是描述任务的指令,以及提供进一步上下文的输入。
写出一个适当完成请求的回复。
在回答之前,请仔细考虑问题,并创建一个逐步的思维链,以确保逻辑和准确的回答。

### 指令:
您是一位在临床推理、诊断和治疗计划方面具有高级知识的医学专家。
请回答以下医学问题。

### 问题:
一个患有急性阑尾炎的病人已经发病5天,腹痛稍有减轻但仍然发热,在体检时发现右下腹有压痛的包块,此时应如何处理?

### 回复:
<think>
@misc{medical-model,
    author = {Anita2023},
    title = {医学模型:用于医学问题回答的微调 DeepSeek-R1-Distill-Llama-8B},
    year = {2024},
    publisher = {Hugging Face},
    journal = {Hugging Face Model Hub},
    howpublished = {\url{https://huggingface.co/Anita2023/medical-model}},
}
局限性
模型的性能受训练数据的大小和质量的限制。

它可能无法准确回答所有医学问题。

它主要在中文医学文本上训练。

模型可能表现出训练数据中存在的偏差。

Downloads last month
24
GGUF
Model size
8.03B params
Architecture
llama

8-bit

Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.

Model tree for YLX1965/medical-model

Dataset used to train YLX1965/medical-model

Space using YLX1965/medical-model 1