llm-jp-3-13b-SFT-LoRA モデルカード

llm-jp-3-13bをベースに、QLoRAとUnslothを用いてファインチューニングを行った日本語言語モデルです。

モデルの詳細

モデルの説明

  • 開発者: shakebenn
  • 共有者: shakebenn
  • モデルタイプ: 言語モデル(デコーダーのみ)
  • 言語: 日本語
  • ライセンス: ベースモデルに準拠
  • ベースモデル: llm-jp/llm-jp-3-13b

モデルソース

推論コードの使用方法

  1. ファイルのダウンロード、準備
  • Kota-Ohno/LLM_saisyukadaiから「Model_Inference_v5.ipynb」と「tokenizer.model」、「elyza-tasks-100-TV_0.jsonl」をダウンロードします。
  • 「tokenizer.model」に関しては、llm-jp/llm-jp-tokenizerから「llm-jp-tokenizer-100k.ver3.0b1.model」をダウンロードして、「tokenizer.model」という名前でリネームしても構いません。
  • google colabで「Model_Inference_v5.ipynb」を開き、ランタイムをL4に設定します。
  1. 必要なライブラリのインストール
  • terminalを開き、以下のコードを順番に実行します。
    apt-get install git-lfs
    git lfs install
    
    git clone https://github.com/ggerganov/llama.cpp
    
    pip install -r ./llama.cpp/requirements.txt
    
  1. モデルのダウンロード
    git clone https://huggingface.co/llm-jp/llm-jp-3-13b
    
  • 「tokenizer.model」ファイルを「llm-jp-3-13b」ディレクトリに配置します
  1. モデルの変換
  • 以下のコードを順番に実行します。
    python ./llama.cpp/convert_hf_to_gguf.py --outfile llm-jp-3-13b.gguf llm-jp-3-13b
    
    cd llama.cpp
    mkdir build
    cd build
    cmake ..
    cmake --build .
    cd ../
    cd ../
    
    ./llama.cpp/build/bin/llama-quantize ./llm-jp-3-13b.gguf ./llm-jp-3-13b-q8_0.gguf q8_0
    
    git clone https://huggingface.co/shakebenn/llm-jp-3-13b-SFT-LoRA
    python ./llama.cpp/convert_lora_to_gguf.py --base llm-jp-3-13b --outfile ./llm-jp-3-13b-SFT-LoRA.gguf llm-jp-3-13b-SFT-LoRA
    
  1. 推論の実行
  • 「elyza-tasks-100-TV_0.jsonl」を推論コードと同階層にコピーする
  • 推論コード(Model_Inference_v5.ipynb)のすべてのセルを実行する

直接利用

このモデルは以下のような用途に適しています:

  • 質問応答
  • テキスト生成
  • 文章要約
  • その他の自然言語処理タスク

対象外の使用

以下の用途での使用は推奨されません:

  • 商用利用
  • 重要な意思決定
  • 医療・法律アドバイス
  • 有害なコンテンツの生成

バイアス、リスク、制限事項

  • 学習データに起因するバイアスが存在する可能性があります
  • 事実と異なる情報を生成する可能性があります
  • 有害なコンテンツを生成する可能性があります

推奨事項

  • 出力内容の検証を必ず行ってください
  • センシティブな用途での使用は避けてください
  • 生成された内容の責任は使用者が負うものとします

モデルの使用開始方法

学習の詳細

学習データ

以下のデータセットを使用:

  • GENIAC-Team-Ozaki/Hachi-Alpaca_newans
  • llm-jp/magpie-sft-v1.0

学習手順

前処理

  • 指示文と回答のペアにフォーマット
  • コンテキスト長を512トークンに制限

学習ハイパーパラメータ

  • 学習手法: QLoRA with Unsloth
  • 量子化: 4-bit
  • LoRA設定:
    • rank (r): 32
    • alpha: 32
    • dropout: 0.05
    • target_modules: ["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"]
  • トレーニング設定:
    • バッチサイズ: 2
    • 勾配累積: 4
    • エポック数: 1
    • 学習率: 2e-4
    • シーケンス長: 512
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no pipeline_tag.

Model tree for shakebenn/llm-jp-3-13b-SFT-LoRA

Adapter
(15)
this model

Datasets used to train shakebenn/llm-jp-3-13b-SFT-LoRA