grapevine-AI commited on
Commit
405db6d
·
verified ·
1 Parent(s): b918d02

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -1
README.md CHANGED
@@ -2,15 +2,20 @@
2
  license: apache-2.0
3
  ---
4
  # What is this?
5
- CyberAgentによるDeepSeek-R1-Distill-Qwen-32B日本語ファインチューニングモデル、[DeepSeek-R1-Distill-Qwen-32B-Japanese](https://huggingface.co/cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese)をGGUFフォーマットに変換したものです。
6
 
7
  # imatrix dataset
8
  日本語能力を重視し、日本語が多量に含まれる[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)データセットを使用しました。<br>
9
  また、CUDA版llama.cppがbfloat16に対応したため、imatrixの算出は本来の数値精度であるBF16のモデルを使用して行いました。
10
 
 
 
 
11
  # Environment
12
  Windows版llama.cpp-b4514およびllama.cpp-b4524同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。
 
13
  # License
14
  Apache 2.0
 
15
  # Developer
16
  Alibaba Cloud & DeepSeek (深度求索) & CyberAgent
 
2
  license: apache-2.0
3
  ---
4
  # What is this?
5
+ CyberAgent社によるDeepSeek-R1-Distill-Qwen-32Bの日本語ファインチューニングモデル、[DeepSeek-R1-Distill-Qwen-32B-Japanese](https://huggingface.co/cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese)をGGUFフォーマットに変換したものです。
6
 
7
  # imatrix dataset
8
  日本語能力を重視し、日本語が多量に含まれる[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)データセットを使用しました。<br>
9
  また、CUDA版llama.cppがbfloat16に対応したため、imatrixの算出は本来の数値精度であるBF16のモデルを使用して行いました。
10
 
11
+ # Note
12
+ **llama.cpp-b4514以降と合わせてご利用ください。**
13
+
14
  # Environment
15
  Windows版llama.cpp-b4514およびllama.cpp-b4524同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。
16
+
17
  # License
18
  Apache 2.0
19
+
20
  # Developer
21
  Alibaba Cloud & DeepSeek (深度求索) & CyberAgent