Tanuki-8B-dpo-v1.0-GPTQ-4bit

概要

GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMであるweblab-GENIAC/Tanuki-8B-dpo-v1.0のGPTQ 4bit量子化モデルです。
キャリブレーションセットにはizumi-lab/wikipedia-ja-20230720からランダムサンプリングした1000件を利用しています。

モデルに関する詳細については元モデルをご確認ください。

Downloads last month
19
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.

Model tree for team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-4bit

Quantized
(5)
this model

Dataset used to train team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-4bit