ModernBERT_Japanese_MT_Bench_test

これはテスト的なモデルです。

Nejumi LLMリーダーボード3で公開されているJapanese MT Benchのroleplay, humanities, writingの結果を勝手にModernBERTに学習させたモデルです。

今後、自力でJapanese MT Benchをし直して使えるモデルにしていきたい。

トレーニングの結果

トレーニングコードはChatGPTに書いてもらいました。自力で設計できるようになりたい…。

training用のノートブックでfine tuningしました。

Japanese MT Benchの010の結果を1/10して、01.0の回帰タスクとして学習させています。

training_log

やりすぎなのかもしれないし、どう改善したらいいんだろうか?

データセットの分布を見る限り、9の出力に偏りが多いので推測結果が高めに偏ってるのかもしれません。

testデータとの差

test用のnotebookのコードで出力しました。

test_check

予測できてる雰囲気だけど、低いやつをだいぶ予測ミスしてるから使い物にはならなそう。

License

各モデルの継承ライセンスに従う必要があるので、基本的に使用不可と考えてください。

そのため、CC-BY-NC-4.0とします。

Downloads last month
36
Safetensors
Model size
132M params
Tensor type
BF16
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no library tag.

Model tree for kurogane/ModernBERT_Japanese_MT_Bench_test

Finetuned
(7)
this model