ModernBERT_Japanese_MT_Bench_test
これはテスト的なモデルです。
Nejumi LLMリーダーボード3で公開されているJapanese MT Benchのroleplay, humanities, writingの結果を勝手にModernBERTに学習させたモデルです。
今後、自力でJapanese MT Benchをし直して使えるモデルにしていきたい。
トレーニングの結果
トレーニングコードはChatGPTに書いてもらいました。自力で設計できるようになりたい…。
training用のノートブックでfine tuningしました。
Japanese MT Benchの010の結果を1/10して、01.0の回帰タスクとして学習させています。
やりすぎなのかもしれないし、どう改善したらいいんだろうか?
データセットの分布を見る限り、9の出力に偏りが多いので推測結果が高めに偏ってるのかもしれません。
testデータとの差
test用のnotebookのコードで出力しました。
予測できてる雰囲気だけど、低いやつをだいぶ予測ミスしてるから使い物にはならなそう。
License
各モデルの継承ライセンスに従う必要があるので、基本的に使用不可と考えてください。
そのため、CC-BY-NC-4.0とします。
- Downloads last month
- 36
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API:
The model has no library tag.
Model tree for kurogane/ModernBERT_Japanese_MT_Bench_test
Base model
sbintuitions/modernbert-ja-130m