Uploaded model

  • Developed by: Mahiro0698
  • License: apache-2.0
  • Finetuned from model : llm-jp/llm-jp-3-13b

This llama model was trained 2x faster with Unsloth and Huggingface's TRL library.

Hugging Faceプラットフォーム上に公開されているモデル「Mahiro0698/llm-jp-3-13b-it_MN」のページです。このモデルの概要を解説します。

モデルの基本情報 名前: llm-jp-3-13b-it_MN このモデルは約130億個のパラメータを持つ大規模言語モデル(LLM)です。 作成者: ユーザー名「Mahiro0698」。 用途: 日本語のテキスト処理や自然言語生成に特化しています。 プラットフォーム: Hugging Faceは、機械学習モデルを共有・利用するためのオープンプラットフォームで、Pythonライブラリ「transformers」を使ってモデルを簡単にロードして使用できます。

このモデルの使い方 Hugging Faceでホストされているモデルは、以下のような手順で利用可能です。

  1. 必要なライブラリをインストール

pip install transformers

  1. モデルのロード

Pythonでモデルをロードして使います。

from transformers import AutoModelForCausalLM, AutoTokenizer

モデルとトークナイザをロード

model_name = "Mahiro0698/llm-jp-3-13b-it_MN" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name)

テキスト生成の例

input_text = "日本の人工知能の未来について" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs, max_length=50) print(tokenizer.decode(outputs[0], skip_special_tokens=True))

メモリ要件: 13Bモデルは非常に大きいので、モデルをローカルで動かすには高性能なGPUと十分なVRAM(例: 16GB以上)が必要です。 ローカルで動かせない場合は、Hugging FaceのInference APIやクラウド環境を検討するとよいでしょう。

日本語特化モデル: 日本語のテキスト生成、翻訳、要約、質問応答など、多くの日本語関連タスクに適しています。

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no pipeline_tag.

Model tree for Mahiro0698/llm-jp-3-13b-it_MN

Finetuned
(1124)
this model