Update README.md
Browse files
README.md
CHANGED
@@ -22,9 +22,12 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
|
|
22 |
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
23 |
|
24 |
|
25 |
-
|
|
|
26 |
以下は出力方法の記載です(elyza-tasks-100-TV_0.jsonlの回答を得る方法)。
|
27 |
|
|
|
|
|
28 |
|
29 |
~~~
|
30 |
# 必要なライブラリをインストール
|
@@ -52,8 +55,8 @@ model, tokenizer = FastLanguageModel.from_pretrained(
|
|
52 |
)
|
53 |
FastLanguageModel.for_inference(model)
|
54 |
|
55 |
-
#
|
56 |
-
# omnicampusの開発環境では、左にタスクのjsonl
|
57 |
datasets = []
|
58 |
with open("/content/elyza-tasks-100-TV_0 .jsonl", "r") as f:
|
59 |
item = ""
|
@@ -66,7 +69,7 @@ with open("/content/elyza-tasks-100-TV_0 .jsonl", "r") as f:
|
|
66 |
|
67 |
from tqdm import tqdm
|
68 |
|
69 |
-
# 推論
|
70 |
results = []
|
71 |
for dt in tqdm(datasets):
|
72 |
input = dt["input"]
|
|
|
22 |
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
23 |
|
24 |
|
25 |
+
松尾研大規模言語モデル講座2024のコンペ用の提出モデル作成の一環として作成・公開しています。
|
26 |
+
学習データ等の詳細については元モデルの概要をご確認ください。
|
27 |
以下は出力方法の記載です(elyza-tasks-100-TV_0.jsonlの回答を得る方法)。
|
28 |
|
29 |
+
推論方法
|
30 |
+
松尾研大規模言語モデル講座2024のコンペのタスクの推論方法を以下に記載します。
|
31 |
|
32 |
~~~
|
33 |
# 必要なライブラリをインストール
|
|
|
55 |
)
|
56 |
FastLanguageModel.for_inference(model)
|
57 |
|
58 |
+
# データセットの読み込み。以elyza-tasks-100-TV_0.jsonlを同じディレクトリに配置します。
|
59 |
+
# omnicampusの開発環境では、左にタスクのjsonlをドラッグアンドドロップしてから実行します。
|
60 |
datasets = []
|
61 |
with open("/content/elyza-tasks-100-TV_0 .jsonl", "r") as f:
|
62 |
item = ""
|
|
|
69 |
|
70 |
from tqdm import tqdm
|
71 |
|
72 |
+
# 推論 推論が完了するとデフォルトではllm-jp-3-13b-it_MN_v2_output.jsonlに回答が保存されます。
|
73 |
results = []
|
74 |
for dt in tqdm(datasets):
|
75 |
input = dt["input"]
|