Pythiajapneser / app.py
Sakalti's picture
Update app.py
b555e54 verified
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer, Trainer, TrainingArguments
from datasets import load_dataset
import os
def train_and_deploy(write_token, repo_name, license_text):
# トークンを環境変数に設定
os.environ['HF_WRITE_TOKEN'] = write_token
# ライセンスファイルを作成
with open("LICENSE", "w") as f:
f.write(license_text)
# モデルとトークナイザーの読み込み
model_name = "Sakalti/iturkaAI-large" # トレーニング対象のモデル
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# 日本語データセットの読み込み
dataset = load_dataset("Sakalti/PossitivaAI")
# データセットのトークン化
def tokenize_function(examples):
return tokenizer(examples["text"], padding="max_length", truncation=True, max_length=128)
tokenized_datasets = dataset.map(tokenize_function, batched=True)
# トレーニング設定
training_args = TrainingArguments(
output_dir="./results",
per_device_train_batch_size=8,
per_device_eval_batch_size=8,
evaluation_strategy="epoch",
save_strategy="epoch",
logging_dir="./logs",
logging_steps=10,
num_train_epochs=3, # トレーニングエポック数
push_to_hub=True, # Hugging Face Hubにプッシュ
hub_token=write_token,
hub_model_id=repo_name # ユーザーが入力したリポジトリ名
)
# Trainerの設定
trainer = Trainer(
model=model,
args=training_args,
train_dataset=tokenized_datasets["train"],
eval_dataset=tokenized_datasets["test"],
)
# トレーニング実行
trainer.train()
# モデルをHugging Face Hubにプッシュ
trainer.push_to_hub()
return f"モデルが'{repo_name}'リポジトリにデプロイされました!"
# Gradio UI
with gr.Blocks() as demo:
gr.Markdown("### pythia モデルの日本語特化トレーニングとデプロイ")
token_input = gr.Textbox(label="Hugging Face Write Token", placeholder="トークンを入力してください...")
repo_input = gr.Textbox(label="リポジトリ名", placeholder="デプロイするリポジトリ名を入力してください...")
license_input = gr.Textbox(label="ライセンス", placeholder="ライセンス情報を入力してください...")
output = gr.Textbox(label="出力")
train_button = gr.Button("デプロイ")
train_button.click(fn=train_and_deploy, inputs=[token_input, repo_input, license_input], outputs=output)
demo.launch()