LLaMA 3.1 8B Korean Food Fine-Tuned Model
์ด ๋ชจ๋ธ์ Meta์ LLaMA 3.1 8B๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ํ๊ตญ ์์ ๊ด๋ จ ๋ฐ์ดํฐ์
์ผ๋ก ํ์ธํ๋ํ ๋ชจ๋ธ์
๋๋ค.
Hugging Face์ peft
๋ผ์ด๋ธ๋ฌ๋ฆฌ๋ฅผ ์ฌ์ฉํ์ฌ ํจ์จ์ ์ผ๋ก ํ๋ จ๋์์ต๋๋ค.
๐ Model Details
- Developed by: SGT-Cho
- Dataset: ํ๊ตญ ์์ ๊ด๋ จ ๋ฐ์ดํฐ์
- Fine-tuned from:
LLaMA 3.1 8B
- Training Method: LoRA (
peft
) - Language(s): Korean (ko)
- License: Apache 2.0
๐ Model Sources
https://huggingface.co/meta-llama/Llama-3.1-8B
๐ฏ Intended Use
์ด ๋ชจ๋ธ์ ํ๊ตญ ์์ ๊ด๋ จ ์ง์์๋ต, ์๋ฆฌ๋ฒ ์ถ์ฒ, ์์ฌ๋ฃ ์ค๋ช ๋ฑ์ ์์ ์ ์ต์ ํ๋์ด ์์ต๋๋ค.
โ Direct Use
- ํ๊ตญ ์์ ๊ด๋ จ ์ฑ๋ด
- ๋ ์ํผ ์ถ์ฒ ์์คํ
- ์๋น ๋ฆฌ๋ทฐ ๋ถ์
๐ง Downstream Use
- ๋ค๋ฅธ ๋๋ฉ์ธ(์: ํ์ ์๋ฆฌ๋ฒ ์์ฑ, ๋ฉ๋ด ์ถ์ฒ)์ผ๋ก ์ถ๊ฐ์ ์ธ ํ์ธํ๋ ๊ฐ๋ฅ
โ ๏ธ Limitations & Biases
- ์ด ๋ชจ๋ธ์ ํน์ ํ๊ตญ ์์ ๊ด๋ จ ๋ฐ์ดํฐ์ ์ ๊ธฐ๋ฐ์ผ๋ก ํ๋ จ๋์ด ์์ด ์ผ๋ฐ์ ์ธ ํ๊ตญ์ด ์ดํด๋ ฅ์ ์๋ณธ LLaMA 3.1๋ณด๋ค ๋ฎ์ ์ ์์.
- ํน์ ์์์ ๋ํ ์ค๋ช ์ด ํธํฅ๋ ๊ฐ๋ฅ์ฑ์ด ์์.
๐ How to Use
Hugging Face transformers
๋ฐ peft
๋ฅผ ์ฌ์ฉํ์ฌ ๋ชจ๋ธ์ ๋ก๋ํ๋ ์์ ์
๋๋ค.
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_id = "mobilelife/llama3.1_8b_korean_food_finetuned"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.float16, device_map="auto")
input_text = "๋ถ๊ณ ๊ธฐ ์๋ฆฌ๋ฅผ ์ํ ์ฌ๋ฃ๋ ๋ฌด์์ธ๊ฐ์?"
inputs = tokenizer(input_text, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
@misc{llama3_korean_food,
title={LLaMA 3.1 8B Korean Food Fine-Tuned Model},
author={Minjae Cho},
year={2025},
url={https://huggingface.co/mobilelife/llama3.1_8b_korean_food_finetuned}
}
- Downloads last month
- 0
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API:
The model has no pipeline_tag.