byeolki commited on
Commit
b94d4e4
·
verified ·
1 Parent(s): 27770cb

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +28 -10
README.md CHANGED
@@ -41,26 +41,44 @@ TIP: 데이터의 크기나 Epoch을 늘리면 좀 더 좋은 결과를 가져
41
  모델을 사용하는 방법은 다음과 같습니다:
42
 
43
  ```python
44
- from unsloth import FastLanguageModel
 
45
 
46
- model, tokenizer = FastLanguageModel.from_pretrained("byeolki/KoLlama-Empathy", load_in_4bit=True)
 
47
 
48
- alpaca_prompt = """아래는 작업을 설명하는 지시사항입니다. 입력된 내용을 바탕으로 적절한 응답을 작성하세요.
 
 
 
 
49
  ### 지시사항:
50
  입력에 대해서 공감해주세요.
51
  ### 입력:
52
  {input}
53
  ### 응답:
54
  """
55
-
56
- FastLanguageModel.for_inference(model)
57
  input_text = "안녕하세요. 저 오늘 기분이 안 좋아요."
58
 
59
- inputs = tokenizer([alpaca_prompt.format(input=input_text)], return_tensors="pt").to("cuda")
60
- outputs = model.generate(**inputs, max_new_tokens=64, use_cache=True)
61
-
62
- generated_text = tokenizer.batch_decode(outputs, skip_special_tokens=True)[0]
63
- print(generated_text)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
64
  ```
65
 
66
  ## 💬 Example Conversations
 
41
  모델을 사용하는 방법은 다음과 같습니다:
42
 
43
  ```python
44
+ from transformers import AutoTokenizer, AutoModelForCausalLM
45
+ import torch
46
 
47
+ max_length = 512
48
+ temperture = 0.7
49
 
50
+ model_name = "byeolki/KoLlama-Empathy"
51
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
52
+ model = AutoModelForCausalLM.from_pretrained(model_name)
53
+
54
+ prompt = """아래는 작업을 설명하는 지시사항입니다. 입력된 내용을 바탕으로 적절한 응답을 작성하세요.
55
  ### 지시사항:
56
  입력에 대해서 공감해주세요.
57
  ### 입력:
58
  {input}
59
  ### 응답:
60
  """
 
 
61
  input_text = "안녕하세요. 저 오늘 기분이 안 좋아요."
62
 
63
+ inputs = tokenizer(prompt.format(input=input_text), return_tensors="pt").to(model.device)
64
+ outputs = model.generate(
65
+ **inputs,
66
+ max_length=max_length,
67
+ temperature=temperature,
68
+ top_p=0.9,
69
+ do_sample=True,
70
+ pad_token_id=tokenizer.pad_token_id,
71
+ bos_token_id=tokenizer.bos_token_id,
72
+ eos_token_id=tokenizer.eos_token_id,
73
+ num_return_sequences=1
74
+ )
75
+
76
+ generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
77
+ try:
78
+ response = generated_text.split("### 응답:\n")[-1].strip()
79
+ except:
80
+ response = generated_text
81
+ print(response)
82
  ```
83
 
84
  ## 💬 Example Conversations