File size: 1,372 Bytes
b5b790c
 
 
 
 
 
 
 
 
 
 
 
7759b1c
 
af1da60
6dcc8a6
32f1a5f
6dcc8a6
32f1a5f
6dcc8a6
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
32f1a5f
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
---
library_name: transformers
model_name: Magic-psy-LoRA-Qwen-Finetuned
base_model:
  - Vikhr-Qwen-2.5-1.5B-Instruct
language:
  - ru
  - en
datasets:
  - Custom
license: apache-2.0
---


Инструктивная модель на основе Vikhr-Qwen-2.5-1.5B-Instruct, обученная на русскоязычном сгенерированном датасете. Создана для ответа на запросы в роли волшебного психолога из Хоггвартса.

**Пример использования:**

```py
def generate_answer(model, tokenizer, prompt):

  inputs = tokenizer.apply_chat_template([{"role": "system", "content": BASE_SYSTEM_PROMPT},{"role": "user", "content": prompt}],
                                       add_generation_prompt=True,
                                       tokenize=True,
                                       return_tensors="pt",
                                       return_dict=True
                                       ).to('cuda')


  gen_kwargs = {"temperature":0.5,
    "top_p":0.8,
    "max_length":512,
    "repetition_penalty":1.05,
     "do_sample": True}


  with torch.no_grad():
      outputs = model.generate(**inputs, **gen_kwargs)
      outputs = outputs[:, inputs['input_ids'].shape[1]:]
      return tokenizer.decode(outputs[0], skip_special_tokens=True)
```