Transformers
GGUF
Russian
English
conversational
aashish1904 commited on
Commit
0c6c3f8
·
verified ·
1 Parent(s): 3f829e4

Upload README.md with huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +140 -0
README.md ADDED
@@ -0,0 +1,140 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+
2
+ ---
3
+
4
+ library_name: transformers
5
+ model_name: Vikhr-Qwen-2.5-0.5b-Instruct
6
+ base_model:
7
+ - Qwen/Qwen2.5-0.5B-Instruct
8
+ language:
9
+ - ru
10
+ - en
11
+ license: apache-2.0
12
+ datasets:
13
+ - Vikhrmodels/GrandMaster-PRO-MAX
14
+
15
+ ---
16
+
17
+ [![QuantFactory Banner](https://lh7-rt.googleusercontent.com/docsz/AD_4nXeiuCm7c8lEwEJuRey9kiVZsRn2W-b4pWlu3-X534V3YmVuVc2ZL-NXg2RkzSOOS2JXGHutDuyyNAUtdJI65jGTo8jT9Y99tMi4H4MqL44Uc5QKG77B0d6-JfIkZHFaUA71-RtjyYZWVIhqsNZcx8-OMaA?key=xt3VSDoCbmTY7o-cwwOFwQ)](https://hf.co/QuantFactory)
18
+
19
+
20
+ # QuantFactory/Vikhr-Qwen-2.5-0.5b-Instruct-GGUF
21
+ This is quantized version of [Vikhrmodels/Vikhr-Qwen-2.5-0.5b-Instruct](https://huggingface.co/Vikhrmodels/Vikhr-Qwen-2.5-0.5b-Instruct) created using llama.cpp
22
+
23
+ # Original Model Card
24
+
25
+
26
+ # 💨📟 Vikhr-Qwen-2.5-0.5B-Instruct
27
+
28
+ #### RU
29
+
30
+ Инструктивная модель на основе **Qwen-2.5-0.5B-Instruct**, обученная на русскоязычном датасете **GrandMaster-PRO-MAX**. В **4 раза эффективнее** базовой модели, и идеально подходит для запуска на слабых мобильных устройствах.
31
+
32
+ #### EN
33
+
34
+ Instructive model based on **Qwen-2.5-0.5B-Instruct**, trained on the Russian-language dataset **GrandMaster-PRO-MAX**. It is **4 times more efficient** than the base model, making it perfect for deployment on low-end mobile devices.
35
+
36
+ ## GGUF
37
+
38
+ - [Vikhrmodels/Vikhr-Qwen-2.5-0.5B-instruct-GGUF](https://huggingface.co/Vikhrmodels/Vikhr-Qwen-2.5-0.5B-instruct-GGUF)
39
+
40
+ ## Особенности:
41
+
42
+ - 📚 Основа / Base: [Qwen-2.5-0.5B-Instruct](https://huggingface.co/Qwen/Qwen-2.5-0.5B-Instruct)
43
+ - 🇷🇺 Специализация / Specialization: **RU**
44
+ - 💾 Датасет / Dataset: [GrandMaster-PRO-MAX](https://huggingface.co/datasets/Vikhrmodels/GrandMaster-PRO-MAX)
45
+
46
+ ## Попробовать / Try now:
47
+
48
+ [![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/drive/1bJpLmplDGkMbfOLO2CH6IO-2uUZEaknf?usp=sharing)
49
+
50
+ ## Описание:
51
+
52
+ #### RU
53
+
54
+ **Vikhr-Qwen-2.5-0.5B-instruct** — это компактная языковая модель, обученная на датасете **GrandMaster-PRO-MAX**, специально доученная для обработки русского языка. Эффективность модели **в 4 раза** превышает базовую модель, а её размер составляет **1ГБ** , что делает её отличным выбором для запуска на слабых мобильных устройствах.
55
+
56
+ #### EN
57
+
58
+ **Vikhr-Qwen-2.5-0.5B-instruct** is a compact language model trained on the **GrandMaster-PRO-MAX** dataset, specifically designed for processing the Russian language. Its efficiency is **4 times** higher than the base model, and its size is **1GB**, making it an excellent choice for deployment on low-end mobile devices.
59
+
60
+ ## Обучение / Train:
61
+
62
+ #### RU
63
+
64
+ Для создания **Vikhr-Qwen-2.5-0.5B-Instruct** использовался метод SFT (Supervised Fine-Tuning). Мы обучили модель на синтетическом датасете **Vikhrmodels/GrandMaster-PRO-MAX** (150k инструкций) с поддержкой CoT (Chain-Of-Thought), используя промпты для GPT-4-turbo.
65
+
66
+ #### EN
67
+
68
+ To create **Vikhr-Qwen-2.5-0.5B-Instruct**, the SFT (Supervised Fine-Tuning) method was used. We trained the model on a synthetic dataset **Vikhrmodels/GrandMaster-PRO-MAX** (150k instructions) with support for CoT (Chain-Of-Thought), utilizing prompts for GPT-4-turbo.
69
+
70
+ ## Пример кода для запуска / Sample code to run:
71
+
72
+ **Рекомендуемая температура для генерации: 0.3** / **Recommended generation temperature: 0.3**.
73
+
74
+ ```python
75
+ from transformers import AutoModelForCausalLM, AutoTokenizer
76
+
77
+ # Загрузка модели и токенизатора
78
+ model_name = "Vikhrmodels/Vikhr-Qwen-2.5-0.5B-Instruct"
79
+ model = AutoModelForCausalLM.from_pretrained(model_name)
80
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
81
+
82
+ # Подготовка входного текста
83
+ input_text = "Напиши очень краткую рецензию о книге Гарри Поттер."
84
+
85
+ # Токенизация и генерация текста
86
+ input_ids = tokenizer.encode(input_text, return_tensors="pt")
87
+ output = model.generate(
88
+ input_ids,
89
+ max_length=1512,
90
+ temperature=0.3,
91
+ num_return_sequences=1,
92
+ no_repeat_ngram_size=2,
93
+ top_k=50,
94
+ top_p=0.95,
95
+ )
96
+
97
+ # Декодирование и вывод результата
98
+ generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
99
+ print(generated_text)
100
+ ```
101
+
102
+ #### Ответ модели / Model response:
103
+
104
+ >Книга "Гарри Поттер" – это серия книг, написанных британским писателем Джоан Роулинг. Это одно из самых известных произведений в мире литературы и популярного детского творчества.
105
+ >
106
+ >**Основные черты серии:**
107
+ >
108
+ >1. **Сюжет:** События разворачиваются вокруг мальчика по имени Гарри Поттер, который учится в Школе волшебства и философии в Университете Хогвартс. Он сталкивается с различными препятствиями, включая борьбу со злом, поиск друзей и самопознание.
109
+ >
110
+ >2. **Персонажи:** В книге представлены множество персонажей, каждый из которых имеет свои уникальные черты характера, мотивации и прошлое. Главный герой, Гарри Поттер, является примером доброго и смелого человека, а также необычной личностью.
111
+ >
112
+ >3. **Темы и идеи:** Рассказы книги затрагивают темы любви, дружбы, справедливости, морали, человеческой неповиновенности и важности обучения через приключения.
113
+ >
114
+ >4. **История и развитие персонажей:** Через события и взаимодействие с другими персонажами книга исследует глубокие психологические и философские вопросы.
115
+ >
116
+ >5. **Влияние на культуру:** "Гарри Поттер" оказал огромное влияние на мировую литературу, превратившись в культовый жанр и символ знаний и мудрости.
117
+ >
118
+ >6. **Доступность:** Книги серии доступны для широкой аудитории и пользуются большим спросом, что делает их популярным выбором среди читателей всех возрастов.
119
+ >
120
+ >7. **Развитие жанра:** Несмотря на то что "Гарри Поттер" является частью серии, он продолжает быть любимым и актуальным, так как продолжает удивлять читателей новыми историями и персонажами.
121
+ >
122
+ >Эта серия книг остается одной из самых значительных и влиятельных в истории литературы, оказав влияние на развитие мировой культуры и образование.
123
+
124
+
125
+ ### Авторы / Authors
126
+
127
+ - Sergei Bratchikov, [NLP Wanderer](https://t.me/nlpwanderer), [Vikhr Team](https://t.me/vikhrlabs)
128
+ - Nikolay Kompanets, [LakoMoor](https://t.me/lakomoor), [Vikhr Team](https://t.me/vikhrlabs)
129
+ - Konstantin Korolev, [Vikhr Team](https://t.me/vikhrlabs)
130
+ - Aleksandr Nikolich, [Vikhr Team](https://t.me/vikhrlabs)
131
+
132
+ ```
133
+ @article{nikolich2024vikhr,
134
+ title={Vikhr: The Family of Open-Source Instruction-Tuned Large Language Models for Russian},
135
+ author={Aleksandr Nikolich and Konstantin Korolev and Sergey Bratchikov and Nikolay Kompanets and Artem Shelmanov},
136
+ journal={arXiv preprint arXiv:2405.13929},
137
+ year={2024},
138
+ url={https://arxiv.org/pdf/2405.13929}
139
+ }
140
+ ```