---
library_name: transformers
model_name: Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r
base_model:
- Qwen/Qwen2.5-1.5B
language:
- ru
- en
license: apache-2.0
datasets:
- Vikhrmodels/russian_math
- openai/gsm8k
---
# 💨 QVikhr-2.5-1.5B-Instruct-r
Инструктивная модель на основе **QVikhr-2.5-1.5B-Instruct-r**, обученная на русскоязычном датасете **ru Math**.
## Quantized variants:
- [GGUF](https://hf.co/Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r_GGUF)
- MLX
- [4 bit](https://huggingface.co/Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r_MLX-4bit)
- [8 bit](https://huggingface.co/Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r_MLX-8bit)
## Особенности:
- 📚 Основа: [QVikhr-2.5-1.5B-Instruct-r](https://huggingface.co/Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r)
- 🇷🇺 Специализация: **RU**
- 🌍 Поддержка: **Bilingual RU/EN**
## Описание:
**Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r** представляет собой языковую модель, прошедшую специализированное обучение с использованием метода **RuMath**.
## Обучение:
### Этап алайнмента с GRPO
Обучили на https://huggingface.co/datasets/Vikhrmodels/russian_math и GSM8k
## Пример кода для запуска:
**Рекомендуемая температура для генерации: 0.4**.
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
# Load the model and tokenizer
model_name = "Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Prepare the input text
SYSTEM_PROMPT = """
Отвечай в таком формате:
...
...
"""
input_text = "Напиши краткое описание книги Гарри Поттер."
messages = [
{'role': 'system', 'content': SYSTEM_PROMPT},
{"role": "system", "content": "Вы — Vikhr, ИИ помощник, созданный компанией Vikhr models для предоставления полезной, честной и безопасной информации."},
{"role": "user", "content": input_text},
]
# Tokenize and generate text
input_ids = tokenizer.apply_chat_template(messages, truncation=True, add_generation_prompt=True, return_tensors="pt")
output = model.generate(
input_ids,
max_length=1512,
temperature=0.4,
)
# Decode and print result
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)
```
#### Ответ модели:
>**Краткое описание книги "Гарри Поттер"**
>"Гарри Поттер" – это серия книг о мальчике-волшебнике, который обнаруживает в себе силу волшебства после того, как его семья умирает от злого колдуна Драко Малфоя. Главный герой, Гарри Поттер, живёт с родителями на окраине Хогвартса, школы магии и волшебства.
>В детстве Гарри встречает своего лучшего друга Рона Уизли и его тётку Гермиону Грейнджер. Они вместе отправляются в Хогвартс, где начинают учиться волшебству. В ходе учебы Гарри знакомится с другими учениками: Слизеринами (главные антагонисты) и Хогвартсом как место обучения магии.
>Самым важным событием в жизни Гарри становится то, что он узнаёт о своем происхождении – он является последним из семьи Поттеров, которые когда-то владели всеми знаниями о волшебстве. Это знание открывает ему путь к своей миссии – борьбе против темных сил, которые стремятся уничтожить волшебство.
>По мере развития сюжета Гарри сталкивается с различными препятствиями, включая преследование со стороны Драко Малфоя и его друзей, а также внутренние конфликты внутри самого Хогвартса. Однако благодаря поддержке своих друзей и новых знакомых, таких как Философский камень, Гарри продолжает свой путь к победе над темными силами.
>В конце концов, Гарри и его друзья успешно борются с темными силами, восстанавливают мир в Хогвартсе и получают признание за свои поступки. Книги завершаются тем, что Гарри готовится стать волшебником, но его будущее ещё не определено.
### Авторы
- Sergei Bratchikov, [NLP Wanderer](https://t.me/nlpwanderer), [Vikhr Team](https://t.me/vikhrlabs)
- Aleksandr Nikolich, [Vikhr Team](https://t.me/vikhrlabs)
- Nikolay Kompanets, [LakoMoor](https://t.me/lakomoordev), [Vikhr Team](https://t.me/vikhrlabs)
- Konstantin Korolev, [Vikhr Team](https://t.me/vikhrlabs)
```
@inproceedings{nikolich2024vikhr,
title={Vikhr: Advancing Open-Source Bilingual Instruction-Following Large Language Models for Russian and English},
author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and Nikolay Kompanets and Igor Kiselev and Artem Shelmanov},
booktitle={Proceedings of the 4th Workshop on Multilingual Representation Learning (MRL) @ EMNLP-2024},
year={2024},
publisher={Association for Computational Linguistics},
url={https://arxiv.org/pdf/2405.13929}
}
```