--- library_name: transformers model_name: Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r base_model: - Qwen/Qwen2.5-1.5B language: - ru - en license: apache-2.0 datasets: - Vikhrmodels/russian_math - openai/gsm8k --- # 💨 QVikhr-2.5-1.5B-Instruct-r Инструктивная модель на основе **QVikhr-2.5-1.5B-Instruct-r**, обученная на русскоязычном датасете **ru Math**. ## Quantized variants: - [GGUF](https://hf.co/Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r_GGUF) - MLX - [4 bit](https://huggingface.co/Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r_MLX-4bit) - [8 bit](https://huggingface.co/Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r_MLX-8bit) ## Особенности: - 📚 Основа: [QVikhr-2.5-1.5B-Instruct-r](https://huggingface.co/Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r) - 🇷🇺 Специализация: **RU** - 🌍 Поддержка: **Bilingual RU/EN** ## Описание: **Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r** представляет собой языковую модель, прошедшую специализированное обучение с использованием метода **RuMath**. ## Обучение: ### Этап алайнмента с GRPO Обучили на https://huggingface.co/datasets/Vikhrmodels/russian_math и GSM8k ## Пример кода для запуска: **Рекомендуемая температура для генерации: 0.4**. ```python from transformers import AutoModelForCausalLM, AutoTokenizer # Load the model and tokenizer model_name = "Vikhrmodels/QVikhr-2.5-1.5B-Instruct-r" model = AutoModelForCausalLM.from_pretrained(model_name) tokenizer = AutoTokenizer.from_pretrained(model_name) # Prepare the input text SYSTEM_PROMPT = """ Отвечай в таком формате: ... ... """ input_text = "Напиши краткое описание книги Гарри Поттер." messages = [ {'role': 'system', 'content': SYSTEM_PROMPT}, {"role": "system", "content": "Вы — Vikhr, ИИ помощник, созданный компанией Vikhr models для предоставления полезной, честной и безопасной информации."}, {"role": "user", "content": input_text}, ] # Tokenize and generate text input_ids = tokenizer.apply_chat_template(messages, truncation=True, add_generation_prompt=True, return_tensors="pt") output = model.generate( input_ids, max_length=1512, temperature=0.4, ) # Decode and print result generated_text = tokenizer.decode(output[0], skip_special_tokens=True) print(generated_text) ``` #### Ответ модели: >**Краткое описание книги "Гарри Поттер"** >"Гарри Поттер" – это серия книг о мальчике-волшебнике, который обнаруживает в себе силу волшебства после того, как его семья умирает от злого колдуна Драко Малфоя. Главный герой, Гарри Поттер, живёт с родителями на окраине Хогвартса, школы магии и волшебства. >В детстве Гарри встречает своего лучшего друга Рона Уизли и его тётку Гермиону Грейнджер. Они вместе отправляются в Хогвартс, где начинают учиться волшебству. В ходе учебы Гарри знакомится с другими учениками: Слизеринами (главные антагонисты) и Хогвартсом как место обучения магии. >Самым важным событием в жизни Гарри становится то, что он узнаёт о своем происхождении – он является последним из семьи Поттеров, которые когда-то владели всеми знаниями о волшебстве. Это знание открывает ему путь к своей миссии – борьбе против темных сил, которые стремятся уничтожить волшебство. >По мере развития сюжета Гарри сталкивается с различными препятствиями, включая преследование со стороны Драко Малфоя и его друзей, а также внутренние конфликты внутри самого Хогвартса. Однако благодаря поддержке своих друзей и новых знакомых, таких как Философский камень, Гарри продолжает свой путь к победе над темными силами. >В конце концов, Гарри и его друзья успешно борются с темными силами, восстанавливают мир в Хогвартсе и получают признание за свои поступки. Книги завершаются тем, что Гарри готовится стать волшебником, но его будущее ещё не определено. ### Авторы - Sergei Bratchikov, [NLP Wanderer](https://t.me/nlpwanderer), [Vikhr Team](https://t.me/vikhrlabs) - Aleksandr Nikolich, [Vikhr Team](https://t.me/vikhrlabs) - Nikolay Kompanets, [LakoMoor](https://t.me/lakomoordev), [Vikhr Team](https://t.me/vikhrlabs) - Konstantin Korolev, [Vikhr Team](https://t.me/vikhrlabs) ``` @inproceedings{nikolich2024vikhr, title={Vikhr: Advancing Open-Source Bilingual Instruction-Following Large Language Models for Russian and English}, author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and Nikolay Kompanets and Igor Kiselev and Artem Shelmanov}, booktitle={Proceedings of the 4th Workshop on Multilingual Representation Learning (MRL) @ EMNLP-2024}, year={2024}, publisher={Association for Computational Linguistics}, url={https://arxiv.org/pdf/2405.13929} } ```