Немного подкину идею по созданию новой модели YandexGPT-6-Pro
#18
by
Makar7
- opened
Привет!
Недавно Google выпустила Gemma 3, и она выглядит очень перспективно. Я знаю, что для YandexGPT-5 Pro вы выбрали Qwen2.5-32b в качестве основы, учитывая её производительность при относительно небольшом размере (32 миллиарда параметров).
Теперь появилась Gemma 3 с 27 миллиардами параметров, которая по результатам превосходит DeepSeek-V3. К тому же, она изначально поддерживает более 140 языков, включая русский! Не могли бы вы рассмотреть возможность дообучения Gemma 3 для создания YandexGPT-6 Pro? Это могло бы значительно улучшить качество вашей модели и вывести её на новый уровень.
Ну раз вы выбрали направление в сторону дообучения моделей то почему бы не воспользоваться Gemma 3 с 27 миллиардами параметров?