Llama-3.1-8B-BG-Reasoning
A proof of concept model based on Llama 3.1-8B, featuring reasoning capabilities in Bulgarian.
It was trained on a very small, mid-quality corpus for approximately four hours. Nevertheless, the results are still good.
Training process and logs: https://github.com/s-emanuilov/LLMBG-Llama-3.1-8B-BG-Reasoning-v0.1
Article with more information about the training and the dataset: https://unfoldai.com/reasoning-in-a-non-english-language/
Reasoning
Question: Лори печели $10 на час. Карън печели два пъти повече от Лори. Колко печели Карън за два дни, ако работи по 3 часа на ден?
Answer:
120
Response:
<reasoning>
Ако Лори печели 10 долара на час, а Карън печели два пъти повече, Карън печели 10 * 2 = 20 долара на час. Ако Карън работи 3 часа на ден, в два дни тя печели 3 * 20 * 2 = 120 долара.
</reasoning>
<answer>
120
</answer>
Extracted (from the dataset):
120
=====
Question: Тоби чете книга с дължина 45 страници. Средно 200 думи на страница. Тоби може да чете със скорост 300 думи в минута. Той трябва да бъде на летището след 60 минути и планира да тръгне веднага щом завърши книгата. Отнема 10 минути, за да стигнете до летището. Колко минути ще подрани Тоби?
Answer:
20
Response:
<reasoning>
Дължината на книгата е 45 страници * 200 думи на страница = 9000 думи. Тоби може да чете 9000 думи / 300 думи в минута = 30 минути. Трябва да се добавят 10 минути за пътуването до летището, така че в общият период ще бъде 30 + 10 = 40 минути.
</reasoning>
<answer>
40
</answer>
Extracted (from the dataset):
40
=====
Question: Ян има три пъти повече домашни любимци от Марсия. Марсия има с два повече домашни любимци от Синди. Ако Синди има четири домашни любимеца, колко общо домашни любимци имат тримата?
Answer:
28
Response:
<reasoning>
Ако Синди има четири домашни любимци, а Марсия има два повече домакински любимци от Синди, то Марсия има 4 + 2 = 6 домашни любимци. Ако Ян има три пъти повече домашни любимци от Марсия, то Ян има 3 * 6 = 18 домашни любимци. Общо повече има 4 + 6 + 18 = 28 домашни любимци.
</reasoning>
<answer>
28
</answer>
Extracted (from the dataset):
28
Dataset
Training was performed on GSM8k
in Bulgarian.
Server
1 x L40S GPU
Citation
@misc {simeon_emanuilov_2025,
author = { {Simeon Emanuilov} },
title = { LLMBG-Llama-3.1-8B-BG-Reasoning-v0.1 (Revision 436299e) },
year = 2025,
url = { https://huggingface.co/s-emanuilov/LLMBG-Llama-3.1-8B-BG-Reasoning-v0.1 },
doi = { 10.57967/hf/4432 },
publisher = { Hugging Face }
}
- Downloads last month
- 11
Inference Providers
NEW
This model is not currently available via any of the supported third-party Inference Providers, and
HF Inference API was unable to determine this model's library.