Llama-3.1-8B-BG-Reasoning

A proof of concept model based on Llama 3.1-8B, featuring reasoning capabilities in Bulgarian.

It was trained on a very small, mid-quality corpus for approximately four hours. Nevertheless, the results are still good.

Training process and logs: https://github.com/s-emanuilov/LLMBG-Llama-3.1-8B-BG-Reasoning-v0.1

Article with more information about the training and the dataset: https://unfoldai.com/reasoning-in-a-non-english-language/

Reasoning

Question: Лори печели $10 на час. Карън печели два пъти повече от Лори. Колко печели Карън за два дни, ако работи по 3 часа на ден? 

Answer:
120 

Response:
<reasoning>
Ако Лори печели 10 долара на час, а Карън печели два пъти повече, Карън печели 10 * 2 = 20 долара на час. Ако Карън работи 3 часа на ден, в два дни тя печели 3 * 20 * 2 = 120 долара.
</reasoning>
<answer>
120
</answer> 

Extracted (from the dataset):
120

=====

Question: Тоби чете книга с дължина 45 страници. Средно 200 думи на страница. Тоби може да чете със скорост 300 думи в минута. Той трябва да бъде на летището след 60 минути и планира да тръгне веднага щом завърши книгата. Отнема 10 минути, за да стигнете до летището. Колко минути ще подрани Тоби? 

Answer:
20 

Response:
<reasoning>
Дължината на книгата е 45 страници * 200 думи на страница = 9000 думи. Тоби може да чете 9000 думи / 300 думи в минута = 30 минути. Трябва да се добавят 10 минути за пътуването до летището, така че в общият период ще бъде 30 + 10 = 40 минути.
</reasoning>
<answer>
40
</answer> 

Extracted (from the dataset):
40

=====

Question: Ян има три пъти повече домашни любимци от Марсия. Марсия има с два повече домашни любимци от Синди. Ако Синди има четири домашни любимеца, колко общо домашни любимци имат тримата? 

Answer:
28 

Response:
<reasoning>
Ако Синди има четири домашни любимци, а Марсия има два повече домакински любимци от Синди, то Марсия има 4 + 2 = 6 домашни любимци. Ако Ян има три пъти повече домашни любимци от Марсия, то Ян има 3 * 6 = 18 домашни любимци. Общо повече има 4 + 6 + 18 = 28 домашни любимци.
</reasoning>
<answer>
28
</answer> 

Extracted (from the dataset):
28

Dataset

Training was performed on GSM8k in Bulgarian.

Server

1 x L40S GPU

Citation

@misc {simeon_emanuilov_2025,
    author       = { {Simeon Emanuilov} },
    title        = { LLMBG-Llama-3.1-8B-BG-Reasoning-v0.1 (Revision 436299e) },
    year         = 2025,
    url          = { https://huggingface.co/s-emanuilov/LLMBG-Llama-3.1-8B-BG-Reasoning-v0.1 },
    doi          = { 10.57967/hf/4432 },
    publisher    = { Hugging Face }
}
Downloads last month
11
Safetensors
Model size
8.03B params
Tensor type
BF16
·
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and HF Inference API was unable to determine this model's library.

Model tree for s-emanuilov/LLMBG-Llama-3.1-8B-BG-Reasoning-v0.1

Finetuned
(828)
this model
Quantizations
3 models