Danielbrdz's picture
Update README.md
10e2f6b verified
|
raw
history blame
935 Bytes
metadata
license: mit
datasets:
  - pinzhenchen/alpaca-cleaned-es
language:
  - es
  - en
base_model:
  - deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B
pipeline_tag: text-generation
library_name: transformers

Barcenas R1 Qwen 1.5b

Basado en el deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B y entrenado con datos del dataset pinzhenchen/alpaca-cleaned-es

El objetivo de este modelo es tener un LLM de razonamiento en español como o1 o R1 y que tenga un tamaño pequeño accesible para ejecutar en la mayoría de equipos.


Barcenas R1 Qwen 1.5b

Based on deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B and trained with data from the pinzhenchen/alpaca-cleaned-en dataset

The goal of this model is to have a reasoning LLM in Spanish as o1 or R1 and having a small size accessible to run on most computers.

Made with ❤️ in Guadalupe, Nuevo Leon, Mexico 🇲🇽