Magnum 1b Creative Writing RP

Este es un modelo destinado puramente al roleplay al cual le he inyectado un dataset mas de RP para reforzar su función. El dataset inyectado se trata de una fusión de alta calidad de diferentes conjuntos de datos de escritura y juego de roles de HuggingFace. Esta versión cuenta con una longitud de secuencia de 8K (tokenizador Llama 3). Asegura que los entrenadores como Axolotl no descarten las muestras. Realizado con el script de https://huggingface.co/xzuyn

Lea la tarjeta del conjunto de datos para obtener más información: https://huggingface.co/datasets/Dampfinchen/Creative_Writing_Multiturn -> Si puede entrenar con una longitud de secuencia de entrada de 16K o más, definitivamente úsela en su lugar.

Tenga en cuenta que este material puede contener todo tipo de datos explícitos problemáticos. No me hago responsable de ello ni lo apruebo. Descargue el material únicamente si conoce la situación legal de los contenidos ficticios escritos de cualquier tipo en su país.

Nota: Que el conjunto de datos tenga contenido NSFW no significa que sea un modelo sin censura.

Downloads last month
140
GGUF
Model size
1.5B params
Architecture
llama
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no library tag.

Model tree for Novaciano/Magnum-1b_Creative_Writing_RP-GGUF

Quantized
(8)
this model

Dataset used to train Novaciano/Magnum-1b_Creative_Writing_RP-GGUF