modelId
stringlengths 5
139
| author
stringlengths 2
42
| last_modified
timestamp[us, tz=UTC]date 2020-02-15 11:33:14
2025-06-24 00:41:46
| downloads
int64 0
223M
| likes
int64 0
11.7k
| library_name
stringclasses 492
values | tags
sequencelengths 1
4.05k
| pipeline_tag
stringclasses 54
values | createdAt
timestamp[us, tz=UTC]date 2022-03-02 23:29:04
2025-06-24 00:41:12
| card
stringlengths 11
1.01M
|
---|---|---|---|---|---|---|---|---|---|
lesso12/1c141bff-f4ba-4d9a-a46e-43e2c9ef1bd8 | lesso12 | 2025-01-24T00:32:18Z | 8 | 0 | peft | [
"peft",
"safetensors",
"mistral",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/mistral-7b-instruct-v0.2",
"base_model:adapter:unsloth/mistral-7b-instruct-v0.2",
"license:apache-2.0",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T23:58:29Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/mistral-7b-instruct-v0.2
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 1c141bff-f4ba-4d9a-a46e-43e2c9ef1bd8
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/mistral-7b-instruct-v0.2
bf16: auto
chat_template: llama3
datasets:
- data_files:
- 87ec749fe2b79cda_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/87ec749fe2b79cda_train_data.json
type:
field_instruction: instruction
field_output: response
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: lesso12/1c141bff-f4ba-4d9a-a46e-43e2c9ef1bd8
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/87ec749fe2b79cda_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: b8920e83-97f6-4d23-a43c-8aff64ccf85b
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: b8920e83-97f6-4d23-a43c-8aff64ccf85b
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 1c141bff-f4ba-4d9a-a46e-43e2c9ef1bd8
This model is a fine-tuned version of [unsloth/mistral-7b-instruct-v0.2](https://huggingface.co/unsloth/mistral-7b-instruct-v0.2) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0434 | 200 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
lesso15/e8392e43-05d8-4f2f-82d8-5e6a4397e207 | lesso15 | 2025-01-24T00:29:25Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:jingyeom/seal3.1.6n_7b",
"base_model:adapter:jingyeom/seal3.1.6n_7b",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:57:46Z | ---
library_name: peft
base_model: jingyeom/seal3.1.6n_7b
tags:
- axolotl
- generated_from_trainer
model-index:
- name: e8392e43-05d8-4f2f-82d8-5e6a4397e207
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: jingyeom/seal3.1.6n_7b
bf16: auto
chat_template: llama3
datasets:
- data_files:
- a1f48e343e632d4d_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/a1f48e343e632d4d_train_data.json
type:
field_input: "\u5730\u57DF"
field_instruction: "\u666F\u6C17\u306E\u73FE\u72B6\u5224\u65AD"
field_output: "\u8FFD\u52A0\u8AAC\u660E\u53CA\u3073\u5177\u4F53\u7684\u72B6\u6CC1\
\u306E\u8AAC\u660E"
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: lesso15/e8392e43-05d8-4f2f-82d8-5e6a4397e207
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/a1f48e343e632d4d_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 564ac9ba-2a9f-47a1-80f0-3b5121868464
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 564ac9ba-2a9f-47a1-80f0-3b5121868464
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# e8392e43-05d8-4f2f-82d8-5e6a4397e207
This model is a fine-tuned version of [jingyeom/seal3.1.6n_7b](https://huggingface.co/jingyeom/seal3.1.6n_7b) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0052 | 200 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
nhung01/7ed90b1c-073f-4cf5-aca7-484ba5f4db99 | nhung01 | 2025-01-24T00:28:19Z | 8 | 0 | peft | [
"peft",
"safetensors",
"mistral",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/mistral-7b-instruct-v0.2",
"base_model:adapter:unsloth/mistral-7b-instruct-v0.2",
"license:apache-2.0",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T23:57:56Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/mistral-7b-instruct-v0.2
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 7ed90b1c-073f-4cf5-aca7-484ba5f4db99
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/mistral-7b-instruct-v0.2
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 87ec749fe2b79cda_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/87ec749fe2b79cda_train_data.json
type:
field_instruction: instruction
field_output: response
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: nhung01/7ed90b1c-073f-4cf5-aca7-484ba5f4db99
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/87ec749fe2b79cda_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: b8920e83-97f6-4d23-a43c-8aff64ccf85b
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: b8920e83-97f6-4d23-a43c-8aff64ccf85b
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 7ed90b1c-073f-4cf5-aca7-484ba5f4db99
This model is a fine-tuned version of [unsloth/mistral-7b-instruct-v0.2](https://huggingface.co/unsloth/mistral-7b-instruct-v0.2) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.4038
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 1.5415 | 0.0434 | 200 | 0.4038 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
lesso14/bd94fdf8-51eb-41b8-b491-57f54033ccea | lesso14 | 2025-01-24T00:27:57Z | 6 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen2-1.5B-Instruct",
"base_model:adapter:Qwen/Qwen2-1.5B-Instruct",
"license:apache-2.0",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T23:46:59Z | ---
library_name: peft
license: apache-2.0
base_model: Qwen/Qwen2-1.5B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: bd94fdf8-51eb-41b8-b491-57f54033ccea
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen2-1.5B-Instruct
bf16: auto
chat_template: llama3
datasets:
- data_files:
- e3c2e5c8dcde7214_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/e3c2e5c8dcde7214_train_data.json
type:
field_instruction: article
field_output: lead
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: lesso14/bd94fdf8-51eb-41b8-b491-57f54033ccea
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/e3c2e5c8dcde7214_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: f4d8284c-5447-4755-b91b-3a6f7963c739
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: f4d8284c-5447-4755-b91b-3a6f7963c739
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# bd94fdf8-51eb-41b8-b491-57f54033ccea
This model is a fine-tuned version of [Qwen/Qwen2-1.5B-Instruct](https://huggingface.co/Qwen/Qwen2-1.5B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.1913
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 1.2726 | 0.0198 | 200 | 1.1913 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
prxy5605/92beaf0c-c227-4d2e-898a-96d7020072d3 | prxy5605 | 2025-01-24T00:27:47Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Qwen2.5-1.5B-Instruct",
"base_model:adapter:unsloth/Qwen2.5-1.5B-Instruct",
"license:apache-2.0",
"region:us"
] | null | 2025-01-24T00:14:55Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/Qwen2.5-1.5B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 92beaf0c-c227-4d2e-898a-96d7020072d3
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Qwen2.5-1.5B-Instruct
bf16: true
chat_template: llama3
data_processes: 16
dataset_prepared_path: null
datasets:
- data_files:
- c3d24d6d6c48ff52_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/c3d24d6d6c48ff52_train_data.json
type:
field_instruction: instruction
field_output: output
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device_map: auto
do_eval: true
early_stopping_patience: 5
eval_batch_size: 4
eval_max_new_tokens: 128
eval_steps: 50
eval_table_size: null
evals_per_epoch: null
flash_attention: true
fp16: false
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: prxy5605/92beaf0c-c227-4d2e-898a-96d7020072d3
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0001
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 128
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 64
lora_target_linear: true
lr_scheduler: cosine
max_grad_norm: 1.0
max_memory:
0: 75GB
max_steps: 200
micro_batch_size: 8
mlflow_experiment_name: /tmp/c3d24d6d6c48ff52_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 3
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 50
saves_per_epoch: null
sequence_len: 1024
strict: false
tf32: true
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 513b3e11-240a-4e5c-926d-00c59c088490
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 513b3e11-240a-4e5c-926d-00c59c088490
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 92beaf0c-c227-4d2e-898a-96d7020072d3
This model is a fine-tuned version of [unsloth/Qwen2.5-1.5B-Instruct](https://huggingface.co/unsloth/Qwen2.5-1.5B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.8193
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 8
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 1.1941 | 0.0017 | 1 | 1.5711 |
| 0.8228 | 0.0850 | 50 | 0.9590 |
| 0.7563 | 0.1701 | 100 | 0.8648 |
| 0.6721 | 0.2551 | 150 | 0.8297 |
| 0.7083 | 0.3401 | 200 | 0.8193 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
fpadovani/english_childes_context_30 | fpadovani | 2025-01-24T00:27:02Z | 6 | 0 | transformers | [
"transformers",
"safetensors",
"roberta",
"fill-mask",
"generated_from_trainer",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | fill-mask | 2025-01-23T23:06:06Z | ---
library_name: transformers
tags:
- generated_from_trainer
model-index:
- name: childes_mlm_unmasking_context_30
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# childes_mlm_unmasking_context_30
This model is a fine-tuned version of [](https://huggingface.co/) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 2.1487
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 30
- gradient_accumulation_steps: 2
- total_train_batch_size: 32
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 100000
- training_steps: 400000
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:-------:|:-----:|:---------------:|
| No log | 1.2694 | 2000 | 5.5097 |
| 6.2347 | 2.5389 | 4000 | 5.4485 |
| 6.2347 | 3.8083 | 6000 | 5.3827 |
| 5.3987 | 5.0778 | 8000 | 5.1090 |
| 5.3987 | 6.3472 | 10000 | 3.7191 |
| 3.9556 | 7.6166 | 12000 | 3.2690 |
| 3.9556 | 8.8861 | 14000 | 2.9887 |
| 3.0887 | 10.1555 | 16000 | 2.8155 |
| 3.0887 | 11.4249 | 18000 | 2.7023 |
| 2.7695 | 12.6944 | 20000 | 2.5944 |
| 2.7695 | 13.9638 | 22000 | 2.4760 |
| 2.5626 | 15.2333 | 24000 | 2.4247 |
| 2.5626 | 16.5027 | 26000 | 2.3910 |
| 2.4302 | 17.7721 | 28000 | 2.3224 |
| 2.4302 | 19.0416 | 30000 | 2.3148 |
| 2.3356 | 20.3110 | 32000 | 2.2821 |
| 2.3356 | 21.5805 | 34000 | 2.2640 |
| 2.269 | 22.8499 | 36000 | 2.2651 |
| 2.269 | 24.1193 | 38000 | 2.2208 |
| 2.221 | 25.3888 | 40000 | 2.1925 |
| 2.221 | 26.6582 | 42000 | 2.1938 |
| 2.1935 | 27.9276 | 44000 | 2.1843 |
| 2.1935 | 29.1971 | 46000 | 2.2047 |
| 2.1674 | 30.4665 | 48000 | 2.1519 |
| 2.1674 | 31.7360 | 50000 | 2.1936 |
| 2.153 | 33.0054 | 52000 | 2.1896 |
| 2.153 | 34.2748 | 54000 | 2.1480 |
| 2.1411 | 35.5443 | 56000 | 2.1403 |
| 2.1411 | 36.8137 | 58000 | 2.1537 |
| 2.1343 | 38.0831 | 60000 | 2.1502 |
| 2.1343 | 39.3526 | 62000 | 2.1371 |
| 2.1307 | 40.6220 | 64000 | 2.1247 |
| 2.1307 | 41.8915 | 66000 | 2.1457 |
| 2.125 | 43.1609 | 68000 | 2.1512 |
| 2.125 | 44.4303 | 70000 | 2.1487 |
### Framework versions
- Transformers 4.45.2
- Pytorch 2.5.1+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1
|
GbrlOl/finetune-embedding-all-MiniLM-L6-v2-geotechnical-test-v2 | GbrlOl | 2025-01-24T00:25:55Z | 6 | 0 | sentence-transformers | [
"sentence-transformers",
"safetensors",
"bert",
"sentence-similarity",
"feature-extraction",
"generated_from_trainer",
"dataset_size:1412",
"loss:CoSENTLoss",
"arxiv:1908.10084",
"base_model:sentence-transformers/all-MiniLM-L6-v2",
"base_model:finetune:sentence-transformers/all-MiniLM-L6-v2",
"autotrain_compatible",
"text-embeddings-inference",
"endpoints_compatible",
"region:us"
] | sentence-similarity | 2025-01-24T00:25:47Z | ---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:1412
- loss:CoSENTLoss
base_model: sentence-transformers/all-MiniLM-L6-v2
widget:
- source_sentence: ยฟQuรฉ elementos se consideran en el costo de la demoliciรณn de hormigรณn?
sentences:
- "Ordinario Nยฐ 57 de fecha 25 de Enero de 2011 \ninformรณ favorablemente. \n5.\
\ Que, en lo relativo a los efectos, caracterรญsticas y circunstancias seรฑalados\
\ en los literales โaโ, \"b\", โcโ, \nโdโ, โeโ y โfโ, del artรญculo 11 de la Ley\
\ 19.300, y sobre la base de los antecedentes que constan en el \nexpediente de\
\ la evaluaciรณn, debe indicarse que el proyecto \"Depรณsito de Relaves Filtrados\
\ Doรฑa Rosaโ \nno genera ni presenta ninguno de tales efectos, caracterรญsticas\
\ y circunstancias. \n6.- Que, en el proceso de evoluciรณn de proyecto \" Depรณsito\
\ de Relaves Filtrados Doรฑa Rosaโ, el titular \nha adquirido los siguientes compromisos\
\ ambientales voluntarios: \nEl proyecto contempla el monitoreo de aguas superficiales\
\ y subterrรกneas. Respecto a la periodicidad de \nmonitoreo, este serรก cuatrimestral\
\ durante los tres primeros aรฑos de operaciรณn del proyecto. Una vez \ncumplidos\
\ los tres aรฑos iniciales, se analizarรกn los resultados. Sobre la base de dicho\
\ anรกlisis el titular \npropondrรก fundadamente cambios a los parรกmetros, puntos\
\ y frecuencias de monitoreo, si es que los \nresultados asรญ lo ameritan. \n\
En la siguiente tabla se presentan las coordenadas de los puntos de control de\
\ calidad de aguas, tanto \nsuperficiales como subterrรกneas."
- "d) Aplicaciรณn de gravilla \n \nEl monto considera la adquisiciรณn de la gravilla,\
\ el retiro y puesto en obra de la misma, la \nmaquinaria dispuesta para su esparcimiento,\
\ la nivelaciรณn del terreno y las HH/ hombre \ninvolucradas en su esparcimiento.\
\ \n \ne) Movimiento de tierra para fundaciones \nEl monto del movimiento de\
\ tierra incluye el arriendo de la maquinaria y su traslado para el \nlugar donde\
\ se efectuaron los movimientos de tierra, ademรกs de las hh/hombre involucradas\
\ de \nlos profesionales y jornales que participaron en el proyecto. \nf) Demoliciรณn\
\ de hormigรณn \nEl costo de la demoliciรณn de hormigรณn,\
\ incluye el arriendo de la maquinaria y su traslado para \nel lugar donde se\
\ efectuรณ la demoliciรณn, las hh/hombre involucradas de los profesionales y \n\
jornales que partic iparon en el proyecto, y el traslado y disposiciรณn final en\
\ vertederos \nautorizados del resultado de la demoliciรณn."
- "Cobertura \nSe considera la cobertura de la superficie (coronamiento) del depรณsito\
\ de relaves filtrados con una capa de material \ngranular de manera de minimizar\
\ la erosiรณn eรณlica. Los taludes del depรณsito se encontrarรกn cubiertos al momento\
\ \ndel cierre de acuerdo con su mรฉtodo constructivo. \nEn relaciรณn con la estabilidad\
\ fรญsica de las instalaciones remanen tes al cierre (rajo, botaderos de estรฉril\
\ y depรณsito \nde relaves filtrados), รฉstas han sido diseรฑadas en su etapa de\
\ ingenierรญa considerando como criterio de estabilidad \nel sismo mรกxim o creรญble,\
\ con lo cual se asegura un diseรฑo final estable en el largo pla zo, sin requerir\
\ medidas de \ncierre adicionales en este รกmbito. \nLa Tabla 7-3 presenta un resumen\
\ de los compromisos ambientales adquiridos para cada una de las instalaciones\
\ de \nla faena."
- source_sentence: ยฟSe utilizaron antecedentes topogrรกficos?
sentences:
- "Las piscinas de PLS e ILS tienen una capacidad operacional de 5.193 m3\n y la\
\ de emergencia de \n9.952 m3. \n \n4.3.9. Depรณsito de Relaves Secos \nEl Depรณsito\
\ de R elaves Secos no ha sido construido hasta ahora, y dicho P royecto fue\
\ \npresentado al Sernageomin para su aprobaciรณn por medi o de carta conductora\
\ el 17 de \ndiciembre 2015 (ver proyecto y carta presentado en el Anexo 2). \n\
El depรณsito se ubicarรก al Norte de las pilas de lixiviaciรณn existentes , de acuerdo\
\ a los espacios \ndisponibles, evitando la interferencia con quebradas y otras\
\ instalaciones, y considerando los \nlรญmites de propiedad y uso de suelos. \n\
El depรณsito tiene posibilidad de ampliarse hacia el Norte en unos 7.000 m 2, y\
\ hacia el Oeste en \ncerca de 23.000 m 2, moviendo el lรญmite del depรณsito proyectado\
\ mรกs cerca del borde de la \nquebrada existente. \nA continuaciรณn se entregan\
\ las coordenadas de ubicaciรณn del depรณsito de relaves:"
- "64 \nFigura 5.42: Caminos internos de acceso (2) . 64 \nFigura 5.43: Patio de\
\ RISES . 65 \nFigura 5.44: Bodega de almacenamiento temporal de residuos peligrosos\
\ . 66 \nFigura 5.45: Bodega de almacenamiento de residuos domรฉsticos . 67 \n\
Figura 5.46: Ubicaciรณn Pozo Monitoreos . 100 \nFigura 5.47: Caminos internos Planta\
\ Catemu . 107 \n \nANEXOS \n \nANEXO A : . ANTECEDENTES LEGALES \nANEXO B :\
\ . RESOLUCIONES \nANEXO C: . PROPIEDAD MINERA \nANEXO D: . INFORME DE VIDA\
\ รTIL \nANEXO E: . PLANOS \nANEXO F: . EVALUACIรN DE RIESGOS \nANEXO G: .\
\ PLANILLA DE VALORIZACIรN \nANEXO H: . RESPALDO DE PRECIOS UNITARIOS \nANEXO\
\ I: . GARANTรA FINANCIERA"
- "Geolรณgicamente el sector estรก controlado por sistemas de fallas paralelas y pequeรฑas\
\ con eje \nlongitudinal en sentido norte- sur, una de las cuales es conocida\
\ como Catalina, situada en la \nvecindad de las instalaciones del Proyecto. \n\
\ \nAdemรกs del geo- control estructural provocado por el sistema de fallas mencionado,\
\ el รกrea de \nproyecto se caracteriza geolรณgicamente por estar implantado sobre\
\ roca de origen andesรญtico \ndirectamente relacionada con las cordiller as de\
\ Domeyko y del Centro, que aparecen en este \nsector de la Regiรณn de Antofagasta:\
\ Sierras de Catalina y Sierras de Julia. \n \nEl material de roca descompuesta\
\ (suelo) mรกs superficial, bajo las capas aluvionales descritas \nanteriormente,\
\ tienen su origen en el Mioceno y se han generado por fenรณmenos metamรณrficos\
\ \ntempranos, que molieron las cumbres de los mantos rocosos que hoy estรกn bajo\
\ tierra. En todo \ncaso, las cubiertas cenozoicas son terciarias a cuaternarias\
\ y siempre con fuerte predominio de \nmateriales volcรกnicos provenientes de centros\
\ emisores radicados en la Cordillera de los Andes \ny el Altiplano. Generalmente\
\ se presentan compactos y con algรบn grado de mitificaciรณn, de \nmanera que sus\
\ permeabilidades son habitualmente pequeรฑas, esto especialmente para el \ncaso\
\ de los depรณsitos terciarios que suelen tener alto grado de litificaciรณn y a\
\ menudo se \naprecian muy compactos y con caracterรญsticas propias de rocas macizas."
- source_sentence: ยฟCuรกl es el talud del muro de confinamiento del depรณsito?
sentences:
- "Los antecedentes a evaluar por parte del SERNAGEOMIN, son: \nD.S. 248 de 2006\
\ del \nMin. de Minerรญa y \nEnergรญa \nReglamento para la Aprobaciรณn de Proyectos\
\ de Diseรฑo, Construcciรณn, Operaciรณn y Cierre de los \nDepรณsitos de Relaves \n\
\ El EIA o DIA Indica la ubicaciรณn del Depรณsito, Incluyendo: \nARTICULO 14, LETRA\
\ c. \n- Plano Regulador de la comuna donde se ubicarรก el depรณsito, si lo hubiere,\
\ o plano de la \ncomuna o provincia. \n- Las Distancias al Concentrador y a los\
\ centros poblados cercanos. \n- Plano escala 1:2.500 de ubicaciรณn del depรณsito,\
\ seรฑalando las coordenadas UTM. de sus \nprincipales vรฉrtices. \n- Ilustrar la\
\ hoya hidrolรณgica afectada, sobre un plano a una escala adecuada, en coordenadas\
\ \nU.T.M. \nARTICULO 14, LETRA f. - Presentaciรณn de Antecedentes geolรณgicos,\
\ Geotรฉcnicos, Hidrolรณgico, Hidrogeolรณgico, Sรญsmicos, \nMetereolรณgico, Topogrรกfico.\
\ \nARTICULO 14, LETRA q. \n- Determinaciรณn de la distancia peligrosa, en kilรณmetros\
\ y anรกlisis de la situaciรณn en terreno. \n- Plano de la hoya hidrolรณgica afectada\
\ por la trayectoria mรกs probable del relave en el evento \nde colapsar el depรณsito.\
\ \nARTICULO 14, LETRA r. - Medidas de Control, mitigaciรณn, restauraciรณn y compensaciรณn\
\ de los efectos de accidentes, \nsituaciones de emergencia y eventos naturales,\
\ segรบn corresponda."
- "o Evaluar y diseรฑar un vertedero de emergencia y una conducciรณn para la descarga\
\ de las \naguas que se acumulen en la cubeta, y que sobrepasen el pretil de protecciรณn.\
\ \nLa ingenierรญa de detalle de la estabilidad de los muros y considerados en\
\ el D.S. Nยฐ 132/04, se indica en el \nInforme Tรฉcnico de Estabilidad de Talud,\
\ incluido en el Anexo 3, del presente documento. \nII. Estabilidad de Taludes\
\ \no Verificar la estabilidad del muro de arena a travรฉs de mรฉtodo pseudoestรกtico\
\ y post-sรญsmico \npara un coeficiente sรญsmico acorde al โSismo Mรกximo Creรญbleโ\
\ (Kh = 0,14). \no Indica que, en caso de existir bajos factores de seguridad,\
\ se tomarรกn medidas como tender \nel talud y/o colocar estructuras de contenciรณn\
\ mediante enrocados. \nIII. Construcciรณn de Muro de Protecciรณn al Pie del Talud\
\ \no Contemplar un enrocado de protecciรณn en todo el sector donde hay gaviones.\
\ \no En el resto de los sectores del pie del muro de arena se contempla un muro\
\ de protecciรณn \nde enrocado de 2m de altura. \nPor otro lado, los aspectos\
\ tรฉcnicos seรฑalados en el artรญculo 495 (Tรญtulo X) del D.S. Nยฐ 132/04 y que forman\
\ \nparte de este documento, son:"
- "00 \n \n833,91 \n \n833,91 \nDisposiciรณn de estrato\
\ de suelo vegetal \nsobre la superficie y taludes del depรณsito \nCapa de 0,3\
\ metros de espesor sobre \nuna superficie de 50.400 m2 m3 \n15.481,20\
\ \n \n0,17 \n \n2.617,58 \nNivelaciรณn de la superficie\
\ del depรณsito \n(tipo \"domo\") \nNivelaciรณn en una superficie estimada \nde\
\ 51.604 m2 m2 \n51.604,00 \n \n0,01 \n \n\
607,84 \nCierre de accesos Pretil de 1,5 m de altura y 3 m de \nextensiรณn (2\
\ pretiles) m3 \n45,00 \n \n0,18 \n \
\ \n8,17 \nInstalaciรณn de seรฑalรฉtica de advertencia 1 letrero por cada pretil\
\ de bloqueo de \naccesos (2) Unidad \n2,00 \n \
\ \n8,40 \n \n16,80 \nDepรณsito de \nripios Nยฐ3 \nLavado de ripios\
\ con agua Valor estimado en UF 1.959,1 \n(documento plan de cierre) gl \
\ \n1,00 \n \n1.959,10 \n \n1.959,10 \n \n\
7.827,70 \nEstabilizaciรณn de taludes Reperfilamiento de 1.330 metros \nlรญneales\
\ x 5 metros de ancho de talud m2 \n6.650,00 \n \n\
0,01 \n \n78,33 \nReparaciรณn del pretil de contenciรณn de \nderrames\
\ \nMantenciรณn y reparaciรณn durante la \nfase de cierre gl \n\
1,00 \n \n502,97 \n \n502,97 \nDisposiciรณn de limos arcillosos\
\ sobre los \ntaludes y superficie del depรณsito \nCapa de 0,15 metros de espesor\
\ \nsobre una superficie de 50.400 m2 m3 \n7.560,00 \n \
\ \n0,17 \n \n1.278,25 \nCosto del material (limos) \nEstimaciรณn del\
\ costo del material a \nutilizar para el cubrimiento del \ndepรณsito \ngl \
\ \n1,"
- source_sentence: ยฟCuรกl es el รกngulo de banco o de terraza del depรณsito de relaves
filtrado?
sentences:
- "SRK Consulting: 01-2028-64 Salares Norte Anรกlisis de Estabilidad Botadero Sur\
\ y Depรณsito de Relaves Filtrados Pรกgina 14 \nAT/br SRK-GFCH74-FS-6100-CE-RP-0003_00P1\
\ mayo.18 \n8.4 Verificaciรณn de Distancia de Exclusiรณn \n8.4.1 Distancia desde\
\ el pie del Depรณsito de Relaves Filtrados al Borde de la \nPlataforma-4432 del\
\ botadero sur \nEl diseรฑo del depรณsito de relaves filtrados considera , en su\
\ configuraciรณn final , una distancia de \nexclusiรณn de 90 m entre el pie d el\
\ relave y el borde de la plataforma -4432 del botadero Sur. Esta \ndistancia\
\ es considerada para evitar que cualquier falla del botadero sur afecte el comportamiento\
\ del \ndepรณsito de relaves filtrados. \nPara verificar la distancia de exclusiรณn,\
\ se desarrollaron anรกlisis de estabilidad especรญficos, los cuales \nconsideraron\
\ fallas globales que afectasen la plataforma -4432 del botadero Sur en una condiciรณn\
\ \nsรญsmica. El anรกlisis considerรณ la secciรณn mรกs crรญtica (Secciรณn 2) identificada\
\ en el capรญtulo anterior, \nademรกs, para asegurarse de que ninguna falla global\
\ del botadero Sur afecte al depรณsito de relaves, \nse utilizรณ el mรกximo sismo\
\ creรญble ICOLD (Kh=0,16). \nLa Figura 8-3 presenta los resultados del anรกlisis\
\ de estabilidad para el mรกximo sismo creรญble ICOLD. \nEl anรกlisis indica que\
\ con una zona de exclusiรณn mayor o igual a 50 m, el criterio de diseรฑo se cumple\
\ \n(FS>1,1). Por tanto, los 90 metros de distancia de exclusiรณn ha sido verificada\
\ ante cualquier evento \nsรญsmico y el depรณsito de relaves filtrados no serรญa\
\ afectado ante una falla global de la plataforma-4432 \ndel botadero Sur. \n\
\ \n \nFigura 8-3."
- "46 \nb) Retiro de suelos contaminados \nEl monto estimado para el retiro de suelos\
\ contaminados incluye el traslado de la maquinaria \nnecesaria para el movimiento\
\ de tierra (retroexcavadora y camiรณn) las HH/ hombre \ninvolucradas y el traslado\
\ y disposiciรณn final, de residuos peligrosos en lugares autorizados. \n Ademรกs,\
\ para el manejo adecuado de los eventuales los suelos impactados la empresa cuenta\
\ \ncon un sistema de gestiรณn ambiental, el que considera que cada vez que ocurre\
\ algรบn derrame \nse informe de inmediato a las lรญneas de mando. Estas acciones\
\ serรกn reforzadas realizando \ncharlas de inducciรณn especรญfica. El manejo de\
\ estos sitios se realiza permanentemente, \nretirando los suelos y llevรกndolos\
\ a sitios autorizados. \n \nPrevio al cierre todas las zonas que eventualmente\
\ presenten estos suelos (debido a su retiro \npermanente que se realiza durante\
\ la operaciรณn de la faena, se estima que la superficie \nafectada serรก mรญnima).\
\ \n \nEn el cierre se realizarรก un delimitado de estas รกreas y dependiendo del\
\ tamaรฑo se realizarรก \ncon maquinaria o mediante palas. Para esto se extraerรก\
\ la capa de 50 cm o mรกs, y serรก tratada \ncomo residuo peligroso y trasladado\
\ a sitio autorizado. \n \nc) Instalaciรณn de seรฑalรฉtica \n \nEl monto de la\
\ instalaciรณn de seรฑalรฉtica incluye el diseรฑo y la mano factura de la seรฑalรฉtica,\
\ el \ntraslado de la seรฑalรฉtica hasta el lugar de la instalaciรณn, el hormigรณn\
\ base (poyo) para la \ninstalaciรณn, y las HH/ hombre involucradas en su instalaciรณn."
- "1). \n4.2 Del Proyecto de Depรณsito de Relaves \n4.2.1 Definiciรณn \n\x7F Cierre:\
\ Hecho que el depรณsito de relaves deje de operar por un plazo mayor de dos aรฑos\
\ o en forma \ndefinitiva o cuando se da por terminada su vida รบtil y se han\
\ efectuado las acciones tendientes a \nasegurar la obra en el tiempo. \n\x7F\
\ Proyecto de Depรณsitos de Relaves: el conjunto de estudios tรฉcnicos requeridos\
\ para la definiciรณn de \nun sistema de disposiciรณn de relaves, incluyendo etapas\
\ de investigaciรณn, prospecciรณn, diseรฑo, \nevaluaciรณn y construcciรณn, cuyos resultados\
\ se encuentran en una serie de documentos que para \ngarantizar la estabilidad\
\ fรญsica y quรญmica del depรณsito y su entorno, con el fin de proteger a las \n\
personas, bienes y medio ambiente. (Art. 5). \n\x7F Cierre final: Conclusiรณn\
\ definitiva de las actividades para el cierre de todas las labores,\
\ รกreas \ne instalaciones de una unidad minera, que por razones operativas, no\
\ hayan podido cerrarse \ndurante la etapa productiva o comercial, de modo tal\
\ que se garantice el cumplimiento de los \nobjetivos de cierre contemplados\
\ en el Plan de Cierre de Minas aprobado y cuya adecuada \nejecuciรณn\
\ ha sido verificada a travรฉs de una auditorรญa integral dispuesta por\
\ la autoridad \ncompetente, sin perjuicio de las actividades de post cierre\
\ que deberรกn continuar ejecutรกndose en \nel marco de la legislaciรณn ambiental\
\ vigente. \n\x7F Estabilidad fรญsica: Comportamiento estable en el corto, mediano\
\ y largo plazo de los componentes o"
- source_sentence: ยฟCuรกl fue la vida รบtil estimada del Proyecto Reapertura Mina Guanaco
en 2009?
sentences:
- "Proyecto que finalmente no se materializรณ por parte \nde Amax Guanaco. \n \n\
En 1998 Compaรฑรญa Minera Amax Guanaco es adquirida por Kinross Gold Corporation\
\ formando \nuna sociedad llamada Minera Kinam Guanaco. Las faenas de extracciรณn\
\ fueron paralizadas ese \nmismo aรฑo manteniรฉndose sรณlo la irrigaciรณn de las pilas\
\ para extraer el mineral remanente, \nproceso que se detuvo en Julio de 2001.\
\ Entre esa fec ha y el aรฑo 2003 se continuรณ lavando las \npilas para extraer\
\ el cianuro remanente y durante los aรฑos ven ideros se mantuvo la recirculaciรณn\
\ \nde las soluciones (sin cianuro) para evaporar el agua retenida en las pilas.\
\ \n \nEn la actualidad Guanaco Compaรฑรญa Minera SpA es la actual dueรฑa de la\
\ faena. Guanaco es una \nfaena de la mediana minerรญa ( de acuerdo a la modificaciรณn\
\ de la ley 20.551), la cual se encuentra \ndedicada a la explotaciรณn y procesamiento\
\ de minerales de oro y plata, a una tasa mรกxima de \nprocesamiento de 2000 tpd,\
\ de acuerdo a la Res.Nยบ992/2010 y Res Nยฐ 506/2013."
- "No obstante, se tendrรก un ingreso restringido a personal dedicado a las \nactividades\
\ del control y mantenciรณn, mientras MLC continรบe con sus actividades; \nx Se\
\ adoptarรกn medidas de control de emisiones de material particulado y erosiรณn\
\ hรญdrica, tales \ncomo; forestaciรณn, malla corta vientos, malla tendida a nivel\
\ de suelo en el sector del tranque donde \nse producen mayores corrientes de\
\ aire. \nx Minimizar los requerimientos de mantenciรณn post cierre a un grado\
\ prรกctico, en relaciรณn a la \nmantenciรณn del canal perimetral y vigilancia para\
\ garantizar el acceso restringido mientras MLC \ncontinua sus actividades; \n\
x Dejar el canal de contorno asociado un periodo de retorno de 20 aรฑos; \nx Dejar\
\ las defensas ribereรฑas asociado un periodo de retorno de 10.000 aรฑos; \nx Verificar\
\ la estabilidad de los taludes del tranque. \nCon estos รบltimos, se logra controlar\
\ condiciones climรกticas extremas, tales como: \nx Evitar el ingreso de las aguas\
\ lluvias provenientes desde las zonas aledaรฑas exteriores al tranque y \nque\
\ constituyen una cuenca aportante a รฉste, conduciendo estas aguas mediante una\
\ canalizaciรณn \nperimetral para finalmente descargar al rรญo La Ligua. \nx Proteger\
\ el Tranque de Relave Nยฐ4 de las crecidas del rรญo La Ligua. \nx Evacuar las aguas\
\ lluvias que ingresen al interior de la cubeta mediante un vertedero de \nemergencia.\
\ \nx Conducir las aguas desde el vertedero, mediante tuberรญas hasta una piscina\
\ de emergencia, la cual \ntiene como objetivo almacenar y retener este volumen\
\ para su evaporaciรณn."
- "B ORRA DOR \n \n \n \niv \n \nEn Mayo de 2008, Guanaco Compaรฑรญa Minera sometiรณ\
\ al Sistema de Evaluaciรณn de Impacto \nAmbiental el Proyecto Reapertura Mina\
\ Guanaco, el que fue evaluado por la COREMA Regiรณn de \nAntofagasta y calificado\
\ ambientalmente en forma favorable segรบn consta en la Resoluciรณn Exenta \n0251/2009\
\ de fecha 15 de Julio de 2009. \n \nDicho Proyecto tuvo como objetivo la continuaciรณn\
\ de la explotaciรณn de depรณsitos minerales de oro \nsituados en formaciones adyacentes\
\ a la Mina Guanaco mediante el desarrollo de minas a cielo \nabierto y subterrรกneas\
\ para, posteriormente, procesar los minerales y obtener metal dorรฉ. La vida\
\ \nรบtil estimada del Proyecto Reapertura Mina Guanaco en 2009 ascendรญa a 10 incluyendo\
\ 1 aรฑo de \nconstrucciรณn, con base en un ritmo de procesamiento del mineral\
\ de entre 750 a 2.000 tpd de \nmineral fresco de las minas tanto subterrรกneas\
\ como a rajo abierto. \n \nSe estimรณ que durante la vida รบtil del Proyecto, se\
\ removerรญan desde los rajos entre 2 y 3 millones \nde toneladas de material y\
\ otros 10 a 12 millones de toneladas de material provendrรญan de las \nminas subterrรกneas.\
\ Con ello el material total a remover serรญa del orden de las 12 a 15 millones\
\ \ntoneladas y el material estรฉril corresponderรญa a 7 a 9 millones de toneladas.\
\ Dependiendo de la \ntasa de procesamiento del mineral la producciรณn anual serรญa\
\ de aproximadamente de 100 a 150 mil \nonzas de plata y 100 mil onzas de oro\
\ contenidas en metal dorรฉ. \n \nEl proyecto de Reapertura estableciรณ la utilizaciรณn\
\ de sus antiguas instalaciones, complementadas \ncon los nuevos procesos implementados."
pipeline_tag: sentence-similarity
library_name: sentence-transformers
---
# SentenceTransformer based on sentence-transformers/all-MiniLM-L6-v2
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2) on the json dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2) <!-- at revision fa97f6e7cb1a59073dff9e6b13e2715cf7475ac9 -->
- **Maximum Sequence Length:** 256 tokens
- **Output Dimensionality:** 384 dimensions
- **Similarity Function:** Cosine Similarity
- **Training Dataset:**
- json
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the ๐ค Hub
model = SentenceTransformer("GbrlOl/finetune-embedding-all-MiniLM-L6-v2-geotechnical-test-v2")
# Run inference
sentences = [
'ยฟCuรกl fue la vida รบtil estimada del Proyecto Reapertura Mina Guanaco en 2009?',
'B ORRA DOR \n \n \n \niv \n \nEn Mayo de 2008, Guanaco Compaรฑรญa Minera sometiรณ al Sistema de Evaluaciรณn de Impacto \nAmbiental el Proyecto Reapertura Mina Guanaco, el que fue evaluado por la COREMA Regiรณn de \nAntofagasta y calificado ambientalmente en forma favorable segรบn consta en la Resoluciรณn Exenta \n0251/2009 de fecha 15 de Julio de 2009. \n \nDicho Proyecto tuvo como objetivo la continuaciรณn de la explotaciรณn de depรณsitos minerales de oro \nsituados en formaciones adyacentes a la Mina Guanaco mediante el desarrollo de minas a cielo \nabierto y subterrรกneas para, posteriormente, procesar los minerales y obtener metal dorรฉ. La vida \nรบtil estimada del Proyecto Reapertura Mina Guanaco en 2009 ascendรญa a 10 incluyendo 1 aรฑo de \nconstrucciรณn, con base en un ritmo de procesamiento del mineral de entre 750 a 2.000 tpd de \nmineral fresco de las minas tanto subterrรกneas como a rajo abierto. \n \nSe estimรณ que durante la vida รบtil del Proyecto, se removerรญan desde los rajos entre 2 y 3 millones \nde toneladas de material y otros 10 a 12 millones de toneladas de material provendrรญan de las \nminas subterrรกneas. Con ello el material total a remover serรญa del orden de las 12 a 15 millones \ntoneladas y el material estรฉril corresponderรญa a 7 a 9 millones de toneladas. Dependiendo de la \ntasa de procesamiento del mineral la producciรณn anual serรญa de aproximadamente de 100 a 150 mil \nonzas de plata y 100 mil onzas de oro contenidas en metal dorรฉ. \n \nEl proyecto de Reapertura estableciรณ la utilizaciรณn de sus antiguas instalaciones, complementadas \ncon los nuevos procesos implementados.',
'Proyecto que finalmente no se materializรณ por parte \nde Amax Guanaco. \n \nEn 1998 Compaรฑรญa Minera Amax Guanaco es adquirida por Kinross Gold Corporation formando \nuna sociedad llamada Minera Kinam Guanaco. Las faenas de extracciรณn fueron paralizadas ese \nmismo aรฑo manteniรฉndose sรณlo la irrigaciรณn de las pilas para extraer el mineral remanente, \nproceso que se detuvo en Julio de 2001. Entre esa fec ha y el aรฑo 2003 se continuรณ lavando las \npilas para extraer el cianuro remanente y durante los aรฑos ven ideros se mantuvo la recirculaciรณn \nde las soluciones (sin cianuro) para evaporar el agua retenida en las pilas. \n \nEn la actualidad Guanaco Compaรฑรญa Minera SpA es la actual dueรฑa de la faena. Guanaco es una \nfaena de la mediana minerรญa ( de acuerdo a la modificaciรณn de la ley 20.551), la cual se encuentra \ndedicada a la explotaciรณn y procesamiento de minerales de oro y plata, a una tasa mรกxima de \nprocesamiento de 2000 tpd, de acuerdo a la Res.Nยบ992/2010 y Res Nยฐ 506/2013.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### json
* Dataset: json
* Size: 1,412 training samples
* Columns: <code>query</code>, <code>sentence</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
| | query | sentence | label |
|:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:------------------------------------------------|
| type | string | string | int |
| details | <ul><li>min: 9 tokens</li><li>mean: 25.89 tokens</li><li>max: 69 tokens</li></ul> | <ul><li>min: 54 tokens</li><li>mean: 237.63 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>0: ~54.60%</li><li>1: ~45.40%</li></ul> |
* Samples:
| query | sentence | label |
|:-----------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
| <code>ยฟSe utilizaron antecedentes geolรณgicos?</code> | <code>B ORRA DOR <br> <br> <br> <br>iii <br> <br>La Mina Guanaco, estรก ubicada en la Comuna de Taltal, Provincia de Antofagasta, a 220 km al <br>sureste de la ciudad de la ciudad homรณnima, a una altitud cercana a los 2.700 msnm. <br> <br>Cuenta con seis minas donde el tipo de explotaciรณn es a rajo abierto y subterrรกnea. Las minas que <br>componen las minas a rajo abierto son cuatro y corresponden a: โDefensa, Dumbo, Perseverancia <br>y Quillotaโ. Las minas subterrรกneas son dos y corresponden a โCachinalito y Salvadoraโ. <br> <br>El distrito minero El Guanaco es conocido desde fine s del siglo pasado, cuando habitantes del <br>poblado de la Aguada de Ca chinal, que surtรญan agua a las minas de Cachinal de la Sierra, <br>descubrieron evidencias de mineralizaciรณn aurรญfera en vetas de baritina. El mineral producido a <br>partir de 1886 fue tratado por amalgamaciรณn en Taltal. Hasta el aรฑo 1890, se habrรญan producido <br>mรกs de 6.000 kg de oro, transportando la producciรณn en ferrocarril que unรญa El Guanaco con Taltal. <br> <br>La mayor parte de la acti...</code> | <code>0</code> |
| <code>La compactaciรณn de los relaves filtrados es por Proctor Normal o Estรกndar, o Proctor Modificado?</code> | <code>Configuraciรณn intermedia del Botadero Sur y secciones para el anรกlisis ...................................... 12 <br>Figura 8-3. Verificaciรณn de la distancia de exclusiรณn, para un sismo mรกximo sismo creรญble ICOLD (Depรณsito <br>de Relaves Filtrados y borde de la Plataforma-4432) ............................................................... 14 <br>Figura 8-4. Verificaciรณn de la distancia de exclusiรณn, para un mรกximo sismo creรญble del ICOLD (Acopio de <br>Mineral y Plataforma-4473) ........................................................................................................ 15 <br>Figura 8-5. Esquema de distancia de afectaciรณn en caso hipotรฉtico de falla del depรณsit o de relaves ............ 16 <br>Figura 8-6. Esquema de distancia de afectaciรณn en caso hipotรฉtico de falla del depรณsito de relaves y <br>botadero Sur .............................................................................................................................. 17 <br> <br>Apรฉndice <br>Apรฉndice A: Anรกlisis de Estabilidad Config...</code> | <code>0</code> |
| <code>ยฟCuรกl es el mรฉtodo de compactaciรณn del muro de embalse: proctor modificado, proctor normal o densidad relativa?</code> | <code>43 <br> <br> <br>6.1. Identificaciรณn de las Medidas de Cierre de las Instalaciones <br> <br>La identificaciรณn de medidas especรญficas que se realizarรกn se detalla en las tablas Nยฐ 34 y Nยฐ 35 <br>del presente Informe. <br> <br>Tabla 34. Identificaciรณn actividades de cierre del plan de cierre minero y RCA <br>RCA Instalaciรณn Compromisos <br>251/2009 <br>Equipos de Proceso <br>e Instalaciones <br>Auxiliares <br>Se retirarรกn todos los equipos de proceso, como el chancador, <br>correas transportadoras, tuberรญas de proceso, lรญneas elรฉctricas, <br>estanques de proceso, etc., en el caso de que estos no se <br>requieran para actividades o proyectos posteriores. <br>Se retirarรกn las estructuras y elementos arquitectรณnicos de los <br>edificios e instalaciones auxiliares si รฉstos crearan situaciones de <br>riesgo para las personas. El รกrea del Proyecto se dejarรก libre de <br>chatarras y desechos que puedan constituir riesgos para las <br>personas. <br>Los terrenos alterados con rellenos o cortes para el <br>emplazamiento de edificios, piscinas de proceso e instalacio...</code> | <code>0</code> |
* Loss: [<code>CoSENTLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosentloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "pairwise_cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `per_device_train_batch_size`: 16
- `per_device_eval_batch_size`: 16
- `learning_rate`: 2e-05
- `num_train_epochs`: 100
- `warmup_ratio`: 0.1
- `fp16`: True
- `batch_sampler`: no_duplicates
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: no
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 16
- `per_device_eval_batch_size`: 16
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 2e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 100
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.1
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: True
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `dispatch_batches`: None
- `split_batches`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: proportional
</details>
### Training Logs
| Epoch | Step | Training Loss |
|:-------:|:----:|:-------------:|
| 2.7222 | 100 | 4.5637 |
| 5.4167 | 200 | 1.6848 |
| 8.1111 | 300 | 0.4771 |
| 10.8333 | 400 | 0.1894 |
| 13.5278 | 500 | 0.0413 |
| 16.2222 | 600 | 0.019 |
| 18.9444 | 700 | 0.0085 |
| 21.6389 | 800 | 0.0088 |
| 24.3333 | 900 | 0.0097 |
| 27.0278 | 1000 | 0.0 |
| 29.75 | 1100 | 0.0001 |
| 32.4444 | 1200 | 0.0 |
| 35.1389 | 1300 | 0.0 |
| 37.8611 | 1400 | 0.0 |
| 40.5556 | 1500 | 0.0 |
| 43.25 | 1600 | 0.0 |
| 45.9722 | 1700 | 0.0 |
| 48.6667 | 1800 | 0.0 |
| 51.3611 | 1900 | 0.0 |
| 54.0556 | 2000 | 0.0 |
| 56.7778 | 2100 | 0.0 |
| 59.4722 | 2200 | 0.0 |
| 62.1667 | 2300 | 0.0 |
| 64.8889 | 2400 | 0.0 |
| 67.5833 | 2500 | 0.0 |
| 70.2778 | 2600 | 0.0 |
| 73.0 | 2700 | 0.0 |
| 75.6944 | 2800 | 0.0 |
| 78.3889 | 2900 | 0.0 |
| 81.0833 | 3000 | 0.0 |
| 83.8056 | 3100 | 0.0 |
| 86.5 | 3200 | 0.0 |
| 89.1944 | 3300 | 0.0 |
| 91.9167 | 3400 | 0.0 |
| 94.6111 | 3500 | 0.0 |
| 97.3056 | 3600 | 0.0 |
### Framework Versions
- Python: 3.10.16
- Sentence Transformers: 3.3.1
- Transformers: 4.48.1
- PyTorch: 2.5.1+cu124
- Accelerate: 1.3.0
- Datasets: 3.2.0
- Tokenizers: 0.21.0
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
#### CoSENTLoss
```bibtex
@online{kexuefm-8847,
title={CoSENT: A more efficient sentence vector scheme than Sentence-BERT},
author={Su Jianlin},
year={2022},
month={Jan},
url={https://kexue.fm/archives/8847},
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
--> |
lesso10/dfa24bea-c21b-46a7-811a-730fb259057d | lesso10 | 2025-01-24T00:23:48Z | 6 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:oopsung/llama2-7b-koNqa-test-v1",
"base_model:adapter:oopsung/llama2-7b-koNqa-test-v1",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:07:50Z | ---
library_name: peft
base_model: oopsung/llama2-7b-koNqa-test-v1
tags:
- axolotl
- generated_from_trainer
model-index:
- name: dfa24bea-c21b-46a7-811a-730fb259057d
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: oopsung/llama2-7b-koNqa-test-v1
bf16: true
chat_template: llama3
datasets:
- data_files:
- 867d3433e74b00eb_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/867d3433e74b00eb_train_data.json
type:
field_instruction: url
field_output: text
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: 2
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
flash_attention: false
fp16: false
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: false
hub_model_id: lesso10/dfa24bea-c21b-46a7-811a-730fb259057d
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 25
micro_batch_size: 2
mlflow_experiment_name: /tmp/867d3433e74b00eb_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: c778556e-b6d6-4652-a6d6-7ec10e67e497
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: c778556e-b6d6-4652-a6d6-7ec10e67e497
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# dfa24bea-c21b-46a7-811a-730fb259057d
This model is a fine-tuned version of [oopsung/llama2-7b-koNqa-test-v1](https://huggingface.co/oopsung/llama2-7b-koNqa-test-v1) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 25
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0001 | 1 | nan |
| 0.0 | 0.0004 | 5 | nan |
| 0.0 | 0.0008 | 10 | nan |
| 1.0811 | 0.0013 | 15 | nan |
| 0.0 | 0.0017 | 20 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
philip-hightech/db654c7d-12cd-4c1a-90ff-9f2095ddd0ae | philip-hightech | 2025-01-24T00:20:10Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:openlm-research/open_llama_3b",
"base_model:adapter:openlm-research/open_llama_3b",
"license:apache-2.0",
"region:us"
] | null | 2025-01-24T00:16:45Z | ---
library_name: peft
license: apache-2.0
base_model: openlm-research/open_llama_3b
tags:
- axolotl
- generated_from_trainer
model-index:
- name: db654c7d-12cd-4c1a-90ff-9f2095ddd0ae
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: openlm-research/open_llama_3b
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- b870a12bb86df2ef_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/b870a12bb86df2ef_train_data.json
type:
field_instruction: premises
field_output: hypothesis
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: philip-hightech/db654c7d-12cd-4c1a-90ff-9f2095ddd0ae
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/b870a12bb86df2ef_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
special_tokens:
pad_token: </s>
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 5c11f8e4-7a4d-4298-a633-453fe28a8bed
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 5c11f8e4-7a4d-4298-a633-453fe28a8bed
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# db654c7d-12cd-4c1a-90ff-9f2095ddd0ae
This model is a fine-tuned version of [openlm-research/open_llama_3b](https://huggingface.co/openlm-research/open_llama_3b) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.2665
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 1.503 | 0.0003 | 1 | 1.7694 |
| 1.836 | 0.0008 | 3 | 1.7627 |
| 1.6722 | 0.0016 | 6 | 1.6697 |
| 1.2128 | 0.0024 | 9 | 1.2665 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
trenden/0611fc9b-eb3c-4c95-a350-acd11a78fd5e | trenden | 2025-01-24T00:17:27Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/SmolLM-360M",
"base_model:adapter:unsloth/SmolLM-360M",
"license:apache-2.0",
"region:us"
] | null | 2025-01-24T00:16:50Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/SmolLM-360M
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 0611fc9b-eb3c-4c95-a350-acd11a78fd5e
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/SmolLM-360M
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- d6c4deff482e7d75_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/d6c4deff482e7d75_train_data.json
type:
field_input: ''
field_instruction: tags
field_output: text
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: trenden/0611fc9b-eb3c-4c95-a350-acd11a78fd5e
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/d6c4deff482e7d75_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 7d2a80b2-36ea-4e27-8d0d-fcbf5c534433
wandb_project: Birthday-SN56-3-Gradients-On-Demand
wandb_run: your_name
wandb_runid: 7d2a80b2-36ea-4e27-8d0d-fcbf5c534433
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 0611fc9b-eb3c-4c95-a350-acd11a78fd5e
This model is a fine-tuned version of [unsloth/SmolLM-360M](https://huggingface.co/unsloth/SmolLM-360M) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0035 | 1 | nan |
| 0.0 | 0.0106 | 3 | nan |
| 0.0 | 0.0212 | 6 | nan |
| 0.0 | 0.0318 | 9 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
gavrilstep/ba5e57a6-63fb-4148-927c-ca5a47000f0c | gavrilstep | 2025-01-24T00:16:08Z | 8 | 0 | peft | [
"peft",
"safetensors",
"mistral",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/mistral-7b-instruct-v0.2",
"base_model:adapter:unsloth/mistral-7b-instruct-v0.2",
"license:apache-2.0",
"4-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T23:57:29Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/mistral-7b-instruct-v0.2
tags:
- axolotl
- generated_from_trainer
model-index:
- name: ba5e57a6-63fb-4148-927c-ca5a47000f0c
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/mistral-7b-instruct-v0.2
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 87ec749fe2b79cda_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/87ec749fe2b79cda_train_data.json
type:
field_instruction: instruction
field_output: response
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device: cuda
early_stopping_patience: null
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
evals_per_epoch: null
flash_attention: false
fp16: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: false
hub_model_id: gavrilstep/ba5e57a6-63fb-4148-927c-ca5a47000f0c
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: true
load_in_8bit: false
local_rank: null
logging_steps: 3
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_memory:
0: 75GiB
max_steps: 30
micro_batch_size: 2
mlflow_experiment_name: /tmp/87ec749fe2b79cda_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_torch
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: true
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: b8920e83-97f6-4d23-a43c-8aff64ccf85b
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: b8920e83-97f6-4d23-a43c-8aff64ccf85b
warmup_steps: 10
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# ba5e57a6-63fb-4148-927c-ca5a47000f0c
This model is a fine-tuned version of [unsloth/mistral-7b-instruct-v0.2](https://huggingface.co/unsloth/mistral-7b-instruct-v0.2) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 30
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0002 | 1 | nan |
| 0.0 | 0.0011 | 5 | nan |
| 0.0 | 0.0022 | 10 | nan |
| 0.0 | 0.0033 | 15 | nan |
| 0.0 | 0.0043 | 20 | nan |
| 0.0 | 0.0054 | 25 | nan |
| 0.0 | 0.0065 | 30 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
aleegis09/689c61aa-85e4-460a-9f37-3732bc2af4e8 | aleegis09 | 2025-01-24T00:14:34Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Llama-3.1-Storm-8B",
"base_model:adapter:unsloth/Llama-3.1-Storm-8B",
"license:llama3.1",
"region:us"
] | null | 2025-01-23T23:31:26Z | ---
library_name: peft
license: llama3.1
base_model: unsloth/Llama-3.1-Storm-8B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 689c61aa-85e4-460a-9f37-3732bc2af4e8
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Llama-3.1-Storm-8B
bf16: true
chat_template: llama3
data_processes: 16
dataset_prepared_path: null
datasets:
- data_files:
- 935541efcc64f82d_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/935541efcc64f82d_train_data.json
type:
field_instruction: document
field_output: query
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device_map: auto
do_eval: true
early_stopping_patience: 5
eval_batch_size: 4
eval_max_new_tokens: 128
eval_steps: 50
eval_table_size: null
evals_per_epoch: null
flash_attention: true
fp16: false
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: aleegis09/689c61aa-85e4-460a-9f37-3732bc2af4e8
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0001
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 128
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 64
lora_target_linear: true
lr_scheduler: cosine
max_grad_norm: 1.0
max_memory:
0: 75GB
max_steps: 200
micro_batch_size: 8
mlflow_experiment_name: /tmp/935541efcc64f82d_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 3
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 50
saves_per_epoch: null
sequence_len: 1024
strict: false
tf32: true
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 6b070b86-583e-4c98-a10d-d6688cb70e68
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 6b070b86-583e-4c98-a10d-d6688cb70e68
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 689c61aa-85e4-460a-9f37-3732bc2af4e8
This model is a fine-tuned version of [unsloth/Llama-3.1-Storm-8B](https://huggingface.co/unsloth/Llama-3.1-Storm-8B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.0263
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 8
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 4.1959 | 0.0007 | 1 | 4.0230 |
| 1.0026 | 0.0367 | 50 | 1.1273 |
| 0.9532 | 0.0733 | 100 | 1.0688 |
| 1.0209 | 0.1100 | 150 | 1.0329 |
| 0.8083 | 0.1466 | 200 | 1.0263 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
nathanialhunt/1a6a2741-4fbc-4993-88b1-81e83cc2ea7a | nathanialhunt | 2025-01-24T00:14:20Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Meta-Llama-3.1-8B-Instruct",
"base_model:adapter:unsloth/Meta-Llama-3.1-8B-Instruct",
"license:llama3.1",
"region:us"
] | null | 2025-01-23T23:15:51Z | ---
library_name: peft
license: llama3.1
base_model: unsloth/Meta-Llama-3.1-8B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 1a6a2741-4fbc-4993-88b1-81e83cc2ea7a
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Meta-Llama-3.1-8B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 7ba07ca9e842566a_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/7ba07ca9e842566a_train_data.json
type:
field_instruction: code
field_output: docstring
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: nathanialhunt/1a6a2741-4fbc-4993-88b1-81e83cc2ea7a
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/7ba07ca9e842566a_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 9943ba63-829b-480c-96a4-17d5a201c545
wandb_project: Birthday-SN56-5-Gradients-On-Demand
wandb_run: your_name
wandb_runid: 9943ba63-829b-480c-96a4-17d5a201c545
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 1a6a2741-4fbc-4993-88b1-81e83cc2ea7a
This model is a fine-tuned version of [unsloth/Meta-Llama-3.1-8B-Instruct](https://huggingface.co/unsloth/Meta-Llama-3.1-8B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0000 | 1 | nan |
| 0.0 | 0.0001 | 3 | nan |
| 0.0 | 0.0001 | 6 | nan |
| 0.0 | 0.0002 | 9 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
prxy5605/e46a4a55-0a60-4416-baf7-bda65e3e5bc0 | prxy5605 | 2025-01-24T00:12:57Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Hermes-3-Llama-3.1-8B",
"base_model:adapter:unsloth/Hermes-3-Llama-3.1-8B",
"region:us"
] | null | 2025-01-23T23:42:52Z | ---
library_name: peft
base_model: unsloth/Hermes-3-Llama-3.1-8B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: e46a4a55-0a60-4416-baf7-bda65e3e5bc0
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Hermes-3-Llama-3.1-8B
bf16: true
chat_template: llama3
data_processes: 16
dataset_prepared_path: null
datasets:
- data_files:
- e9a08c00192565f5_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/e9a08c00192565f5_train_data.json
type:
field_input: phonemes
field_instruction: text
field_output: text_description
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device_map: auto
do_eval: true
early_stopping_patience: 5
eval_batch_size: 4
eval_max_new_tokens: 128
eval_steps: 50
eval_table_size: null
evals_per_epoch: null
flash_attention: true
fp16: false
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: prxy5605/e46a4a55-0a60-4416-baf7-bda65e3e5bc0
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0001
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 128
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 64
lora_target_linear: true
lr_scheduler: cosine
max_grad_norm: 1.0
max_memory:
0: 75GB
max_steps: 200
micro_batch_size: 8
mlflow_experiment_name: /tmp/e9a08c00192565f5_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 3
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 50
saves_per_epoch: null
sequence_len: 1024
strict: false
tf32: true
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 94eb7de6-8eee-4dc6-b36d-48325400060a
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 94eb7de6-8eee-4dc6-b36d-48325400060a
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# e46a4a55-0a60-4416-baf7-bda65e3e5bc0
This model is a fine-tuned version of [unsloth/Hermes-3-Llama-3.1-8B](https://huggingface.co/unsloth/Hermes-3-Llama-3.1-8B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.8106
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 8
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 2.7379 | 0.0029 | 1 | 4.1493 |
| 0.9606 | 0.1427 | 50 | 0.9248 |
| 0.9818 | 0.2853 | 100 | 0.8547 |
| 1.0108 | 0.4280 | 150 | 0.8175 |
| 0.9732 | 0.5706 | 200 | 0.8106 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
dimasik2987/c4e952c5-e3c0-4633-858f-ac59b47b87d3 | dimasik2987 | 2025-01-24T00:09:44Z | 9 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:openlm-research/open_llama_3b",
"base_model:adapter:openlm-research/open_llama_3b",
"license:apache-2.0",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T23:38:54Z | ---
library_name: peft
license: apache-2.0
base_model: openlm-research/open_llama_3b
tags:
- axolotl
- generated_from_trainer
model-index:
- name: c4e952c5-e3c0-4633-858f-ac59b47b87d3
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: openlm-research/open_llama_3b
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- b870a12bb86df2ef_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/b870a12bb86df2ef_train_data.json
type:
field_instruction: premises
field_output: hypothesis
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device: cuda
early_stopping_patience: 1
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
evals_per_epoch: null
flash_attention: false
fp16: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: true
hub_model_id: dimasik2987/c4e952c5-e3c0-4633-858f-ac59b47b87d3
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: true
local_rank: null
logging_steps: 3
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_memory:
0: 79GiB
max_steps: 30
micro_batch_size: 4
mlflow_experiment_name: /tmp/b870a12bb86df2ef_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 1024
special_tokens:
pad_token: </s>
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: true
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 5c11f8e4-7a4d-4298-a633-453fe28a8bed
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 5c11f8e4-7a4d-4298-a633-453fe28a8bed
warmup_steps: 5
weight_decay: 0.001
xformers_attention: true
```
</details><br>
# c4e952c5-e3c0-4633-858f-ac59b47b87d3
This model is a fine-tuned version of [openlm-research/open_llama_3b](https://huggingface.co/openlm-research/open_llama_3b) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.7758
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 16
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 30
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0005 | 1 | 3.4901 |
| 2.6317 | 0.0026 | 5 | 3.3171 |
| 2.2542 | 0.0053 | 10 | 2.3986 |
| 2.0174 | 0.0079 | 15 | 2.0816 |
| 2.0729 | 0.0106 | 20 | 1.8731 |
| 1.9398 | 0.0132 | 25 | 1.7913 |
| 1.9401 | 0.0159 | 30 | 1.7758 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
dannnnthemannnn/model-debug-phi-4-predictions-polymarket-1-22 | dannnnthemannnn | 2025-01-24T00:06:37Z | 7 | 0 | transformers | [
"transformers",
"safetensors",
"llama",
"text-generation",
"text-generation-inference",
"unsloth",
"trl",
"conversational",
"en",
"base_model:unsloth/phi-4",
"base_model:finetune:unsloth/phi-4",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | text-generation | 2025-01-24T00:00:10Z | ---
base_model: unsloth/phi-4
tags:
- text-generation-inference
- transformers
- unsloth
- llama
- trl
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** dannnnthemannnn
- **License:** apache-2.0
- **Finetuned from model :** unsloth/phi-4
This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
haryoaw/cola_Qwen-Qwen2.5-0.5B_4_0 | haryoaw | 2025-01-24T00:06:30Z | 10 | 0 | transformers | [
"transformers",
"safetensors",
"qwen2",
"text-generation",
"conversational",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] | text-generation | 2025-01-23T23:50:28Z | ---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a ๐ค transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed] |
thangla01/025bcbac-958c-4eb3-8626-52674cb368e8 | thangla01 | 2025-01-24T00:06:30Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:Korabbit/llama-2-ko-7b",
"base_model:adapter:Korabbit/llama-2-ko-7b",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:54:31Z | ---
library_name: peft
base_model: Korabbit/llama-2-ko-7b
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 025bcbac-958c-4eb3-8626-52674cb368e8
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Korabbit/llama-2-ko-7b
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 2f9d17f500743687_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/2f9d17f500743687_train_data.json
type:
field_instruction: text
field_output: title
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: thangla01/025bcbac-958c-4eb3-8626-52674cb368e8
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/2f9d17f500743687_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
special_tokens:
pad_token: </s>
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 98af1e55-ce5e-4ee3-ab3e-4e976ed9c6af
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 98af1e55-ce5e-4ee3-ab3e-4e976ed9c6af
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 025bcbac-958c-4eb3-8626-52674cb368e8
This model is a fine-tuned version of [Korabbit/llama-2-ko-7b](https://huggingface.co/Korabbit/llama-2-ko-7b) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.9292
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 1.7723 | 0.0047 | 200 | 1.9292 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
kostiantynk-out/9f03df53-9e35-48fc-946f-a45dbe997bba | kostiantynk-out | 2025-01-24T00:04:55Z | 6 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/SmolLM-360M",
"base_model:adapter:unsloth/SmolLM-360M",
"license:apache-2.0",
"region:us"
] | null | 2025-01-24T00:04:18Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/SmolLM-360M
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 9f03df53-9e35-48fc-946f-a45dbe997bba
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/SmolLM-360M
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- d6c4deff482e7d75_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/d6c4deff482e7d75_train_data.json
type:
field_input: ''
field_instruction: tags
field_output: text
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: kostiantynk-out/9f03df53-9e35-48fc-946f-a45dbe997bba
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/d6c4deff482e7d75_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 7d2a80b2-36ea-4e27-8d0d-fcbf5c534433
wandb_project: Mine-SN56-1-Gradients-On-Demand
wandb_run: your_name
wandb_runid: 7d2a80b2-36ea-4e27-8d0d-fcbf5c534433
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 9f03df53-9e35-48fc-946f-a45dbe997bba
This model is a fine-tuned version of [unsloth/SmolLM-360M](https://huggingface.co/unsloth/SmolLM-360M) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0035 | 1 | nan |
| 0.0 | 0.0106 | 3 | nan |
| 0.0 | 0.0212 | 6 | nan |
| 0.0 | 0.0318 | 9 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
datlaaaaaaa/74d91348-564d-4650-89e9-2b8e542295ab | datlaaaaaaa | 2025-01-24T00:04:15Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen2-7B-Instruct",
"base_model:adapter:Qwen/Qwen2-7B-Instruct",
"license:apache-2.0",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:30:31Z | ---
library_name: peft
license: apache-2.0
base_model: Qwen/Qwen2-7B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 74d91348-564d-4650-89e9-2b8e542295ab
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen2-7B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 292fa1f5b3822849_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/292fa1f5b3822849_train_data.json
type:
field_input: ''
field_instruction: prompt
field_output: my_solu
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: datlaaaaaaa/74d91348-564d-4650-89e9-2b8e542295ab
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/292fa1f5b3822849_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 5e578b14-e915-4706-8302-b00906cfb773
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 5e578b14-e915-4706-8302-b00906cfb773
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 74d91348-564d-4650-89e9-2b8e542295ab
This model is a fine-tuned version of [Qwen/Qwen2-7B-Instruct](https://huggingface.co/Qwen/Qwen2-7B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.3455
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.3506 | 0.0122 | 200 | 0.3455 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
myhaaaaaaa/2b70e8e7-d11c-4816-9773-4bb3eebe6f13 | myhaaaaaaa | 2025-01-24T00:02:53Z | 6 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:NousResearch/Hermes-3-Llama-3.1-8B",
"base_model:adapter:NousResearch/Hermes-3-Llama-3.1-8B",
"license:llama3",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T23:16:49Z | ---
library_name: peft
license: llama3
base_model: NousResearch/Hermes-3-Llama-3.1-8B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 2b70e8e7-d11c-4816-9773-4bb3eebe6f13
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: NousResearch/Hermes-3-Llama-3.1-8B
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 538661bb7d6053e0_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/538661bb7d6053e0_train_data.json
type:
field_input: comment
field_instruction: prompt
field_output: chosen
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: myhaaaaaaa/2b70e8e7-d11c-4816-9773-4bb3eebe6f13
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/538661bb7d6053e0_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 9f67393a-7634-47cf-80e0-d495eec5feb2
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 9f67393a-7634-47cf-80e0-d495eec5feb2
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 2b70e8e7-d11c-4816-9773-4bb3eebe6f13
This model is a fine-tuned version of [NousResearch/Hermes-3-Llama-3.1-8B](https://huggingface.co/NousResearch/Hermes-3-Llama-3.1-8B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.6517
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.6326 | 0.2004 | 200 | 0.6517 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
kostiantynk-out/ae0eec6d-c65b-41c5-93aa-747e8f15334d | kostiantynk-out | 2025-01-24T00:02:47Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen2-1.5B-Instruct",
"base_model:adapter:Qwen/Qwen2-1.5B-Instruct",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T23:56:19Z | ---
library_name: peft
license: apache-2.0
base_model: Qwen/Qwen2-1.5B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: ae0eec6d-c65b-41c5-93aa-747e8f15334d
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen2-1.5B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- e3c2e5c8dcde7214_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/e3c2e5c8dcde7214_train_data.json
type:
field_instruction: article
field_output: lead
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: kostiantynk-out/ae0eec6d-c65b-41c5-93aa-747e8f15334d
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/e3c2e5c8dcde7214_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: f4d8284c-5447-4755-b91b-3a6f7963c739
wandb_project: Mine-SN56-1-Gradients-On-Demand
wandb_run: your_name
wandb_runid: f4d8284c-5447-4755-b91b-3a6f7963c739
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# ae0eec6d-c65b-41c5-93aa-747e8f15334d
This model is a fine-tuned version of [Qwen/Qwen2-1.5B-Instruct](https://huggingface.co/Qwen/Qwen2-1.5B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.5761
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 2.3024 | 0.0001 | 1 | 1.8157 |
| 1.4411 | 0.0003 | 3 | 1.8125 |
| 1.8316 | 0.0006 | 6 | 1.7589 |
| 2.0221 | 0.0009 | 9 | 1.5761 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
robiual-awal/b39c97ec-68e8-46b6-81f8-6ef7caa76d9b | robiual-awal | 2025-01-24T00:02:37Z | 9 | 0 | peft | [
"peft",
"safetensors",
"mistral",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/mistral-7b-instruct-v0.2",
"base_model:adapter:unsloth/mistral-7b-instruct-v0.2",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T23:58:19Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/mistral-7b-instruct-v0.2
tags:
- axolotl
- generated_from_trainer
model-index:
- name: b39c97ec-68e8-46b6-81f8-6ef7caa76d9b
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/mistral-7b-instruct-v0.2
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 87ec749fe2b79cda_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/87ec749fe2b79cda_train_data.json
type:
field_instruction: instruction
field_output: response
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: robiual-awal/b39c97ec-68e8-46b6-81f8-6ef7caa76d9b
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/87ec749fe2b79cda_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: b8920e83-97f6-4d23-a43c-8aff64ccf85b
wandb_project: Birthday-SN56-29-Gradients-On-Demand
wandb_run: your_name
wandb_runid: b8920e83-97f6-4d23-a43c-8aff64ccf85b
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# b39c97ec-68e8-46b6-81f8-6ef7caa76d9b
This model is a fine-tuned version of [unsloth/mistral-7b-instruct-v0.2](https://huggingface.co/unsloth/mistral-7b-instruct-v0.2) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0002 | 1 | nan |
| 0.0 | 0.0007 | 3 | nan |
| 0.0 | 0.0013 | 6 | nan |
| 0.0 | 0.0020 | 9 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
kostiantynk1205/3473a6f2-4c23-4750-a06c-0ad3f6cbbd9e | kostiantynk1205 | 2025-01-24T00:02:31Z | 8 | 0 | peft | [
"peft",
"safetensors",
"mistral",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/mistral-7b-instruct-v0.2",
"base_model:adapter:unsloth/mistral-7b-instruct-v0.2",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T23:58:09Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/mistral-7b-instruct-v0.2
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 3473a6f2-4c23-4750-a06c-0ad3f6cbbd9e
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/mistral-7b-instruct-v0.2
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 87ec749fe2b79cda_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/87ec749fe2b79cda_train_data.json
type:
field_instruction: instruction
field_output: response
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: kostiantynk1205/3473a6f2-4c23-4750-a06c-0ad3f6cbbd9e
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/87ec749fe2b79cda_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: b8920e83-97f6-4d23-a43c-8aff64ccf85b
wandb_project: Birthday-SN56-23-Gradients-On-Demand
wandb_run: your_name
wandb_runid: b8920e83-97f6-4d23-a43c-8aff64ccf85b
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 3473a6f2-4c23-4750-a06c-0ad3f6cbbd9e
This model is a fine-tuned version of [unsloth/mistral-7b-instruct-v0.2](https://huggingface.co/unsloth/mistral-7b-instruct-v0.2) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0002 | 1 | nan |
| 0.0 | 0.0007 | 3 | nan |
| 0.0 | 0.0013 | 6 | nan |
| 0.0 | 0.0020 | 9 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
Best000/aa340c86-4230-440e-b21c-6f13900a864b | Best000 | 2025-01-24T00:00:28Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"custom_code",
"base_model:NousResearch/CodeLlama-13b-hf",
"base_model:adapter:NousResearch/CodeLlama-13b-hf",
"region:us"
] | null | 2025-01-23T23:57:27Z | ---
library_name: peft
base_model: NousResearch/CodeLlama-13b-hf
tags:
- axolotl
- generated_from_trainer
model-index:
- name: aa340c86-4230-440e-b21c-6f13900a864b
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: NousResearch/CodeLlama-13b-hf
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 1f6089850b343ece_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/1f6089850b343ece_train_data.json
type:
field_input: metadata
field_instruction: topic
field_output: prompt
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: Best000/aa340c86-4230-440e-b21c-6f13900a864b
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/1f6089850b343ece_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
special_tokens:
pad_token: </s>
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 3c403089-a403-46d4-a2d8-294e007b654c
wandb_project: Birthday-SN56-16-Gradients-On-Demand
wandb_run: your_name
wandb_runid: 3c403089-a403-46d4-a2d8-294e007b654c
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# aa340c86-4230-440e-b21c-6f13900a864b
This model is a fine-tuned version of [NousResearch/CodeLlama-13b-hf](https://huggingface.co/NousResearch/CodeLlama-13b-hf) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 2.4327
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 10.8636 | 0.0008 | 1 | 2.5861 |
| 8.02 | 0.0025 | 3 | 2.5849 |
| 6.5311 | 0.0050 | 6 | 2.5601 |
| 7.8248 | 0.0075 | 9 | 2.4327 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
mradermacher/SRole_3181-GGUF | mradermacher | 2025-01-23T23:59:33Z | 365 | 0 | transformers | [
"transformers",
"gguf",
"mergekit",
"merge",
"en",
"base_model:chain03/SRole_3181",
"base_model:quantized:chain03/SRole_3181",
"endpoints_compatible",
"region:us",
"conversational"
] | null | 2025-01-23T23:01:22Z | ---
base_model: chain03/SRole_3181
language:
- en
library_name: transformers
quantized_by: mradermacher
tags:
- mergekit
- merge
---
## About
<!-- ### quantize_version: 2 -->
<!-- ### output_tensor_quantised: 1 -->
<!-- ### convert_type: hf -->
<!-- ### vocab_type: -->
<!-- ### tags: -->
static quants of https://huggingface.co/chain03/SRole_3181
<!-- provided-files -->
weighted/imatrix quants seem not to be available (by me) at this time. If they do not show up a week or so after the static ones, I have probably not planned for them. Feel free to request them by opening a Community Discussion.
## Usage
If you are unsure how to use GGUF files, refer to one of [TheBloke's
READMEs](https://huggingface.co/TheBloke/KafkaLM-70B-German-V0.1-GGUF) for
more details, including on how to concatenate multi-part files.
## Provided Quants
(sorted by size, not necessarily quality. IQ-quants are often preferable over similar sized non-IQ quants)
| Link | Type | Size/GB | Notes |
|:-----|:-----|--------:|:------|
| [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q2_K.gguf) | Q2_K | 3.3 | |
| [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q3_K_S.gguf) | Q3_K_S | 3.8 | |
| [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q3_K_M.gguf) | Q3_K_M | 4.1 | lower quality |
| [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q3_K_L.gguf) | Q3_K_L | 4.4 | |
| [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.IQ4_XS.gguf) | IQ4_XS | 4.6 | |
| [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q4_K_S.gguf) | Q4_K_S | 4.8 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q4_K_M.gguf) | Q4_K_M | 5.0 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q5_K_S.gguf) | Q5_K_S | 5.7 | |
| [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q5_K_M.gguf) | Q5_K_M | 5.8 | |
| [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q6_K.gguf) | Q6_K | 6.7 | very good quality |
| [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q8_0.gguf) | Q8_0 | 8.6 | fast, best quality |
| [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.f16.gguf) | f16 | 16.2 | 16 bpw, overkill |
Here is a handy graph by ikawrakow comparing some lower-quality quant
types (lower is better):

And here are Artefact2's thoughts on the matter:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
## FAQ / Model Request
See https://huggingface.co/mradermacher/model_requests for some answers to
questions you might have and/or if you want some other model quantized.
## Thanks
I thank my company, [nethype GmbH](https://www.nethype.de/), for letting
me use its servers and providing upgrades to my workstation to enable
this work in my free time.
<!-- end -->
|
thalllsssss/1e6ab4e9-3479-4ab5-8788-601188db3d22 | thalllsssss | 2025-01-23T23:59:23Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Meta-Llama-3.1-8B-Instruct",
"base_model:adapter:unsloth/Meta-Llama-3.1-8B-Instruct",
"license:llama3.1",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:22:47Z | ---
library_name: peft
license: llama3.1
base_model: unsloth/Meta-Llama-3.1-8B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 1e6ab4e9-3479-4ab5-8788-601188db3d22
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Meta-Llama-3.1-8B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 7ba07ca9e842566a_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/7ba07ca9e842566a_train_data.json
type:
field_instruction: code
field_output: docstring
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: thalllsssss/1e6ab4e9-3479-4ab5-8788-601188db3d22
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/7ba07ca9e842566a_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 9943ba63-829b-480c-96a4-17d5a201c545
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 9943ba63-829b-480c-96a4-17d5a201c545
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 1e6ab4e9-3479-4ab5-8788-601188db3d22
This model is a fine-tuned version of [unsloth/Meta-Llama-3.1-8B-Instruct](https://huggingface.co/unsloth/Meta-Llama-3.1-8B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.0066
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0002 | 0.0037 | 200 | 0.0066 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
fedovtt/0f9c51e5-9923-4e51-ac3d-b2c73d531e7b | fedovtt | 2025-01-23T23:57:26Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/codellama-7b",
"base_model:adapter:unsloth/codellama-7b",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T23:55:51Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/codellama-7b
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 0f9c51e5-9923-4e51-ac3d-b2c73d531e7b
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/codellama-7b
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 82163ce5235442c8_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/82163ce5235442c8_train_data.json
type:
field_input: Sequence
field_instruction: Entry
field_output: Protein names
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device: cuda
early_stopping_patience: 1
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
evals_per_epoch: null
flash_attention: false
fp16: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: false
hub_model_id: fedovtt/0f9c51e5-9923-4e51-ac3d-b2c73d531e7b
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 3
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_memory:
0: 78GiB
max_steps: 30
micro_batch_size: 2
mlflow_experiment_name: /tmp/82163ce5235442c8_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_torch
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: true
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 4aa3c918-36ed-4ae0-9dbd-99685797929f
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 4aa3c918-36ed-4ae0-9dbd-99685797929f
warmup_steps: 10
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 0f9c51e5-9923-4e51-ac3d-b2c73d531e7b
This model is a fine-tuned version of [unsloth/codellama-7b](https://huggingface.co/unsloth/codellama-7b) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 30
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0025 | 1 | nan |
| 0.0 | 0.0123 | 5 | nan |
| 0.0 | 0.0247 | 10 | nan |
| 0.0 | 0.0370 | 15 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
JacksonBrune/d3973dcb-d81a-4334-8369-67440bc155c0 | JacksonBrune | 2025-01-23T23:56:56Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/tinyllama-chat",
"base_model:adapter:unsloth/tinyllama-chat",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T23:56:07Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/tinyllama-chat
tags:
- axolotl
- generated_from_trainer
model-index:
- name: d3973dcb-d81a-4334-8369-67440bc155c0
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/tinyllama-chat
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 07830763800e2537_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/07830763800e2537_train_data.json
type:
field_instruction: title
field_output: dialogue
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: JacksonBrune/d3973dcb-d81a-4334-8369-67440bc155c0
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/07830763800e2537_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: aeb7a994-bf0d-40dd-9f20-b17c9de47b12
wandb_project: birthdya-sn56-18-Gradients-On-Demand
wandb_run: your_name
wandb_runid: aeb7a994-bf0d-40dd-9f20-b17c9de47b12
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# d3973dcb-d81a-4334-8369-67440bc155c0
This model is a fine-tuned version of [unsloth/tinyllama-chat](https://huggingface.co/unsloth/tinyllama-chat) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0020 | 1 | nan |
| 0.0 | 0.0061 | 3 | nan |
| 0.0 | 0.0122 | 6 | nan |
| 0.0 | 0.0183 | 9 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
mini1013/master_cate_bc8 | mini1013 | 2025-01-23T23:54:20Z | 566 | 0 | setfit | [
"setfit",
"safetensors",
"roberta",
"sentence-transformers",
"text-classification",
"generated_from_setfit_trainer",
"arxiv:2209.11055",
"base_model:mini1013/master_domain",
"base_model:finetune:mini1013/master_domain",
"model-index",
"region:us"
] | text-classification | 2025-01-23T23:54:00Z | ---
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: ๋์ค์ปค๋ฒ๋ฆฌ์ต์คํ๋์
ํค์ฆ ๋์ค์ปค๋ฒ๋ฆฌ ํค์ฆ ๋ก๊ณ ๋์ฌ๊ฐ๋ ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ๋จ์์์๋ณต
- text: ๋ด๋ฐ๋์คํค์ฆ ๋ด๋ฐ๋์ค ํค์ฆ Beach Lounge ๋์ฌ๊ฐ๋ ์ ๋ 2in1 ์์๋ณต NK9RE2110U ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ >
๋จ์์์๋ณต
- text: ๋ทฐ ์๋ ์๊ฒฝ ์ผ๋ฐ๋ ์ฆ ์ผ๋ณธ V424J LV ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ์๊ฒฝ/์๋ชจ/๊ท๋ง๊ฐ
- text: ๋ฒค๋์ค ์๋ ๋จ์ ์ฌ์ ๋์ฌ๊ฐ๋ ์ธํธ ์ ์ ์์๋ณต P208 28.์์ค๋ํ๋ ๋น์น ๊ฐ๋๊ฑด S207_์ค๋ ์ง_๊ณต์ฉ_7ํธ ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ
> ๋จ์์์๋ณต
- text: ๋น์น๋ ๋ฐํฌ๋ช
์์์ฅ ๋ฐฉ์ ๋น์น๋ฐฑ ๋ชฉ์๊ฐ๋ฐฉ 3์ข
์ธํธ ์ํ์ ํ_ํํฌ์ธํธ ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ์์๊ฐ๋ฐฉ/๋น์น๋ฐฑ
metrics:
- accuracy
pipeline_tag: text-classification
library_name: setfit
inference: true
base_model: mini1013/master_domain
model-index:
- name: SetFit with mini1013/master_domain
results:
- task:
type: text-classification
name: Text Classification
dataset:
name: Unknown
type: unknown
split: test
metrics:
- type: accuracy
value: 1.0
name: Accuracy
---
# SetFit with mini1013/master_domain
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
The model has been trained using an efficient few-shot learning technique that involves:
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
2. Training a classification head with features from the fine-tuned Sentence Transformer.
## Model Details
### Model Description
- **Model Type:** SetFit
- **Sentence Transformer body:** [mini1013/master_domain](https://huggingface.co/mini1013/master_domain)
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
- **Maximum Sequence Length:** 512 tokens
- **Number of Classes:** 4 classes
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
### Model Labels
| Label | Examples |
|:------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 1.0 | <ul><li>'ํ๋ฉ์บก ๋ชจ์ ์์ธ์ ์ฐจ๋จ ์์๋ชจ์ ์ ์ ์๋ ๊ณต์ฉ UV๋ชจ์ C_ํํฌ_M ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ์๊ฒฝ/์๋ชจ/๊ท๋ง๊ฐ'</li><li>'์๊ธฐ๋ฌผ์๊ฒฝ ์ ์๋ฌผ์๊ฒฝ ์ฑ์ธ์ฉ CA01 ํ์ดํธ ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ์๊ฒฝ/์๋ชจ/๊ท๋ง๊ฐ'</li><li>'UV ํ๋ฉ์บก ์๊ธฐ ์ ์ ์๋ ์์๋ชจ์ ๋ฒํทํ ํด๋ณ ์ํฐํํฌ ์์ธ์ ์ฐจ๋จ UVํ๋ฉ์บก_๊ทธ๋ ์ด_S(3์ธ์ดํ) ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ์๊ฒฝ/์๋ชจ/๊ท๋ง๊ฐ'</li></ul> |
| 2.0 | <ul><li>'์ด๋ฆฐ์ด ์์๊ฐ๋ฐฉ ์ ์ ๋น์น๋ฐฑ ์ฌ์ ์ ์น์ ์บ์นํฐ๋ํ C.์์๋ชจ์_47_๋ก์ด๋์ด ์ํํธ_ํ์ดํธ/56 (770297) ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ์์๊ฐ๋ฐฉ/๋น์น๋ฐฑ'</li><li>'์ด๋ฆฐ์ด์์๊ฐ๋ฐฉ ์์์ฅ๊ฐ๋ฐฉ ๋น์น๋ฐฑ ์ ์ ์๋ ์ ์น์ 09.์์ค์_LOL ๋ ํธ๋ก ๋น์น ํธ๋๋ฐฑ(ํํฌ) ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ์์๊ฐ๋ฐฉ/๋น์น๋ฐฑ'</li><li>'๋ฌผ๋น ์ง๋ ๋ฐฉ์ ๋ฉ์ฌ ๋ชฉ์๊ฐ๋ฐฉ ์คํ๋ฐฑ_33.NCCSB11_๋ธ๋ ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ์์๊ฐ๋ฐฉ/๋น์น๋ฐฑ'</li></ul> |
| 0.0 | <ul><li>'๋ ๋
ธ๋ง ์๋ ๋ ์ฌ๋ผ์ ์๋ 4๋ถ ๋จ์๋์์๋ณต A3BB1BF02 ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ๋จ์์์๋ณต'</li><li>'์คํ๋์ฌ์ด๋ฐ์ ์ฌ๊ณ์ ํค์ฆ๋์ฌ๊ฐ๋ ์ผํฐ ์จํธ์ํธ ๋จ์๋์ฌ๊ฐ๋ ๋จ์์์๋ณต ํค์ฆ์์๋ณต ํฐ๊ทธ๋ณด์ธ _XXL(8-10์ธ) ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ๋จ์์์๋ณต'</li><li>'๋์ค์ปค๋ฒ๋ฆฌ์ต์คํ๋์
ํค์ฆ ํค์ฆ ๋ก๊ณ ๋์ฌ๊ฐ๋ L MINT ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ๋จ์์์๋ณต'</li></ul> |
| 3.0 | <ul><li>'์๋ ๋ ์ด๋ฑ์ฌ์ ์ค๋ด์์๋ณต ์ด๋ฑํ์ ํค์ฆ ์ฃผ๋์ด 4๋ถ 5๋ถ ๋ฐ์ ์์กด์์A3FG1GL22 ํํฌ_70 ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ์ฌ์์์๋ณต'</li><li>'๋ฟ๊ณต๋ฃก ์ ์ ๋์ฌ๊ฐ๋(90-120) 204119 ํผ์น90 ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ์ฌ์์์๋ณต'</li><li>'๋ธ๋ฃจ๋
ํํธ์ ํ๋ ์ฌ๊ฐ๋์ธํธ 24940 621 52 ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ์ฌ์์์๋ณต'</li></ul> |
## Evaluation
### Metrics
| Label | Accuracy |
|:--------|:---------|
| **all** | 1.0 |
## Uses
### Direct Use for Inference
First install the SetFit library:
```bash
pip install setfit
```
Then you can load this model and run inference.
```python
from setfit import SetFitModel
# Download from the ๐ค Hub
model = SetFitModel.from_pretrained("mini1013/master_cate_bc8")
# Run inference
preds = model("๋ทฐ ์๋ ์๊ฒฝ ์ผ๋ฐ๋ ์ฆ ์ผ๋ณธ V424J LV ์ถ์ฐ/์ก์ > ์์๋ณต/์ฉํ > ์๊ฒฝ/์๋ชจ/๊ท๋ง๊ฐ")
```
<!--
### Downstream Use
*List how someone could finetune this model on their own dataset.*
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Set Metrics
| Training set | Min | Median | Max |
|:-------------|:----|:--------|:----|
| Word count | 7 | 13.5607 | 24 |
| Label | Training Sample Count |
|:------|:----------------------|
| 0.0 | 70 |
| 1.0 | 70 |
| 2.0 | 70 |
| 3.0 | 70 |
### Training Hyperparameters
- batch_size: (256, 256)
- num_epochs: (30, 30)
- max_steps: -1
- sampling_strategy: oversampling
- num_iterations: 50
- body_learning_rate: (2e-05, 1e-05)
- head_learning_rate: 0.01
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- l2_weight: 0.01
- seed: 42
- eval_max_steps: -1
- load_best_model_at_end: False
### Training Results
| Epoch | Step | Training Loss | Validation Loss |
|:-------:|:----:|:-------------:|:---------------:|
| 0.0182 | 1 | 0.4886 | - |
| 0.9091 | 50 | 0.4981 | - |
| 1.8182 | 100 | 0.3363 | - |
| 2.7273 | 150 | 0.0279 | - |
| 3.6364 | 200 | 0.0001 | - |
| 4.5455 | 250 | 0.0 | - |
| 5.4545 | 300 | 0.0 | - |
| 6.3636 | 350 | 0.0 | - |
| 7.2727 | 400 | 0.0 | - |
| 8.1818 | 450 | 0.0 | - |
| 9.0909 | 500 | 0.0 | - |
| 10.0 | 550 | 0.0 | - |
| 10.9091 | 600 | 0.0 | - |
| 11.8182 | 650 | 0.0 | - |
| 12.7273 | 700 | 0.0 | - |
| 13.6364 | 750 | 0.0 | - |
| 14.5455 | 800 | 0.0 | - |
| 15.4545 | 850 | 0.0 | - |
| 16.3636 | 900 | 0.0 | - |
| 17.2727 | 950 | 0.0 | - |
| 18.1818 | 1000 | 0.0 | - |
| 19.0909 | 1050 | 0.0 | - |
| 20.0 | 1100 | 0.0 | - |
| 20.9091 | 1150 | 0.0 | - |
| 21.8182 | 1200 | 0.0 | - |
| 22.7273 | 1250 | 0.0 | - |
| 23.6364 | 1300 | 0.0 | - |
| 24.5455 | 1350 | 0.0 | - |
| 25.4545 | 1400 | 0.0 | - |
| 26.3636 | 1450 | 0.0 | - |
| 27.2727 | 1500 | 0.0 | - |
| 28.1818 | 1550 | 0.0 | - |
| 29.0909 | 1600 | 0.0 | - |
| 30.0 | 1650 | 0.0 | - |
### Framework Versions
- Python: 3.10.12
- SetFit: 1.1.0
- Sentence Transformers: 3.3.1
- Transformers: 4.44.2
- PyTorch: 2.2.0a0+81ea7a4
- Datasets: 3.2.0
- Tokenizers: 0.19.1
## Citation
### BibTeX
```bibtex
@article{https://doi.org/10.48550/arxiv.2209.11055,
doi = {10.48550/ARXIV.2209.11055},
url = {https://arxiv.org/abs/2209.11055},
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
title = {Efficient Few-Shot Learning Without Prompts},
publisher = {arXiv},
year = {2022},
copyright = {Creative Commons Attribution 4.0 International}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
--> |
philip-hightech/4a803a29-59d6-4748-afc7-ffcd11f21428 | philip-hightech | 2025-01-23T23:54:07Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen1.5-1.8B",
"base_model:adapter:Qwen/Qwen1.5-1.8B",
"license:other",
"region:us"
] | null | 2025-01-23T23:17:45Z | ---
library_name: peft
license: other
base_model: Qwen/Qwen1.5-1.8B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 4a803a29-59d6-4748-afc7-ffcd11f21428
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen1.5-1.8B
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 6f2c117da9072e42_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/6f2c117da9072e42_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: philip-hightech/4a803a29-59d6-4748-afc7-ffcd11f21428
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/6f2c117da9072e42_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: f27ecd68-3744-46bd-80df-eafd56255dbd
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: f27ecd68-3744-46bd-80df-eafd56255dbd
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 4a803a29-59d6-4748-afc7-ffcd11f21428
This model is a fine-tuned version of [Qwen/Qwen1.5-1.8B](https://huggingface.co/Qwen/Qwen1.5-1.8B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.7678
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 1.6191 | 0.0000 | 1 | 1.7951 |
| 2.0541 | 0.0001 | 3 | 1.7945 |
| 1.7257 | 0.0001 | 6 | 1.7885 |
| 1.4832 | 0.0002 | 9 | 1.7678 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
philip-hightech/433f5f89-d13b-4ad4-8407-b99802a68919 | philip-hightech | 2025-01-23T23:53:57Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen2-1.5B-Instruct",
"base_model:adapter:Qwen/Qwen2-1.5B-Instruct",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T23:47:47Z | ---
library_name: peft
license: apache-2.0
base_model: Qwen/Qwen2-1.5B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 433f5f89-d13b-4ad4-8407-b99802a68919
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen2-1.5B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- e3c2e5c8dcde7214_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/e3c2e5c8dcde7214_train_data.json
type:
field_instruction: article
field_output: lead
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: philip-hightech/433f5f89-d13b-4ad4-8407-b99802a68919
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/e3c2e5c8dcde7214_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: f4d8284c-5447-4755-b91b-3a6f7963c739
wandb_project: Mine-SN56-21-Gradients-On-Demand
wandb_run: your_name
wandb_runid: f4d8284c-5447-4755-b91b-3a6f7963c739
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 433f5f89-d13b-4ad4-8407-b99802a68919
This model is a fine-tuned version of [Qwen/Qwen2-1.5B-Instruct](https://huggingface.co/Qwen/Qwen2-1.5B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.5817
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 2.3024 | 0.0001 | 1 | 1.8157 |
| 1.4428 | 0.0003 | 3 | 1.8129 |
| 1.8341 | 0.0006 | 6 | 1.7600 |
| 2.0206 | 0.0009 | 9 | 1.5817 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
lesso13/b4721566-f28f-4d25-95c3-7952b921bf0b | lesso13 | 2025-01-23T23:53:41Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"custom_code",
"base_model:NousResearch/Yarn-Llama-2-7b-64k",
"base_model:adapter:NousResearch/Yarn-Llama-2-7b-64k",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:35:24Z | ---
library_name: peft
base_model: NousResearch/Yarn-Llama-2-7b-64k
tags:
- axolotl
- generated_from_trainer
model-index:
- name: b4721566-f28f-4d25-95c3-7952b921bf0b
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: NousResearch/Yarn-Llama-2-7b-64k
bf16: auto
chat_template: llama3
datasets:
- data_files:
- fd8cb244a58eab5a_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/fd8cb244a58eab5a_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: lesso13/b4721566-f28f-4d25-95c3-7952b921bf0b
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/fd8cb244a58eab5a_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# b4721566-f28f-4d25-95c3-7952b921bf0b
This model is a fine-tuned version of [NousResearch/Yarn-Llama-2-7b-64k](https://huggingface.co/NousResearch/Yarn-Llama-2-7b-64k) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.7020
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 2.9074 | 0.0325 | 200 | 0.7020 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
dixedus/0aa04d7e-8346-4930-b5ab-fdfda47ef7ab | dixedus | 2025-01-23T23:53:22Z | 13 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/SmolLM-360M",
"base_model:adapter:unsloth/SmolLM-360M",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T23:47:49Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/SmolLM-360M
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 0aa04d7e-8346-4930-b5ab-fdfda47ef7ab
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/SmolLM-360M
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- d6c4deff482e7d75_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/d6c4deff482e7d75_train_data.json
type:
field_input: ''
field_instruction: tags
field_output: text
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: false
hub_model_id: dixedus/0aa04d7e-8346-4930-b5ab-fdfda47ef7ab
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: false
load_in_8bit: false
local_rank: 0
logging_steps: 3
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_steps: 100
micro_batch_size: 8
mlflow_experiment_name: /tmp/d6c4deff482e7d75_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 3
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: techspear-hub
wandb_mode: online
wandb_name: 7d2a80b2-36ea-4e27-8d0d-fcbf5c534433
wandb_project: Gradients-On-Eight
wandb_run: your_name
wandb_runid: 7d2a80b2-36ea-4e27-8d0d-fcbf5c534433
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 0aa04d7e-8346-4930-b5ab-fdfda47ef7ab
This model is a fine-tuned version of [unsloth/SmolLM-360M](https://huggingface.co/unsloth/SmolLM-360M) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 2.3410
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 100
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0141 | 1 | 2.4202 |
| 2.5813 | 0.1272 | 9 | 2.4196 |
| 2.7235 | 0.2544 | 18 | 2.4146 |
| 2.4776 | 0.3816 | 27 | 2.4045 |
| 2.5692 | 0.5088 | 36 | 2.3906 |
| 2.5453 | 0.6360 | 45 | 2.3756 |
| 2.5901 | 0.7633 | 54 | 2.3627 |
| 2.5197 | 0.8905 | 63 | 2.3530 |
| 2.591 | 1.0177 | 72 | 2.3466 |
| 2.4761 | 1.1449 | 81 | 2.3427 |
| 2.4823 | 1.2721 | 90 | 2.3412 |
| 2.5686 | 1.3993 | 99 | 2.3410 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
lesso14/487dae3c-36c7-4652-8dab-df2aeae5d194 | lesso14 | 2025-01-23T23:49:24Z | 6 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/llama-3-8b",
"base_model:adapter:unsloth/llama-3-8b",
"license:llama3",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T23:15:57Z | ---
library_name: peft
license: llama3
base_model: unsloth/llama-3-8b
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 487dae3c-36c7-4652-8dab-df2aeae5d194
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/llama-3-8b
bf16: auto
chat_template: llama3
datasets:
- data_files:
- ba46c3e706833477_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/ba46c3e706833477_train_data.json
type:
field_instruction: title
field_output: lyrics
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: lesso14/487dae3c-36c7-4652-8dab-df2aeae5d194
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/ba46c3e706833477_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 5627705e-aa6f-44ce-be68-0f09aae8189d
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 5627705e-aa6f-44ce-be68-0f09aae8189d
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 487dae3c-36c7-4652-8dab-df2aeae5d194
This model is a fine-tuned version of [unsloth/llama-3-8b](https://huggingface.co/unsloth/llama-3-8b) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.2238 | 200 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
haryoaw/cola_Qwen-Qwen2.5-0.5B_3_0 | haryoaw | 2025-01-23T23:49:02Z | 7 | 0 | transformers | [
"transformers",
"safetensors",
"qwen2",
"text-generation",
"conversational",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] | text-generation | 2025-01-23T23:32:24Z | ---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a ๐ค transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed] |
infogep/07eb3007-948c-4a1b-87ab-869ea8212616 | infogep | 2025-01-23T23:47:27Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Qwen2.5-14B-Instruct",
"base_model:adapter:unsloth/Qwen2.5-14B-Instruct",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T23:30:51Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/Qwen2.5-14B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 07eb3007-948c-4a1b-87ab-869ea8212616
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Qwen2.5-14B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 6235a98666a9fd50_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/6235a98666a9fd50_train_data.json
type:
field_instruction: instruction
field_output: output
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device: cuda
early_stopping_patience: 1
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
evals_per_epoch: null
flash_attention: false
fp16: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: true
hub_model_id: infogep/07eb3007-948c-4a1b-87ab-869ea8212616
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 3
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 30
micro_batch_size: 4
mlflow_experiment_name: /tmp/6235a98666a9fd50_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: true
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 00a9672f-f900-40cf-846d-431c902b4360
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 00a9672f-f900-40cf-846d-431c902b4360
warmup_steps: 5
weight_decay: 0.0
xformers_attention: true
```
</details><br>
# 07eb3007-948c-4a1b-87ab-869ea8212616
This model is a fine-tuned version of [unsloth/Qwen2.5-14B-Instruct](https://huggingface.co/unsloth/Qwen2.5-14B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 16
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 30
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0003 | 1 | nan |
| 0.0 | 0.0017 | 5 | nan |
| 0.0 | 0.0035 | 10 | nan |
| 0.0 | 0.0052 | 15 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
nhung03/1104f496-e2cd-43ed-99e2-914ca1ec539e | nhung03 | 2025-01-23T23:47:13Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:NousResearch/Hermes-3-Llama-3.1-8B",
"base_model:adapter:NousResearch/Hermes-3-Llama-3.1-8B",
"license:llama3",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T23:16:45Z | ---
library_name: peft
license: llama3
base_model: NousResearch/Hermes-3-Llama-3.1-8B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 1104f496-e2cd-43ed-99e2-914ca1ec539e
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: NousResearch/Hermes-3-Llama-3.1-8B
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 538661bb7d6053e0_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/538661bb7d6053e0_train_data.json
type:
field_input: comment
field_instruction: prompt
field_output: chosen
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: nhung03/1104f496-e2cd-43ed-99e2-914ca1ec539e
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/538661bb7d6053e0_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 9f67393a-7634-47cf-80e0-d495eec5feb2
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 9f67393a-7634-47cf-80e0-d495eec5feb2
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 1104f496-e2cd-43ed-99e2-914ca1ec539e
This model is a fine-tuned version of [NousResearch/Hermes-3-Llama-3.1-8B](https://huggingface.co/NousResearch/Hermes-3-Llama-3.1-8B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.6518
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.6354 | 0.2004 | 200 | 0.6518 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
mini1013/master_cate_bc7 | mini1013 | 2025-01-23T23:46:54Z | 184 | 0 | setfit | [
"setfit",
"safetensors",
"roberta",
"sentence-transformers",
"text-classification",
"generated_from_setfit_trainer",
"arxiv:2209.11055",
"base_model:mini1013/master_domain",
"base_model:finetune:mini1013/master_domain",
"model-index",
"region:us"
] | text-classification | 2025-01-23T23:46:20Z | ---
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: ๋ง๋์ผ์ด ๋ฆฌํํ ๋กฑํธ๋ค ์คํ์ง ์ค๋ฆฌ์ฝ ์ ๋ณ์ ์ ๊ผญ์ง์ ์ธํธ 3.๋ฆฌํํ ์คํ์ง ์ ๊ผญ์ง์ ์ธํธ_๋ฒ ์ด์ง ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์
- text: ๋น์ค๋น ์ ๋ณ์ธ์ ์ ๊ฑฐํํ ์ฉ๊ธฐ 450ml B.BB์ ๋ณ์ธ์ ๊ฑฐํํ ์ฉ๊ธฐ450mlx1๊ฐ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์ธ์ ์
- text: ๋ง๋์ผ์ด ๋ฆฌํํ ๋กฑํธ๋ค์คํ์ง์ ์ธ์ฒ์ฉํ์ธํธ (์ ๋ณ๊ฑด์กฐ๋+๋ฆฌํ๋ธ๋ฌ์ฌ+์ ๋ณ์ง๊ฒ) ๋ค์ด๋น_1.๋ฆฌํํ์ ๋ณ์์ธํธ_์ด์ฝ๋ธ๋ผ์ด ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ
> ์ ๋ณ๊ฑด์กฐ๋
- text: ๋ค์ฉ๋ ํ๋ผ์คํฑ ๋ฌผ๋ณ ํ
๋ธ๋ฌ ๊ฑด์กฐ๋ ๋ณดํ ๊ฑด์กฐ๋ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ๊ฑด์กฐ๋
- text: ๋น์ค๋น ์ ์ ์๊ธฐ ์ ๋ณ์ธ์ ์ ๊ฑฐํํ ์ฉ๊ธฐ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์ธ์ ์
metrics:
- accuracy
pipeline_tag: text-classification
library_name: setfit
inference: true
base_model: mini1013/master_domain
model-index:
- name: SetFit with mini1013/master_domain
results:
- task:
type: text-classification
name: Text Classification
dataset:
name: Unknown
type: unknown
split: test
metrics:
- type: accuracy
value: 0.9978046103183315
name: Accuracy
---
# SetFit with mini1013/master_domain
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
The model has been trained using an efficient few-shot learning technique that involves:
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
2. Training a classification head with features from the fine-tuned Sentence Transformer.
## Model Details
### Model Description
- **Model Type:** SetFit
- **Sentence Transformer body:** [mini1013/master_domain](https://huggingface.co/mini1013/master_domain)
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
- **Maximum Sequence Length:** 512 tokens
- **Number of Classes:** 7 classes
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
### Model Labels
| Label | Examples |
|:------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 2.0 | <ul><li>'์๊ธฐ ์ ๋ณ ์๊ธฐ ์ฃผ๋ฐฉ ์ธ์ ์ ์ ์ ์ ์์ ์ค์ฑ์ธ์ ๊ฑฐํํ(๋ฆฌํ400ml) ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์ธ์ ์ '</li><li>'๋ง๋์ผ์ด ๋์ ์๊ธฐ ์ ์ ์ด์ ์๊ธฐ ์ธ์ ์ 500ml (์ก์ํ/๋ฌดํฅ) ์ด์ ์๊ธฐ์ธ์ ์ 500ml(๋ฌดํฅ)_์ด์ ์๊ธฐ์ธ์ ์ 500ml(๋ฌดํฅ) ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์ธ์ ์ '</li><li>'๋น์ค๋น ์ ๋ณ์ธ์ ์ ๊ฑฐํํ ๋ฆฌํ 400ml x 4๊ฐ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์ธ์ ์ '</li></ul> |
| 3.0 | <ul><li>'NEW ํด๋ ๋ ํฝ์
UVC LED ์์ฐ๊ฑด์กฐ ์ ์์๋
๊ธฐ ํฝ์
+๋ง๋ง์กดํธ๋ ์ด_์คํํ์ดํธ ๋ฐ๋_๋์คํฐํํฌ ํจ๋ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์๋
๊ธฐ'</li><li>'ํด๋ UV LED ์ ๋ณ์๋
๊ธฐ 4์ธ๋ ํ๋ฌ์ค ์ค๋งํธ ํ๋ ์ค_ํ์ดํธ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์๋
๊ธฐ'</li><li>'NEW ํด๋ ๋ ํฝ์
UVC LED ์์ฐ๊ฑด์กฐ ์ ์์๋
๊ธฐ ํฝ์
+๋ง๋ง์กดํธ๋ ์ด_๋คํฌ๊ทธ๋ ์ด ๋ฐ๋_์คํํ์ดํธ ํจ๋ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์๋
๊ธฐ'</li></ul> |
| 5.0 | <ul><li>'๋ธ๋ฌ์ฌ ์ธํธ ์คํฐ์ง ์ํ์ค ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์'</li><li>'๋ง๋์ผ์ด ๋ฆฌํํ ๋กฑํธ๋ค ์คํ์ง ์ค๋ฆฌ์ฝ ์ ๋ณ์ ์ ๊ผญ์ง์ ์ธํธ 7.๋ฆฌํํ ์คํ์ง ์ ๋ณ์+์ ๊ผญ์ง์ ํ์ธํธ_์ธ๋ํํฌ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์'</li><li>'์คํํธ๋ผ ๋กฑํ์
์ ๊ผญ์ง์ 2๊ฐ์
์ธํธ ์ ๋ณ ๋ฌผ๋ณ ํ
๋ธ๋ฌ ์ธ์ฒ๊ฐ๋ฅ 1.์คํํธ๋ผ ๋กฑํ์
์ ๊ผญ์ง์ 2๊ฐ์
[ํํฌ] ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์'</li></ul> |
| 0.0 | <ul><li>'์์ธ์ ์ฅ๋๊ฐ ์ด๊ท ๊ธฐSW-400์ดํ๊ฑด์กฐ ์๋
๊ธฐ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ฅ๋๊ฐ์๋
๊ธฐ'</li><li>'๋์ DS-930 ์์น๋ง ์ด๊ท ์๋
๊ฑด์กฐ๊ธฐ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ฅ๋๊ฐ์๋
๊ธฐ'</li><li>'์๋
์บ๋น๋ ์๋ฌธํ ๊ต์ฌ ์ด๊ท ๊ธฐ ์์ธ์ UV ์ปต ์๋
๊ธฐ 700-GX1 ์ด์ค๋ฌธ ๋ฐ ์ด์ค์๋(๋๋
ธ๋๋ฆฌ์) ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ฅ๋๊ฐ์๋
๊ธฐ'</li></ul> |
| 1.0 | <ul><li>'์ ๋ณ๊ฑด์กฐ๋ ์๋ฉ๋ฐ์ค ๋ฌผ์ปต ์ ๋ณ์ ๋ฐ ๋ณด๊ดํจ ๋ธ๋ผ์ด/2318 ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ๊ฑด์กฐ๋'</li><li>'๋ด์ฝ์ฝ๋ง ํ๋ฆฌ๋ฏธ์ ์ ๋ณ๊ฑด์กฐ๋ 2๋จ ๋๊ป ์ด์ ์๊ธฐ๊ฑด์กฐ๋ 1. ๋ด์ฝ์ฝ๋ง ์ ๋ณ๊ฑด์กฐ๋ ํ๋ฆฌ๋ฏธ์_1๋จ ๊ทธ๋ ์ด ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ๊ฑด์กฐ๋'</li><li>'๋ง๋์ผ์ด ๋ฆฌํํ ๋กฑํธ๋ค ์ค๋ฆฌ์ฝ์ ์ธ์ฒ์ฉํ์ธํธ(๊ฑด์กฐ๋+๋ฆฌํ์ธ์ฒ์+์ง๊ฒ) ๋ค์ด๋น_์ ๋ณ์&์ ๊ผญ์ง์_์ธ๋ํํฌ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ๊ฑด์กฐ๋'</li></ul> |
| 6.0 | <ul><li>'์ค๋ฆฌ์ฝ ์ ๋ณ์๋
์ง๊ฒ ๋ถ์ ์ดํ ๊ฐ์ ๊ฑด์กฐ๊ธฐ ์ด๊ท ์์ ๋ฐ์นจ_์ฌ๋ฆฌ๋ธ๊ทธ๋ ์ด ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์ง๊ฒ'</li><li>'๋๊ตฟ์ฆ ๋ค์ฉ๋ ์ ๋ณ ์๋
์ง๊ฒ ํํฌ ํํฌ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์ง๊ฒ'</li><li>'์ ๋ณ์ง๊ฒ ์ ๋ณ์๋
์ง๊ฒ ์๊ธฐ ์ ์ ๋ค์ฉ๋ ํ๋ธ์ํ๋งคํธ(์กฐ์ฝ๋)_๊ณจ๋ํฌ๋ฆผ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์ง๊ฒ'</li></ul> |
| 4.0 | <ul><li>'์ค์ค๋ ์ค๋ฐ๋์ ์ด๊ท ๋จํ 4W ์ ๋ณ์๋
๊ธฐ ์์ธ์ ๋จํ UV๋จํ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์๋
๊ธฐ์ฉํ'</li><li>'์คํํธ๋ผ ์ ๋ณ์๋
๊ธฐํธํ UV ๋จํ 1๊ฐ์
4W / ์ค๋ฐ๋์ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์๋
๊ธฐ์ฉํ'</li><li>'ํจ์ฑ ์์ธ์ ์ด๊ท ๋จํ 20W UVC ์ด๊ท ๋ฑ ์ ๋ณ์๋
๊ธฐ ์ปต์๋
๊ธฐ ์๊ธฐ์๋
๊ธฐ 1๊ฐ G20T8 ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์๋
๊ธฐ์ฉํ'</li></ul> |
## Evaluation
### Metrics
| Label | Accuracy |
|:--------|:---------|
| **all** | 0.9978 |
## Uses
### Direct Use for Inference
First install the SetFit library:
```bash
pip install setfit
```
Then you can load this model and run inference.
```python
from setfit import SetFitModel
# Download from the ๐ค Hub
model = SetFitModel.from_pretrained("mini1013/master_cate_bc7")
# Run inference
preds = model("๋น์ค๋น ์ ์ ์๊ธฐ ์ ๋ณ์ธ์ ์ ๊ฑฐํํ ์ฉ๊ธฐ ์ถ์ฐ/์ก์ > ์๋
/์ด๊ท ์ฉํ > ์ ๋ณ์ธ์ ์ ")
```
<!--
### Downstream Use
*List how someone could finetune this model on their own dataset.*
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Set Metrics
| Training set | Min | Median | Max |
|:-------------|:----|:--------|:----|
| Word count | 7 | 13.7494 | 25 |
| Label | Training Sample Count |
|:------|:----------------------|
| 0.0 | 70 |
| 1.0 | 70 |
| 2.0 | 70 |
| 3.0 | 70 |
| 4.0 | 19 |
| 5.0 | 70 |
| 6.0 | 70 |
### Training Hyperparameters
- batch_size: (256, 256)
- num_epochs: (30, 30)
- max_steps: -1
- sampling_strategy: oversampling
- num_iterations: 50
- body_learning_rate: (2e-05, 1e-05)
- head_learning_rate: 0.01
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- l2_weight: 0.01
- seed: 42
- eval_max_steps: -1
- load_best_model_at_end: False
### Training Results
| Epoch | Step | Training Loss | Validation Loss |
|:-------:|:----:|:-------------:|:---------------:|
| 0.0116 | 1 | 0.4771 | - |
| 0.5814 | 50 | 0.4546 | - |
| 1.1628 | 100 | 0.1706 | - |
| 1.7442 | 150 | 0.0404 | - |
| 2.3256 | 200 | 0.0101 | - |
| 2.9070 | 250 | 0.0093 | - |
| 3.4884 | 300 | 0.0082 | - |
| 4.0698 | 350 | 0.0062 | - |
| 4.6512 | 400 | 0.0001 | - |
| 5.2326 | 450 | 0.0 | - |
| 5.8140 | 500 | 0.0 | - |
| 6.3953 | 550 | 0.0 | - |
| 6.9767 | 600 | 0.0 | - |
| 7.5581 | 650 | 0.0 | - |
| 8.1395 | 700 | 0.0 | - |
| 8.7209 | 750 | 0.0 | - |
| 9.3023 | 800 | 0.0 | - |
| 9.8837 | 850 | 0.0 | - |
| 10.4651 | 900 | 0.0 | - |
| 11.0465 | 950 | 0.0 | - |
| 11.6279 | 1000 | 0.0 | - |
| 12.2093 | 1050 | 0.0 | - |
| 12.7907 | 1100 | 0.0 | - |
| 13.3721 | 1150 | 0.0 | - |
| 13.9535 | 1200 | 0.0 | - |
| 14.5349 | 1250 | 0.0 | - |
| 15.1163 | 1300 | 0.0 | - |
| 15.6977 | 1350 | 0.0 | - |
| 16.2791 | 1400 | 0.0 | - |
| 16.8605 | 1450 | 0.0 | - |
| 17.4419 | 1500 | 0.0 | - |
| 18.0233 | 1550 | 0.0 | - |
| 18.6047 | 1600 | 0.0 | - |
| 19.1860 | 1650 | 0.0 | - |
| 19.7674 | 1700 | 0.0 | - |
| 20.3488 | 1750 | 0.0 | - |
| 20.9302 | 1800 | 0.0 | - |
| 21.5116 | 1850 | 0.0 | - |
| 22.0930 | 1900 | 0.0 | - |
| 22.6744 | 1950 | 0.0 | - |
| 23.2558 | 2000 | 0.0 | - |
| 23.8372 | 2050 | 0.0 | - |
| 24.4186 | 2100 | 0.0 | - |
| 25.0 | 2150 | 0.0 | - |
| 25.5814 | 2200 | 0.0 | - |
| 26.1628 | 2250 | 0.0 | - |
| 26.7442 | 2300 | 0.0 | - |
| 27.3256 | 2350 | 0.0 | - |
| 27.9070 | 2400 | 0.0 | - |
| 28.4884 | 2450 | 0.0 | - |
| 29.0698 | 2500 | 0.0 | - |
| 29.6512 | 2550 | 0.0 | - |
### Framework Versions
- Python: 3.10.12
- SetFit: 1.1.0
- Sentence Transformers: 3.3.1
- Transformers: 4.44.2
- PyTorch: 2.2.0a0+81ea7a4
- Datasets: 3.2.0
- Tokenizers: 0.19.1
## Citation
### BibTeX
```bibtex
@article{https://doi.org/10.48550/arxiv.2209.11055,
doi = {10.48550/ARXIV.2209.11055},
url = {https://arxiv.org/abs/2209.11055},
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
title = {Efficient Few-Shot Learning Without Prompts},
publisher = {arXiv},
year = {2022},
copyright = {Creative Commons Attribution 4.0 International}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
--> |
havinash-ai/0f0b51d5-b309-4373-8745-f8d318b9bbe2 | havinash-ai | 2025-01-23T23:45:37Z | 9 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:DeepMount00/Llama-3-8b-Ita",
"base_model:adapter:DeepMount00/Llama-3-8b-Ita",
"license:llama3",
"region:us"
] | null | 2025-01-23T23:36:23Z | ---
library_name: peft
license: llama3
base_model: DeepMount00/Llama-3-8b-Ita
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 0f0b51d5-b309-4373-8745-f8d318b9bbe2
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: DeepMount00/Llama-3-8b-Ita
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 9e2472092fa3f997_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/9e2472092fa3f997_train_data.json
type:
field_instruction: source
field_output: target
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: havinash-ai/0f0b51d5-b309-4373-8745-f8d318b9bbe2
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/9e2472092fa3f997_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
special_tokens:
pad_token: <|eot_id|>
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 8bc33917-14ac-4e85-a4ba-cf7b8cfc11ed
wandb_project: Mine-SN56-2-Gradients-On-Demand
wandb_run: your_name
wandb_runid: 8bc33917-14ac-4e85-a4ba-cf7b8cfc11ed
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 0f0b51d5-b309-4373-8745-f8d318b9bbe2
This model is a fine-tuned version of [DeepMount00/Llama-3-8b-Ita](https://huggingface.co/DeepMount00/Llama-3-8b-Ita) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 3.6892
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 4.447 | 0.0001 | 1 | 5.9268 |
| 6.7141 | 0.0003 | 3 | 5.9049 |
| 4.8205 | 0.0006 | 6 | 5.4564 |
| 4.7458 | 0.0009 | 9 | 3.6892 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
nat-hunt/7dc85d67-2fa7-40d1-913a-ff2517551b77 | nat-hunt | 2025-01-23T23:43:12Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:openlm-research/open_llama_3b",
"base_model:adapter:openlm-research/open_llama_3b",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T23:39:09Z | ---
library_name: peft
license: apache-2.0
base_model: openlm-research/open_llama_3b
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 7dc85d67-2fa7-40d1-913a-ff2517551b77
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: openlm-research/open_llama_3b
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- b870a12bb86df2ef_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/b870a12bb86df2ef_train_data.json
type:
field_instruction: premises
field_output: hypothesis
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: nat-hunt/7dc85d67-2fa7-40d1-913a-ff2517551b77
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/b870a12bb86df2ef_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
special_tokens:
pad_token: </s>
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 5c11f8e4-7a4d-4298-a633-453fe28a8bed
wandb_project: Birthday-SN56-25-Gradients-On-Demand
wandb_run: your_name
wandb_runid: 5c11f8e4-7a4d-4298-a633-453fe28a8bed
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 7dc85d67-2fa7-40d1-913a-ff2517551b77
This model is a fine-tuned version of [openlm-research/open_llama_3b](https://huggingface.co/openlm-research/open_llama_3b) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.2618
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 1.503 | 0.0003 | 1 | 1.7694 |
| 1.8358 | 0.0008 | 3 | 1.7629 |
| 1.6735 | 0.0016 | 6 | 1.6651 |
| 1.2042 | 0.0024 | 9 | 1.2618 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
RobertoSonic/swinv2-tiny-patch4-window8-256-dmae-humeda-DAV23 | RobertoSonic | 2025-01-23T23:42:04Z | 1,215 | 0 | transformers | [
"transformers",
"tensorboard",
"safetensors",
"swinv2",
"image-classification",
"generated_from_trainer",
"base_model:microsoft/swinv2-tiny-patch4-window8-256",
"base_model:finetune:microsoft/swinv2-tiny-patch4-window8-256",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | image-classification | 2025-01-21T20:56:15Z | ---
library_name: transformers
license: apache-2.0
base_model: microsoft/swinv2-tiny-patch4-window8-256
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: swinv2-tiny-patch4-window8-256-dmae-humeda-DAV23
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# swinv2-tiny-patch4-window8-256-dmae-humeda-DAV23
This model is a fine-tuned version of [microsoft/swinv2-tiny-patch4-window8-256](https://huggingface.co/microsoft/swinv2-tiny-patch4-window8-256) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 0.6901
- Accuracy: 0.8118
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 32
- eval_batch_size: 32
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 128
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- num_epochs: 40
### Training results
| Training Loss | Epoch | Step | Validation Loss | Accuracy |
|:-------------:|:-------:|:----:|:---------------:|:--------:|
| 6.4493 | 1.0 | 17 | 1.5281 | 0.2941 |
| 5.7922 | 2.0 | 34 | 1.3176 | 0.3882 |
| 4.2502 | 3.0 | 51 | 1.2015 | 0.4353 |
| 3.2402 | 4.0 | 68 | 0.8902 | 0.7176 |
| 2.5386 | 5.0 | 85 | 0.6509 | 0.7765 |
| 2.0351 | 6.0 | 102 | 0.6759 | 0.7647 |
| 1.8225 | 7.0 | 119 | 0.6607 | 0.7765 |
| 1.4778 | 8.0 | 136 | 0.7162 | 0.7529 |
| 1.4076 | 9.0 | 153 | 0.9084 | 0.7294 |
| 1.2056 | 10.0 | 170 | 0.6901 | 0.8118 |
| 0.9552 | 11.0 | 187 | 0.9153 | 0.7765 |
| 0.9859 | 12.0 | 204 | 0.8694 | 0.7529 |
| 0.8309 | 13.0 | 221 | 0.7666 | 0.8 |
| 0.7722 | 14.0 | 238 | 0.9118 | 0.7529 |
| 0.7632 | 15.0 | 255 | 0.8953 | 0.7529 |
| 0.5868 | 16.0 | 272 | 0.9678 | 0.7529 |
| 0.6577 | 17.0 | 289 | 1.0503 | 0.7765 |
| 0.5816 | 18.0 | 306 | 1.0602 | 0.7294 |
| 0.6222 | 19.0 | 323 | 1.1543 | 0.7765 |
| 0.4861 | 20.0 | 340 | 0.9739 | 0.8118 |
| 0.4422 | 21.0 | 357 | 1.0354 | 0.8 |
| 0.506 | 22.0 | 374 | 1.1097 | 0.8118 |
| 0.3833 | 23.0 | 391 | 1.2009 | 0.7765 |
| 0.4574 | 24.0 | 408 | 1.1366 | 0.7765 |
| 0.4467 | 25.0 | 425 | 1.0601 | 0.8118 |
| 0.4451 | 26.0 | 442 | 1.0935 | 0.7765 |
| 0.4384 | 27.0 | 459 | 1.1617 | 0.7647 |
| 0.4321 | 28.0 | 476 | 1.1012 | 0.7765 |
| 0.4398 | 29.0 | 493 | 1.0825 | 0.7882 |
| 0.361 | 30.0 | 510 | 1.1127 | 0.7647 |
| 0.4428 | 31.0 | 527 | 1.2024 | 0.7529 |
| 0.451 | 32.0 | 544 | 1.1550 | 0.7647 |
| 0.403 | 33.0 | 561 | 1.1646 | 0.7765 |
| 0.3059 | 34.0 | 578 | 1.2442 | 0.7765 |
| 0.3022 | 35.0 | 595 | 1.1976 | 0.7765 |
| 0.319 | 36.0 | 612 | 1.1564 | 0.7765 |
| 0.3737 | 37.0 | 629 | 1.1857 | 0.7765 |
| 0.3063 | 37.6667 | 640 | 1.1930 | 0.7765 |
### Framework versions
- Transformers 4.47.1
- Pytorch 2.5.1+cu121
- Datasets 3.2.0
- Tokenizers 0.21.0
|
RyanYr/reflect_llm8B_Om2SftT1-Om2G8kOm2AgIpsdpT1_traj_b0.1-ep2-lr4e-7 | RyanYr | 2025-01-23T23:40:29Z | 36 | 0 | transformers | [
"transformers",
"safetensors",
"llama",
"text-generation",
"generated_from_trainer",
"trl",
"dpo",
"conversational",
"arxiv:2305.18290",
"base_model:RyanYr/reflect_llama8B_om2-mixed-t0-mstlrg-300k460k-t12_llama33-130k-t12_sft-t1_lr1e-6",
"base_model:finetune:RyanYr/reflect_llama8B_om2-mixed-t0-mstlrg-300k460k-t12_llama33-130k-t12_sft-t1_lr1e-6",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] | text-generation | 2025-01-23T20:26:11Z | ---
base_model: RyanYr/reflect_llama8B_om2-mixed-t0-mstlrg-300k460k-t12_llama33-130k-t12_sft-t1_lr1e-6
library_name: transformers
model_name: reflect_llm8B_Om2SftT1-Om2G8kOm2AgIpsdpT1_traj_b0.1-ep2-lr4e-7
tags:
- generated_from_trainer
- trl
- dpo
licence: license
---
# Model Card for reflect_llm8B_Om2SftT1-Om2G8kOm2AgIpsdpT1_traj_b0.1-ep2-lr4e-7
This model is a fine-tuned version of [RyanYr/reflect_llama8B_om2-mixed-t0-mstlrg-300k460k-t12_llama33-130k-t12_sft-t1_lr1e-6](https://huggingface.co/RyanYr/reflect_llama8B_om2-mixed-t0-mstlrg-300k460k-t12_llama33-130k-t12_sft-t1_lr1e-6).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="RyanYr/reflect_llm8B_Om2SftT1-Om2G8kOm2AgIpsdpT1_traj_b0.1-ep2-lr4e-7", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/yyr/huggingface/runs/p4otw2f7)
This model was trained with DPO, a method introduced in [Direct Preference Optimization: Your Language Model is Secretly a Reward Model](https://huggingface.co/papers/2305.18290).
### Framework versions
- TRL: 0.12.0.dev0
- Transformers: 4.45.2
- Pytorch: 2.5.1
- Datasets: 3.1.0
- Tokenizers: 0.20.3
## Citations
Cite DPO as:
```bibtex
@inproceedings{rafailov2023direct,
title = {{Direct Preference Optimization: Your Language Model is Secretly a Reward Model}},
author = {Rafael Rafailov and Archit Sharma and Eric Mitchell and Christopher D. Manning and Stefano Ermon and Chelsea Finn},
year = 2023,
booktitle = {Advances in Neural Information Processing Systems 36: Annual Conference on Neural Information Processing Systems 2023, NeurIPS 2023, New Orleans, LA, USA, December 10 - 16, 2023},
url = {http://papers.nips.cc/paper_files/paper/2023/hash/a85b405ed65c6477a4fe8302b5e06ce7-Abstract-Conference.html},
editor = {Alice Oh and Tristan Naumann and Amir Globerson and Kate Saenko and Moritz Hardt and Sergey Levine},
}
```
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallouรฉdec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
``` |
vermoney/dafc35b7-ae9e-4ae3-868f-bdc3247a8063 | vermoney | 2025-01-23T23:39:07Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:NousResearch/Hermes-3-Llama-3.1-8B",
"base_model:adapter:NousResearch/Hermes-3-Llama-3.1-8B",
"license:llama3",
"region:us"
] | null | 2025-01-23T23:16:43Z | ---
library_name: peft
license: llama3
base_model: NousResearch/Hermes-3-Llama-3.1-8B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: dafc35b7-ae9e-4ae3-868f-bdc3247a8063
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: NousResearch/Hermes-3-Llama-3.1-8B
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 538661bb7d6053e0_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/538661bb7d6053e0_train_data.json
type:
field_input: comment
field_instruction: prompt
field_output: chosen
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device: cuda
early_stopping_patience: 1
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
evals_per_epoch: null
flash_attention: false
fp16: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: vermoney/dafc35b7-ae9e-4ae3-868f-bdc3247a8063
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 3
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_memory:
0: 78GiB
max_steps: 30
micro_batch_size: 2
mlflow_experiment_name: /tmp/538661bb7d6053e0_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_torch
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: true
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 9f67393a-7634-47cf-80e0-d495eec5feb2
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 9f67393a-7634-47cf-80e0-d495eec5feb2
warmup_steps: 5
weight_decay: 0.001
xformers_attention: true
```
</details><br>
# dafc35b7-ae9e-4ae3-868f-bdc3247a8063
This model is a fine-tuned version of [NousResearch/Hermes-3-Llama-3.1-8B](https://huggingface.co/NousResearch/Hermes-3-Llama-3.1-8B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.6549
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 30
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0010 | 1 | 1.4715 |
| 1.2679 | 0.0050 | 5 | 1.1581 |
| 0.8366 | 0.0100 | 10 | 0.8790 |
| 0.7158 | 0.0150 | 15 | 0.7548 |
| 0.7084 | 0.0200 | 20 | 0.6759 |
| 0.6042 | 0.0251 | 25 | 0.6577 |
| 0.6252 | 0.0301 | 30 | 0.6549 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
nhungphammmmm/41ea2537-6207-4681-8852-7681e5133d51 | nhungphammmmm | 2025-01-23T23:36:58Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen2-7B-Instruct",
"base_model:adapter:Qwen/Qwen2-7B-Instruct",
"license:apache-2.0",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:30:45Z | ---
library_name: peft
license: apache-2.0
base_model: Qwen/Qwen2-7B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 41ea2537-6207-4681-8852-7681e5133d51
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen2-7B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 292fa1f5b3822849_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/292fa1f5b3822849_train_data.json
type:
field_input: ''
field_instruction: prompt
field_output: my_solu
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: nhungphammmmm/41ea2537-6207-4681-8852-7681e5133d51
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/292fa1f5b3822849_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 5e578b14-e915-4706-8302-b00906cfb773
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 5e578b14-e915-4706-8302-b00906cfb773
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 41ea2537-6207-4681-8852-7681e5133d51
This model is a fine-tuned version of [Qwen/Qwen2-7B-Instruct](https://huggingface.co/Qwen/Qwen2-7B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.3454
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.3503 | 0.0122 | 200 | 0.3454 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
trangtrannnnn/fc833954-da63-4287-850f-a14164ce5675 | trangtrannnnn | 2025-01-23T23:36:17Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen2-7B-Instruct",
"base_model:adapter:Qwen/Qwen2-7B-Instruct",
"license:apache-2.0",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:30:36Z | ---
library_name: peft
license: apache-2.0
base_model: Qwen/Qwen2-7B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: fc833954-da63-4287-850f-a14164ce5675
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen2-7B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 292fa1f5b3822849_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/292fa1f5b3822849_train_data.json
type:
field_input: ''
field_instruction: prompt
field_output: my_solu
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: trangtrannnnn/fc833954-da63-4287-850f-a14164ce5675
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/292fa1f5b3822849_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 5e578b14-e915-4706-8302-b00906cfb773
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 5e578b14-e915-4706-8302-b00906cfb773
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# fc833954-da63-4287-850f-a14164ce5675
This model is a fine-tuned version of [Qwen/Qwen2-7B-Instruct](https://huggingface.co/Qwen/Qwen2-7B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.3456
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.3501 | 0.0122 | 200 | 0.3456 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
LucAI12/11goro | LucAI12 | 2025-01-23T23:36:08Z | 9 | 0 | diffusers | [
"diffusers",
"flux",
"lora",
"replicate",
"text-to-image",
"en",
"base_model:black-forest-labs/FLUX.1-dev",
"base_model:adapter:black-forest-labs/FLUX.1-dev",
"license:other",
"region:us"
] | text-to-image | 2025-01-23T23:12:42Z | ---
license: other
license_name: flux-1-dev-non-commercial-license
license_link: https://huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/LICENSE.md
language:
- en
tags:
- flux
- diffusers
- lora
- replicate
base_model: "black-forest-labs/FLUX.1-dev"
pipeline_tag: text-to-image
# widget:
# - text: >-
# prompt
# output:
# url: https://...
instance_prompt: 11goro
---
# 11Goro
<Gallery />
Trained on Replicate using:
https://replicate.com/ostris/flux-dev-lora-trainer/train
## Trigger words
You should use `11goro` to trigger the image generation.
## Use it with the [๐งจ diffusers library](https://github.com/huggingface/diffusers)
```py
from diffusers import AutoPipelineForText2Image
import torch
pipeline = AutoPipelineForText2Image.from_pretrained('black-forest-labs/FLUX.1-dev', torch_dtype=torch.float16).to('cuda')
pipeline.load_lora_weights('LucAI12/11goro', weight_name='lora.safetensors')
image = pipeline('your prompt').images[0]
```
For more details, including weighting, merging and fusing LoRAs, check the [documentation on loading LoRAs in diffusers](https://huggingface.co/docs/diffusers/main/en/using-diffusers/loading_adapters)
|
prxy5605/1dfdc72f-10b8-418f-8b16-78f0e02c9ec0 | prxy5605 | 2025-01-23T23:35:29Z | 7 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Qwen2.5-Math-7B-Instruct",
"base_model:adapter:unsloth/Qwen2.5-Math-7B-Instruct",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T20:37:08Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/Qwen2.5-Math-7B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 1dfdc72f-10b8-418f-8b16-78f0e02c9ec0
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Qwen2.5-Math-7B-Instruct
bf16: true
chat_template: llama3
data_processes: 16
dataset_prepared_path: null
datasets:
- data_files:
- 8a9910a3e95b9e54_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/8a9910a3e95b9e54_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device_map: auto
do_eval: true
early_stopping_patience: 5
eval_batch_size: 4
eval_max_new_tokens: 128
eval_steps: 50
eval_table_size: null
evals_per_epoch: null
flash_attention: true
fp16: false
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: prxy5605/1dfdc72f-10b8-418f-8b16-78f0e02c9ec0
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0001
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 128
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 64
lora_target_linear: true
lr_scheduler: cosine
max_grad_norm: 1.0
max_memory:
0: 75GB
max_steps: 200
micro_batch_size: 8
mlflow_experiment_name: /tmp/8a9910a3e95b9e54_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 3
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 50
saves_per_epoch: null
sequence_len: 1024
strict: false
tf32: true
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 4d275d20-528c-41c1-8773-3aca4b166744
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 4d275d20-528c-41c1-8773-3aca4b166744
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 1dfdc72f-10b8-418f-8b16-78f0e02c9ec0
This model is a fine-tuned version of [unsloth/Qwen2.5-Math-7B-Instruct](https://huggingface.co/unsloth/Qwen2.5-Math-7B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.7032
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 8
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 4.6505 | 0.0001 | 1 | 4.8503 |
| 2.3998 | 0.0036 | 50 | 2.2634 |
| 2.1532 | 0.0073 | 100 | 1.9093 |
| 2.0779 | 0.0109 | 150 | 1.7532 |
| 2.154 | 0.0145 | 200 | 1.7032 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
aleegis11/04cdcba9-1d26-45a4-ae8d-f2eee4760f76 | aleegis11 | 2025-01-23T23:34:00Z | 6 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Qwen2.5-Math-7B-Instruct",
"base_model:adapter:unsloth/Qwen2.5-Math-7B-Instruct",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T20:36:04Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/Qwen2.5-Math-7B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 04cdcba9-1d26-45a4-ae8d-f2eee4760f76
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Qwen2.5-Math-7B-Instruct
bf16: true
chat_template: llama3
data_processes: 16
dataset_prepared_path: null
datasets:
- data_files:
- 8a9910a3e95b9e54_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/8a9910a3e95b9e54_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device_map: auto
do_eval: true
early_stopping_patience: 5
eval_batch_size: 4
eval_max_new_tokens: 128
eval_steps: 50
eval_table_size: null
evals_per_epoch: null
flash_attention: true
fp16: false
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: aleegis11/04cdcba9-1d26-45a4-ae8d-f2eee4760f76
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0001
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 128
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 64
lora_target_linear: true
lr_scheduler: cosine
max_grad_norm: 1.0
max_memory:
0: 75GB
max_steps: 200
micro_batch_size: 8
mlflow_experiment_name: /tmp/8a9910a3e95b9e54_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 3
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 50
saves_per_epoch: null
sequence_len: 1024
strict: false
tf32: true
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 4d275d20-528c-41c1-8773-3aca4b166744
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 4d275d20-528c-41c1-8773-3aca4b166744
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 04cdcba9-1d26-45a4-ae8d-f2eee4760f76
This model is a fine-tuned version of [unsloth/Qwen2.5-Math-7B-Instruct](https://huggingface.co/unsloth/Qwen2.5-Math-7B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.7038
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 8
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 4.6505 | 0.0001 | 1 | 4.8503 |
| 2.3984 | 0.0036 | 50 | 2.2640 |
| 2.1512 | 0.0073 | 100 | 1.9098 |
| 2.075 | 0.0109 | 150 | 1.7552 |
| 2.1524 | 0.0145 | 200 | 1.7038 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
nhoxinh/d83d1cca-d6cd-48b1-99d2-85587e33c248 | nhoxinh | 2025-01-23T23:30:52Z | 6 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen2-7B-Instruct",
"base_model:adapter:Qwen/Qwen2-7B-Instruct",
"license:apache-2.0",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:30:03Z | ---
library_name: peft
license: apache-2.0
base_model: Qwen/Qwen2-7B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: d83d1cca-d6cd-48b1-99d2-85587e33c248
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen2-7B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 292fa1f5b3822849_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/292fa1f5b3822849_train_data.json
type:
field_input: ''
field_instruction: prompt
field_output: my_solu
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: nhoxinh/d83d1cca-d6cd-48b1-99d2-85587e33c248
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/292fa1f5b3822849_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 5e578b14-e915-4706-8302-b00906cfb773
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 5e578b14-e915-4706-8302-b00906cfb773
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# d83d1cca-d6cd-48b1-99d2-85587e33c248
This model is a fine-tuned version of [Qwen/Qwen2-7B-Instruct](https://huggingface.co/Qwen/Qwen2-7B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.3455
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.3516 | 0.0122 | 200 | 0.3455 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
kostiantynk/58e63c17-e5e1-434a-aaaa-8cd1e12b4bc2 | kostiantynk | 2025-01-23T23:29:18Z | 6 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen2.5-0.5B-Instruct",
"base_model:adapter:Qwen/Qwen2.5-0.5B-Instruct",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T23:13:42Z | ---
library_name: peft
license: apache-2.0
base_model: Qwen/Qwen2.5-0.5B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 58e63c17-e5e1-434a-aaaa-8cd1e12b4bc2
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen2.5-0.5B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 5079a290b9b62e47_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/5079a290b9b62e47_train_data.json
type:
field_instruction: seq
field_output: labels_str
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: kostiantynk/58e63c17-e5e1-434a-aaaa-8cd1e12b4bc2
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/5079a290b9b62e47_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: bade6ec8-5860-4f3a-bd1f-e988637c6abe
wandb_project: Mine-SN56-22-Gradients-On-Demand
wandb_run: your_name
wandb_runid: bade6ec8-5860-4f3a-bd1f-e988637c6abe
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 58e63c17-e5e1-434a-aaaa-8cd1e12b4bc2
This model is a fine-tuned version of [Qwen/Qwen2.5-0.5B-Instruct](https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.3288
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 3.0138 | 0.0000 | 1 | 2.7243 |
| 2.3488 | 0.0001 | 3 | 2.6658 |
| 1.977 | 0.0002 | 6 | 1.9902 |
| 1.3934 | 0.0003 | 9 | 1.3288 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
daniel40/3e340581-f897-4aff-874b-2778cb9a8f59 | daniel40 | 2025-01-23T23:29:00Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen2-0.5B",
"base_model:adapter:Qwen/Qwen2-0.5B",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T23:22:39Z | ---
library_name: peft
license: apache-2.0
base_model: Qwen/Qwen2-0.5B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 3e340581-f897-4aff-874b-2778cb9a8f59
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen2-0.5B
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 745d2d05aaed18f4_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/745d2d05aaed18f4_train_data.json
type:
field_input: pos
field_instruction: task
field_output: query
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: daniel40/3e340581-f897-4aff-874b-2778cb9a8f59
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/745d2d05aaed18f4_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: fb974fc0-f90c-40fd-bd22-46669f42b395
wandb_project: Birthday-SN56-27-Gradients-On-Demand
wandb_run: your_name
wandb_runid: fb974fc0-f90c-40fd-bd22-46669f42b395
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 3e340581-f897-4aff-874b-2778cb9a8f59
This model is a fine-tuned version of [Qwen/Qwen2-0.5B](https://huggingface.co/Qwen/Qwen2-0.5B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 2.8015
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 3.8458 | 0.0001 | 1 | 3.9556 |
| 4.3614 | 0.0003 | 3 | 3.8952 |
| 3.7027 | 0.0006 | 6 | 3.3212 |
| 2.8335 | 0.0009 | 9 | 2.8015 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
nat-hunt/597039f9-28b5-4eef-9196-d6526907f6ce | nat-hunt | 2025-01-23T23:27:59Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen2-0.5B",
"base_model:adapter:Qwen/Qwen2-0.5B",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T23:22:47Z | ---
library_name: peft
license: apache-2.0
base_model: Qwen/Qwen2-0.5B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 597039f9-28b5-4eef-9196-d6526907f6ce
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen2-0.5B
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 745d2d05aaed18f4_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/745d2d05aaed18f4_train_data.json
type:
field_input: pos
field_instruction: task
field_output: query
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: nat-hunt/597039f9-28b5-4eef-9196-d6526907f6ce
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/745d2d05aaed18f4_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: fb974fc0-f90c-40fd-bd22-46669f42b395
wandb_project: Birthday-SN56-25-Gradients-On-Demand
wandb_run: your_name
wandb_runid: fb974fc0-f90c-40fd-bd22-46669f42b395
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 597039f9-28b5-4eef-9196-d6526907f6ce
This model is a fine-tuned version of [Qwen/Qwen2-0.5B](https://huggingface.co/Qwen/Qwen2-0.5B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 2.7916
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 3.8458 | 0.0001 | 1 | 3.9556 |
| 4.3639 | 0.0003 | 3 | 3.8977 |
| 3.6964 | 0.0006 | 6 | 3.3068 |
| 2.8087 | 0.0009 | 9 | 2.7916 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
lesso07/6f9db13d-0a1f-4ecb-b364-3912b383034f | lesso07 | 2025-01-23T23:26:51Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:NousResearch/Hermes-3-Llama-3.1-8B",
"base_model:adapter:NousResearch/Hermes-3-Llama-3.1-8B",
"license:llama3",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T23:16:40Z | ---
library_name: peft
license: llama3
base_model: NousResearch/Hermes-3-Llama-3.1-8B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 6f9db13d-0a1f-4ecb-b364-3912b383034f
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: NousResearch/Hermes-3-Llama-3.1-8B
bf16: true
chat_template: llama3
datasets:
- data_files:
- 538661bb7d6053e0_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/538661bb7d6053e0_train_data.json
type:
field_input: comment
field_instruction: prompt
field_output: chosen
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: 2
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
flash_attention: false
fp16: false
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: lesso07/6f9db13d-0a1f-4ecb-b364-3912b383034f
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 25
micro_batch_size: 2
mlflow_experiment_name: /tmp/538661bb7d6053e0_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 9f67393a-7634-47cf-80e0-d495eec5feb2
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 9f67393a-7634-47cf-80e0-d495eec5feb2
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 6f9db13d-0a1f-4ecb-b364-3912b383034f
This model is a fine-tuned version of [NousResearch/Hermes-3-Llama-3.1-8B](https://huggingface.co/NousResearch/Hermes-3-Llama-3.1-8B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.8475
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 25
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 1.5167 | 0.0010 | 1 | 1.4124 |
| 1.3205 | 0.0050 | 5 | 1.3030 |
| 1.1037 | 0.0100 | 10 | 1.0335 |
| 0.9913 | 0.0150 | 15 | 0.9114 |
| 0.8042 | 0.0200 | 20 | 0.8573 |
| 0.9087 | 0.0251 | 25 | 0.8475 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
lesso04/3dd9fd29-c046-4a7a-88e7-bd0c521d512f | lesso04 | 2025-01-23T23:26:02Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Llama-3.1-Storm-8B",
"base_model:adapter:unsloth/Llama-3.1-Storm-8B",
"license:llama3.1",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:28:46Z | ---
library_name: peft
license: llama3.1
base_model: unsloth/Llama-3.1-Storm-8B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 3dd9fd29-c046-4a7a-88e7-bd0c521d512f
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Llama-3.1-Storm-8B
bf16: auto
chat_template: llama3
datasets:
- data_files:
- 935541efcc64f82d_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/935541efcc64f82d_train_data.json
type:
field_instruction: document
field_output: query
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: lesso04/3dd9fd29-c046-4a7a-88e7-bd0c521d512f
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/935541efcc64f82d_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 6b070b86-583e-4c98-a10d-d6688cb70e68
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 6b070b86-583e-4c98-a10d-d6688cb70e68
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 3dd9fd29-c046-4a7a-88e7-bd0c521d512f
This model is a fine-tuned version of [unsloth/Llama-3.1-Storm-8B](https://huggingface.co/unsloth/Llama-3.1-Storm-8B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0367 | 200 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
prxy5606/ed64a897-4fb2-4413-86af-173153345682 | prxy5606 | 2025-01-23T23:24:25Z | 6 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen1.5-1.8B",
"base_model:adapter:Qwen/Qwen1.5-1.8B",
"license:other",
"region:us"
] | null | 2025-01-23T22:14:28Z | ---
library_name: peft
license: other
base_model: Qwen/Qwen1.5-1.8B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: ed64a897-4fb2-4413-86af-173153345682
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen1.5-1.8B
bf16: true
chat_template: llama3
data_processes: 16
dataset_prepared_path: null
datasets:
- data_files:
- 6f2c117da9072e42_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/6f2c117da9072e42_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device_map: auto
do_eval: true
early_stopping_patience: 5
eval_batch_size: 4
eval_max_new_tokens: 128
eval_steps: 50
eval_table_size: null
evals_per_epoch: null
flash_attention: true
fp16: false
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: prxy5606/ed64a897-4fb2-4413-86af-173153345682
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0001
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 128
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 64
lora_target_linear: true
lr_scheduler: cosine
max_grad_norm: 1.0
max_memory:
0: 75GB
max_steps: 200
micro_batch_size: 8
mlflow_experiment_name: /tmp/6f2c117da9072e42_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 3
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 50
saves_per_epoch: null
sequence_len: 1024
strict: false
tf32: true
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: f27ecd68-3744-46bd-80df-eafd56255dbd
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: f27ecd68-3744-46bd-80df-eafd56255dbd
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# ed64a897-4fb2-4413-86af-173153345682
This model is a fine-tuned version of [Qwen/Qwen1.5-1.8B](https://huggingface.co/Qwen/Qwen1.5-1.8B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.7073
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 8
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 1.1412 | 0.0001 | 1 | 1.8697 |
| 2.8474 | 0.0034 | 50 | 1.7434 |
| 2.7972 | 0.0067 | 100 | 1.7159 |
| 2.4765 | 0.0101 | 150 | 1.7084 |
| 2.8008 | 0.0135 | 200 | 1.7073 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
lesso04/4c915542-7e47-4cd9-b6a1-daa43337f136 | lesso04 | 2025-01-23T23:22:18Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:oopsung/llama2-7b-koNqa-test-v1",
"base_model:adapter:oopsung/llama2-7b-koNqa-test-v1",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:07:59Z | ---
library_name: peft
base_model: oopsung/llama2-7b-koNqa-test-v1
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 4c915542-7e47-4cd9-b6a1-daa43337f136
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: oopsung/llama2-7b-koNqa-test-v1
bf16: auto
chat_template: llama3
datasets:
- data_files:
- 867d3433e74b00eb_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/867d3433e74b00eb_train_data.json
type:
field_instruction: url
field_output: text
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: lesso04/4c915542-7e47-4cd9-b6a1-daa43337f136
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/867d3433e74b00eb_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: c778556e-b6d6-4652-a6d6-7ec10e67e497
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: c778556e-b6d6-4652-a6d6-7ec10e67e497
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 4c915542-7e47-4cd9-b6a1-daa43337f136
This model is a fine-tuned version of [oopsung/llama2-7b-koNqa-test-v1](https://huggingface.co/oopsung/llama2-7b-koNqa-test-v1) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0169 | 200 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
infogeo/1522998d-8dab-4e41-bf37-41448dfec31b | infogeo | 2025-01-23T23:21:33Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/llama-3-8b",
"base_model:adapter:unsloth/llama-3-8b",
"license:llama3",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T23:15:12Z | ---
library_name: peft
license: llama3
base_model: unsloth/llama-3-8b
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 1522998d-8dab-4e41-bf37-41448dfec31b
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/llama-3-8b
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- ba46c3e706833477_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/ba46c3e706833477_train_data.json
type:
field_instruction: title
field_output: lyrics
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device: cuda
early_stopping_patience: 1
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
evals_per_epoch: null
flash_attention: false
fp16: false
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: infogeo/1522998d-8dab-4e41-bf37-41448dfec31b
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: true
local_rank: null
logging_steps: 3
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_memory:
0: 79GiB
max_steps: 30
micro_batch_size: 4
mlflow_experiment_name: /tmp/ba46c3e706833477_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_torch
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: true
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 5627705e-aa6f-44ce-be68-0f09aae8189d
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 5627705e-aa6f-44ce-be68-0f09aae8189d
warmup_steps: 5
weight_decay: 0.001
xformers_attention: true
```
</details><br>
# 1522998d-8dab-4e41-bf37-41448dfec31b
This model is a fine-tuned version of [unsloth/llama-3-8b](https://huggingface.co/unsloth/llama-3-8b) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 16
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 30
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0022 | 1 | nan |
| 0.0 | 0.0112 | 5 | nan |
| 0.0 | 0.0224 | 10 | nan |
| 0.0 | 0.0336 | 15 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
maksf8486/0b5537c3-d267-4f3d-8de9-aa2f99620130 | maksf8486 | 2025-01-23T23:20:02Z | 10 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"custom_code",
"base_model:NousResearch/Yarn-Llama-2-7b-64k",
"base_model:adapter:NousResearch/Yarn-Llama-2-7b-64k",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:34:23Z | ---
library_name: peft
base_model: NousResearch/Yarn-Llama-2-7b-64k
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 0b5537c3-d267-4f3d-8de9-aa2f99620130
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: NousResearch/Yarn-Llama-2-7b-64k
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- fd8cb244a58eab5a_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/fd8cb244a58eab5a_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device: cuda
early_stopping_patience: 1
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
evals_per_epoch: null
flash_attention: false
fp16: false
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: maksf8486/0b5537c3-d267-4f3d-8de9-aa2f99620130
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: true
local_rank: null
logging_steps: 3
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_memory:
0: 79GiB
max_steps: 30
micro_batch_size: 4
mlflow_experiment_name: /tmp/fd8cb244a58eab5a_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_torch
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: true
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123
warmup_steps: 5
weight_decay: 0.001
xformers_attention: true
```
</details><br>
# 0b5537c3-d267-4f3d-8de9-aa2f99620130
This model is a fine-tuned version of [NousResearch/Yarn-Llama-2-7b-64k](https://huggingface.co/NousResearch/Yarn-Llama-2-7b-64k) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.1270
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 16
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 30
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0003 | 1 | 1.4041 |
| 4.6849 | 0.0016 | 5 | 1.4597 |
| 3.9387 | 0.0033 | 10 | 1.2311 |
| 3.5379 | 0.0049 | 15 | 1.1778 |
| 3.6432 | 0.0065 | 20 | 1.1511 |
| 3.8237 | 0.0081 | 25 | 1.1314 |
| 4.183 | 0.0098 | 30 | 1.1270 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
brixeus/f5840a35-479b-4179-a283-3d648d3be576 | brixeus | 2025-01-23T23:19:43Z | 6 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"custom_code",
"base_model:NousResearch/Yarn-Llama-2-7b-64k",
"base_model:adapter:NousResearch/Yarn-Llama-2-7b-64k",
"region:us"
] | null | 2025-01-23T22:33:29Z | ---
library_name: peft
base_model: NousResearch/Yarn-Llama-2-7b-64k
tags:
- axolotl
- generated_from_trainer
model-index:
- name: f5840a35-479b-4179-a283-3d648d3be576
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: NousResearch/Yarn-Llama-2-7b-64k
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- fd8cb244a58eab5a_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/fd8cb244a58eab5a_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: brixeus/f5840a35-479b-4179-a283-3d648d3be576
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: false
load_in_8bit: false
local_rank: 0
logging_steps: 3
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_steps: 100
micro_batch_size: 8
mlflow_experiment_name: /tmp/fd8cb244a58eab5a_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 3
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: techspear-hub
wandb_mode: online
wandb_name: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123
wandb_project: Gradients-On-Three
wandb_run: your_name
wandb_runid: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123
warmup_steps: 10
weight_decay: 0.01
xformers_attention: null
```
</details><br>
# f5840a35-479b-4179-a283-3d648d3be576
This model is a fine-tuned version of [NousResearch/Yarn-Llama-2-7b-64k](https://huggingface.co/NousResearch/Yarn-Llama-2-7b-64k) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.7154
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 100
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0007 | 1 | 0.9398 |
| 3.754 | 0.0059 | 9 | 0.9156 |
| 3.1803 | 0.0117 | 18 | 0.8215 |
| 3.0259 | 0.0176 | 27 | 0.7804 |
| 2.9517 | 0.0234 | 36 | 0.7560 |
| 2.982 | 0.0293 | 45 | 0.7400 |
| 2.8995 | 0.0351 | 54 | 0.7295 |
| 2.8563 | 0.0410 | 63 | 0.7232 |
| 2.8268 | 0.0468 | 72 | 0.7190 |
| 3.0306 | 0.0527 | 81 | 0.7165 |
| 2.8093 | 0.0585 | 90 | 0.7156 |
| 2.8616 | 0.0644 | 99 | 0.7154 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
M-Rizwan0099/cnn_news_summary_model_trained_on_reduced_data | M-Rizwan0099 | 2025-01-23T23:18:59Z | 6 | 0 | transformers | [
"transformers",
"tensorboard",
"safetensors",
"t5",
"text2text-generation",
"generated_from_trainer",
"base_model:google-t5/t5-small",
"base_model:finetune:google-t5/t5-small",
"license:apache-2.0",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] | text2text-generation | 2025-01-23T22:35:13Z | ---
library_name: transformers
license: apache-2.0
base_model: t5-small
tags:
- generated_from_trainer
metrics:
- rouge
model-index:
- name: cnn_news_summary_model_trained_on_reduced_data
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# cnn_news_summary_model_trained_on_reduced_data
This model is a fine-tuned version of [t5-small](https://huggingface.co/t5-small) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 1.5027
- Rouge1: 0.223
- Rouge2: 0.0955
- Rougel: 0.1859
- Rougelsum: 0.1859
- Gen Len: 19.9994
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 3
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Rouge1 | Rouge2 | Rougel | Rougelsum | Gen Len |
|:-------------:|:-----:|:----:|:---------------:|:------:|:------:|:------:|:---------:|:-------:|
| No log | 1.0 | 431 | 1.5091 | 0.222 | 0.0954 | 0.1853 | 0.1854 | 19.9994 |
| 1.6772 | 2.0 | 862 | 1.5046 | 0.2223 | 0.0953 | 0.1854 | 0.1855 | 19.9994 |
| 1.6703 | 3.0 | 1293 | 1.5027 | 0.223 | 0.0955 | 0.1859 | 0.1859 | 19.9994 |
### Framework versions
- Transformers 4.47.1
- Pytorch 2.5.1+cu121
- Tokenizers 0.21.0
|
lesso08/d3677874-07c3-4af5-9d3c-2cd54efcc647 | lesso08 | 2025-01-23T23:18:53Z | 6 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:oopsung/llama2-7b-koNqa-test-v1",
"base_model:adapter:oopsung/llama2-7b-koNqa-test-v1",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:08:07Z | ---
library_name: peft
base_model: oopsung/llama2-7b-koNqa-test-v1
tags:
- axolotl
- generated_from_trainer
model-index:
- name: d3677874-07c3-4af5-9d3c-2cd54efcc647
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: oopsung/llama2-7b-koNqa-test-v1
bf16: auto
chat_template: llama3
datasets:
- data_files:
- 867d3433e74b00eb_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/867d3433e74b00eb_train_data.json
type:
field_instruction: url
field_output: text
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: lesso08/d3677874-07c3-4af5-9d3c-2cd54efcc647
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/867d3433e74b00eb_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: c778556e-b6d6-4652-a6d6-7ec10e67e497
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: c778556e-b6d6-4652-a6d6-7ec10e67e497
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# d3677874-07c3-4af5-9d3c-2cd54efcc647
This model is a fine-tuned version of [oopsung/llama2-7b-koNqa-test-v1](https://huggingface.co/oopsung/llama2-7b-koNqa-test-v1) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0169 | 200 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
daniel40/1f67830d-1cf9-4317-afa4-8e9fb4a972c0 | daniel40 | 2025-01-23T23:17:43Z | 6 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/llama-3-8b",
"base_model:adapter:unsloth/llama-3-8b",
"license:llama3",
"region:us"
] | null | 2025-01-23T23:15:42Z | ---
library_name: peft
license: llama3
base_model: unsloth/llama-3-8b
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 1f67830d-1cf9-4317-afa4-8e9fb4a972c0
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/llama-3-8b
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- ba46c3e706833477_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/ba46c3e706833477_train_data.json
type:
field_instruction: title
field_output: lyrics
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: daniel40/1f67830d-1cf9-4317-afa4-8e9fb4a972c0
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/ba46c3e706833477_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 5627705e-aa6f-44ce-be68-0f09aae8189d
wandb_project: Birthday-SN56-27-Gradients-On-Demand
wandb_run: your_name
wandb_runid: 5627705e-aa6f-44ce-be68-0f09aae8189d
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 1f67830d-1cf9-4317-afa4-8e9fb4a972c0
This model is a fine-tuned version of [unsloth/llama-3-8b](https://huggingface.co/unsloth/llama-3-8b) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0011 | 1 | nan |
| 0.0 | 0.0034 | 3 | nan |
| 0.0 | 0.0067 | 6 | nan |
| 0.0 | 0.0101 | 9 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
kokovova/40512625-485c-4c64-b5b5-3203d034c774 | kokovova | 2025-01-23T23:17:31Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen1.5-1.8B",
"base_model:adapter:Qwen/Qwen1.5-1.8B",
"license:other",
"region:us"
] | null | 2025-01-23T22:14:08Z | ---
library_name: peft
license: other
base_model: Qwen/Qwen1.5-1.8B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 40512625-485c-4c64-b5b5-3203d034c774
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen1.5-1.8B
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 6f2c117da9072e42_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/6f2c117da9072e42_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device: cuda
early_stopping_patience: 1
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
evals_per_epoch: null
flash_attention: false
fp16: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: kokovova/40512625-485c-4c64-b5b5-3203d034c774
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 3
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_memory:
0: 79GiB
max_steps: 30
micro_batch_size: 4
mlflow_experiment_name: /tmp/6f2c117da9072e42_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_torch
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: true
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: f27ecd68-3744-46bd-80df-eafd56255dbd
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: f27ecd68-3744-46bd-80df-eafd56255dbd
warmup_steps: 5
weight_decay: 0.001
xformers_attention: true
```
</details><br>
# 40512625-485c-4c64-b5b5-3203d034c774
This model is a fine-tuned version of [Qwen/Qwen1.5-1.8B](https://huggingface.co/Qwen/Qwen1.5-1.8B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.8948
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 16
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 30
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0000 | 1 | 1.9918 |
| 1.3026 | 0.0002 | 5 | 1.9698 |
| 1.5916 | 0.0003 | 10 | 1.9266 |
| 1.8496 | 0.0005 | 15 | 1.9085 |
| 1.7932 | 0.0007 | 20 | 1.8996 |
| 1.8704 | 0.0008 | 25 | 1.8958 |
| 2.0791 | 0.0010 | 30 | 1.8948 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
davidilag/wav2vec2-xls-r-1b-scandinavian-E3-100h-30-epochs-20250123 | davidilag | 2025-01-23T23:16:18Z | 16 | 0 | transformers | [
"transformers",
"tensorboard",
"safetensors",
"wav2vec2",
"automatic-speech-recognition",
"generated_from_trainer",
"base_model:facebook/wav2vec2-xls-r-1b",
"base_model:finetune:facebook/wav2vec2-xls-r-1b",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | automatic-speech-recognition | 2025-01-23T13:41:30Z | ---
library_name: transformers
license: apache-2.0
base_model: facebook/wav2vec2-xls-r-1b
tags:
- generated_from_trainer
metrics:
- wer
model-index:
- name: wav2vec2-xls-r-1b-scandinavian-E3-100h-30-epochs-20250123
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# wav2vec2-xls-r-1b-scandinavian-E3-100h-30-epochs-20250123
This model is a fine-tuned version of [facebook/wav2vec2-xls-r-1b](https://huggingface.co/facebook/wav2vec2-xls-r-1b) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 0.2819
- Wer: 21.6559
- Cer: 5.6618
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 16
- eval_batch_size: 8
- seed: 42
- gradient_accumulation_steps: 2
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 6000
- num_epochs: 30
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Wer | Cer |
|:-------------:|:-------:|:-----:|:---------------:|:-------:|:-------:|
| 1.0778 | 0.6307 | 1000 | 0.6403 | 50.3070 | 15.8896 |
| 0.5579 | 1.2611 | 2000 | 0.3271 | 33.1503 | 9.3525 |
| 0.4943 | 1.8918 | 3000 | 0.2798 | 29.3342 | 8.2452 |
| 0.364 | 2.5222 | 4000 | 0.2706 | 29.1800 | 8.1400 |
| 0.3936 | 3.1526 | 5000 | 0.2704 | 29.8631 | 8.2974 |
| 0.3917 | 3.7833 | 6000 | 0.2831 | 30.0634 | 8.6321 |
| 0.401 | 4.4137 | 7000 | 0.2827 | 30.6442 | 8.7321 |
| 0.3556 | 5.0442 | 8000 | 0.2810 | 29.5504 | 8.3789 |
| 0.3758 | 5.6749 | 9000 | 0.2649 | 29.0661 | 8.2426 |
| 0.2998 | 6.3053 | 10000 | 0.2632 | 29.1123 | 8.1817 |
| 0.309 | 6.9360 | 11000 | 0.2585 | 28.3773 | 7.9461 |
| 0.327 | 7.5664 | 12000 | 0.2638 | 29.0359 | 8.1756 |
| 0.3288 | 8.1968 | 13000 | 0.2584 | 28.9768 | 8.0346 |
| 0.3118 | 8.8275 | 14000 | 0.2536 | 28.0905 | 7.8639 |
| 0.2333 | 9.4579 | 15000 | 0.2543 | 27.0745 | 7.5489 |
| 0.2406 | 10.0883 | 16000 | 0.2584 | 27.0399 | 7.6065 |
| 0.2323 | 10.7190 | 17000 | 0.2525 | 26.9203 | 7.4725 |
| 0.2726 | 11.3494 | 18000 | 0.2438 | 26.8165 | 7.4168 |
| 0.2361 | 11.9801 | 19000 | 0.2442 | 26.4202 | 7.3170 |
| 0.2217 | 12.6105 | 20000 | 0.2416 | 25.8078 | 7.0961 |
| 0.2006 | 13.2409 | 21000 | 0.2481 | 25.5728 | 7.0706 |
| 0.1744 | 13.8716 | 22000 | 0.2375 | 25.5901 | 6.9779 |
| 0.1803 | 14.5020 | 23000 | 0.2407 | 25.4806 | 6.9786 |
| 0.1835 | 15.1325 | 24000 | 0.2390 | 25.3941 | 6.9559 |
| 0.1835 | 15.7632 | 25000 | 0.2398 | 24.9474 | 6.8212 |
| 0.1356 | 16.3936 | 26000 | 0.2371 | 24.1332 | 6.5554 |
| 0.1275 | 17.0240 | 27000 | 0.2414 | 24.2600 | 6.5575 |
| 0.1354 | 17.6547 | 28000 | 0.2421 | 23.9026 | 6.4959 |
| 0.1377 | 18.2851 | 29000 | 0.2541 | 23.6561 | 6.3947 |
| 0.1245 | 18.9158 | 30000 | 0.2326 | 23.4256 | 6.3225 |
| 0.1146 | 19.5462 | 31000 | 0.2477 | 22.9918 | 6.1989 |
| 0.0842 | 20.1766 | 32000 | 0.2480 | 22.9082 | 6.1661 |
| 0.0822 | 20.8073 | 33000 | 0.2508 | 22.6992 | 6.0991 |
| 0.0813 | 21.4377 | 34000 | 0.2546 | 22.6776 | 6.0490 |
| 0.0876 | 22.0681 | 35000 | 0.2610 | 22.4600 | 5.9675 |
| 0.0906 | 22.6988 | 36000 | 0.2623 | 22.3274 | 5.9101 |
| 0.0755 | 23.3292 | 37000 | 0.2632 | 22.3750 | 5.8953 |
| 0.0734 | 23.9599 | 38000 | 0.2637 | 22.0378 | 5.8312 |
| 0.0665 | 24.5904 | 39000 | 0.2690 | 21.9455 | 5.7953 |
| 0.0628 | 25.2208 | 40000 | 0.2816 | 21.8274 | 5.7466 |
| 0.068 | 25.8515 | 41000 | 0.2767 | 21.8245 | 5.7178 |
| 0.0637 | 26.4819 | 42000 | 0.2801 | 21.7755 | 5.7103 |
| 0.0535 | 27.1123 | 43000 | 0.2787 | 21.7423 | 5.6853 |
| 0.0523 | 27.7430 | 44000 | 0.2833 | 21.6746 | 5.6771 |
| 0.0493 | 28.3734 | 45000 | 0.2822 | 21.6587 | 5.6658 |
| 0.0576 | 29.0038 | 46000 | 0.2805 | 21.6414 | 5.6632 |
| 0.0559 | 29.6345 | 47000 | 0.2819 | 21.6559 | 5.6618 |
### Framework versions
- Transformers 4.48.1
- Pytorch 2.5.1+cu124
- Datasets 3.2.0
- Tokenizers 0.21.0
|
lesso17/24e12d63-ece8-4e93-904f-ade926654dbd | lesso17 | 2025-01-23T23:15:44Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen1.5-1.8B",
"base_model:adapter:Qwen/Qwen1.5-1.8B",
"license:other",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:13:58Z | ---
library_name: peft
license: other
base_model: Qwen/Qwen1.5-1.8B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 24e12d63-ece8-4e93-904f-ade926654dbd
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen1.5-1.8B
bf16: auto
chat_template: llama3
datasets:
- data_files:
- 6f2c117da9072e42_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/6f2c117da9072e42_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: lesso17/24e12d63-ece8-4e93-904f-ade926654dbd
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/6f2c117da9072e42_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: f27ecd68-3744-46bd-80df-eafd56255dbd
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: f27ecd68-3744-46bd-80df-eafd56255dbd
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 24e12d63-ece8-4e93-904f-ade926654dbd
This model is a fine-tuned version of [Qwen/Qwen1.5-1.8B](https://huggingface.co/Qwen/Qwen1.5-1.8B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.6845
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 1.7233 | 0.0034 | 200 | 1.6845 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
prxy5604/08973e35-e61d-42fa-b37a-6d75665d5fd4 | prxy5604 | 2025-01-23T23:13:52Z | 8 | 0 | peft | [
"peft",
"safetensors",
"mistral",
"axolotl",
"generated_from_trainer",
"base_model:dltjdgh0928/test_instruction",
"base_model:adapter:dltjdgh0928/test_instruction",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T22:17:43Z | ---
library_name: peft
license: apache-2.0
base_model: dltjdgh0928/test_instruction
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 08973e35-e61d-42fa-b37a-6d75665d5fd4
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: dltjdgh0928/test_instruction
bf16: true
chat_template: llama3
data_processes: 16
dataset_prepared_path: null
datasets:
- data_files:
- 0e7cbca1d74d5638_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/0e7cbca1d74d5638_train_data.json
type:
field_input: context
field_instruction: title
field_output: question
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device_map: auto
do_eval: true
early_stopping_patience: 5
eval_batch_size: 4
eval_max_new_tokens: 128
eval_steps: 50
eval_table_size: null
evals_per_epoch: null
flash_attention: true
fp16: false
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: prxy5604/08973e35-e61d-42fa-b37a-6d75665d5fd4
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0001
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 128
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 64
lora_target_linear: true
lr_scheduler: cosine
max_grad_norm: 1.0
max_memory:
0: 75GB
max_steps: 200
micro_batch_size: 8
mlflow_experiment_name: /tmp/0e7cbca1d74d5638_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 3
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 50
saves_per_epoch: null
sequence_len: 1024
strict: false
tf32: true
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 75c62ccf-8344-4c4c-863e-7f901f5d31de
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 75c62ccf-8344-4c4c-863e-7f901f5d31de
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 08973e35-e61d-42fa-b37a-6d75665d5fd4
This model is a fine-tuned version of [dltjdgh0928/test_instruction](https://huggingface.co/dltjdgh0928/test_instruction) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.0718
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 8
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 12.125 | 0.0054 | 1 | 3.2138 |
| 0.6881 | 0.2725 | 50 | 0.4057 |
| 0.489 | 0.5450 | 100 | 0.2211 |
| 0.3423 | 0.8174 | 150 | 0.1114 |
| 0.4998 | 1.0913 | 200 | 0.0718 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
lesso01/32cc0f63-e69f-480d-a0ea-b4015b7b0923 | lesso01 | 2025-01-23T23:12:11Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"custom_code",
"base_model:NousResearch/Yarn-Llama-2-7b-64k",
"base_model:adapter:NousResearch/Yarn-Llama-2-7b-64k",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:34:07Z | ---
library_name: peft
base_model: NousResearch/Yarn-Llama-2-7b-64k
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 32cc0f63-e69f-480d-a0ea-b4015b7b0923
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: NousResearch/Yarn-Llama-2-7b-64k
bf16: true
chat_template: llama3
datasets:
- data_files:
- fd8cb244a58eab5a_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/fd8cb244a58eab5a_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: 2
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
flash_attention: false
fp16: false
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: lesso01/32cc0f63-e69f-480d-a0ea-b4015b7b0923
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 25
micro_batch_size: 2
mlflow_experiment_name: /tmp/fd8cb244a58eab5a_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 32cc0f63-e69f-480d-a0ea-b4015b7b0923
This model is a fine-tuned version of [NousResearch/Yarn-Llama-2-7b-64k](https://huggingface.co/NousResearch/Yarn-Llama-2-7b-64k) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.8037
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 25
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 3.5627 | 0.0002 | 1 | 0.9583 |
| 3.9716 | 0.0008 | 5 | 0.9511 |
| 3.4151 | 0.0016 | 10 | 0.8704 |
| 3.0551 | 0.0024 | 15 | 0.8331 |
| 3.6 | 0.0033 | 20 | 0.8091 |
| 3.5221 | 0.0041 | 25 | 0.8037 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
bbytxt/fc927c5d-009e-4407-9ca9-c93790dde29d | bbytxt | 2025-01-23T23:11:23Z | 6 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Llama-3.1-Storm-8B",
"base_model:adapter:unsloth/Llama-3.1-Storm-8B",
"license:llama3.1",
"region:us"
] | null | 2025-01-23T22:28:19Z | ---
library_name: peft
license: llama3.1
base_model: unsloth/Llama-3.1-Storm-8B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: fc927c5d-009e-4407-9ca9-c93790dde29d
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Llama-3.1-Storm-8B
bf16: true
chat_template: llama3
data_processes: 16
dataset_prepared_path: null
datasets:
- data_files:
- 935541efcc64f82d_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/935541efcc64f82d_train_data.json
type:
field_instruction: document
field_output: query
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device_map: auto
do_eval: true
early_stopping_patience: 5
eval_batch_size: 4
eval_max_new_tokens: 128
eval_steps: 50
eval_table_size: null
evals_per_epoch: null
flash_attention: true
fp16: false
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: bbytxt/fc927c5d-009e-4407-9ca9-c93790dde29d
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0001
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 128
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 64
lora_target_linear: true
lr_scheduler: cosine
max_grad_norm: 1.0
max_memory:
0: 75GB
max_steps: 200
micro_batch_size: 8
mlflow_experiment_name: /tmp/935541efcc64f82d_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 3
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 50
saves_per_epoch: null
sequence_len: 1024
strict: false
tf32: true
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 6b070b86-583e-4c98-a10d-d6688cb70e68
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 6b070b86-583e-4c98-a10d-d6688cb70e68
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# fc927c5d-009e-4407-9ca9-c93790dde29d
This model is a fine-tuned version of [unsloth/Llama-3.1-Storm-8B](https://huggingface.co/unsloth/Llama-3.1-Storm-8B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.0280
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 8
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 4.1959 | 0.0007 | 1 | 4.0230 |
| 1.0073 | 0.0367 | 50 | 1.1251 |
| 0.9381 | 0.0733 | 100 | 1.0687 |
| 1.0217 | 0.1100 | 150 | 1.0379 |
| 0.8132 | 0.1466 | 200 | 1.0280 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
dzanbek/2a886994-9780-47ab-aa54-c59f3d19c581 | dzanbek | 2025-01-23T23:11:04Z | 6 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"custom_code",
"base_model:NousResearch/Yarn-Llama-2-7b-64k",
"base_model:adapter:NousResearch/Yarn-Llama-2-7b-64k",
"region:us"
] | null | 2025-01-23T22:34:13Z | ---
library_name: peft
base_model: NousResearch/Yarn-Llama-2-7b-64k
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 2a886994-9780-47ab-aa54-c59f3d19c581
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: NousResearch/Yarn-Llama-2-7b-64k
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- fd8cb244a58eab5a_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/fd8cb244a58eab5a_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device: cuda
early_stopping_patience: 1
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
evals_per_epoch: null
flash_attention: false
fp16: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: false
hub_model_id: dzanbek/2a886994-9780-47ab-aa54-c59f3d19c581
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 3
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_memory:
0: 78GiB
max_steps: 30
micro_batch_size: 2
mlflow_experiment_name: /tmp/fd8cb244a58eab5a_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_torch
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: true
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 2a886994-9780-47ab-aa54-c59f3d19c581
This model is a fine-tuned version of [NousResearch/Yarn-Llama-2-7b-64k](https://huggingface.co/NousResearch/Yarn-Llama-2-7b-64k) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.0587
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 30
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0002 | 1 | 1.3121 |
| 5.0128 | 0.0008 | 5 | 1.2831 |
| 4.827 | 0.0016 | 10 | 1.1430 |
| 4.3899 | 0.0024 | 15 | 1.1015 |
| 4.1246 | 0.0033 | 20 | 1.0747 |
| 4.2226 | 0.0041 | 25 | 1.0612 |
| 4.1296 | 0.0049 | 30 | 1.0587 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
nbninh/8d33201b-8303-461f-ad8b-602eb01e20cb | nbninh | 2025-01-23T23:10:40Z | 6 | 0 | peft | [
"peft",
"safetensors",
"mistral",
"axolotl",
"generated_from_trainer",
"base_model:dltjdgh0928/test_instruction",
"base_model:adapter:dltjdgh0928/test_instruction",
"license:apache-2.0",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:30:31Z | ---
library_name: peft
license: apache-2.0
base_model: dltjdgh0928/test_instruction
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 8d33201b-8303-461f-ad8b-602eb01e20cb
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: dltjdgh0928/test_instruction
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 76022a30315552b8_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/76022a30315552b8_train_data.json
type:
field_instruction: input
field_output: target
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: nbninh/8d33201b-8303-461f-ad8b-602eb01e20cb
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/76022a30315552b8_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 0573e27c-6a6f-4989-9b30-ba29f333396d
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 0573e27c-6a6f-4989-9b30-ba29f333396d
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 8d33201b-8303-461f-ad8b-602eb01e20cb
This model is a fine-tuned version of [dltjdgh0928/test_instruction](https://huggingface.co/dltjdgh0928/test_instruction) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.2622
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.9441 | 0.0322 | 200 | 0.2622 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
thaffggg/9c6bde1b-0933-4382-ab23-93e550e0fca7 | thaffggg | 2025-01-23T23:10:15Z | 6 | 0 | peft | [
"peft",
"safetensors",
"mistral",
"axolotl",
"generated_from_trainer",
"base_model:dltjdgh0928/test_instruction",
"base_model:adapter:dltjdgh0928/test_instruction",
"license:apache-2.0",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T22:30:44Z | ---
library_name: peft
license: apache-2.0
base_model: dltjdgh0928/test_instruction
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 9c6bde1b-0933-4382-ab23-93e550e0fca7
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: dltjdgh0928/test_instruction
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 76022a30315552b8_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/76022a30315552b8_train_data.json
type:
field_instruction: input
field_output: target
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: thaffggg/9c6bde1b-0933-4382-ab23-93e550e0fca7
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/76022a30315552b8_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 0573e27c-6a6f-4989-9b30-ba29f333396d
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 0573e27c-6a6f-4989-9b30-ba29f333396d
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 9c6bde1b-0933-4382-ab23-93e550e0fca7
This model is a fine-tuned version of [dltjdgh0928/test_instruction](https://huggingface.co/dltjdgh0928/test_instruction) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.2619
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.9532 | 0.0322 | 200 | 0.2619 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
mrHunghddddd/80078bc8-c84a-4cee-a72f-aa33d4cd4fae | mrHunghddddd | 2025-01-23T23:09:21Z | 6 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Qwen2.5-Math-7B-Instruct",
"base_model:adapter:unsloth/Qwen2.5-Math-7B-Instruct",
"license:apache-2.0",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T20:38:10Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/Qwen2.5-Math-7B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 80078bc8-c84a-4cee-a72f-aa33d4cd4fae
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Qwen2.5-Math-7B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 8a9910a3e95b9e54_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/8a9910a3e95b9e54_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: mrHunghddddd/80078bc8-c84a-4cee-a72f-aa33d4cd4fae
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/8a9910a3e95b9e54_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 4d275d20-528c-41c1-8773-3aca4b166744
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 4d275d20-528c-41c1-8773-3aca4b166744
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 80078bc8-c84a-4cee-a72f-aa33d4cd4fae
This model is a fine-tuned version of [unsloth/Qwen2.5-Math-7B-Instruct](https://huggingface.co/unsloth/Qwen2.5-Math-7B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 2.6191
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 2.9372 | 0.0036 | 200 | 2.6191 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
hongngo/364a7f0b-8bfd-4111-9ef7-ffae3c39fa31 | hongngo | 2025-01-23T23:08:58Z | 6 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/tinyllama-chat",
"base_model:adapter:unsloth/tinyllama-chat",
"license:apache-2.0",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T23:00:48Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/tinyllama-chat
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 364a7f0b-8bfd-4111-9ef7-ffae3c39fa31
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/tinyllama-chat
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 07830763800e2537_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/07830763800e2537_train_data.json
type:
field_instruction: title
field_output: dialogue
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: hongngo/364a7f0b-8bfd-4111-9ef7-ffae3c39fa31
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/07830763800e2537_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: aeb7a994-bf0d-40dd-9f20-b17c9de47b12
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: aeb7a994-bf0d-40dd-9f20-b17c9de47b12
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 364a7f0b-8bfd-4111-9ef7-ffae3c39fa31
This model is a fine-tuned version of [unsloth/tinyllama-chat](https://huggingface.co/unsloth/tinyllama-chat) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 2.9682
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 3.1407 | 0.4063 | 200 | 2.9682 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
nat-hunt/97bf57c3-416a-4650-b6c3-acd8762618fc | nat-hunt | 2025-01-23T23:05:16Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:defog/llama-3-sqlcoder-8b",
"base_model:adapter:defog/llama-3-sqlcoder-8b",
"license:cc-by-sa-4.0",
"region:us"
] | null | 2025-01-23T23:01:16Z | ---
library_name: peft
license: cc-by-sa-4.0
base_model: defog/llama-3-sqlcoder-8b
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 97bf57c3-416a-4650-b6c3-acd8762618fc
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: defog/llama-3-sqlcoder-8b
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 8e91c8fc8aa471c6_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/8e91c8fc8aa471c6_train_data.json
type:
field_input: schema
field_instruction: query
field_output: response
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: nat-hunt/97bf57c3-416a-4650-b6c3-acd8762618fc
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/8e91c8fc8aa471c6_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
special_tokens:
pad_token: <|eot_id|>
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: a2b04a74-21ae-496c-999f-245629e779f7
wandb_project: Birthday-SN56-4-Gradients-On-Demand
wandb_run: your_name
wandb_runid: a2b04a74-21ae-496c-999f-245629e779f7
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 97bf57c3-416a-4650-b6c3-acd8762618fc
This model is a fine-tuned version of [defog/llama-3-sqlcoder-8b](https://huggingface.co/defog/llama-3-sqlcoder-8b) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.2569
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.3952 | 0.0004 | 1 | 0.3860 |
| 0.3256 | 0.0012 | 3 | 0.3830 |
| 0.27 | 0.0025 | 6 | 0.3235 |
| 0.2845 | 0.0037 | 9 | 0.2569 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
ClarenceDan/c4b38be3-4d3a-4831-a434-b73124a4b4e8 | ClarenceDan | 2025-01-23T23:01:07Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/tinyllama-chat",
"base_model:adapter:unsloth/tinyllama-chat",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T23:00:39Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/tinyllama-chat
tags:
- axolotl
- generated_from_trainer
model-index:
- name: c4b38be3-4d3a-4831-a434-b73124a4b4e8
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/tinyllama-chat
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 07830763800e2537_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/07830763800e2537_train_data.json
type:
field_instruction: title
field_output: dialogue
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: ClarenceDan/c4b38be3-4d3a-4831-a434-b73124a4b4e8
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/07830763800e2537_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: aeb7a994-bf0d-40dd-9f20-b17c9de47b12
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: aeb7a994-bf0d-40dd-9f20-b17c9de47b12
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# c4b38be3-4d3a-4831-a434-b73124a4b4e8
This model is a fine-tuned version of [unsloth/tinyllama-chat](https://huggingface.co/unsloth/tinyllama-chat) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0020 | 1 | nan |
| 0.0 | 0.0061 | 3 | nan |
| 0.0 | 0.0122 | 6 | nan |
| 0.0 | 0.0183 | 9 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
JordiOrtega/finetuned_mental_health_distilgpt2 | JordiOrtega | 2025-01-23T22:56:30Z | 20 | 0 | transformers | [
"transformers",
"safetensors",
"gpt2",
"text-generation",
"generated_from_trainer",
"trl",
"sft",
"base_model:JordiOrtega/distilgpt2",
"base_model:finetune:JordiOrtega/distilgpt2",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] | text-generation | 2025-01-23T22:56:19Z | ---
base_model: JordiOrtega/distilgpt2
library_name: transformers
model_name: finetuned_mental_health_distilgpt2
tags:
- generated_from_trainer
- trl
- sft
licence: license
---
# Model Card for finetuned_mental_health_distilgpt2
This model is a fine-tuned version of [JordiOrtega/distilgpt2](https://huggingface.co/JordiOrtega/distilgpt2).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="JordiOrtega/finetuned_mental_health_distilgpt2", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
This model was trained with SFT.
### Framework versions
- TRL: 0.13.0
- Transformers: 4.48.1
- Pytorch: 2.5.1+cu121
- Datasets: 3.2.0
- Tokenizers: 0.21.0
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallouรฉdec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
``` |
Best000/5b67fd24-cf44-48d7-85ac-315e63b4252a | Best000 | 2025-01-23T22:54:11Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Qwen2.5-Coder-7B-Instruct",
"base_model:adapter:unsloth/Qwen2.5-Coder-7B-Instruct",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T22:52:39Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/Qwen2.5-Coder-7B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 5b67fd24-cf44-48d7-85ac-315e63b4252a
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Qwen2.5-Coder-7B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 1c80e6e0f7b1f9db_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/1c80e6e0f7b1f9db_train_data.json
type:
field_input: choices
field_instruction: full_prompt
field_output: example
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: Best000/5b67fd24-cf44-48d7-85ac-315e63b4252a
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/1c80e6e0f7b1f9db_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: f27f7b2e-f4a6-47ee-8546-93e834f85e8e
wandb_project: Birthday-SN56-16-Gradients-On-Demand
wandb_run: your_name
wandb_runid: f27f7b2e-f4a6-47ee-8546-93e834f85e8e
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 5b67fd24-cf44-48d7-85ac-315e63b4252a
This model is a fine-tuned version of [unsloth/Qwen2.5-Coder-7B-Instruct](https://huggingface.co/unsloth/Qwen2.5-Coder-7B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0336 | 1 | nan |
| 0.0 | 0.1008 | 3 | nan |
| 0.0 | 0.2017 | 6 | nan |
| 0.0 | 0.3025 | 9 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
kholiavko/test-ds-1-5 | kholiavko | 2025-01-23T22:53:38Z | 22 | 0 | transformers | [
"transformers",
"gguf",
"qwen2",
"text-generation-inference",
"unsloth",
"en",
"license:apache-2.0",
"endpoints_compatible",
"region:us",
"conversational"
] | null | 2025-01-23T22:53:22Z | ---
base_model: unsloth/deepseek-r1-distill-qwen-1.5b
tags:
- text-generation-inference
- transformers
- unsloth
- qwen2
- gguf
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** kholiavko
- **License:** apache-2.0
- **Finetuned from model :** unsloth/deepseek-r1-distill-qwen-1.5b
This qwen2 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
dimasik1987/a277bf70-8879-43e6-8d2a-0bbc2e71105a | dimasik1987 | 2025-01-23T22:49:18Z | 8 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Llama-3.1-Storm-8B",
"base_model:adapter:unsloth/Llama-3.1-Storm-8B",
"license:llama3.1",
"region:us"
] | null | 2025-01-23T22:28:49Z | ---
library_name: peft
license: llama3.1
base_model: unsloth/Llama-3.1-Storm-8B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: a277bf70-8879-43e6-8d2a-0bbc2e71105a
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Llama-3.1-Storm-8B
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 935541efcc64f82d_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/935541efcc64f82d_train_data.json
type:
field_instruction: document
field_output: query
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device: cuda
early_stopping_patience: 1
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
evals_per_epoch: null
flash_attention: false
fp16: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: dimasik1987/a277bf70-8879-43e6-8d2a-0bbc2e71105a
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 3
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_memory:
0: 79GiB
max_steps: 30
micro_batch_size: 4
mlflow_experiment_name: /tmp/935541efcc64f82d_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_torch
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: true
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 6b070b86-583e-4c98-a10d-d6688cb70e68
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 6b070b86-583e-4c98-a10d-d6688cb70e68
warmup_steps: 5
weight_decay: 0.001
xformers_attention: true
```
</details><br>
# a277bf70-8879-43e6-8d2a-0bbc2e71105a
This model is a fine-tuned version of [unsloth/Llama-3.1-Storm-8B](https://huggingface.co/unsloth/Llama-3.1-Storm-8B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 16
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 30
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0004 | 1 | nan |
| 1.756 | 0.0018 | 5 | nan |
| 0.0 | 0.0037 | 10 | nan |
| 0.0 | 0.0055 | 15 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
haryoaw/cola_meta-llama-Llama-3.2-3B_5_0 | haryoaw | 2025-01-23T22:49:08Z | 7 | 0 | transformers | [
"transformers",
"safetensors",
"llama",
"text-generation",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] | text-generation | 2025-01-23T21:44:32Z | ---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a ๐ค transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed] |
HFXM/Trial0-6Rules-RA-Llama3-2-3B-63K | HFXM | 2025-01-23T22:48:26Z | 6 | 0 | transformers | [
"transformers",
"safetensors",
"llama",
"text-classification",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] | text-classification | 2025-01-23T22:45:51Z | ---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a ๐ค transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed] |
kmkarakaya/nutuk-llama-3-8b-gguf | kmkarakaya | 2025-01-23T22:48:13Z | 81 | 0 | transformers | [
"transformers",
"gguf",
"llama",
"text-generation-inference",
"unsloth",
"en",
"base_model:unsloth/llama-3-8b-Instruct-bnb-4bit",
"base_model:quantized:unsloth/llama-3-8b-Instruct-bnb-4bit",
"license:apache-2.0",
"endpoints_compatible",
"region:us",
"conversational"
] | null | 2025-01-23T22:42:41Z | ---
base_model: unsloth/llama-3-8b-Instruct-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- llama
- gguf
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** kmkarakaya
- **License:** apache-2.0
- **Finetuned from model :** unsloth/llama-3-8b-Instruct-bnb-4bit
This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
NewEden/chameleon-7b | NewEden | 2025-01-23T22:46:48Z | 7 | 0 | null | [
"safetensors",
"chameleon",
"image-text-to-text",
"arxiv:2405.09818",
"license:other",
"region:us"
] | image-text-to-text | 2025-01-23T22:43:55Z | ---
license: other
license_name: chameleon-research-license
license_link: https://ai.meta.com/resources/models-and-libraries/chameleon-license/
extra_gated_prompt: '### META CHAMELEON RESEARCH LICENSE AGREEMENT'
extra_gated_fields:
First Name: text
Last Name: text
Date of birth: date_picker
Country: country
Affiliation: text
I accept the terms and conditions: checkbox
geo: ip_location
extra_gated_description: Meta Chameleon Research License and Acceptable Use Policy
extra_gated_button_content: I Accept Meta Chameleon Research License and AUP
pipeline_tag: image-text-to-text
---
# **Meta Chameleon 7B**
Repository for Meta Chameleon, a mixed-modal early-fusion foundation model from FAIR. See the [Chameleon paper](//arxiv.org/abs/2405.09818) for more information.
The [Chameleon collection](//huggingface.co/collections/facebook/chameleon-668da9663f80d483b4c61f58) on HuggingFace contains [7 billion parameter](//huggingface.co/facebook/chameleon-7b) and [30 billion parameter](//huggingface.co/facebook/chameleon-30b) model checkpoints.
*[more details and usage examples coming soon]*
### Citation
To cite the paper, model, or software, please use the below:
```
@article{Chameleon_Team_Chameleon_Mixed-Modal_Early-Fusion_2024,
author = {Chameleon Team},
doi = {10.48550/arXiv.2405.09818},
journal = {arXiv preprint arXiv:2405.09818},
title = {Chameleon: Mixed-Modal Early-Fusion Foundation Models},
url = {https://github.com/facebookresearch/chameleon},
year = {2024}
}
```
### License
Use of this repository and related resources are governed by the [Chameleon Research License](//ai.meta.com/resources/models-and-libraries/chameleon-license) and this repository's [LICENSE](./LICENSE) file. |
HFXM/Trial0-3Rules-RA-Llama3-2-3B-63K | HFXM | 2025-01-23T22:42:42Z | 11 | 0 | transformers | [
"transformers",
"safetensors",
"llama",
"text-classification",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] | text-classification | 2025-01-23T22:39:56Z | ---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a ๐ค transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed] |
Best000/37519048-ef2c-4357-8158-addf3dca9522 | Best000 | 2025-01-23T22:40:56Z | 6 | 0 | peft | [
"peft",
"safetensors",
"falcon",
"axolotl",
"generated_from_trainer",
"custom_code",
"base_model:tiiuae/falcon-rw-1b",
"base_model:adapter:tiiuae/falcon-rw-1b",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T21:22:55Z | ---
library_name: peft
license: apache-2.0
base_model: tiiuae/falcon-rw-1b
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 37519048-ef2c-4357-8158-addf3dca9522
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: tiiuae/falcon-rw-1b
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- f7077b539ce146ff_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/f7077b539ce146ff_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: Best000/37519048-ef2c-4357-8158-addf3dca9522
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/f7077b539ce146ff_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
special_tokens:
pad_token: <|endoftext|>
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 1d9ea8a0-0c1e-4552-96c4-84ec38c9f39b
wandb_project: Birthday-SN56-16-Gradients-On-Demand
wandb_run: your_name
wandb_runid: 1d9ea8a0-0c1e-4552-96c4-84ec38c9f39b
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 37519048-ef2c-4357-8158-addf3dca9522
This model is a fine-tuned version of [tiiuae/falcon-rw-1b](https://huggingface.co/tiiuae/falcon-rw-1b) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.5344
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 9.4793 | 0.0000 | 1 | 1.6230 |
| 4.2064 | 0.0000 | 3 | 1.6210 |
| 6.6482 | 0.0001 | 6 | 1.6007 |
| 6.6491 | 0.0001 | 9 | 1.5344 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
mrHungddddh/0ecef4c0-4c85-45b6-946f-5f8ccc8942c7 | mrHungddddh | 2025-01-23T22:40:30Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Qwen2.5-3B-Instruct",
"base_model:adapter:unsloth/Qwen2.5-3B-Instruct",
"license:other",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T21:30:15Z | ---
library_name: peft
license: other
base_model: unsloth/Qwen2.5-3B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 0ecef4c0-4c85-45b6-946f-5f8ccc8942c7
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Qwen2.5-3B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 2db0686093697b5a_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/2db0686093697b5a_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: mrHungddddh/0ecef4c0-4c85-45b6-946f-5f8ccc8942c7
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/2db0686093697b5a_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 5b52948b-c74c-428c-b3b5-5acf6a0cd4c2
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 5b52948b-c74c-428c-b3b5-5acf6a0cd4c2
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 0ecef4c0-4c85-45b6-946f-5f8ccc8942c7
This model is a fine-tuned version of [unsloth/Qwen2.5-3B-Instruct](https://huggingface.co/unsloth/Qwen2.5-3B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.8676
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.598 | 0.0075 | 200 | 0.8676 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
robiual-awal/823ec4ce-6d0d-4343-b9fa-c7e40a0d3d8e | robiual-awal | 2025-01-23T22:38:55Z | 8 | 0 | peft | [
"peft",
"safetensors",
"mistral",
"axolotl",
"generated_from_trainer",
"base_model:dltjdgh0928/test_instruction",
"base_model:adapter:dltjdgh0928/test_instruction",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T22:30:42Z | ---
library_name: peft
license: apache-2.0
base_model: dltjdgh0928/test_instruction
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 823ec4ce-6d0d-4343-b9fa-c7e40a0d3d8e
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: dltjdgh0928/test_instruction
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 76022a30315552b8_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/76022a30315552b8_train_data.json
type:
field_instruction: input
field_output: target
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: robiual-awal/823ec4ce-6d0d-4343-b9fa-c7e40a0d3d8e
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/76022a30315552b8_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 0573e27c-6a6f-4989-9b30-ba29f333396d
wandb_project: Birthday-SN56-29-Gradients-On-Demand
wandb_run: your_name
wandb_runid: 0573e27c-6a6f-4989-9b30-ba29f333396d
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 823ec4ce-6d0d-4343-b9fa-c7e40a0d3d8e
This model is a fine-tuned version of [dltjdgh0928/test_instruction](https://huggingface.co/dltjdgh0928/test_instruction) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0002 | 1 | nan |
| 0.0 | 0.0005 | 3 | nan |
| 0.0 | 0.0010 | 6 | nan |
| 0.0 | 0.0014 | 9 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
kostiantynk-out/0a6bd269-9fac-436b-8c5e-cb265d4f59c9 | kostiantynk-out | 2025-01-23T22:36:46Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Qwen2-1.5B",
"base_model:adapter:unsloth/Qwen2-1.5B",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T22:23:23Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/Qwen2-1.5B
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 0a6bd269-9fac-436b-8c5e-cb265d4f59c9
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Qwen2-1.5B
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 6aaf299a346782ed_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/6aaf299a346782ed_train_data.json
type:
field_input: rejected
field_instruction: prompt
field_output: chosen
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: kostiantynk-out/0a6bd269-9fac-436b-8c5e-cb265d4f59c9
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/6aaf299a346782ed_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: d2e1c062-a472-4c6b-b3de-eecbaacfbed7
wandb_project: Mine-SN56-1-Gradients-On-Demand
wandb_run: your_name
wandb_runid: d2e1c062-a472-4c6b-b3de-eecbaacfbed7
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 0a6bd269-9fac-436b-8c5e-cb265d4f59c9
This model is a fine-tuned version of [unsloth/Qwen2-1.5B](https://huggingface.co/unsloth/Qwen2-1.5B) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 0.0 | 0.0000 | 1 | nan |
| 0.0 | 0.0001 | 3 | nan |
| 0.0 | 0.0003 | 6 | nan |
| 0.0 | 0.0004 | 9 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
bookbot/byt5-small-wikipron-eng-latn-us-broad | bookbot | 2025-01-23T22:35:08Z | 127 | 0 | transformers | [
"transformers",
"pytorch",
"tensorboard",
"safetensors",
"t5",
"text2text-generation",
"generated_from_trainer",
"license:apache-2.0",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] | text2text-generation | 2023-04-05T09:15:38Z | ---
license: apache-2.0
tags:
- generated_from_trainer
model-index:
- name: byt5-small-wikipron-eng-latn-us-broad
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# byt5-small-wikipron-eng-latn-us-broad
This model is a fine-tuned version of [google/byt5-small](https://huggingface.co/google/byt5-small) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.1668
- Per: 0.2588
- Gen Len: 15.7318
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 128
- eval_batch_size: 32
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- num_epochs: 10.0
### Training results
| Training Loss | Epoch | Step | Validation Loss | Per | Gen Len |
|:-------------:|:-----:|:----:|:---------------:|:------:|:-------:|
| 1.9462 | 1.0 | 382 | 0.2963 | 0.3495 | 15.453 |
| 0.2979 | 2.0 | 764 | 0.2144 | 0.2941 | 15.6759 |
| 0.2319 | 3.0 | 1146 | 0.1898 | 0.2765 | 15.7219 |
| 0.2042 | 4.0 | 1528 | 0.1799 | 0.2719 | 15.7235 |
| 0.1879 | 5.0 | 1910 | 0.1744 | 0.2657 | 15.7054 |
| 0.1763 | 6.0 | 2292 | 0.1729 | 0.2645 | 15.7406 |
| 0.1677 | 7.0 | 2674 | 0.1693 | 0.2619 | 15.7269 |
| 0.1613 | 8.0 | 3056 | 0.1668 | 0.2604 | 15.7371 |
| 0.1559 | 9.0 | 3438 | 0.1667 | 0.2585 | 15.7383 |
| 0.1534 | 10.0 | 3820 | 0.1668 | 0.2588 | 15.7318 |
### Framework versions
- Transformers 4.28.0.dev0
- Pytorch 1.13.1+cu117
- Datasets 2.9.0
- Tokenizers 0.13.2
|
ClarenceDan/7efab565-dc64-4fa9-a3ad-4cc292c82575 | ClarenceDan | 2025-01-23T22:34:42Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Qwen2.5-Math-7B-Instruct",
"base_model:adapter:unsloth/Qwen2.5-Math-7B-Instruct",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T21:05:04Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/Qwen2.5-Math-7B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 7efab565-dc64-4fa9-a3ad-4cc292c82575
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Qwen2.5-Math-7B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 8a9910a3e95b9e54_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/8a9910a3e95b9e54_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: ClarenceDan/7efab565-dc64-4fa9-a3ad-4cc292c82575
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/8a9910a3e95b9e54_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 4d275d20-528c-41c1-8773-3aca4b166744
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 4d275d20-528c-41c1-8773-3aca4b166744
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 7efab565-dc64-4fa9-a3ad-4cc292c82575
This model is a fine-tuned version of [unsloth/Qwen2.5-Math-7B-Instruct](https://huggingface.co/unsloth/Qwen2.5-Math-7B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 2.177 | 0.0000 | 1 | nan |
| 0.0 | 0.0001 | 3 | nan |
| 0.0 | 0.0001 | 6 | nan |
| 0.0 | 0.0002 | 9 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
NewEden/chameleon-30b | NewEden | 2025-01-23T22:32:23Z | 15 | 0 | null | [
"safetensors",
"chameleon",
"image-text-to-text",
"arxiv:2405.09818",
"license:other",
"region:us"
] | image-text-to-text | 2025-01-23T22:06:05Z | ---
license: other
license_name: chameleon-research-license
license_link: https://ai.meta.com/resources/models-and-libraries/chameleon-license/
extra_gated_prompt: '### META CHAMELEON RESEARCH LICENSE AGREEMENT'
extra_gated_fields:
First Name: text
Last Name: text
Date of birth: date_picker
Country: country
Affiliation: text
I accept the terms and conditions: checkbox
geo: ip_location
extra_gated_description: Meta Chameleon Research License and Acceptable Use Policy
extra_gated_button_content: I Accept Meta Chameleon Research License and AUP
pipeline_tag: image-text-to-text
---
# **Meta Chameleon 30B**
Repository for Meta Chameleon, a mixed-modal early-fusion foundation model from FAIR. See the [Chameleon paper](//arxiv.org/abs/2405.09818) for more information.
The [Chameleon collection](//huggingface.co/collections/facebook/chameleon-668da9663f80d483b4c61f58) on HuggingFace contains [7 billion parameter](//huggingface.co/facebook/chameleon-7b) and [30 billion parameter](//huggingface.co/facebook/chameleon-30b) model checkpoints.
*[more details and usage examples coming soon]*
### Citation
To cite the paper, model, or software, please use the below:
```
@article{Chameleon_Team_Chameleon_Mixed-Modal_Early-Fusion_2024,
author = {Chameleon Team},
doi = {10.48550/arXiv.2405.09818},
journal = {arXiv preprint arXiv:2405.09818},
title = {Chameleon: Mixed-Modal Early-Fusion Foundation Models},
url = {https://github.com/facebookresearch/chameleon},
year = {2024}
}
```
### License
Use of this repository and related resources are governed by the [Chameleon Research License](//ai.meta.com/resources/models-and-libraries/chameleon-license) and this repository's [LICENSE](./LICENSE) file. |
vmpsergio/94f6081a-758f-4316-852c-c069fd4f150e | vmpsergio | 2025-01-23T22:28:45Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Qwen2.5-3B-Instruct",
"base_model:adapter:unsloth/Qwen2.5-3B-Instruct",
"license:other",
"region:us"
] | null | 2025-01-23T21:29:33Z | ---
library_name: peft
license: other
base_model: unsloth/Qwen2.5-3B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 94f6081a-758f-4316-852c-c069fd4f150e
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Qwen2.5-3B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 2db0686093697b5a_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/2db0686093697b5a_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device: cuda
early_stopping_patience: 1
eval_max_new_tokens: 128
eval_steps: 5
eval_table_size: null
evals_per_epoch: null
flash_attention: false
fp16: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: false
hub_model_id: vmpsergio/94f6081a-758f-4316-852c-c069fd4f150e
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 3
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_memory:
0: 78GiB
max_steps: 30
micro_batch_size: 2
mlflow_experiment_name: /tmp/2db0686093697b5a_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_torch
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 10
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: true
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 5b52948b-c74c-428c-b3b5-5acf6a0cd4c2
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 5b52948b-c74c-428c-b3b5-5acf6a0cd4c2
warmup_steps: 10
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# 94f6081a-758f-4316-852c-c069fd4f150e
This model is a fine-tuned version of [unsloth/Qwen2.5-3B-Instruct](https://huggingface.co/unsloth/Qwen2.5-3B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: nan
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 30
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0000 | 1 | nan |
| 0.0 | 0.0002 | 5 | nan |
| 0.0 | 0.0004 | 10 | nan |
| 0.0 | 0.0006 | 15 | nan |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
prxy5608/d32d294c-d60a-4be9-8973-103c546e6f35 | prxy5608 | 2025-01-23T22:24:47Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Qwen2.5-1.5B-Instruct",
"base_model:adapter:unsloth/Qwen2.5-1.5B-Instruct",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T22:11:59Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/Qwen2.5-1.5B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: d32d294c-d60a-4be9-8973-103c546e6f35
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Qwen2.5-1.5B-Instruct
bf16: true
chat_template: llama3
data_processes: 16
dataset_prepared_path: null
datasets:
- data_files:
- c3d24d6d6c48ff52_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/c3d24d6d6c48ff52_train_data.json
type:
field_instruction: instruction
field_output: output
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device_map: auto
do_eval: true
early_stopping_patience: 5
eval_batch_size: 4
eval_max_new_tokens: 128
eval_steps: 50
eval_table_size: null
evals_per_epoch: null
flash_attention: true
fp16: false
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: prxy5608/d32d294c-d60a-4be9-8973-103c546e6f35
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0001
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 128
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 64
lora_target_linear: true
lr_scheduler: cosine
max_grad_norm: 1.0
max_memory:
0: 75GB
max_steps: 200
micro_batch_size: 8
mlflow_experiment_name: /tmp/c3d24d6d6c48ff52_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 3
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 50
saves_per_epoch: null
sequence_len: 1024
strict: false
tf32: true
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 513b3e11-240a-4e5c-926d-00c59c088490
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 513b3e11-240a-4e5c-926d-00c59c088490
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# d32d294c-d60a-4be9-8973-103c546e6f35
This model is a fine-tuned version of [unsloth/Qwen2.5-1.5B-Instruct](https://huggingface.co/unsloth/Qwen2.5-1.5B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.8193
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 8
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 1.1941 | 0.0017 | 1 | 1.5711 |
| 0.8231 | 0.0850 | 50 | 0.9598 |
| 0.758 | 0.1701 | 100 | 0.8660 |
| 0.6745 | 0.2551 | 150 | 0.8297 |
| 0.7105 | 0.3401 | 200 | 0.8193 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
philip-hightech/6bda84ac-3d0c-4a5b-852d-e3d2de023c53 | philip-hightech | 2025-01-23T22:21:14Z | 6 | 0 | peft | [
"peft",
"safetensors",
"falcon",
"axolotl",
"generated_from_trainer",
"custom_code",
"base_model:tiiuae/falcon-rw-1b",
"base_model:adapter:tiiuae/falcon-rw-1b",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T21:04:10Z | ---
library_name: peft
license: apache-2.0
base_model: tiiuae/falcon-rw-1b
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 6bda84ac-3d0c-4a5b-852d-e3d2de023c53
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: tiiuae/falcon-rw-1b
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- f7077b539ce146ff_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/f7077b539ce146ff_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: false
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: false
group_by_length: false
hub_model_id: philip-hightech/6bda84ac-3d0c-4a5b-852d-e3d2de023c53
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0002
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 10
micro_batch_size: 2
mlflow_experiment_name: /tmp/f7077b539ce146ff_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 512
special_tokens:
pad_token: <|endoftext|>
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 1d9ea8a0-0c1e-4552-96c4-84ec38c9f39b
wandb_project: Mine-SN56-21-Gradients-On-Demand
wandb_run: your_name
wandb_runid: 1d9ea8a0-0c1e-4552-96c4-84ec38c9f39b
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 6bda84ac-3d0c-4a5b-852d-e3d2de023c53
This model is a fine-tuned version of [tiiuae/falcon-rw-1b](https://huggingface.co/tiiuae/falcon-rw-1b) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.5306
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 10
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 9.4793 | 0.0000 | 1 | 1.6230 |
| 4.2213 | 0.0000 | 3 | 1.6211 |
| 6.6555 | 0.0001 | 6 | 1.5986 |
| 6.6563 | 0.0001 | 9 | 1.5306 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
nbninh/a55029e8-e613-4993-9c87-d8fa355dbe1f | nbninh | 2025-01-23T22:19:17Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:unsloth/Qwen2.5-Math-7B-Instruct",
"base_model:adapter:unsloth/Qwen2.5-Math-7B-Instruct",
"license:apache-2.0",
"8-bit",
"bitsandbytes",
"region:us"
] | null | 2025-01-23T20:38:17Z | ---
library_name: peft
license: apache-2.0
base_model: unsloth/Qwen2.5-Math-7B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: a55029e8-e613-4993-9c87-d8fa355dbe1f
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: unsloth/Qwen2.5-Math-7B-Instruct
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 8a9910a3e95b9e54_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/8a9910a3e95b9e54_train_data.json
type:
field_input: input
field_instruction: instruction
field_output: output
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 1
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: nbninh/a55029e8-e613-4993-9c87-d8fa355dbe1f
hub_repo: null
hub_strategy: end
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: true
load_in_8bit: true
local_rank: null
logging_steps: 1
lora_alpha: 16
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 8
lora_target_linear: true
lr_scheduler: cosine
max_steps: 200
micro_batch_size: 2
mlflow_experiment_name: /tmp/8a9910a3e95b9e54_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 1
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 1
sequence_len: 1024
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 4d275d20-528c-41c1-8773-3aca4b166744
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 4d275d20-528c-41c1-8773-3aca4b166744
warmup_steps: 5
weight_decay: 0.01
xformers_attention: true
```
</details><br>
# a55029e8-e613-4993-9c87-d8fa355dbe1f
This model is a fine-tuned version of [unsloth/Qwen2.5-Math-7B-Instruct](https://huggingface.co/unsloth/Qwen2.5-Math-7B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 2.6172
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 2.9411 | 0.0036 | 200 | 2.6172 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
oldiday/314d43ef-91d1-4fc5-965b-3841fad6c19f | oldiday | 2025-01-23T22:18:30Z | 10 | 0 | peft | [
"peft",
"safetensors",
"llama",
"axolotl",
"generated_from_trainer",
"base_model:defog/llama-3-sqlcoder-8b",
"base_model:adapter:defog/llama-3-sqlcoder-8b",
"license:cc-by-sa-4.0",
"region:us"
] | null | 2025-01-23T21:42:20Z | ---
library_name: peft
license: cc-by-sa-4.0
base_model: defog/llama-3-sqlcoder-8b
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 314d43ef-91d1-4fc5-965b-3841fad6c19f
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: defog/llama-3-sqlcoder-8b
bf16: auto
chat_template: llama3
dataset_prepared_path: null
datasets:
- data_files:
- 8e91c8fc8aa471c6_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/8e91c8fc8aa471c6_train_data.json
type:
field_input: schema
field_instruction: query
field_output: response
format: '{instruction} {input}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
early_stopping_patience: null
eval_max_new_tokens: 128
eval_table_size: null
evals_per_epoch: 4
flash_attention: true
fp16: null
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
gradient_clipping: 1.0
group_by_length: false
hub_model_id: oldiday/314d43ef-91d1-4fc5-965b-3841fad6c19f
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 5.0e-05
load_in_4bit: false
load_in_8bit: false
local_rank: 0
logging_steps: 3
lora_alpha: 32
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 16
lora_target_linear: true
lr_scheduler: cosine
max_steps: 100
micro_batch_size: 8
mlflow_experiment_name: /tmp/8e91c8fc8aa471c6_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 3
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
saves_per_epoch: 4
sequence_len: 1024
special_tokens:
pad_token: <|eot_id|>
strict: false
tf32: false
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: techspear-hub
wandb_mode: online
wandb_name: a2b04a74-21ae-496c-999f-245629e779f7
wandb_project: Gradients-On-Six
wandb_run: your_name
wandb_runid: a2b04a74-21ae-496c-999f-245629e779f7
warmup_steps: 10
weight_decay: 0.01
xformers_attention: null
```
</details><br>
# 314d43ef-91d1-4fc5-965b-3841fad6c19f
This model is a fine-tuned version of [defog/llama-3-sqlcoder-8b](https://huggingface.co/defog/llama-3-sqlcoder-8b) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.2254
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 100
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0016 | 1 | 0.3595 |
| 0.3353 | 0.0148 | 9 | 0.2876 |
| 0.2143 | 0.0297 | 18 | 0.2400 |
| 0.221 | 0.0445 | 27 | 0.2340 |
| 0.2437 | 0.0593 | 36 | 0.2310 |
| 0.2255 | 0.0741 | 45 | 0.2293 |
| 0.2244 | 0.0890 | 54 | 0.2276 |
| 0.2133 | 0.1038 | 63 | 0.2264 |
| 0.2351 | 0.1186 | 72 | 0.2258 |
| 0.2049 | 0.1334 | 81 | 0.2255 |
| 0.2172 | 0.1483 | 90 | 0.2253 |
| 0.2055 | 0.1631 | 99 | 0.2254 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
mini1013/master_cate_bc6 | mini1013 | 2025-01-23T22:18:15Z | 605 | 0 | setfit | [
"setfit",
"safetensors",
"roberta",
"sentence-transformers",
"text-classification",
"generated_from_setfit_trainer",
"arxiv:2209.11055",
"base_model:mini1013/master_domain",
"base_model:finetune:mini1013/master_domain",
"model-index",
"region:us"
] | text-classification | 2025-01-23T22:17:54Z | ---
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: ๋งค์ผ์ ์
์ฑ์๋ฃจํธ ์ผ์ํฐ๋ธ 1๋จ๊ณ 900g x 1๊ฐ [์๋ฃ] ์ฐจ์๋ฃ_๋น๋ฝ์ํ175ml30์บ ์ถ์ฐ/์ก์ > ๋ถ์ > ๊ตญ๋ด๋ถ์
- text: Hipp ํ ์ฝค๋น์คํฑ ์ ๊ธฐ๋ 1๋จ๊ณ 800g [์ก์] ๋ถ์ _Hipp ํ ์ฝค๋น์คํฑ ์ ๊ธฐ๋ 3๋จ๊ณ 800g ์ถ์ฐ/์ก์ > ๋ถ์ > ์์
๋ถ์
- text: ๋จ์์ ์
์์ด์ ๋ง๋ ์ก์ 3๋จ๊ณ 240ml x96๊ฐ ์ถ์ฐ/์ก์ > ๋ถ์ > ๊ตญ๋ด๋ถ์
- text: ์ผ๋ํ๋์ค ํ๋ฆฌ๋ฏธ์ ์ฐ์๋ถ์ 3๋จ๊ณ 800g x 1๊ฐ [์ก์] ๋ถ์ _ํ์คํด๋ฅด ๋ฌดํญ์์ ์๋๋ง 3๋จ๊ณ 750g ์ถ์ฐ/์ก์ > ๋ถ์ >
๊ตญ๋ด๋ถ์
- text: ์ผ๋ํ๋์ค ํ๋ฆฌ๋ฏธ์ ์ฐ์๋ถ์ 1๋จ๊ณ 800g x 1๊ฐ [์๋ฃ] ํ์ฐ์๋ฃ_์ฐ์น์ค์ ๋ก์ค๋ ์ง355ml24์บ ์ถ์ฐ/์ก์ > ๋ถ์ > ๊ตญ๋ด๋ถ์
metrics:
- accuracy
pipeline_tag: text-classification
library_name: setfit
inference: true
base_model: mini1013/master_domain
model-index:
- name: SetFit with mini1013/master_domain
results:
- task:
type: text-classification
name: Text Classification
dataset:
name: Unknown
type: unknown
split: test
metrics:
- type: accuracy
value: 1.0
name: Accuracy
---
# SetFit with mini1013/master_domain
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
The model has been trained using an efficient few-shot learning technique that involves:
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
2. Training a classification head with features from the fine-tuned Sentence Transformer.
## Model Details
### Model Description
- **Model Type:** SetFit
- **Sentence Transformer body:** [mini1013/master_domain](https://huggingface.co/mini1013/master_domain)
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
- **Maximum Sequence Length:** 512 tokens
- **Number of Classes:** 3 classes
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
### Model Labels
| Label | Examples |
|:------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 2.0 | <ul><li>'์
๋ ์ค ๋งค์ผ ๋ง์๋ ํ๋กํด 12l 160ml ร 48๊ฐ ์ถ์ฐ/์ก์ > ๋ถ์ > ํน์๋ถ์ '</li><li>'์ผ๋ํ๋์ค ์ด์ ๋ฐํ๋ฌ์ค2๋จ๊ณ 1์บ(1gx90ํฌ)) ์ถ์ฐ/์ก์ > ๋ถ์ > ํน์๋ถ์ '</li><li>'gvp ์ค๋งํธํฐ ์นด๋ํฌ์ผ ์ค๋งํธ๋ง๋ธ๋ ์ถ์ฐ/์ก์ > ๋ถ์ > ํน์๋ถ์ '</li></ul> |
| 0.0 | <ul><li>'๋งค์ผ์ ์
์ฑ์๋ฃจํธ ๋ช
์ 2FL ์ก์ 2๋จ๊ณ 240ml 24๊ฐ x2๊ฐ ์ถ์ฐ/์ก์ > ๋ถ์ > ๊ตญ๋ด๋ถ์ '</li><li>'๋งค์ผ์ ์
์ฑ์๋ฃจํธ ์ผ์ํฐ๋ธ 1๋จ๊ณ 900g x 1๊ฐ [๋ผ๋ฉด] ๋ด์ง๋ผ๋ฉด_์ผํฐํ ๋๊ตฌ๋ฆฌ 120g 20๊ฐ ์ถ์ฐ/์ก์ > ๋ถ์ > ๊ตญ๋ด๋ถ์ '</li><li>'๋งค์ผ์ ์
์ฑ์๋ฃจํธ ์ผ์ํฐ๋ธ 1๋จ๊ณ 900g x 1๊ฐ [์๋ฃ] ์ฐ์ ๋์ _์ผ์ก๊ฒ์์ฝฉ์ค์นผ์ํ์ฐ์น190ml40ํฉ ์ถ์ฐ/์ก์ > ๋ถ์ > ๊ตญ๋ด๋ถ์ '</li></ul> |
| 1.0 | <ul><li>'ํ ์ํ๋ฐ HA ๋ขฐ๋ฒค์ง ๋ฐ๋ผ์ฐ ํ๋ ํดํผ ๋ฒ ๋ฐ ์ธ๋ ๋ฝ ํ๋ 2๋จ๊ณ ์ฝค๋น์คํฑ ๋ฌด์ ๋ถ ์ฐ์ [ํดํผ] Tรถpfer_ํดํผ ๋ฝํ๋ 600g (์ต๋8ํต)_[1ํต] xPRE Topfer ์ถ์ฐ/์ก์ > ๋ถ์ > ์์
๋ถ์ '</li><li>'๋ดํธ๋ฆฌ์์ ์ํ๋ฐ ํ๋ก๋ํธ๋ผ ์ด๋๋ฐด์ค 2๋จ๊ณ 800g [์๋ฃ] ํ์ฐ์๋ฃ_๋ฐ๋ฏธ์๋คํผ์น250ml30์บ ์ถ์ฐ/์ก์ > ๋ถ์ > ์์
๋ถ์ '</li><li>'ํดํผ ํ๋ ๋ขฐ๋ฒค์ง ํ ๋
ธ๋ฐ๋ฝ ์ํ๋ฐ ๋ฌด์ ๋ถ AR ํจ๋๋ฐ์ฌ ์ํ๋ฐ ์ค๊ฐ๋(New)_์ค๊ฐ๋ 2 800g 1ํต_โdm4056631003169_1โ ์ถ์ฐ/์ก์ > ๋ถ์ > ์์
๋ถ์ '</li></ul> |
## Evaluation
### Metrics
| Label | Accuracy |
|:--------|:---------|
| **all** | 1.0 |
## Uses
### Direct Use for Inference
First install the SetFit library:
```bash
pip install setfit
```
Then you can load this model and run inference.
```python
from setfit import SetFitModel
# Download from the ๐ค Hub
model = SetFitModel.from_pretrained("mini1013/master_cate_bc6")
# Run inference
preds = model("๋จ์์ ์
์์ด์ ๋ง๋ ์ก์ 3๋จ๊ณ 240ml x96๊ฐ ์ถ์ฐ/์ก์ > ๋ถ์ > ๊ตญ๋ด๋ถ์ ")
```
<!--
### Downstream Use
*List how someone could finetune this model on their own dataset.*
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Set Metrics
| Training set | Min | Median | Max |
|:-------------|:----|:--------|:----|
| Word count | 7 | 14.9429 | 30 |
| Label | Training Sample Count |
|:------|:----------------------|
| 0.0 | 70 |
| 1.0 | 70 |
| 2.0 | 70 |
### Training Hyperparameters
- batch_size: (256, 256)
- num_epochs: (30, 30)
- max_steps: -1
- sampling_strategy: oversampling
- num_iterations: 50
- body_learning_rate: (2e-05, 1e-05)
- head_learning_rate: 0.01
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- l2_weight: 0.01
- seed: 42
- eval_max_steps: -1
- load_best_model_at_end: False
### Training Results
| Epoch | Step | Training Loss | Validation Loss |
|:-------:|:----:|:-------------:|:---------------:|
| 0.0238 | 1 | 0.4943 | - |
| 1.1905 | 50 | 0.4806 | - |
| 2.3810 | 100 | 0.1671 | - |
| 3.5714 | 150 | 0.0003 | - |
| 4.7619 | 200 | 0.0 | - |
| 5.9524 | 250 | 0.0 | - |
| 7.1429 | 300 | 0.0 | - |
| 8.3333 | 350 | 0.0 | - |
| 9.5238 | 400 | 0.0 | - |
| 10.7143 | 450 | 0.0 | - |
| 11.9048 | 500 | 0.0 | - |
| 13.0952 | 550 | 0.0 | - |
| 14.2857 | 600 | 0.0 | - |
| 15.4762 | 650 | 0.0 | - |
| 16.6667 | 700 | 0.0 | - |
| 17.8571 | 750 | 0.0 | - |
| 19.0476 | 800 | 0.0 | - |
| 20.2381 | 850 | 0.0 | - |
| 21.4286 | 900 | 0.0 | - |
| 22.6190 | 950 | 0.0 | - |
| 23.8095 | 1000 | 0.0 | - |
| 25.0 | 1050 | 0.0 | - |
| 26.1905 | 1100 | 0.0 | - |
| 27.3810 | 1150 | 0.0 | - |
| 28.5714 | 1200 | 0.0 | - |
| 29.7619 | 1250 | 0.0 | - |
### Framework Versions
- Python: 3.10.12
- SetFit: 1.1.0
- Sentence Transformers: 3.3.1
- Transformers: 4.44.2
- PyTorch: 2.2.0a0+81ea7a4
- Datasets: 3.2.0
- Tokenizers: 0.19.1
## Citation
### BibTeX
```bibtex
@article{https://doi.org/10.48550/arxiv.2209.11055,
doi = {10.48550/ARXIV.2209.11055},
url = {https://arxiv.org/abs/2209.11055},
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
title = {Efficient Few-Shot Learning Without Prompts},
publisher = {arXiv},
year = {2022},
copyright = {Creative Commons Attribution 4.0 International}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
--> |
prxy5607/8080d68f-c21a-4294-8491-0e1e2f25f71f | prxy5607 | 2025-01-23T22:16:32Z | 8 | 0 | peft | [
"peft",
"safetensors",
"qwen2",
"axolotl",
"generated_from_trainer",
"base_model:Qwen/Qwen2.5-Math-7B-Instruct",
"base_model:adapter:Qwen/Qwen2.5-Math-7B-Instruct",
"license:apache-2.0",
"region:us"
] | null | 2025-01-23T21:40:32Z | ---
library_name: peft
license: apache-2.0
base_model: Qwen/Qwen2.5-Math-7B-Instruct
tags:
- axolotl
- generated_from_trainer
model-index:
- name: 8080d68f-c21a-4294-8491-0e1e2f25f71f
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.4.1`
```yaml
adapter: lora
base_model: Qwen/Qwen2.5-Math-7B-Instruct
bf16: true
chat_template: llama3
data_processes: 16
dataset_prepared_path: null
datasets:
- data_files:
- b49fbb5a502d82d6_train_data.json
ds_type: json
format: custom
path: /workspace/input_data/b49fbb5a502d82d6_train_data.json
type:
field_instruction: instruction
field_output: left_answer
format: '{instruction}'
no_input_format: '{instruction}'
system_format: '{system}'
system_prompt: ''
debug: null
deepspeed: null
device_map: auto
do_eval: true
early_stopping_patience: 5
eval_batch_size: 4
eval_max_new_tokens: 128
eval_steps: 50
eval_table_size: null
evals_per_epoch: null
flash_attention: true
fp16: false
fsdp: null
fsdp_config: null
gradient_accumulation_steps: 4
gradient_checkpointing: true
group_by_length: true
hub_model_id: prxy5607/8080d68f-c21a-4294-8491-0e1e2f25f71f
hub_repo: null
hub_strategy: checkpoint
hub_token: null
learning_rate: 0.0001
load_in_4bit: false
load_in_8bit: false
local_rank: null
logging_steps: 1
lora_alpha: 128
lora_dropout: 0.05
lora_fan_in_fan_out: null
lora_model_dir: null
lora_r: 64
lora_target_linear: true
lr_scheduler: cosine
max_grad_norm: 1.0
max_memory:
0: 75GB
max_steps: 200
micro_batch_size: 8
mlflow_experiment_name: /tmp/b49fbb5a502d82d6_train_data.json
model_type: AutoModelForCausalLM
num_epochs: 3
optim_args:
adam_beta1: 0.9
adam_beta2: 0.95
adam_epsilon: 1e-5
optimizer: adamw_bnb_8bit
output_dir: miner_id_24
pad_to_sequence_len: true
resume_from_checkpoint: null
s2_attention: null
sample_packing: false
save_steps: 50
saves_per_epoch: null
sequence_len: 1024
strict: false
tf32: true
tokenizer_type: AutoTokenizer
train_on_inputs: false
trust_remote_code: true
val_set_size: 0.05
wandb_entity: null
wandb_mode: online
wandb_name: 1da9aedd-5dcb-4394-8274-c1bf67f192ca
wandb_project: Gradients-On-Demand
wandb_run: your_name
wandb_runid: 1da9aedd-5dcb-4394-8274-c1bf67f192ca
warmup_steps: 10
weight_decay: 0.0
xformers_attention: null
```
</details><br>
# 8080d68f-c21a-4294-8491-0e1e2f25f71f
This model is a fine-tuned version of [Qwen/Qwen2.5-Math-7B-Instruct](https://huggingface.co/Qwen/Qwen2.5-Math-7B-Instruct) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 1.5981
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 8
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 10
- training_steps: 200
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| 2.5285 | 0.0010 | 1 | 4.1166 |
| 4.0304 | 0.0491 | 50 | 2.4134 |
| 2.5106 | 0.0981 | 100 | 1.8428 |
| 1.6387 | 0.1472 | 150 | 1.6382 |
| 1.7615 | 0.1963 | 200 | 1.5981 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.0
- Pytorch 2.5.0+cu124
- Datasets 3.0.1
- Tokenizers 0.20.1 |
rsicproject/resnet-GPT-RSICD-captioning_without_transformer | rsicproject | 2025-01-23T22:16:24Z | 11 | 0 | transformers | [
"transformers",
"tensorboard",
"safetensors",
"vision-encoder-decoder",
"generated_from_trainer",
"endpoints_compatible",
"region:us"
] | null | 2025-01-23T22:15:41Z | ---
library_name: transformers
tags:
- generated_from_trainer
metrics:
- rouge
model-index:
- name: resnet-GPT-RSICD-captioning_without_transformer
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# resnet-GPT-RSICD-captioning_without_transformer
This model is a fine-tuned version of [](https://huggingface.co/) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 2.7874
- Rouge: 0.5828
- Bleu1: 0.6822
- Bleu2: 0.5519
- Bleu3: 0.4540
- Bleu4: 0.3819
- Meteor: 0.6141
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 64
- eval_batch_size: 64
- seed: 50
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 1024
- num_epochs: 128
### Training results
| Training Loss | Epoch | Step | Validation Loss | Rouge | Bleu1 | Bleu2 | Bleu3 | Bleu4 | Meteor |
|:-------------:|:-----:|:----:|:---------------:|:------:|:------:|:------:|:------:|:------:|:------:|
| No log | 1.0 | 683 | 1.8774 | 0.6341 | 0.6966 | 0.5760 | 0.4855 | 0.4153 | 0.6800 |
| 1.1677 | 2.0 | 1366 | 1.9946 | 0.6005 | 0.6926 | 0.5607 | 0.4635 | 0.3920 | 0.6489 |
| 0.6905 | 3.0 | 2049 | 2.1251 | 0.6072 | 0.6863 | 0.5589 | 0.4643 | 0.3954 | 0.6581 |
| 0.6905 | 4.0 | 2732 | 2.2060 | 0.5860 | 0.6740 | 0.5430 | 0.4481 | 0.3797 | 0.6168 |
| 0.4252 | 5.0 | 3415 | 2.2911 | 0.5882 | 0.6774 | 0.5468 | 0.4508 | 0.3790 | 0.6190 |
| 0.3129 | 6.0 | 4098 | 2.4356 | 0.5714 | 0.6661 | 0.5317 | 0.4326 | 0.3599 | 0.6125 |
| 0.3129 | 7.0 | 4781 | 2.4974 | 0.5877 | 0.6828 | 0.5519 | 0.4554 | 0.3839 | 0.6164 |
| 0.2224 | 8.0 | 5464 | 2.5728 | 0.6018 | 0.6858 | 0.5598 | 0.4635 | 0.3919 | 0.6401 |
| 0.1869 | 9.0 | 6147 | 2.6660 | 0.5941 | 0.6884 | 0.5554 | 0.4561 | 0.3830 | 0.6293 |
| 0.1869 | 10.0 | 6830 | 2.7253 | 0.5833 | 0.6632 | 0.5314 | 0.4353 | 0.3646 | 0.6284 |
| 0.1482 | 11.0 | 7513 | 2.7874 | 0.5828 | 0.6822 | 0.5519 | 0.4540 | 0.3819 | 0.6141 |
### Framework versions
- Transformers 4.48.1
- Pytorch 2.5.1+cu124
- Datasets 3.2.0
- Tokenizers 0.21.0
|
Subsets and Splits