modelId
stringlengths
5
139
author
stringlengths
2
42
last_modified
timestamp[us, tz=UTC]date
2020-02-15 11:33:14
2025-06-24 00:41:46
downloads
int64
0
223M
likes
int64
0
11.7k
library_name
stringclasses
492 values
tags
sequencelengths
1
4.05k
pipeline_tag
stringclasses
54 values
createdAt
timestamp[us, tz=UTC]date
2022-03-02 23:29:04
2025-06-24 00:41:12
card
stringlengths
11
1.01M
lesso12/1c141bff-f4ba-4d9a-a46e-43e2c9ef1bd8
lesso12
2025-01-24T00:32:18Z
8
0
peft
[ "peft", "safetensors", "mistral", "axolotl", "generated_from_trainer", "base_model:unsloth/mistral-7b-instruct-v0.2", "base_model:adapter:unsloth/mistral-7b-instruct-v0.2", "license:apache-2.0", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T23:58:29Z
--- library_name: peft license: apache-2.0 base_model: unsloth/mistral-7b-instruct-v0.2 tags: - axolotl - generated_from_trainer model-index: - name: 1c141bff-f4ba-4d9a-a46e-43e2c9ef1bd8 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/mistral-7b-instruct-v0.2 bf16: auto chat_template: llama3 datasets: - data_files: - 87ec749fe2b79cda_train_data.json ds_type: json format: custom path: /workspace/input_data/87ec749fe2b79cda_train_data.json type: field_instruction: instruction field_output: response format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: lesso12/1c141bff-f4ba-4d9a-a46e-43e2c9ef1bd8 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/87ec749fe2b79cda_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: b8920e83-97f6-4d23-a43c-8aff64ccf85b wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: b8920e83-97f6-4d23-a43c-8aff64ccf85b warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 1c141bff-f4ba-4d9a-a46e-43e2c9ef1bd8 This model is a fine-tuned version of [unsloth/mistral-7b-instruct-v0.2](https://huggingface.co/unsloth/mistral-7b-instruct-v0.2) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0434 | 200 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
lesso15/e8392e43-05d8-4f2f-82d8-5e6a4397e207
lesso15
2025-01-24T00:29:25Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:jingyeom/seal3.1.6n_7b", "base_model:adapter:jingyeom/seal3.1.6n_7b", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:57:46Z
--- library_name: peft base_model: jingyeom/seal3.1.6n_7b tags: - axolotl - generated_from_trainer model-index: - name: e8392e43-05d8-4f2f-82d8-5e6a4397e207 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: jingyeom/seal3.1.6n_7b bf16: auto chat_template: llama3 datasets: - data_files: - a1f48e343e632d4d_train_data.json ds_type: json format: custom path: /workspace/input_data/a1f48e343e632d4d_train_data.json type: field_input: "\u5730\u57DF" field_instruction: "\u666F\u6C17\u306E\u73FE\u72B6\u5224\u65AD" field_output: "\u8FFD\u52A0\u8AAC\u660E\u53CA\u3073\u5177\u4F53\u7684\u72B6\u6CC1\ \u306E\u8AAC\u660E" format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: lesso15/e8392e43-05d8-4f2f-82d8-5e6a4397e207 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/a1f48e343e632d4d_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 564ac9ba-2a9f-47a1-80f0-3b5121868464 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 564ac9ba-2a9f-47a1-80f0-3b5121868464 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # e8392e43-05d8-4f2f-82d8-5e6a4397e207 This model is a fine-tuned version of [jingyeom/seal3.1.6n_7b](https://huggingface.co/jingyeom/seal3.1.6n_7b) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0052 | 200 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
nhung01/7ed90b1c-073f-4cf5-aca7-484ba5f4db99
nhung01
2025-01-24T00:28:19Z
8
0
peft
[ "peft", "safetensors", "mistral", "axolotl", "generated_from_trainer", "base_model:unsloth/mistral-7b-instruct-v0.2", "base_model:adapter:unsloth/mistral-7b-instruct-v0.2", "license:apache-2.0", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T23:57:56Z
--- library_name: peft license: apache-2.0 base_model: unsloth/mistral-7b-instruct-v0.2 tags: - axolotl - generated_from_trainer model-index: - name: 7ed90b1c-073f-4cf5-aca7-484ba5f4db99 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/mistral-7b-instruct-v0.2 bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 87ec749fe2b79cda_train_data.json ds_type: json format: custom path: /workspace/input_data/87ec749fe2b79cda_train_data.json type: field_instruction: instruction field_output: response format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: nhung01/7ed90b1c-073f-4cf5-aca7-484ba5f4db99 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/87ec749fe2b79cda_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: b8920e83-97f6-4d23-a43c-8aff64ccf85b wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: b8920e83-97f6-4d23-a43c-8aff64ccf85b warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 7ed90b1c-073f-4cf5-aca7-484ba5f4db99 This model is a fine-tuned version of [unsloth/mistral-7b-instruct-v0.2](https://huggingface.co/unsloth/mistral-7b-instruct-v0.2) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.4038 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 1.5415 | 0.0434 | 200 | 0.4038 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
lesso14/bd94fdf8-51eb-41b8-b491-57f54033ccea
lesso14
2025-01-24T00:27:57Z
6
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen2-1.5B-Instruct", "base_model:adapter:Qwen/Qwen2-1.5B-Instruct", "license:apache-2.0", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T23:46:59Z
--- library_name: peft license: apache-2.0 base_model: Qwen/Qwen2-1.5B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: bd94fdf8-51eb-41b8-b491-57f54033ccea results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen2-1.5B-Instruct bf16: auto chat_template: llama3 datasets: - data_files: - e3c2e5c8dcde7214_train_data.json ds_type: json format: custom path: /workspace/input_data/e3c2e5c8dcde7214_train_data.json type: field_instruction: article field_output: lead format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: lesso14/bd94fdf8-51eb-41b8-b491-57f54033ccea hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/e3c2e5c8dcde7214_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: f4d8284c-5447-4755-b91b-3a6f7963c739 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: f4d8284c-5447-4755-b91b-3a6f7963c739 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # bd94fdf8-51eb-41b8-b491-57f54033ccea This model is a fine-tuned version of [Qwen/Qwen2-1.5B-Instruct](https://huggingface.co/Qwen/Qwen2-1.5B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.1913 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 1.2726 | 0.0198 | 200 | 1.1913 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
prxy5605/92beaf0c-c227-4d2e-898a-96d7020072d3
prxy5605
2025-01-24T00:27:47Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:unsloth/Qwen2.5-1.5B-Instruct", "base_model:adapter:unsloth/Qwen2.5-1.5B-Instruct", "license:apache-2.0", "region:us" ]
null
2025-01-24T00:14:55Z
--- library_name: peft license: apache-2.0 base_model: unsloth/Qwen2.5-1.5B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 92beaf0c-c227-4d2e-898a-96d7020072d3 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Qwen2.5-1.5B-Instruct bf16: true chat_template: llama3 data_processes: 16 dataset_prepared_path: null datasets: - data_files: - c3d24d6d6c48ff52_train_data.json ds_type: json format: custom path: /workspace/input_data/c3d24d6d6c48ff52_train_data.json type: field_instruction: instruction field_output: output format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device_map: auto do_eval: true early_stopping_patience: 5 eval_batch_size: 4 eval_max_new_tokens: 128 eval_steps: 50 eval_table_size: null evals_per_epoch: null flash_attention: true fp16: false fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: prxy5605/92beaf0c-c227-4d2e-898a-96d7020072d3 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0001 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 128 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 64 lora_target_linear: true lr_scheduler: cosine max_grad_norm: 1.0 max_memory: 0: 75GB max_steps: 200 micro_batch_size: 8 mlflow_experiment_name: /tmp/c3d24d6d6c48ff52_train_data.json model_type: AutoModelForCausalLM num_epochs: 3 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 50 saves_per_epoch: null sequence_len: 1024 strict: false tf32: true tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 513b3e11-240a-4e5c-926d-00c59c088490 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 513b3e11-240a-4e5c-926d-00c59c088490 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 92beaf0c-c227-4d2e-898a-96d7020072d3 This model is a fine-tuned version of [unsloth/Qwen2.5-1.5B-Instruct](https://huggingface.co/unsloth/Qwen2.5-1.5B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.8193 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 8 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 1.1941 | 0.0017 | 1 | 1.5711 | | 0.8228 | 0.0850 | 50 | 0.9590 | | 0.7563 | 0.1701 | 100 | 0.8648 | | 0.6721 | 0.2551 | 150 | 0.8297 | | 0.7083 | 0.3401 | 200 | 0.8193 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
fpadovani/english_childes_context_30
fpadovani
2025-01-24T00:27:02Z
6
0
transformers
[ "transformers", "safetensors", "roberta", "fill-mask", "generated_from_trainer", "autotrain_compatible", "endpoints_compatible", "region:us" ]
fill-mask
2025-01-23T23:06:06Z
--- library_name: transformers tags: - generated_from_trainer model-index: - name: childes_mlm_unmasking_context_30 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # childes_mlm_unmasking_context_30 This model is a fine-tuned version of [](https://huggingface.co/) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 2.1487 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 16 - eval_batch_size: 16 - seed: 30 - gradient_accumulation_steps: 2 - total_train_batch_size: 32 - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08 - lr_scheduler_type: linear - lr_scheduler_warmup_steps: 100000 - training_steps: 400000 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:-------:|:-----:|:---------------:| | No log | 1.2694 | 2000 | 5.5097 | | 6.2347 | 2.5389 | 4000 | 5.4485 | | 6.2347 | 3.8083 | 6000 | 5.3827 | | 5.3987 | 5.0778 | 8000 | 5.1090 | | 5.3987 | 6.3472 | 10000 | 3.7191 | | 3.9556 | 7.6166 | 12000 | 3.2690 | | 3.9556 | 8.8861 | 14000 | 2.9887 | | 3.0887 | 10.1555 | 16000 | 2.8155 | | 3.0887 | 11.4249 | 18000 | 2.7023 | | 2.7695 | 12.6944 | 20000 | 2.5944 | | 2.7695 | 13.9638 | 22000 | 2.4760 | | 2.5626 | 15.2333 | 24000 | 2.4247 | | 2.5626 | 16.5027 | 26000 | 2.3910 | | 2.4302 | 17.7721 | 28000 | 2.3224 | | 2.4302 | 19.0416 | 30000 | 2.3148 | | 2.3356 | 20.3110 | 32000 | 2.2821 | | 2.3356 | 21.5805 | 34000 | 2.2640 | | 2.269 | 22.8499 | 36000 | 2.2651 | | 2.269 | 24.1193 | 38000 | 2.2208 | | 2.221 | 25.3888 | 40000 | 2.1925 | | 2.221 | 26.6582 | 42000 | 2.1938 | | 2.1935 | 27.9276 | 44000 | 2.1843 | | 2.1935 | 29.1971 | 46000 | 2.2047 | | 2.1674 | 30.4665 | 48000 | 2.1519 | | 2.1674 | 31.7360 | 50000 | 2.1936 | | 2.153 | 33.0054 | 52000 | 2.1896 | | 2.153 | 34.2748 | 54000 | 2.1480 | | 2.1411 | 35.5443 | 56000 | 2.1403 | | 2.1411 | 36.8137 | 58000 | 2.1537 | | 2.1343 | 38.0831 | 60000 | 2.1502 | | 2.1343 | 39.3526 | 62000 | 2.1371 | | 2.1307 | 40.6220 | 64000 | 2.1247 | | 2.1307 | 41.8915 | 66000 | 2.1457 | | 2.125 | 43.1609 | 68000 | 2.1512 | | 2.125 | 44.4303 | 70000 | 2.1487 | ### Framework versions - Transformers 4.45.2 - Pytorch 2.5.1+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
GbrlOl/finetune-embedding-all-MiniLM-L6-v2-geotechnical-test-v2
GbrlOl
2025-01-24T00:25:55Z
6
0
sentence-transformers
[ "sentence-transformers", "safetensors", "bert", "sentence-similarity", "feature-extraction", "generated_from_trainer", "dataset_size:1412", "loss:CoSENTLoss", "arxiv:1908.10084", "base_model:sentence-transformers/all-MiniLM-L6-v2", "base_model:finetune:sentence-transformers/all-MiniLM-L6-v2", "autotrain_compatible", "text-embeddings-inference", "endpoints_compatible", "region:us" ]
sentence-similarity
2025-01-24T00:25:47Z
--- tags: - sentence-transformers - sentence-similarity - feature-extraction - generated_from_trainer - dataset_size:1412 - loss:CoSENTLoss base_model: sentence-transformers/all-MiniLM-L6-v2 widget: - source_sentence: ยฟQuรฉ elementos se consideran en el costo de la demoliciรณn de hormigรณn? sentences: - "Ordinario Nยฐ 57 de fecha 25 de Enero de 2011 \ninformรณ favorablemente. \n5.\ \ Que, en lo relativo a los efectos, caracterรญsticas y circunstancias seรฑalados\ \ en los literales โ€œaโ€, \"b\", โ€œcโ€, \nโ€œdโ€, โ€œeโ€ y โ€œfโ€, del artรญculo 11 de la Ley\ \ 19.300, y sobre la base de los antecedentes que constan en el \nexpediente de\ \ la evaluaciรณn, debe indicarse que el proyecto \"Depรณsito de Relaves Filtrados\ \ Doรฑa Rosaโ€ \nno genera ni presenta ninguno de tales efectos, caracterรญsticas\ \ y circunstancias. \n6.- Que, en el proceso de evoluciรณn de proyecto \" Depรณsito\ \ de Relaves Filtrados Doรฑa Rosaโ€, el titular \nha adquirido los siguientes compromisos\ \ ambientales voluntarios: \nEl proyecto contempla el monitoreo de aguas superficiales\ \ y subterrรกneas. Respecto a la periodicidad de \nmonitoreo, este serรก cuatrimestral\ \ durante los tres primeros aรฑos de operaciรณn del proyecto. Una vez \ncumplidos\ \ los tres aรฑos iniciales, se analizarรกn los resultados. Sobre la base de dicho\ \ anรกlisis el titular \npropondrรก fundadamente cambios a los parรกmetros, puntos\ \ y frecuencias de monitoreo, si es que los \nresultados asรญ lo ameritan. \n\ En la siguiente tabla se presentan las coordenadas de los puntos de control de\ \ calidad de aguas, tanto \nsuperficiales como subterrรกneas." - "d) Aplicaciรณn de gravilla \n \nEl monto considera la adquisiciรณn de la gravilla,\ \ el retiro y puesto en obra de la misma, la \nmaquinaria dispuesta para su esparcimiento,\ \ la nivelaciรณn del terreno y las HH/ hombre \ninvolucradas en su esparcimiento.\ \ \n \ne) Movimiento de tierra para fundaciones \nEl monto del movimiento de\ \ tierra incluye el arriendo de la maquinaria y su traslado para el \nlugar donde\ \ se efectuaron los movimientos de tierra, ademรกs de las hh/hombre involucradas\ \ de \nlos profesionales y jornales que participaron en el proyecto. \nf) Demoliciรณn\ \ de hormigรณn \nEl costo de la demoliciรณn de hormigรณn,\ \ incluye el arriendo de la maquinaria y su traslado para \nel lugar donde se\ \ efectuรณ la demoliciรณn, las hh/hombre involucradas de los profesionales y \n\ jornales que partic iparon en el proyecto, y el traslado y disposiciรณn final en\ \ vertederos \nautorizados del resultado de la demoliciรณn." - "Cobertura \nSe considera la cobertura de la superficie (coronamiento) del depรณsito\ \ de relaves filtrados con una capa de material \ngranular de manera de minimizar\ \ la erosiรณn eรณlica. Los taludes del depรณsito se encontrarรกn cubiertos al momento\ \ \ndel cierre de acuerdo con su mรฉtodo constructivo. \nEn relaciรณn con la estabilidad\ \ fรญsica de las instalaciones remanen tes al cierre (rajo, botaderos de estรฉril\ \ y depรณsito \nde relaves filtrados), รฉstas han sido diseรฑadas en su etapa de\ \ ingenierรญa considerando como criterio de estabilidad \nel sismo mรกxim o creรญble,\ \ con lo cual se asegura un diseรฑo final estable en el largo pla zo, sin requerir\ \ medidas de \ncierre adicionales en este รกmbito. \nLa Tabla 7-3 presenta un resumen\ \ de los compromisos ambientales adquiridos para cada una de las instalaciones\ \ de \nla faena." - source_sentence: ยฟSe utilizaron antecedentes topogrรกficos? sentences: - "Las piscinas de PLS e ILS tienen una capacidad operacional de 5.193 m3\n y la\ \ de emergencia de \n9.952 m3. \n \n4.3.9. Depรณsito de Relaves Secos \nEl Depรณsito\ \ de R elaves Secos no ha sido construido hasta ahora, y dicho P royecto fue\ \ \npresentado al Sernageomin para su aprobaciรณn por medi o de carta conductora\ \ el 17 de \ndiciembre 2015 (ver proyecto y carta presentado en el Anexo 2). \n\ El depรณsito se ubicarรก al Norte de las pilas de lixiviaciรณn existentes , de acuerdo\ \ a los espacios \ndisponibles, evitando la interferencia con quebradas y otras\ \ instalaciones, y considerando los \nlรญmites de propiedad y uso de suelos. \n\ El depรณsito tiene posibilidad de ampliarse hacia el Norte en unos 7.000 m 2, y\ \ hacia el Oeste en \ncerca de 23.000 m 2, moviendo el lรญmite del depรณsito proyectado\ \ mรกs cerca del borde de la \nquebrada existente. \nA continuaciรณn se entregan\ \ las coordenadas de ubicaciรณn del depรณsito de relaves:" - "64 \nFigura 5.42: Caminos internos de acceso (2) . 64 \nFigura 5.43: Patio de\ \ RISES . 65 \nFigura 5.44: Bodega de almacenamiento temporal de residuos peligrosos\ \ . 66 \nFigura 5.45: Bodega de almacenamiento de residuos domรฉsticos . 67 \n\ Figura 5.46: Ubicaciรณn Pozo Monitoreos . 100 \nFigura 5.47: Caminos internos Planta\ \ Catemu . 107 \n \nANEXOS \n \nANEXO A : . ANTECEDENTES LEGALES \nANEXO B :\ \ . RESOLUCIONES \nANEXO C: . PROPIEDAD MINERA \nANEXO D: . INFORME DE VIDA\ \ รšTIL \nANEXO E: . PLANOS \nANEXO F: . EVALUACIร“N DE RIESGOS \nANEXO G: .\ \ PLANILLA DE VALORIZACIร“N \nANEXO H: . RESPALDO DE PRECIOS UNITARIOS \nANEXO\ \ I: . GARANTรA FINANCIERA" - "Geolรณgicamente el sector estรก controlado por sistemas de fallas paralelas y pequeรฑas\ \ con eje \nlongitudinal en sentido norte- sur, una de las cuales es conocida\ \ como Catalina, situada en la \nvecindad de las instalaciones del Proyecto. \n\ \ \nAdemรกs del geo- control estructural provocado por el sistema de fallas mencionado,\ \ el รกrea de \nproyecto se caracteriza geolรณgicamente por estar implantado sobre\ \ roca de origen andesรญtico \ndirectamente relacionada con las cordiller as de\ \ Domeyko y del Centro, que aparecen en este \nsector de la Regiรณn de Antofagasta:\ \ Sierras de Catalina y Sierras de Julia. \n \nEl material de roca descompuesta\ \ (suelo) mรกs superficial, bajo las capas aluvionales descritas \nanteriormente,\ \ tienen su origen en el Mioceno y se han generado por fenรณmenos metamรณrficos\ \ \ntempranos, que molieron las cumbres de los mantos rocosos que hoy estรกn bajo\ \ tierra. En todo \ncaso, las cubiertas cenozoicas son terciarias a cuaternarias\ \ y siempre con fuerte predominio de \nmateriales volcรกnicos provenientes de centros\ \ emisores radicados en la Cordillera de los Andes \ny el Altiplano. Generalmente\ \ se presentan compactos y con algรบn grado de mitificaciรณn, de \nmanera que sus\ \ permeabilidades son habitualmente pequeรฑas, esto especialmente para el \ncaso\ \ de los depรณsitos terciarios que suelen tener alto grado de litificaciรณn y a\ \ menudo se \naprecian muy compactos y con caracterรญsticas propias de rocas macizas." - source_sentence: ยฟCuรกl es el talud del muro de confinamiento del depรณsito? sentences: - "Los antecedentes a evaluar por parte del SERNAGEOMIN, son: \nD.S. 248 de 2006\ \ del \nMin. de Minerรญa y \nEnergรญa \nReglamento para la Aprobaciรณn de Proyectos\ \ de Diseรฑo, Construcciรณn, Operaciรณn y Cierre de los \nDepรณsitos de Relaves \n\ \ El EIA o DIA Indica la ubicaciรณn del Depรณsito, Incluyendo: \nARTICULO 14, LETRA\ \ c. \n- Plano Regulador de la comuna donde se ubicarรก el depรณsito, si lo hubiere,\ \ o plano de la \ncomuna o provincia. \n- Las Distancias al Concentrador y a los\ \ centros poblados cercanos. \n- Plano escala 1:2.500 de ubicaciรณn del depรณsito,\ \ seรฑalando las coordenadas UTM. de sus \nprincipales vรฉrtices. \n- Ilustrar la\ \ hoya hidrolรณgica afectada, sobre un plano a una escala adecuada, en coordenadas\ \ \nU.T.M. \nARTICULO 14, LETRA f. - Presentaciรณn de Antecedentes geolรณgicos,\ \ Geotรฉcnicos, Hidrolรณgico, Hidrogeolรณgico, Sรญsmicos, \nMetereolรณgico, Topogrรกfico.\ \ \nARTICULO 14, LETRA q. \n- Determinaciรณn de la distancia peligrosa, en kilรณmetros\ \ y anรกlisis de la situaciรณn en terreno. \n- Plano de la hoya hidrolรณgica afectada\ \ por la trayectoria mรกs probable del relave en el evento \nde colapsar el depรณsito.\ \ \nARTICULO 14, LETRA r. - Medidas de Control, mitigaciรณn, restauraciรณn y compensaciรณn\ \ de los efectos de accidentes, \nsituaciones de emergencia y eventos naturales,\ \ segรบn corresponda." - "o Evaluar y diseรฑar un vertedero de emergencia y una conducciรณn para la descarga\ \ de las \naguas que se acumulen en la cubeta, y que sobrepasen el pretil de protecciรณn.\ \ \nLa ingenierรญa de detalle de la estabilidad de los muros y considerados en\ \ el D.S. Nยฐ 132/04, se indica en el \nInforme Tรฉcnico de Estabilidad de Talud,\ \ incluido en el Anexo 3, del presente documento. \nII. Estabilidad de Taludes\ \ \no Verificar la estabilidad del muro de arena a travรฉs de mรฉtodo pseudoestรกtico\ \ y post-sรญsmico \npara un coeficiente sรญsmico acorde al โ€œSismo Mรกximo Creรญbleโ€\ \ (Kh = 0,14). \no Indica que, en caso de existir bajos factores de seguridad,\ \ se tomarรกn medidas como tender \nel talud y/o colocar estructuras de contenciรณn\ \ mediante enrocados. \nIII. Construcciรณn de Muro de Protecciรณn al Pie del Talud\ \ \no Contemplar un enrocado de protecciรณn en todo el sector donde hay gaviones.\ \ \no En el resto de los sectores del pie del muro de arena se contempla un muro\ \ de protecciรณn \nde enrocado de 2m de altura. \nPor otro lado, los aspectos\ \ tรฉcnicos seรฑalados en el artรญculo 495 (Tรญtulo X) del D.S. Nยฐ 132/04 y que forman\ \ \nparte de este documento, son:" - "00 \n \n833,91 \n \n833,91 \nDisposiciรณn de estrato\ \ de suelo vegetal \nsobre la superficie y taludes del depรณsito \nCapa de 0,3\ \ metros de espesor sobre \nuna superficie de 50.400 m2 m3 \n15.481,20\ \ \n \n0,17 \n \n2.617,58 \nNivelaciรณn de la superficie\ \ del depรณsito \n(tipo \"domo\") \nNivelaciรณn en una superficie estimada \nde\ \ 51.604 m2 m2 \n51.604,00 \n \n0,01 \n \n\ 607,84 \nCierre de accesos Pretil de 1,5 m de altura y 3 m de \nextensiรณn (2\ \ pretiles) m3 \n45,00 \n \n0,18 \n \ \ \n8,17 \nInstalaciรณn de seรฑalรฉtica de advertencia 1 letrero por cada pretil\ \ de bloqueo de \naccesos (2) Unidad \n2,00 \n \ \ \n8,40 \n \n16,80 \nDepรณsito de \nripios Nยฐ3 \nLavado de ripios\ \ con agua Valor estimado en UF 1.959,1 \n(documento plan de cierre) gl \ \ \n1,00 \n \n1.959,10 \n \n1.959,10 \n \n\ 7.827,70 \nEstabilizaciรณn de taludes Reperfilamiento de 1.330 metros \nlรญneales\ \ x 5 metros de ancho de talud m2 \n6.650,00 \n \n\ 0,01 \n \n78,33 \nReparaciรณn del pretil de contenciรณn de \nderrames\ \ \nMantenciรณn y reparaciรณn durante la \nfase de cierre gl \n\ 1,00 \n \n502,97 \n \n502,97 \nDisposiciรณn de limos arcillosos\ \ sobre los \ntaludes y superficie del depรณsito \nCapa de 0,15 metros de espesor\ \ \nsobre una superficie de 50.400 m2 m3 \n7.560,00 \n \ \ \n0,17 \n \n1.278,25 \nCosto del material (limos) \nEstimaciรณn del\ \ costo del material a \nutilizar para el cubrimiento del \ndepรณsito \ngl \ \ \n1," - source_sentence: ยฟCuรกl es el รกngulo de banco o de terraza del depรณsito de relaves filtrado? sentences: - "SRK Consulting: 01-2028-64 Salares Norte Anรกlisis de Estabilidad Botadero Sur\ \ y Depรณsito de Relaves Filtrados Pรกgina 14 \nAT/br SRK-GFCH74-FS-6100-CE-RP-0003_00P1\ \ mayo.18 \n8.4 Verificaciรณn de Distancia de Exclusiรณn \n8.4.1 Distancia desde\ \ el pie del Depรณsito de Relaves Filtrados al Borde de la \nPlataforma-4432 del\ \ botadero sur \nEl diseรฑo del depรณsito de relaves filtrados considera , en su\ \ configuraciรณn final , una distancia de \nexclusiรณn de 90 m entre el pie d el\ \ relave y el borde de la plataforma -4432 del botadero Sur. Esta \ndistancia\ \ es considerada para evitar que cualquier falla del botadero sur afecte el comportamiento\ \ del \ndepรณsito de relaves filtrados. \nPara verificar la distancia de exclusiรณn,\ \ se desarrollaron anรกlisis de estabilidad especรญficos, los cuales \nconsideraron\ \ fallas globales que afectasen la plataforma -4432 del botadero Sur en una condiciรณn\ \ \nsรญsmica. El anรกlisis considerรณ la secciรณn mรกs crรญtica (Secciรณn 2) identificada\ \ en el capรญtulo anterior, \nademรกs, para asegurarse de que ninguna falla global\ \ del botadero Sur afecte al depรณsito de relaves, \nse utilizรณ el mรกximo sismo\ \ creรญble ICOLD (Kh=0,16). \nLa Figura 8-3 presenta los resultados del anรกlisis\ \ de estabilidad para el mรกximo sismo creรญble ICOLD. \nEl anรกlisis indica que\ \ con una zona de exclusiรณn mayor o igual a 50 m, el criterio de diseรฑo se cumple\ \ \n(FS>1,1). Por tanto, los 90 metros de distancia de exclusiรณn ha sido verificada\ \ ante cualquier evento \nsรญsmico y el depรณsito de relaves filtrados no serรญa\ \ afectado ante una falla global de la plataforma-4432 \ndel botadero Sur. \n\ \ \n \nFigura 8-3." - "46 \nb) Retiro de suelos contaminados \nEl monto estimado para el retiro de suelos\ \ contaminados incluye el traslado de la maquinaria \nnecesaria para el movimiento\ \ de tierra (retroexcavadora y camiรณn) las HH/ hombre \ninvolucradas y el traslado\ \ y disposiciรณn final, de residuos peligrosos en lugares autorizados. \n Ademรกs,\ \ para el manejo adecuado de los eventuales los suelos impactados la empresa cuenta\ \ \ncon un sistema de gestiรณn ambiental, el que considera que cada vez que ocurre\ \ algรบn derrame \nse informe de inmediato a las lรญneas de mando. Estas acciones\ \ serรกn reforzadas realizando \ncharlas de inducciรณn especรญfica. El manejo de\ \ estos sitios se realiza permanentemente, \nretirando los suelos y llevรกndolos\ \ a sitios autorizados. \n \nPrevio al cierre todas las zonas que eventualmente\ \ presenten estos suelos (debido a su retiro \npermanente que se realiza durante\ \ la operaciรณn de la faena, se estima que la superficie \nafectada serรก mรญnima).\ \ \n \nEn el cierre se realizarรก un delimitado de estas รกreas y dependiendo del\ \ tamaรฑo se realizarรก \ncon maquinaria o mediante palas. Para esto se extraerรก\ \ la capa de 50 cm o mรกs, y serรก tratada \ncomo residuo peligroso y trasladado\ \ a sitio autorizado. \n \nc) Instalaciรณn de seรฑalรฉtica \n \nEl monto de la\ \ instalaciรณn de seรฑalรฉtica incluye el diseรฑo y la mano factura de la seรฑalรฉtica,\ \ el \ntraslado de la seรฑalรฉtica hasta el lugar de la instalaciรณn, el hormigรณn\ \ base (poyo) para la \ninstalaciรณn, y las HH/ hombre involucradas en su instalaciรณn." - "1). \n4.2 Del Proyecto de Depรณsito de Relaves \n4.2.1 Definiciรณn \n\x7F Cierre:\ \ Hecho que el depรณsito de relaves deje de operar por un plazo mayor de dos aรฑos\ \ o en forma \ndefinitiva o cuando se da por terminada su vida รบtil y se han\ \ efectuado las acciones tendientes a \nasegurar la obra en el tiempo. \n\x7F\ \ Proyecto de Depรณsitos de Relaves: el conjunto de estudios tรฉcnicos requeridos\ \ para la definiciรณn de \nun sistema de disposiciรณn de relaves, incluyendo etapas\ \ de investigaciรณn, prospecciรณn, diseรฑo, \nevaluaciรณn y construcciรณn, cuyos resultados\ \ se encuentran en una serie de documentos que para \ngarantizar la estabilidad\ \ fรญsica y quรญmica del depรณsito y su entorno, con el fin de proteger a las \n\ personas, bienes y medio ambiente. (Art. 5). \n\x7F Cierre final: Conclusiรณn\ \ definitiva de las actividades para el cierre de todas las labores,\ \ รกreas \ne instalaciones de una unidad minera, que por razones operativas, no\ \ hayan podido cerrarse \ndurante la etapa productiva o comercial, de modo tal\ \ que se garantice el cumplimiento de los \nobjetivos de cierre contemplados\ \ en el Plan de Cierre de Minas aprobado y cuya adecuada \nejecuciรณn\ \ ha sido verificada a travรฉs de una auditorรญa integral dispuesta por\ \ la autoridad \ncompetente, sin perjuicio de las actividades de post cierre\ \ que deberรกn continuar ejecutรกndose en \nel marco de la legislaciรณn ambiental\ \ vigente. \n\x7F Estabilidad fรญsica: Comportamiento estable en el corto, mediano\ \ y largo plazo de los componentes o" - source_sentence: ยฟCuรกl fue la vida รบtil estimada del Proyecto Reapertura Mina Guanaco en 2009? sentences: - "Proyecto que finalmente no se materializรณ por parte \nde Amax Guanaco. \n \n\ En 1998 Compaรฑรญa Minera Amax Guanaco es adquirida por Kinross Gold Corporation\ \ formando \nuna sociedad llamada Minera Kinam Guanaco. Las faenas de extracciรณn\ \ fueron paralizadas ese \nmismo aรฑo manteniรฉndose sรณlo la irrigaciรณn de las pilas\ \ para extraer el mineral remanente, \nproceso que se detuvo en Julio de 2001.\ \ Entre esa fec ha y el aรฑo 2003 se continuรณ lavando las \npilas para extraer\ \ el cianuro remanente y durante los aรฑos ven ideros se mantuvo la recirculaciรณn\ \ \nde las soluciones (sin cianuro) para evaporar el agua retenida en las pilas.\ \ \n \nEn la actualidad Guanaco Compaรฑรญa Minera SpA es la actual dueรฑa de la\ \ faena. Guanaco es una \nfaena de la mediana minerรญa ( de acuerdo a la modificaciรณn\ \ de la ley 20.551), la cual se encuentra \ndedicada a la explotaciรณn y procesamiento\ \ de minerales de oro y plata, a una tasa mรกxima de \nprocesamiento de 2000 tpd,\ \ de acuerdo a la Res.Nยบ992/2010 y Res Nยฐ 506/2013." - "No obstante, se tendrรก un ingreso restringido a personal dedicado a las \nactividades\ \ del control y mantenciรณn, mientras MLC continรบe con sus actividades; \nx Se\ \ adoptarรกn medidas de control de emisiones de material particulado y erosiรณn\ \ hรญdrica, tales \ncomo; forestaciรณn, malla corta vientos, malla tendida a nivel\ \ de suelo en el sector del tranque donde \nse producen mayores corrientes de\ \ aire. \nx Minimizar los requerimientos de mantenciรณn post cierre a un grado\ \ prรกctico, en relaciรณn a la \nmantenciรณn del canal perimetral y vigilancia para\ \ garantizar el acceso restringido mientras MLC \ncontinua sus actividades; \n\ x Dejar el canal de contorno asociado un periodo de retorno de 20 aรฑos; \nx Dejar\ \ las defensas ribereรฑas asociado un periodo de retorno de 10.000 aรฑos; \nx Verificar\ \ la estabilidad de los taludes del tranque. \nCon estos รบltimos, se logra controlar\ \ condiciones climรกticas extremas, tales como: \nx Evitar el ingreso de las aguas\ \ lluvias provenientes desde las zonas aledaรฑas exteriores al tranque y \nque\ \ constituyen una cuenca aportante a รฉste, conduciendo estas aguas mediante una\ \ canalizaciรณn \nperimetral para finalmente descargar al rรญo La Ligua. \nx Proteger\ \ el Tranque de Relave Nยฐ4 de las crecidas del rรญo La Ligua. \nx Evacuar las aguas\ \ lluvias que ingresen al interior de la cubeta mediante un vertedero de \nemergencia.\ \ \nx Conducir las aguas desde el vertedero, mediante tuberรญas hasta una piscina\ \ de emergencia, la cual \ntiene como objetivo almacenar y retener este volumen\ \ para su evaporaciรณn." - "B ORRA DOR \n \n \n \niv \n \nEn Mayo de 2008, Guanaco Compaรฑรญa Minera sometiรณ\ \ al Sistema de Evaluaciรณn de Impacto \nAmbiental el Proyecto Reapertura Mina\ \ Guanaco, el que fue evaluado por la COREMA Regiรณn de \nAntofagasta y calificado\ \ ambientalmente en forma favorable segรบn consta en la Resoluciรณn Exenta \n0251/2009\ \ de fecha 15 de Julio de 2009. \n \nDicho Proyecto tuvo como objetivo la continuaciรณn\ \ de la explotaciรณn de depรณsitos minerales de oro \nsituados en formaciones adyacentes\ \ a la Mina Guanaco mediante el desarrollo de minas a cielo \nabierto y subterrรกneas\ \ para, posteriormente, procesar los minerales y obtener metal dorรฉ. La vida\ \ \nรบtil estimada del Proyecto Reapertura Mina Guanaco en 2009 ascendรญa a 10 incluyendo\ \ 1 aรฑo de \nconstrucciรณn, con base en un ritmo de procesamiento del mineral\ \ de entre 750 a 2.000 tpd de \nmineral fresco de las minas tanto subterrรกneas\ \ como a rajo abierto. \n \nSe estimรณ que durante la vida รบtil del Proyecto, se\ \ removerรญan desde los rajos entre 2 y 3 millones \nde toneladas de material y\ \ otros 10 a 12 millones de toneladas de material provendrรญan de las \nminas subterrรกneas.\ \ Con ello el material total a remover serรญa del orden de las 12 a 15 millones\ \ \ntoneladas y el material estรฉril corresponderรญa a 7 a 9 millones de toneladas.\ \ Dependiendo de la \ntasa de procesamiento del mineral la producciรณn anual serรญa\ \ de aproximadamente de 100 a 150 mil \nonzas de plata y 100 mil onzas de oro\ \ contenidas en metal dorรฉ. \n \nEl proyecto de Reapertura estableciรณ la utilizaciรณn\ \ de sus antiguas instalaciones, complementadas \ncon los nuevos procesos implementados." pipeline_tag: sentence-similarity library_name: sentence-transformers --- # SentenceTransformer based on sentence-transformers/all-MiniLM-L6-v2 This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2) on the json dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more. ## Model Details ### Model Description - **Model Type:** Sentence Transformer - **Base model:** [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2) <!-- at revision fa97f6e7cb1a59073dff9e6b13e2715cf7475ac9 --> - **Maximum Sequence Length:** 256 tokens - **Output Dimensionality:** 384 dimensions - **Similarity Function:** Cosine Similarity - **Training Dataset:** - json <!-- - **Language:** Unknown --> <!-- - **License:** Unknown --> ### Model Sources - **Documentation:** [Sentence Transformers Documentation](https://sbert.net) - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers) - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers) ### Full Model Architecture ``` SentenceTransformer( (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: BertModel (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True}) (2): Normalize() ) ``` ## Usage ### Direct Usage (Sentence Transformers) First install the Sentence Transformers library: ```bash pip install -U sentence-transformers ``` Then you can load this model and run inference. ```python from sentence_transformers import SentenceTransformer # Download from the ๐Ÿค— Hub model = SentenceTransformer("GbrlOl/finetune-embedding-all-MiniLM-L6-v2-geotechnical-test-v2") # Run inference sentences = [ 'ยฟCuรกl fue la vida รบtil estimada del Proyecto Reapertura Mina Guanaco en 2009?', 'B ORRA DOR \n \n \n \niv \n \nEn Mayo de 2008, Guanaco Compaรฑรญa Minera sometiรณ al Sistema de Evaluaciรณn de Impacto \nAmbiental el Proyecto Reapertura Mina Guanaco, el que fue evaluado por la COREMA Regiรณn de \nAntofagasta y calificado ambientalmente en forma favorable segรบn consta en la Resoluciรณn Exenta \n0251/2009 de fecha 15 de Julio de 2009. \n \nDicho Proyecto tuvo como objetivo la continuaciรณn de la explotaciรณn de depรณsitos minerales de oro \nsituados en formaciones adyacentes a la Mina Guanaco mediante el desarrollo de minas a cielo \nabierto y subterrรกneas para, posteriormente, procesar los minerales y obtener metal dorรฉ. La vida \nรบtil estimada del Proyecto Reapertura Mina Guanaco en 2009 ascendรญa a 10 incluyendo 1 aรฑo de \nconstrucciรณn, con base en un ritmo de procesamiento del mineral de entre 750 a 2.000 tpd de \nmineral fresco de las minas tanto subterrรกneas como a rajo abierto. \n \nSe estimรณ que durante la vida รบtil del Proyecto, se removerรญan desde los rajos entre 2 y 3 millones \nde toneladas de material y otros 10 a 12 millones de toneladas de material provendrรญan de las \nminas subterrรกneas. Con ello el material total a remover serรญa del orden de las 12 a 15 millones \ntoneladas y el material estรฉril corresponderรญa a 7 a 9 millones de toneladas. Dependiendo de la \ntasa de procesamiento del mineral la producciรณn anual serรญa de aproximadamente de 100 a 150 mil \nonzas de plata y 100 mil onzas de oro contenidas en metal dorรฉ. \n \nEl proyecto de Reapertura estableciรณ la utilizaciรณn de sus antiguas instalaciones, complementadas \ncon los nuevos procesos implementados.', 'Proyecto que finalmente no se materializรณ por parte \nde Amax Guanaco. \n \nEn 1998 Compaรฑรญa Minera Amax Guanaco es adquirida por Kinross Gold Corporation formando \nuna sociedad llamada Minera Kinam Guanaco. Las faenas de extracciรณn fueron paralizadas ese \nmismo aรฑo manteniรฉndose sรณlo la irrigaciรณn de las pilas para extraer el mineral remanente, \nproceso que se detuvo en Julio de 2001. Entre esa fec ha y el aรฑo 2003 se continuรณ lavando las \npilas para extraer el cianuro remanente y durante los aรฑos ven ideros se mantuvo la recirculaciรณn \nde las soluciones (sin cianuro) para evaporar el agua retenida en las pilas. \n \nEn la actualidad Guanaco Compaรฑรญa Minera SpA es la actual dueรฑa de la faena. Guanaco es una \nfaena de la mediana minerรญa ( de acuerdo a la modificaciรณn de la ley 20.551), la cual se encuentra \ndedicada a la explotaciรณn y procesamiento de minerales de oro y plata, a una tasa mรกxima de \nprocesamiento de 2000 tpd, de acuerdo a la Res.Nยบ992/2010 y Res Nยฐ 506/2013.', ] embeddings = model.encode(sentences) print(embeddings.shape) # [3, 384] # Get the similarity scores for the embeddings similarities = model.similarity(embeddings, embeddings) print(similarities.shape) # [3, 3] ``` <!-- ### Direct Usage (Transformers) <details><summary>Click to see the direct usage in Transformers</summary> </details> --> <!-- ### Downstream Usage (Sentence Transformers) You can finetune this model on your own dataset. <details><summary>Click to expand</summary> </details> --> <!-- ### Out-of-Scope Use *List how the model may foreseeably be misused and address what users ought not to do with the model.* --> <!-- ## Bias, Risks and Limitations *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.* --> <!-- ### Recommendations *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.* --> ## Training Details ### Training Dataset #### json * Dataset: json * Size: 1,412 training samples * Columns: <code>query</code>, <code>sentence</code>, and <code>label</code> * Approximate statistics based on the first 1000 samples: | | query | sentence | label | |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:------------------------------------------------| | type | string | string | int | | details | <ul><li>min: 9 tokens</li><li>mean: 25.89 tokens</li><li>max: 69 tokens</li></ul> | <ul><li>min: 54 tokens</li><li>mean: 237.63 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>0: ~54.60%</li><li>1: ~45.40%</li></ul> | * Samples: | query | sentence | label | |:-----------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------| | <code>ยฟSe utilizaron antecedentes geolรณgicos?</code> | <code>B ORRA DOR <br> <br> <br> <br>iii <br> <br>La Mina Guanaco, estรก ubicada en la Comuna de Taltal, Provincia de Antofagasta, a 220 km al <br>sureste de la ciudad de la ciudad homรณnima, a una altitud cercana a los 2.700 msnm. <br> <br>Cuenta con seis minas donde el tipo de explotaciรณn es a rajo abierto y subterrรกnea. Las minas que <br>componen las minas a rajo abierto son cuatro y corresponden a: โ€œDefensa, Dumbo, Perseverancia <br>y Quillotaโ€. Las minas subterrรกneas son dos y corresponden a โ€œCachinalito y Salvadoraโ€. <br> <br>El distrito minero El Guanaco es conocido desde fine s del siglo pasado, cuando habitantes del <br>poblado de la Aguada de Ca chinal, que surtรญan agua a las minas de Cachinal de la Sierra, <br>descubrieron evidencias de mineralizaciรณn aurรญfera en vetas de baritina. El mineral producido a <br>partir de 1886 fue tratado por amalgamaciรณn en Taltal. Hasta el aรฑo 1890, se habrรญan producido <br>mรกs de 6.000 kg de oro, transportando la producciรณn en ferrocarril que unรญa El Guanaco con Taltal. <br> <br>La mayor parte de la acti...</code> | <code>0</code> | | <code>La compactaciรณn de los relaves filtrados es por Proctor Normal o Estรกndar, o Proctor Modificado?</code> | <code>Configuraciรณn intermedia del Botadero Sur y secciones para el anรกlisis ...................................... 12 <br>Figura 8-3. Verificaciรณn de la distancia de exclusiรณn, para un sismo mรกximo sismo creรญble ICOLD (Depรณsito <br>de Relaves Filtrados y borde de la Plataforma-4432) ............................................................... 14 <br>Figura 8-4. Verificaciรณn de la distancia de exclusiรณn, para un mรกximo sismo creรญble del ICOLD (Acopio de <br>Mineral y Plataforma-4473) ........................................................................................................ 15 <br>Figura 8-5. Esquema de distancia de afectaciรณn en caso hipotรฉtico de falla del depรณsit o de relaves ............ 16 <br>Figura 8-6. Esquema de distancia de afectaciรณn en caso hipotรฉtico de falla del depรณsito de relaves y <br>botadero Sur .............................................................................................................................. 17 <br> <br>Apรฉndice <br>Apรฉndice A: Anรกlisis de Estabilidad Config...</code> | <code>0</code> | | <code>ยฟCuรกl es el mรฉtodo de compactaciรณn del muro de embalse: proctor modificado, proctor normal o densidad relativa?</code> | <code>43 <br> <br> <br>6.1. Identificaciรณn de las Medidas de Cierre de las Instalaciones <br> <br>La identificaciรณn de medidas especรญficas que se realizarรกn se detalla en las tablas Nยฐ 34 y Nยฐ 35 <br>del presente Informe. <br> <br>Tabla 34. Identificaciรณn actividades de cierre del plan de cierre minero y RCA <br>RCA Instalaciรณn Compromisos <br>251/2009 <br>Equipos de Proceso <br>e Instalaciones <br>Auxiliares <br>Se retirarรกn todos los equipos de proceso, como el chancador, <br>correas transportadoras, tuberรญas de proceso, lรญneas elรฉctricas, <br>estanques de proceso, etc., en el caso de que estos no se <br>requieran para actividades o proyectos posteriores. <br>Se retirarรกn las estructuras y elementos arquitectรณnicos de los <br>edificios e instalaciones auxiliares si รฉstos crearan situaciones de <br>riesgo para las personas. El รกrea del Proyecto se dejarรก libre de <br>chatarras y desechos que puedan constituir riesgos para las <br>personas. <br>Los terrenos alterados con rellenos o cortes para el <br>emplazamiento de edificios, piscinas de proceso e instalacio...</code> | <code>0</code> | * Loss: [<code>CoSENTLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosentloss) with these parameters: ```json { "scale": 20.0, "similarity_fct": "pairwise_cos_sim" } ``` ### Training Hyperparameters #### Non-Default Hyperparameters - `per_device_train_batch_size`: 16 - `per_device_eval_batch_size`: 16 - `learning_rate`: 2e-05 - `num_train_epochs`: 100 - `warmup_ratio`: 0.1 - `fp16`: True - `batch_sampler`: no_duplicates #### All Hyperparameters <details><summary>Click to expand</summary> - `overwrite_output_dir`: False - `do_predict`: False - `eval_strategy`: no - `prediction_loss_only`: True - `per_device_train_batch_size`: 16 - `per_device_eval_batch_size`: 16 - `per_gpu_train_batch_size`: None - `per_gpu_eval_batch_size`: None - `gradient_accumulation_steps`: 1 - `eval_accumulation_steps`: None - `torch_empty_cache_steps`: None - `learning_rate`: 2e-05 - `weight_decay`: 0.0 - `adam_beta1`: 0.9 - `adam_beta2`: 0.999 - `adam_epsilon`: 1e-08 - `max_grad_norm`: 1.0 - `num_train_epochs`: 100 - `max_steps`: -1 - `lr_scheduler_type`: linear - `lr_scheduler_kwargs`: {} - `warmup_ratio`: 0.1 - `warmup_steps`: 0 - `log_level`: passive - `log_level_replica`: warning - `log_on_each_node`: True - `logging_nan_inf_filter`: True - `save_safetensors`: True - `save_on_each_node`: False - `save_only_model`: False - `restore_callback_states_from_checkpoint`: False - `no_cuda`: False - `use_cpu`: False - `use_mps_device`: False - `seed`: 42 - `data_seed`: None - `jit_mode_eval`: False - `use_ipex`: False - `bf16`: False - `fp16`: True - `fp16_opt_level`: O1 - `half_precision_backend`: auto - `bf16_full_eval`: False - `fp16_full_eval`: False - `tf32`: None - `local_rank`: 0 - `ddp_backend`: None - `tpu_num_cores`: None - `tpu_metrics_debug`: False - `debug`: [] - `dataloader_drop_last`: False - `dataloader_num_workers`: 0 - `dataloader_prefetch_factor`: None - `past_index`: -1 - `disable_tqdm`: False - `remove_unused_columns`: True - `label_names`: None - `load_best_model_at_end`: False - `ignore_data_skip`: False - `fsdp`: [] - `fsdp_min_num_params`: 0 - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False} - `fsdp_transformer_layer_cls_to_wrap`: None - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None} - `deepspeed`: None - `label_smoothing_factor`: 0.0 - `optim`: adamw_torch - `optim_args`: None - `adafactor`: False - `group_by_length`: False - `length_column_name`: length - `ddp_find_unused_parameters`: None - `ddp_bucket_cap_mb`: None - `ddp_broadcast_buffers`: False - `dataloader_pin_memory`: True - `dataloader_persistent_workers`: False - `skip_memory_metrics`: True - `use_legacy_prediction_loop`: False - `push_to_hub`: False - `resume_from_checkpoint`: None - `hub_model_id`: None - `hub_strategy`: every_save - `hub_private_repo`: None - `hub_always_push`: False - `gradient_checkpointing`: False - `gradient_checkpointing_kwargs`: None - `include_inputs_for_metrics`: False - `include_for_metrics`: [] - `eval_do_concat_batches`: True - `fp16_backend`: auto - `push_to_hub_model_id`: None - `push_to_hub_organization`: None - `mp_parameters`: - `auto_find_batch_size`: False - `full_determinism`: False - `torchdynamo`: None - `ray_scope`: last - `ddp_timeout`: 1800 - `torch_compile`: False - `torch_compile_backend`: None - `torch_compile_mode`: None - `dispatch_batches`: None - `split_batches`: None - `include_tokens_per_second`: False - `include_num_input_tokens_seen`: False - `neftune_noise_alpha`: None - `optim_target_modules`: None - `batch_eval_metrics`: False - `eval_on_start`: False - `use_liger_kernel`: False - `eval_use_gather_object`: False - `average_tokens_across_devices`: False - `prompts`: None - `batch_sampler`: no_duplicates - `multi_dataset_batch_sampler`: proportional </details> ### Training Logs | Epoch | Step | Training Loss | |:-------:|:----:|:-------------:| | 2.7222 | 100 | 4.5637 | | 5.4167 | 200 | 1.6848 | | 8.1111 | 300 | 0.4771 | | 10.8333 | 400 | 0.1894 | | 13.5278 | 500 | 0.0413 | | 16.2222 | 600 | 0.019 | | 18.9444 | 700 | 0.0085 | | 21.6389 | 800 | 0.0088 | | 24.3333 | 900 | 0.0097 | | 27.0278 | 1000 | 0.0 | | 29.75 | 1100 | 0.0001 | | 32.4444 | 1200 | 0.0 | | 35.1389 | 1300 | 0.0 | | 37.8611 | 1400 | 0.0 | | 40.5556 | 1500 | 0.0 | | 43.25 | 1600 | 0.0 | | 45.9722 | 1700 | 0.0 | | 48.6667 | 1800 | 0.0 | | 51.3611 | 1900 | 0.0 | | 54.0556 | 2000 | 0.0 | | 56.7778 | 2100 | 0.0 | | 59.4722 | 2200 | 0.0 | | 62.1667 | 2300 | 0.0 | | 64.8889 | 2400 | 0.0 | | 67.5833 | 2500 | 0.0 | | 70.2778 | 2600 | 0.0 | | 73.0 | 2700 | 0.0 | | 75.6944 | 2800 | 0.0 | | 78.3889 | 2900 | 0.0 | | 81.0833 | 3000 | 0.0 | | 83.8056 | 3100 | 0.0 | | 86.5 | 3200 | 0.0 | | 89.1944 | 3300 | 0.0 | | 91.9167 | 3400 | 0.0 | | 94.6111 | 3500 | 0.0 | | 97.3056 | 3600 | 0.0 | ### Framework Versions - Python: 3.10.16 - Sentence Transformers: 3.3.1 - Transformers: 4.48.1 - PyTorch: 2.5.1+cu124 - Accelerate: 1.3.0 - Datasets: 3.2.0 - Tokenizers: 0.21.0 ## Citation ### BibTeX #### Sentence Transformers ```bibtex @inproceedings{reimers-2019-sentence-bert, title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks", author = "Reimers, Nils and Gurevych, Iryna", booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing", month = "11", year = "2019", publisher = "Association for Computational Linguistics", url = "https://arxiv.org/abs/1908.10084", } ``` #### CoSENTLoss ```bibtex @online{kexuefm-8847, title={CoSENT: A more efficient sentence vector scheme than Sentence-BERT}, author={Su Jianlin}, year={2022}, month={Jan}, url={https://kexue.fm/archives/8847}, } ``` <!-- ## Glossary *Clearly define terms in order to be accessible across audiences.* --> <!-- ## Model Card Authors *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.* --> <!-- ## Model Card Contact *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.* -->
lesso10/dfa24bea-c21b-46a7-811a-730fb259057d
lesso10
2025-01-24T00:23:48Z
6
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:oopsung/llama2-7b-koNqa-test-v1", "base_model:adapter:oopsung/llama2-7b-koNqa-test-v1", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:07:50Z
--- library_name: peft base_model: oopsung/llama2-7b-koNqa-test-v1 tags: - axolotl - generated_from_trainer model-index: - name: dfa24bea-c21b-46a7-811a-730fb259057d results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: oopsung/llama2-7b-koNqa-test-v1 bf16: true chat_template: llama3 datasets: - data_files: - 867d3433e74b00eb_train_data.json ds_type: json format: custom path: /workspace/input_data/867d3433e74b00eb_train_data.json type: field_instruction: url field_output: text format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: 2 eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null flash_attention: false fp16: false fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: false hub_model_id: lesso10/dfa24bea-c21b-46a7-811a-730fb259057d hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 25 micro_batch_size: 2 mlflow_experiment_name: /tmp/867d3433e74b00eb_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: c778556e-b6d6-4652-a6d6-7ec10e67e497 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: c778556e-b6d6-4652-a6d6-7ec10e67e497 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # dfa24bea-c21b-46a7-811a-730fb259057d This model is a fine-tuned version of [oopsung/llama2-7b-koNqa-test-v1](https://huggingface.co/oopsung/llama2-7b-koNqa-test-v1) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 25 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0001 | 1 | nan | | 0.0 | 0.0004 | 5 | nan | | 0.0 | 0.0008 | 10 | nan | | 1.0811 | 0.0013 | 15 | nan | | 0.0 | 0.0017 | 20 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
philip-hightech/db654c7d-12cd-4c1a-90ff-9f2095ddd0ae
philip-hightech
2025-01-24T00:20:10Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:openlm-research/open_llama_3b", "base_model:adapter:openlm-research/open_llama_3b", "license:apache-2.0", "region:us" ]
null
2025-01-24T00:16:45Z
--- library_name: peft license: apache-2.0 base_model: openlm-research/open_llama_3b tags: - axolotl - generated_from_trainer model-index: - name: db654c7d-12cd-4c1a-90ff-9f2095ddd0ae results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: openlm-research/open_llama_3b bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - b870a12bb86df2ef_train_data.json ds_type: json format: custom path: /workspace/input_data/b870a12bb86df2ef_train_data.json type: field_instruction: premises field_output: hypothesis format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: philip-hightech/db654c7d-12cd-4c1a-90ff-9f2095ddd0ae hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/b870a12bb86df2ef_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 special_tokens: pad_token: </s> strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 5c11f8e4-7a4d-4298-a633-453fe28a8bed wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 5c11f8e4-7a4d-4298-a633-453fe28a8bed warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # db654c7d-12cd-4c1a-90ff-9f2095ddd0ae This model is a fine-tuned version of [openlm-research/open_llama_3b](https://huggingface.co/openlm-research/open_llama_3b) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.2665 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 1.503 | 0.0003 | 1 | 1.7694 | | 1.836 | 0.0008 | 3 | 1.7627 | | 1.6722 | 0.0016 | 6 | 1.6697 | | 1.2128 | 0.0024 | 9 | 1.2665 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
trenden/0611fc9b-eb3c-4c95-a350-acd11a78fd5e
trenden
2025-01-24T00:17:27Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/SmolLM-360M", "base_model:adapter:unsloth/SmolLM-360M", "license:apache-2.0", "region:us" ]
null
2025-01-24T00:16:50Z
--- library_name: peft license: apache-2.0 base_model: unsloth/SmolLM-360M tags: - axolotl - generated_from_trainer model-index: - name: 0611fc9b-eb3c-4c95-a350-acd11a78fd5e results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/SmolLM-360M bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - d6c4deff482e7d75_train_data.json ds_type: json format: custom path: /workspace/input_data/d6c4deff482e7d75_train_data.json type: field_input: '' field_instruction: tags field_output: text format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: trenden/0611fc9b-eb3c-4c95-a350-acd11a78fd5e hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/d6c4deff482e7d75_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 7d2a80b2-36ea-4e27-8d0d-fcbf5c534433 wandb_project: Birthday-SN56-3-Gradients-On-Demand wandb_run: your_name wandb_runid: 7d2a80b2-36ea-4e27-8d0d-fcbf5c534433 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 0611fc9b-eb3c-4c95-a350-acd11a78fd5e This model is a fine-tuned version of [unsloth/SmolLM-360M](https://huggingface.co/unsloth/SmolLM-360M) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0035 | 1 | nan | | 0.0 | 0.0106 | 3 | nan | | 0.0 | 0.0212 | 6 | nan | | 0.0 | 0.0318 | 9 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
gavrilstep/ba5e57a6-63fb-4148-927c-ca5a47000f0c
gavrilstep
2025-01-24T00:16:08Z
8
0
peft
[ "peft", "safetensors", "mistral", "axolotl", "generated_from_trainer", "base_model:unsloth/mistral-7b-instruct-v0.2", "base_model:adapter:unsloth/mistral-7b-instruct-v0.2", "license:apache-2.0", "4-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T23:57:29Z
--- library_name: peft license: apache-2.0 base_model: unsloth/mistral-7b-instruct-v0.2 tags: - axolotl - generated_from_trainer model-index: - name: ba5e57a6-63fb-4148-927c-ca5a47000f0c results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/mistral-7b-instruct-v0.2 bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 87ec749fe2b79cda_train_data.json ds_type: json format: custom path: /workspace/input_data/87ec749fe2b79cda_train_data.json type: field_instruction: instruction field_output: response format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device: cuda early_stopping_patience: null eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null evals_per_epoch: null flash_attention: false fp16: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: false hub_model_id: gavrilstep/ba5e57a6-63fb-4148-927c-ca5a47000f0c hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: true load_in_8bit: false local_rank: null logging_steps: 3 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_memory: 0: 75GiB max_steps: 30 micro_batch_size: 2 mlflow_experiment_name: /tmp/87ec749fe2b79cda_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_torch output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: true trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: b8920e83-97f6-4d23-a43c-8aff64ccf85b wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: b8920e83-97f6-4d23-a43c-8aff64ccf85b warmup_steps: 10 weight_decay: 0.01 xformers_attention: true ``` </details><br> # ba5e57a6-63fb-4148-927c-ca5a47000f0c This model is a fine-tuned version of [unsloth/mistral-7b-instruct-v0.2](https://huggingface.co/unsloth/mistral-7b-instruct-v0.2) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 30 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0002 | 1 | nan | | 0.0 | 0.0011 | 5 | nan | | 0.0 | 0.0022 | 10 | nan | | 0.0 | 0.0033 | 15 | nan | | 0.0 | 0.0043 | 20 | nan | | 0.0 | 0.0054 | 25 | nan | | 0.0 | 0.0065 | 30 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
aleegis09/689c61aa-85e4-460a-9f37-3732bc2af4e8
aleegis09
2025-01-24T00:14:34Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/Llama-3.1-Storm-8B", "base_model:adapter:unsloth/Llama-3.1-Storm-8B", "license:llama3.1", "region:us" ]
null
2025-01-23T23:31:26Z
--- library_name: peft license: llama3.1 base_model: unsloth/Llama-3.1-Storm-8B tags: - axolotl - generated_from_trainer model-index: - name: 689c61aa-85e4-460a-9f37-3732bc2af4e8 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Llama-3.1-Storm-8B bf16: true chat_template: llama3 data_processes: 16 dataset_prepared_path: null datasets: - data_files: - 935541efcc64f82d_train_data.json ds_type: json format: custom path: /workspace/input_data/935541efcc64f82d_train_data.json type: field_instruction: document field_output: query format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device_map: auto do_eval: true early_stopping_patience: 5 eval_batch_size: 4 eval_max_new_tokens: 128 eval_steps: 50 eval_table_size: null evals_per_epoch: null flash_attention: true fp16: false fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: aleegis09/689c61aa-85e4-460a-9f37-3732bc2af4e8 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0001 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 128 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 64 lora_target_linear: true lr_scheduler: cosine max_grad_norm: 1.0 max_memory: 0: 75GB max_steps: 200 micro_batch_size: 8 mlflow_experiment_name: /tmp/935541efcc64f82d_train_data.json model_type: AutoModelForCausalLM num_epochs: 3 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 50 saves_per_epoch: null sequence_len: 1024 strict: false tf32: true tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 6b070b86-583e-4c98-a10d-d6688cb70e68 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 6b070b86-583e-4c98-a10d-d6688cb70e68 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 689c61aa-85e4-460a-9f37-3732bc2af4e8 This model is a fine-tuned version of [unsloth/Llama-3.1-Storm-8B](https://huggingface.co/unsloth/Llama-3.1-Storm-8B) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.0263 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 8 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 4.1959 | 0.0007 | 1 | 4.0230 | | 1.0026 | 0.0367 | 50 | 1.1273 | | 0.9532 | 0.0733 | 100 | 1.0688 | | 1.0209 | 0.1100 | 150 | 1.0329 | | 0.8083 | 0.1466 | 200 | 1.0263 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
nathanialhunt/1a6a2741-4fbc-4993-88b1-81e83cc2ea7a
nathanialhunt
2025-01-24T00:14:20Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/Meta-Llama-3.1-8B-Instruct", "base_model:adapter:unsloth/Meta-Llama-3.1-8B-Instruct", "license:llama3.1", "region:us" ]
null
2025-01-23T23:15:51Z
--- library_name: peft license: llama3.1 base_model: unsloth/Meta-Llama-3.1-8B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 1a6a2741-4fbc-4993-88b1-81e83cc2ea7a results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Meta-Llama-3.1-8B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 7ba07ca9e842566a_train_data.json ds_type: json format: custom path: /workspace/input_data/7ba07ca9e842566a_train_data.json type: field_instruction: code field_output: docstring format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: nathanialhunt/1a6a2741-4fbc-4993-88b1-81e83cc2ea7a hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/7ba07ca9e842566a_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 9943ba63-829b-480c-96a4-17d5a201c545 wandb_project: Birthday-SN56-5-Gradients-On-Demand wandb_run: your_name wandb_runid: 9943ba63-829b-480c-96a4-17d5a201c545 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 1a6a2741-4fbc-4993-88b1-81e83cc2ea7a This model is a fine-tuned version of [unsloth/Meta-Llama-3.1-8B-Instruct](https://huggingface.co/unsloth/Meta-Llama-3.1-8B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0000 | 1 | nan | | 0.0 | 0.0001 | 3 | nan | | 0.0 | 0.0001 | 6 | nan | | 0.0 | 0.0002 | 9 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
prxy5605/e46a4a55-0a60-4416-baf7-bda65e3e5bc0
prxy5605
2025-01-24T00:12:57Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/Hermes-3-Llama-3.1-8B", "base_model:adapter:unsloth/Hermes-3-Llama-3.1-8B", "region:us" ]
null
2025-01-23T23:42:52Z
--- library_name: peft base_model: unsloth/Hermes-3-Llama-3.1-8B tags: - axolotl - generated_from_trainer model-index: - name: e46a4a55-0a60-4416-baf7-bda65e3e5bc0 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Hermes-3-Llama-3.1-8B bf16: true chat_template: llama3 data_processes: 16 dataset_prepared_path: null datasets: - data_files: - e9a08c00192565f5_train_data.json ds_type: json format: custom path: /workspace/input_data/e9a08c00192565f5_train_data.json type: field_input: phonemes field_instruction: text field_output: text_description format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device_map: auto do_eval: true early_stopping_patience: 5 eval_batch_size: 4 eval_max_new_tokens: 128 eval_steps: 50 eval_table_size: null evals_per_epoch: null flash_attention: true fp16: false fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: prxy5605/e46a4a55-0a60-4416-baf7-bda65e3e5bc0 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0001 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 128 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 64 lora_target_linear: true lr_scheduler: cosine max_grad_norm: 1.0 max_memory: 0: 75GB max_steps: 200 micro_batch_size: 8 mlflow_experiment_name: /tmp/e9a08c00192565f5_train_data.json model_type: AutoModelForCausalLM num_epochs: 3 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 50 saves_per_epoch: null sequence_len: 1024 strict: false tf32: true tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 94eb7de6-8eee-4dc6-b36d-48325400060a wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 94eb7de6-8eee-4dc6-b36d-48325400060a warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # e46a4a55-0a60-4416-baf7-bda65e3e5bc0 This model is a fine-tuned version of [unsloth/Hermes-3-Llama-3.1-8B](https://huggingface.co/unsloth/Hermes-3-Llama-3.1-8B) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.8106 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 8 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 2.7379 | 0.0029 | 1 | 4.1493 | | 0.9606 | 0.1427 | 50 | 0.9248 | | 0.9818 | 0.2853 | 100 | 0.8547 | | 1.0108 | 0.4280 | 150 | 0.8175 | | 0.9732 | 0.5706 | 200 | 0.8106 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
dimasik2987/c4e952c5-e3c0-4633-858f-ac59b47b87d3
dimasik2987
2025-01-24T00:09:44Z
9
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:openlm-research/open_llama_3b", "base_model:adapter:openlm-research/open_llama_3b", "license:apache-2.0", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T23:38:54Z
--- library_name: peft license: apache-2.0 base_model: openlm-research/open_llama_3b tags: - axolotl - generated_from_trainer model-index: - name: c4e952c5-e3c0-4633-858f-ac59b47b87d3 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: openlm-research/open_llama_3b bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - b870a12bb86df2ef_train_data.json ds_type: json format: custom path: /workspace/input_data/b870a12bb86df2ef_train_data.json type: field_instruction: premises field_output: hypothesis format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device: cuda early_stopping_patience: 1 eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null evals_per_epoch: null flash_attention: false fp16: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: true hub_model_id: dimasik2987/c4e952c5-e3c0-4633-858f-ac59b47b87d3 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: true local_rank: null logging_steps: 3 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_memory: 0: 79GiB max_steps: 30 micro_batch_size: 4 mlflow_experiment_name: /tmp/b870a12bb86df2ef_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 1024 special_tokens: pad_token: </s> strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: true trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 5c11f8e4-7a4d-4298-a633-453fe28a8bed wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 5c11f8e4-7a4d-4298-a633-453fe28a8bed warmup_steps: 5 weight_decay: 0.001 xformers_attention: true ``` </details><br> # c4e952c5-e3c0-4633-858f-ac59b47b87d3 This model is a fine-tuned version of [openlm-research/open_llama_3b](https://huggingface.co/openlm-research/open_llama_3b) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.7758 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 4 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 16 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 30 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0005 | 1 | 3.4901 | | 2.6317 | 0.0026 | 5 | 3.3171 | | 2.2542 | 0.0053 | 10 | 2.3986 | | 2.0174 | 0.0079 | 15 | 2.0816 | | 2.0729 | 0.0106 | 20 | 1.8731 | | 1.9398 | 0.0132 | 25 | 1.7913 | | 1.9401 | 0.0159 | 30 | 1.7758 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
dannnnthemannnn/model-debug-phi-4-predictions-polymarket-1-22
dannnnthemannnn
2025-01-24T00:06:37Z
7
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "text-generation-inference", "unsloth", "trl", "conversational", "en", "base_model:unsloth/phi-4", "base_model:finetune:unsloth/phi-4", "license:apache-2.0", "autotrain_compatible", "endpoints_compatible", "region:us" ]
text-generation
2025-01-24T00:00:10Z
--- base_model: unsloth/phi-4 tags: - text-generation-inference - transformers - unsloth - llama - trl license: apache-2.0 language: - en --- # Uploaded model - **Developed by:** dannnnthemannnn - **License:** apache-2.0 - **Finetuned from model :** unsloth/phi-4 This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
haryoaw/cola_Qwen-Qwen2.5-0.5B_4_0
haryoaw
2025-01-24T00:06:30Z
10
0
transformers
[ "transformers", "safetensors", "qwen2", "text-generation", "conversational", "arxiv:1910.09700", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-01-23T23:50:28Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a ๐Ÿค— transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
thangla01/025bcbac-958c-4eb3-8626-52674cb368e8
thangla01
2025-01-24T00:06:30Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:Korabbit/llama-2-ko-7b", "base_model:adapter:Korabbit/llama-2-ko-7b", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:54:31Z
--- library_name: peft base_model: Korabbit/llama-2-ko-7b tags: - axolotl - generated_from_trainer model-index: - name: 025bcbac-958c-4eb3-8626-52674cb368e8 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Korabbit/llama-2-ko-7b bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 2f9d17f500743687_train_data.json ds_type: json format: custom path: /workspace/input_data/2f9d17f500743687_train_data.json type: field_instruction: text field_output: title format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: thangla01/025bcbac-958c-4eb3-8626-52674cb368e8 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/2f9d17f500743687_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 special_tokens: pad_token: </s> strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 98af1e55-ce5e-4ee3-ab3e-4e976ed9c6af wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 98af1e55-ce5e-4ee3-ab3e-4e976ed9c6af warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 025bcbac-958c-4eb3-8626-52674cb368e8 This model is a fine-tuned version of [Korabbit/llama-2-ko-7b](https://huggingface.co/Korabbit/llama-2-ko-7b) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.9292 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 1.7723 | 0.0047 | 200 | 1.9292 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
kostiantynk-out/9f03df53-9e35-48fc-946f-a45dbe997bba
kostiantynk-out
2025-01-24T00:04:55Z
6
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/SmolLM-360M", "base_model:adapter:unsloth/SmolLM-360M", "license:apache-2.0", "region:us" ]
null
2025-01-24T00:04:18Z
--- library_name: peft license: apache-2.0 base_model: unsloth/SmolLM-360M tags: - axolotl - generated_from_trainer model-index: - name: 9f03df53-9e35-48fc-946f-a45dbe997bba results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/SmolLM-360M bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - d6c4deff482e7d75_train_data.json ds_type: json format: custom path: /workspace/input_data/d6c4deff482e7d75_train_data.json type: field_input: '' field_instruction: tags field_output: text format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: kostiantynk-out/9f03df53-9e35-48fc-946f-a45dbe997bba hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/d6c4deff482e7d75_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 7d2a80b2-36ea-4e27-8d0d-fcbf5c534433 wandb_project: Mine-SN56-1-Gradients-On-Demand wandb_run: your_name wandb_runid: 7d2a80b2-36ea-4e27-8d0d-fcbf5c534433 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 9f03df53-9e35-48fc-946f-a45dbe997bba This model is a fine-tuned version of [unsloth/SmolLM-360M](https://huggingface.co/unsloth/SmolLM-360M) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0035 | 1 | nan | | 0.0 | 0.0106 | 3 | nan | | 0.0 | 0.0212 | 6 | nan | | 0.0 | 0.0318 | 9 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
datlaaaaaaa/74d91348-564d-4650-89e9-2b8e542295ab
datlaaaaaaa
2025-01-24T00:04:15Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen2-7B-Instruct", "base_model:adapter:Qwen/Qwen2-7B-Instruct", "license:apache-2.0", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:30:31Z
--- library_name: peft license: apache-2.0 base_model: Qwen/Qwen2-7B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 74d91348-564d-4650-89e9-2b8e542295ab results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen2-7B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 292fa1f5b3822849_train_data.json ds_type: json format: custom path: /workspace/input_data/292fa1f5b3822849_train_data.json type: field_input: '' field_instruction: prompt field_output: my_solu format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: datlaaaaaaa/74d91348-564d-4650-89e9-2b8e542295ab hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/292fa1f5b3822849_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 5e578b14-e915-4706-8302-b00906cfb773 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 5e578b14-e915-4706-8302-b00906cfb773 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 74d91348-564d-4650-89e9-2b8e542295ab This model is a fine-tuned version of [Qwen/Qwen2-7B-Instruct](https://huggingface.co/Qwen/Qwen2-7B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.3455 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.3506 | 0.0122 | 200 | 0.3455 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
myhaaaaaaa/2b70e8e7-d11c-4816-9773-4bb3eebe6f13
myhaaaaaaa
2025-01-24T00:02:53Z
6
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:NousResearch/Hermes-3-Llama-3.1-8B", "base_model:adapter:NousResearch/Hermes-3-Llama-3.1-8B", "license:llama3", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T23:16:49Z
--- library_name: peft license: llama3 base_model: NousResearch/Hermes-3-Llama-3.1-8B tags: - axolotl - generated_from_trainer model-index: - name: 2b70e8e7-d11c-4816-9773-4bb3eebe6f13 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: NousResearch/Hermes-3-Llama-3.1-8B bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 538661bb7d6053e0_train_data.json ds_type: json format: custom path: /workspace/input_data/538661bb7d6053e0_train_data.json type: field_input: comment field_instruction: prompt field_output: chosen format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: myhaaaaaaa/2b70e8e7-d11c-4816-9773-4bb3eebe6f13 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/538661bb7d6053e0_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 9f67393a-7634-47cf-80e0-d495eec5feb2 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 9f67393a-7634-47cf-80e0-d495eec5feb2 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 2b70e8e7-d11c-4816-9773-4bb3eebe6f13 This model is a fine-tuned version of [NousResearch/Hermes-3-Llama-3.1-8B](https://huggingface.co/NousResearch/Hermes-3-Llama-3.1-8B) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.6517 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.6326 | 0.2004 | 200 | 0.6517 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
kostiantynk-out/ae0eec6d-c65b-41c5-93aa-747e8f15334d
kostiantynk-out
2025-01-24T00:02:47Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen2-1.5B-Instruct", "base_model:adapter:Qwen/Qwen2-1.5B-Instruct", "license:apache-2.0", "region:us" ]
null
2025-01-23T23:56:19Z
--- library_name: peft license: apache-2.0 base_model: Qwen/Qwen2-1.5B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: ae0eec6d-c65b-41c5-93aa-747e8f15334d results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen2-1.5B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - e3c2e5c8dcde7214_train_data.json ds_type: json format: custom path: /workspace/input_data/e3c2e5c8dcde7214_train_data.json type: field_instruction: article field_output: lead format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: kostiantynk-out/ae0eec6d-c65b-41c5-93aa-747e8f15334d hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/e3c2e5c8dcde7214_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: f4d8284c-5447-4755-b91b-3a6f7963c739 wandb_project: Mine-SN56-1-Gradients-On-Demand wandb_run: your_name wandb_runid: f4d8284c-5447-4755-b91b-3a6f7963c739 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # ae0eec6d-c65b-41c5-93aa-747e8f15334d This model is a fine-tuned version of [Qwen/Qwen2-1.5B-Instruct](https://huggingface.co/Qwen/Qwen2-1.5B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.5761 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 2.3024 | 0.0001 | 1 | 1.8157 | | 1.4411 | 0.0003 | 3 | 1.8125 | | 1.8316 | 0.0006 | 6 | 1.7589 | | 2.0221 | 0.0009 | 9 | 1.5761 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
robiual-awal/b39c97ec-68e8-46b6-81f8-6ef7caa76d9b
robiual-awal
2025-01-24T00:02:37Z
9
0
peft
[ "peft", "safetensors", "mistral", "axolotl", "generated_from_trainer", "base_model:unsloth/mistral-7b-instruct-v0.2", "base_model:adapter:unsloth/mistral-7b-instruct-v0.2", "license:apache-2.0", "region:us" ]
null
2025-01-23T23:58:19Z
--- library_name: peft license: apache-2.0 base_model: unsloth/mistral-7b-instruct-v0.2 tags: - axolotl - generated_from_trainer model-index: - name: b39c97ec-68e8-46b6-81f8-6ef7caa76d9b results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/mistral-7b-instruct-v0.2 bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 87ec749fe2b79cda_train_data.json ds_type: json format: custom path: /workspace/input_data/87ec749fe2b79cda_train_data.json type: field_instruction: instruction field_output: response format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: robiual-awal/b39c97ec-68e8-46b6-81f8-6ef7caa76d9b hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/87ec749fe2b79cda_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: b8920e83-97f6-4d23-a43c-8aff64ccf85b wandb_project: Birthday-SN56-29-Gradients-On-Demand wandb_run: your_name wandb_runid: b8920e83-97f6-4d23-a43c-8aff64ccf85b warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # b39c97ec-68e8-46b6-81f8-6ef7caa76d9b This model is a fine-tuned version of [unsloth/mistral-7b-instruct-v0.2](https://huggingface.co/unsloth/mistral-7b-instruct-v0.2) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0002 | 1 | nan | | 0.0 | 0.0007 | 3 | nan | | 0.0 | 0.0013 | 6 | nan | | 0.0 | 0.0020 | 9 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
kostiantynk1205/3473a6f2-4c23-4750-a06c-0ad3f6cbbd9e
kostiantynk1205
2025-01-24T00:02:31Z
8
0
peft
[ "peft", "safetensors", "mistral", "axolotl", "generated_from_trainer", "base_model:unsloth/mistral-7b-instruct-v0.2", "base_model:adapter:unsloth/mistral-7b-instruct-v0.2", "license:apache-2.0", "region:us" ]
null
2025-01-23T23:58:09Z
--- library_name: peft license: apache-2.0 base_model: unsloth/mistral-7b-instruct-v0.2 tags: - axolotl - generated_from_trainer model-index: - name: 3473a6f2-4c23-4750-a06c-0ad3f6cbbd9e results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/mistral-7b-instruct-v0.2 bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 87ec749fe2b79cda_train_data.json ds_type: json format: custom path: /workspace/input_data/87ec749fe2b79cda_train_data.json type: field_instruction: instruction field_output: response format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: kostiantynk1205/3473a6f2-4c23-4750-a06c-0ad3f6cbbd9e hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/87ec749fe2b79cda_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: b8920e83-97f6-4d23-a43c-8aff64ccf85b wandb_project: Birthday-SN56-23-Gradients-On-Demand wandb_run: your_name wandb_runid: b8920e83-97f6-4d23-a43c-8aff64ccf85b warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 3473a6f2-4c23-4750-a06c-0ad3f6cbbd9e This model is a fine-tuned version of [unsloth/mistral-7b-instruct-v0.2](https://huggingface.co/unsloth/mistral-7b-instruct-v0.2) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0002 | 1 | nan | | 0.0 | 0.0007 | 3 | nan | | 0.0 | 0.0013 | 6 | nan | | 0.0 | 0.0020 | 9 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
Best000/aa340c86-4230-440e-b21c-6f13900a864b
Best000
2025-01-24T00:00:28Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "custom_code", "base_model:NousResearch/CodeLlama-13b-hf", "base_model:adapter:NousResearch/CodeLlama-13b-hf", "region:us" ]
null
2025-01-23T23:57:27Z
--- library_name: peft base_model: NousResearch/CodeLlama-13b-hf tags: - axolotl - generated_from_trainer model-index: - name: aa340c86-4230-440e-b21c-6f13900a864b results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: NousResearch/CodeLlama-13b-hf bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 1f6089850b343ece_train_data.json ds_type: json format: custom path: /workspace/input_data/1f6089850b343ece_train_data.json type: field_input: metadata field_instruction: topic field_output: prompt format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: Best000/aa340c86-4230-440e-b21c-6f13900a864b hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/1f6089850b343ece_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 special_tokens: pad_token: </s> strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 3c403089-a403-46d4-a2d8-294e007b654c wandb_project: Birthday-SN56-16-Gradients-On-Demand wandb_run: your_name wandb_runid: 3c403089-a403-46d4-a2d8-294e007b654c warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # aa340c86-4230-440e-b21c-6f13900a864b This model is a fine-tuned version of [NousResearch/CodeLlama-13b-hf](https://huggingface.co/NousResearch/CodeLlama-13b-hf) on the None dataset. It achieves the following results on the evaluation set: - Loss: 2.4327 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 10.8636 | 0.0008 | 1 | 2.5861 | | 8.02 | 0.0025 | 3 | 2.5849 | | 6.5311 | 0.0050 | 6 | 2.5601 | | 7.8248 | 0.0075 | 9 | 2.4327 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
mradermacher/SRole_3181-GGUF
mradermacher
2025-01-23T23:59:33Z
365
0
transformers
[ "transformers", "gguf", "mergekit", "merge", "en", "base_model:chain03/SRole_3181", "base_model:quantized:chain03/SRole_3181", "endpoints_compatible", "region:us", "conversational" ]
null
2025-01-23T23:01:22Z
--- base_model: chain03/SRole_3181 language: - en library_name: transformers quantized_by: mradermacher tags: - mergekit - merge --- ## About <!-- ### quantize_version: 2 --> <!-- ### output_tensor_quantised: 1 --> <!-- ### convert_type: hf --> <!-- ### vocab_type: --> <!-- ### tags: --> static quants of https://huggingface.co/chain03/SRole_3181 <!-- provided-files --> weighted/imatrix quants seem not to be available (by me) at this time. If they do not show up a week or so after the static ones, I have probably not planned for them. Feel free to request them by opening a Community Discussion. ## Usage If you are unsure how to use GGUF files, refer to one of [TheBloke's READMEs](https://huggingface.co/TheBloke/KafkaLM-70B-German-V0.1-GGUF) for more details, including on how to concatenate multi-part files. ## Provided Quants (sorted by size, not necessarily quality. IQ-quants are often preferable over similar sized non-IQ quants) | Link | Type | Size/GB | Notes | |:-----|:-----|--------:|:------| | [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q2_K.gguf) | Q2_K | 3.3 | | | [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q3_K_S.gguf) | Q3_K_S | 3.8 | | | [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q3_K_M.gguf) | Q3_K_M | 4.1 | lower quality | | [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q3_K_L.gguf) | Q3_K_L | 4.4 | | | [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.IQ4_XS.gguf) | IQ4_XS | 4.6 | | | [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q4_K_S.gguf) | Q4_K_S | 4.8 | fast, recommended | | [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q4_K_M.gguf) | Q4_K_M | 5.0 | fast, recommended | | [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q5_K_S.gguf) | Q5_K_S | 5.7 | | | [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q5_K_M.gguf) | Q5_K_M | 5.8 | | | [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q6_K.gguf) | Q6_K | 6.7 | very good quality | | [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.Q8_0.gguf) | Q8_0 | 8.6 | fast, best quality | | [GGUF](https://huggingface.co/mradermacher/SRole_3181-GGUF/resolve/main/SRole_3181.f16.gguf) | f16 | 16.2 | 16 bpw, overkill | Here is a handy graph by ikawrakow comparing some lower-quality quant types (lower is better): ![image.png](https://www.nethype.de/huggingface_embed/quantpplgraph.png) And here are Artefact2's thoughts on the matter: https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9 ## FAQ / Model Request See https://huggingface.co/mradermacher/model_requests for some answers to questions you might have and/or if you want some other model quantized. ## Thanks I thank my company, [nethype GmbH](https://www.nethype.de/), for letting me use its servers and providing upgrades to my workstation to enable this work in my free time. <!-- end -->
thalllsssss/1e6ab4e9-3479-4ab5-8788-601188db3d22
thalllsssss
2025-01-23T23:59:23Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/Meta-Llama-3.1-8B-Instruct", "base_model:adapter:unsloth/Meta-Llama-3.1-8B-Instruct", "license:llama3.1", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:22:47Z
--- library_name: peft license: llama3.1 base_model: unsloth/Meta-Llama-3.1-8B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 1e6ab4e9-3479-4ab5-8788-601188db3d22 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Meta-Llama-3.1-8B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 7ba07ca9e842566a_train_data.json ds_type: json format: custom path: /workspace/input_data/7ba07ca9e842566a_train_data.json type: field_instruction: code field_output: docstring format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: thalllsssss/1e6ab4e9-3479-4ab5-8788-601188db3d22 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/7ba07ca9e842566a_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 9943ba63-829b-480c-96a4-17d5a201c545 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 9943ba63-829b-480c-96a4-17d5a201c545 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 1e6ab4e9-3479-4ab5-8788-601188db3d22 This model is a fine-tuned version of [unsloth/Meta-Llama-3.1-8B-Instruct](https://huggingface.co/unsloth/Meta-Llama-3.1-8B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.0066 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0002 | 0.0037 | 200 | 0.0066 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
fedovtt/0f9c51e5-9923-4e51-ac3d-b2c73d531e7b
fedovtt
2025-01-23T23:57:26Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/codellama-7b", "base_model:adapter:unsloth/codellama-7b", "license:apache-2.0", "region:us" ]
null
2025-01-23T23:55:51Z
--- library_name: peft license: apache-2.0 base_model: unsloth/codellama-7b tags: - axolotl - generated_from_trainer model-index: - name: 0f9c51e5-9923-4e51-ac3d-b2c73d531e7b results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/codellama-7b bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 82163ce5235442c8_train_data.json ds_type: json format: custom path: /workspace/input_data/82163ce5235442c8_train_data.json type: field_input: Sequence field_instruction: Entry field_output: Protein names format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device: cuda early_stopping_patience: 1 eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null evals_per_epoch: null flash_attention: false fp16: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: false hub_model_id: fedovtt/0f9c51e5-9923-4e51-ac3d-b2c73d531e7b hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 3 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_memory: 0: 78GiB max_steps: 30 micro_batch_size: 2 mlflow_experiment_name: /tmp/82163ce5235442c8_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_torch output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: true trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 4aa3c918-36ed-4ae0-9dbd-99685797929f wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 4aa3c918-36ed-4ae0-9dbd-99685797929f warmup_steps: 10 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 0f9c51e5-9923-4e51-ac3d-b2c73d531e7b This model is a fine-tuned version of [unsloth/codellama-7b](https://huggingface.co/unsloth/codellama-7b) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 30 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0025 | 1 | nan | | 0.0 | 0.0123 | 5 | nan | | 0.0 | 0.0247 | 10 | nan | | 0.0 | 0.0370 | 15 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
JacksonBrune/d3973dcb-d81a-4334-8369-67440bc155c0
JacksonBrune
2025-01-23T23:56:56Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/tinyllama-chat", "base_model:adapter:unsloth/tinyllama-chat", "license:apache-2.0", "region:us" ]
null
2025-01-23T23:56:07Z
--- library_name: peft license: apache-2.0 base_model: unsloth/tinyllama-chat tags: - axolotl - generated_from_trainer model-index: - name: d3973dcb-d81a-4334-8369-67440bc155c0 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/tinyllama-chat bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 07830763800e2537_train_data.json ds_type: json format: custom path: /workspace/input_data/07830763800e2537_train_data.json type: field_instruction: title field_output: dialogue format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: JacksonBrune/d3973dcb-d81a-4334-8369-67440bc155c0 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/07830763800e2537_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: aeb7a994-bf0d-40dd-9f20-b17c9de47b12 wandb_project: birthdya-sn56-18-Gradients-On-Demand wandb_run: your_name wandb_runid: aeb7a994-bf0d-40dd-9f20-b17c9de47b12 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # d3973dcb-d81a-4334-8369-67440bc155c0 This model is a fine-tuned version of [unsloth/tinyllama-chat](https://huggingface.co/unsloth/tinyllama-chat) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0020 | 1 | nan | | 0.0 | 0.0061 | 3 | nan | | 0.0 | 0.0122 | 6 | nan | | 0.0 | 0.0183 | 9 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
mini1013/master_cate_bc8
mini1013
2025-01-23T23:54:20Z
566
0
setfit
[ "setfit", "safetensors", "roberta", "sentence-transformers", "text-classification", "generated_from_setfit_trainer", "arxiv:2209.11055", "base_model:mini1013/master_domain", "base_model:finetune:mini1013/master_domain", "model-index", "region:us" ]
text-classification
2025-01-23T23:54:00Z
--- tags: - setfit - sentence-transformers - text-classification - generated_from_setfit_trainer widget: - text: ๋””์Šค์ปค๋ฒ„๋ฆฌ์ต์ŠคํŽ˜๋””์…˜ํ‚ค์ฆˆ ๋””์Šค์ปค๋ฒ„๋ฆฌ ํ‚ค์ฆˆ ๋กœ๊ณ  ๋ž˜์‰ฌ๊ฐ€๋“œ ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ๋‚จ์•„์ˆ˜์˜๋ณต - text: ๋‰ด๋ฐœ๋ž€์Šคํ‚ค์ฆˆ ๋‰ด๋ฐœ๋ž€์Šค ํ‚ค์ฆˆ Beach Lounge ๋ž˜์‰ฌ๊ฐ€๋“œ ์œ ๋‹ˆ 2in1 ์ˆ˜์˜๋ณต NK9RE2110U ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ๋‚จ์•„์ˆ˜์˜๋ณต - text: ๋ทฐ ์•„๋™ ์ˆ˜๊ฒฝ ์ผ๋ฐ˜๋ Œ์ฆˆ ์ผ๋ณธ V424J LV ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ์ˆ˜๊ฒฝ/์ˆ˜๋ชจ/๊ท€๋งˆ๊ฐœ - text: ๋ฒค๋””์Šค ์•„๋™ ๋‚จ์•„ ์—ฌ์•„ ๋ž˜์‰ฌ๊ฐ€๋“œ ์„ธํŠธ ์œ ์•„ ์ˆ˜์˜๋ณต P208 28.์—์Šค๋‹‰ํ›„๋“œ ๋น„์น˜ ๊ฐ€๋””๊ฑด S207_์˜ค๋ Œ์ง€_๊ณต์šฉ_7ํ˜ธ ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ๋‚จ์•„์ˆ˜์˜๋ณต - text: ๋น„์น˜๋Š” ๋ฐ˜ํˆฌ๋ช… ์ˆ˜์˜์žฅ ๋ฐฉ์ˆ˜ ๋น„์น˜๋ฐฑ ๋ชฉ์š•๊ฐ€๋ฐฉ 3์ข…์„ธํŠธ ์ƒํ’ˆ์„ ํƒ_ํ•‘ํฌ์„ธํŠธ ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ์ˆ˜์˜๊ฐ€๋ฐฉ/๋น„์น˜๋ฐฑ metrics: - accuracy pipeline_tag: text-classification library_name: setfit inference: true base_model: mini1013/master_domain model-index: - name: SetFit with mini1013/master_domain results: - task: type: text-classification name: Text Classification dataset: name: Unknown type: unknown split: test metrics: - type: accuracy value: 1.0 name: Accuracy --- # SetFit with mini1013/master_domain This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification. The model has been trained using an efficient few-shot learning technique that involves: 1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning. 2. Training a classification head with features from the fine-tuned Sentence Transformer. ## Model Details ### Model Description - **Model Type:** SetFit - **Sentence Transformer body:** [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) - **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance - **Maximum Sequence Length:** 512 tokens - **Number of Classes:** 4 classes <!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) --> <!-- - **Language:** Unknown --> <!-- - **License:** Unknown --> ### Model Sources - **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit) - **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055) - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit) ### Model Labels | Label | Examples | |:------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | 1.0 | <ul><li>'ํ”Œ๋žฉ์บก ๋ชจ์ž ์ž์™ธ์„ ์ฐจ๋‹จ ์ˆ˜์˜๋ชจ์ž ์œ ์•„ ์•„๋™ ๊ณต์šฉ UV๋ชจ์ž C_ํ•‘ํฌ_M ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ์ˆ˜๊ฒฝ/์ˆ˜๋ชจ/๊ท€๋งˆ๊ฐœ'</li><li>'์•„๊ธฐ๋ฌผ์•ˆ๊ฒฝ ์œ ์•„๋ฌผ์•ˆ๊ฒฝ ์„ฑ์ธ์šฉ CA01 ํ™”์ดํŠธ ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ์ˆ˜๊ฒฝ/์ˆ˜๋ชจ/๊ท€๋งˆ๊ฐœ'</li><li>'UV ํ”Œ๋žฉ์บก ์•„๊ธฐ ์œ ์•„ ์•„๋™ ์ˆ˜์˜๋ชจ์ž ๋ฒ„ํ‚ทํ–‡ ํ•ด๋ณ€ ์›Œํ„ฐํŒŒํฌ ์ž์™ธ์„ ์ฐจ๋‹จ UVํ”Œ๋žฉ์บก_๊ทธ๋ ˆ์ด_S(3์„ธ์ดํ•˜) ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ์ˆ˜๊ฒฝ/์ˆ˜๋ชจ/๊ท€๋งˆ๊ฐœ'</li></ul> | | 2.0 | <ul><li>'์–ด๋ฆฐ์ด ์ˆ˜์˜๊ฐ€๋ฐฉ ์œ ์•„ ๋น„์น˜๋ฐฑ ์—ฌ์•„ ์œ ์น˜์› ์บ์น˜ํ‹ฐ๋‹ˆํ•‘ C.์ˆ˜์˜๋ชจ์ž_47_๋กœ์ด๋„์ด ์†Œํ”„ํŠธ_ํ™”์ดํŠธ/56 (770297) ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ์ˆ˜์˜๊ฐ€๋ฐฉ/๋น„์น˜๋ฐฑ'</li><li>'์–ด๋ฆฐ์ด์ˆ˜์˜๊ฐ€๋ฐฉ ์ˆ˜์˜์žฅ๊ฐ€๋ฐฉ ๋น„์น˜๋ฐฑ ์œ ์•„ ์•„๋™ ์œ ์น˜์› 09.์—˜์˜ค์—˜_LOL ๋ ˆํŠธ๋กœ ๋น„์น˜ ํ•ธ๋“œ๋ฐฑ(ํ•‘ํฌ) ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ์ˆ˜์˜๊ฐ€๋ฐฉ/๋น„์น˜๋ฐฑ'</li><li>'๋ฌผ๋น ์ง€๋Š” ๋ฐฉ์ˆ˜ ๋ฉ”์‰ฌ ๋ชฉ์š•๊ฐ€๋ฐฉ ์ŠคํŒŒ๋ฐฑ_33.NCCSB11_๋ธ”๋ž™ ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ์ˆ˜์˜๊ฐ€๋ฐฉ/๋น„์น˜๋ฐฑ'</li></ul> | | 0.0 | <ul><li>'๋ ˆ๋…ธ๋งˆ ์•„๋ ˆ๋‚˜ ์Šฌ๋ผ์ž„ ์•„๋™ 4๋ถ€ ๋‚จ์•„๋™์ˆ˜์˜๋ณต A3BB1BF02 ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ๋‚จ์•„์ˆ˜์˜๋ณต'</li><li>'์Šคํ”Œ๋ž˜์‰ฌ์–ด๋ฐ”์›ƒ ์‚ฌ๊ณ„์ ˆ ํ‚ค์ฆˆ๋ž˜์‰ฌ๊ฐ€๋“œ ์‡ผํ‹ฐ ์›จํŠธ์ŠˆํŠธ ๋‚จ์•„๋ž˜์‰ฌ๊ฐ€๋“œ ๋‚จ์•„์ˆ˜์˜๋ณต ํ‚ค์ฆˆ์ˆ˜์˜๋ณต ํ„ฐ๊ทธ๋ณด์ธ _XXL(8-10์„ธ) ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ๋‚จ์•„์ˆ˜์˜๋ณต'</li><li>'๋””์Šค์ปค๋ฒ„๋ฆฌ์ต์ŠคํŽ˜๋””์…˜ํ‚ค์ฆˆ ํ‚ค์ฆˆ ๋กœ๊ณ  ๋ž˜์‰ฌ๊ฐ€๋“œ L MINT ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ๋‚จ์•„์ˆ˜์˜๋ณต'</li></ul> | | 3.0 | <ul><li>'์•„๋ ˆ๋‚˜ ์ดˆ๋“ฑ์—ฌ์•„ ์‹ค๋‚ด์ˆ˜์˜๋ณต ์ดˆ๋“ฑํ•™์ƒ ํ‚ค์ฆˆ ์ฃผ๋‹ˆ์–ด 4๋ถ€ 5๋ถ€ ๋ฐ˜์‹  ์ƒ์กด์ˆ˜์˜A3FG1GL22 ํ•‘ํฌ_70 ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ์—ฌ์•„์ˆ˜์˜๋ณต'</li><li>'๋ฟ”๊ณต๋ฃก ์œ ์•„ ๋ž˜์‰ฌ๊ฐ€๋“œ(90-120) 204119 ํ”ผ์น˜90 ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ์—ฌ์•„์ˆ˜์˜๋ณต'</li><li>'๋ธ”๋ฃจ๋… ํ•˜ํŠธ์ „ํŒ๋ ˆ์‰ฌ๊ฐ€๋“œ์„ธํŠธ 24940 621 52 ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ์—ฌ์•„์ˆ˜์˜๋ณต'</li></ul> | ## Evaluation ### Metrics | Label | Accuracy | |:--------|:---------| | **all** | 1.0 | ## Uses ### Direct Use for Inference First install the SetFit library: ```bash pip install setfit ``` Then you can load this model and run inference. ```python from setfit import SetFitModel # Download from the ๐Ÿค— Hub model = SetFitModel.from_pretrained("mini1013/master_cate_bc8") # Run inference preds = model("๋ทฐ ์•„๋™ ์ˆ˜๊ฒฝ ์ผ๋ฐ˜๋ Œ์ฆˆ ์ผ๋ณธ V424J LV ์ถœ์‚ฐ/์œก์•„ > ์ˆ˜์˜๋ณต/์šฉํ’ˆ > ์ˆ˜๊ฒฝ/์ˆ˜๋ชจ/๊ท€๋งˆ๊ฐœ") ``` <!-- ### Downstream Use *List how someone could finetune this model on their own dataset.* --> <!-- ### Out-of-Scope Use *List how the model may foreseeably be misused and address what users ought not to do with the model.* --> <!-- ## Bias, Risks and Limitations *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.* --> <!-- ### Recommendations *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.* --> ## Training Details ### Training Set Metrics | Training set | Min | Median | Max | |:-------------|:----|:--------|:----| | Word count | 7 | 13.5607 | 24 | | Label | Training Sample Count | |:------|:----------------------| | 0.0 | 70 | | 1.0 | 70 | | 2.0 | 70 | | 3.0 | 70 | ### Training Hyperparameters - batch_size: (256, 256) - num_epochs: (30, 30) - max_steps: -1 - sampling_strategy: oversampling - num_iterations: 50 - body_learning_rate: (2e-05, 1e-05) - head_learning_rate: 0.01 - loss: CosineSimilarityLoss - distance_metric: cosine_distance - margin: 0.25 - end_to_end: False - use_amp: False - warmup_proportion: 0.1 - l2_weight: 0.01 - seed: 42 - eval_max_steps: -1 - load_best_model_at_end: False ### Training Results | Epoch | Step | Training Loss | Validation Loss | |:-------:|:----:|:-------------:|:---------------:| | 0.0182 | 1 | 0.4886 | - | | 0.9091 | 50 | 0.4981 | - | | 1.8182 | 100 | 0.3363 | - | | 2.7273 | 150 | 0.0279 | - | | 3.6364 | 200 | 0.0001 | - | | 4.5455 | 250 | 0.0 | - | | 5.4545 | 300 | 0.0 | - | | 6.3636 | 350 | 0.0 | - | | 7.2727 | 400 | 0.0 | - | | 8.1818 | 450 | 0.0 | - | | 9.0909 | 500 | 0.0 | - | | 10.0 | 550 | 0.0 | - | | 10.9091 | 600 | 0.0 | - | | 11.8182 | 650 | 0.0 | - | | 12.7273 | 700 | 0.0 | - | | 13.6364 | 750 | 0.0 | - | | 14.5455 | 800 | 0.0 | - | | 15.4545 | 850 | 0.0 | - | | 16.3636 | 900 | 0.0 | - | | 17.2727 | 950 | 0.0 | - | | 18.1818 | 1000 | 0.0 | - | | 19.0909 | 1050 | 0.0 | - | | 20.0 | 1100 | 0.0 | - | | 20.9091 | 1150 | 0.0 | - | | 21.8182 | 1200 | 0.0 | - | | 22.7273 | 1250 | 0.0 | - | | 23.6364 | 1300 | 0.0 | - | | 24.5455 | 1350 | 0.0 | - | | 25.4545 | 1400 | 0.0 | - | | 26.3636 | 1450 | 0.0 | - | | 27.2727 | 1500 | 0.0 | - | | 28.1818 | 1550 | 0.0 | - | | 29.0909 | 1600 | 0.0 | - | | 30.0 | 1650 | 0.0 | - | ### Framework Versions - Python: 3.10.12 - SetFit: 1.1.0 - Sentence Transformers: 3.3.1 - Transformers: 4.44.2 - PyTorch: 2.2.0a0+81ea7a4 - Datasets: 3.2.0 - Tokenizers: 0.19.1 ## Citation ### BibTeX ```bibtex @article{https://doi.org/10.48550/arxiv.2209.11055, doi = {10.48550/ARXIV.2209.11055}, url = {https://arxiv.org/abs/2209.11055}, author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren}, keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences}, title = {Efficient Few-Shot Learning Without Prompts}, publisher = {arXiv}, year = {2022}, copyright = {Creative Commons Attribution 4.0 International} } ``` <!-- ## Glossary *Clearly define terms in order to be accessible across audiences.* --> <!-- ## Model Card Authors *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.* --> <!-- ## Model Card Contact *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.* -->
philip-hightech/4a803a29-59d6-4748-afc7-ffcd11f21428
philip-hightech
2025-01-23T23:54:07Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen1.5-1.8B", "base_model:adapter:Qwen/Qwen1.5-1.8B", "license:other", "region:us" ]
null
2025-01-23T23:17:45Z
--- library_name: peft license: other base_model: Qwen/Qwen1.5-1.8B tags: - axolotl - generated_from_trainer model-index: - name: 4a803a29-59d6-4748-afc7-ffcd11f21428 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen1.5-1.8B bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 6f2c117da9072e42_train_data.json ds_type: json format: custom path: /workspace/input_data/6f2c117da9072e42_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: philip-hightech/4a803a29-59d6-4748-afc7-ffcd11f21428 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/6f2c117da9072e42_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: f27ecd68-3744-46bd-80df-eafd56255dbd wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: f27ecd68-3744-46bd-80df-eafd56255dbd warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 4a803a29-59d6-4748-afc7-ffcd11f21428 This model is a fine-tuned version of [Qwen/Qwen1.5-1.8B](https://huggingface.co/Qwen/Qwen1.5-1.8B) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.7678 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 1.6191 | 0.0000 | 1 | 1.7951 | | 2.0541 | 0.0001 | 3 | 1.7945 | | 1.7257 | 0.0001 | 6 | 1.7885 | | 1.4832 | 0.0002 | 9 | 1.7678 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
philip-hightech/433f5f89-d13b-4ad4-8407-b99802a68919
philip-hightech
2025-01-23T23:53:57Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen2-1.5B-Instruct", "base_model:adapter:Qwen/Qwen2-1.5B-Instruct", "license:apache-2.0", "region:us" ]
null
2025-01-23T23:47:47Z
--- library_name: peft license: apache-2.0 base_model: Qwen/Qwen2-1.5B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 433f5f89-d13b-4ad4-8407-b99802a68919 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen2-1.5B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - e3c2e5c8dcde7214_train_data.json ds_type: json format: custom path: /workspace/input_data/e3c2e5c8dcde7214_train_data.json type: field_instruction: article field_output: lead format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: philip-hightech/433f5f89-d13b-4ad4-8407-b99802a68919 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/e3c2e5c8dcde7214_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: f4d8284c-5447-4755-b91b-3a6f7963c739 wandb_project: Mine-SN56-21-Gradients-On-Demand wandb_run: your_name wandb_runid: f4d8284c-5447-4755-b91b-3a6f7963c739 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 433f5f89-d13b-4ad4-8407-b99802a68919 This model is a fine-tuned version of [Qwen/Qwen2-1.5B-Instruct](https://huggingface.co/Qwen/Qwen2-1.5B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.5817 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 2.3024 | 0.0001 | 1 | 1.8157 | | 1.4428 | 0.0003 | 3 | 1.8129 | | 1.8341 | 0.0006 | 6 | 1.7600 | | 2.0206 | 0.0009 | 9 | 1.5817 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
lesso13/b4721566-f28f-4d25-95c3-7952b921bf0b
lesso13
2025-01-23T23:53:41Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "custom_code", "base_model:NousResearch/Yarn-Llama-2-7b-64k", "base_model:adapter:NousResearch/Yarn-Llama-2-7b-64k", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:35:24Z
--- library_name: peft base_model: NousResearch/Yarn-Llama-2-7b-64k tags: - axolotl - generated_from_trainer model-index: - name: b4721566-f28f-4d25-95c3-7952b921bf0b results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: NousResearch/Yarn-Llama-2-7b-64k bf16: auto chat_template: llama3 datasets: - data_files: - fd8cb244a58eab5a_train_data.json ds_type: json format: custom path: /workspace/input_data/fd8cb244a58eab5a_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: lesso13/b4721566-f28f-4d25-95c3-7952b921bf0b hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/fd8cb244a58eab5a_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # b4721566-f28f-4d25-95c3-7952b921bf0b This model is a fine-tuned version of [NousResearch/Yarn-Llama-2-7b-64k](https://huggingface.co/NousResearch/Yarn-Llama-2-7b-64k) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.7020 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 2.9074 | 0.0325 | 200 | 0.7020 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
dixedus/0aa04d7e-8346-4930-b5ab-fdfda47ef7ab
dixedus
2025-01-23T23:53:22Z
13
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/SmolLM-360M", "base_model:adapter:unsloth/SmolLM-360M", "license:apache-2.0", "region:us" ]
null
2025-01-23T23:47:49Z
--- library_name: peft license: apache-2.0 base_model: unsloth/SmolLM-360M tags: - axolotl - generated_from_trainer model-index: - name: 0aa04d7e-8346-4930-b5ab-fdfda47ef7ab results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/SmolLM-360M bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - d6c4deff482e7d75_train_data.json ds_type: json format: custom path: /workspace/input_data/d6c4deff482e7d75_train_data.json type: field_input: '' field_instruction: tags field_output: text format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: false hub_model_id: dixedus/0aa04d7e-8346-4930-b5ab-fdfda47ef7ab hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 5.0e-05 load_in_4bit: false load_in_8bit: false local_rank: 0 logging_steps: 3 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_steps: 100 micro_batch_size: 8 mlflow_experiment_name: /tmp/d6c4deff482e7d75_train_data.json model_type: AutoModelForCausalLM num_epochs: 3 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: techspear-hub wandb_mode: online wandb_name: 7d2a80b2-36ea-4e27-8d0d-fcbf5c534433 wandb_project: Gradients-On-Eight wandb_run: your_name wandb_runid: 7d2a80b2-36ea-4e27-8d0d-fcbf5c534433 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 0aa04d7e-8346-4930-b5ab-fdfda47ef7ab This model is a fine-tuned version of [unsloth/SmolLM-360M](https://huggingface.co/unsloth/SmolLM-360M) on the None dataset. It achieves the following results on the evaluation set: - Loss: 2.3410 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 8 - eval_batch_size: 8 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 100 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0141 | 1 | 2.4202 | | 2.5813 | 0.1272 | 9 | 2.4196 | | 2.7235 | 0.2544 | 18 | 2.4146 | | 2.4776 | 0.3816 | 27 | 2.4045 | | 2.5692 | 0.5088 | 36 | 2.3906 | | 2.5453 | 0.6360 | 45 | 2.3756 | | 2.5901 | 0.7633 | 54 | 2.3627 | | 2.5197 | 0.8905 | 63 | 2.3530 | | 2.591 | 1.0177 | 72 | 2.3466 | | 2.4761 | 1.1449 | 81 | 2.3427 | | 2.4823 | 1.2721 | 90 | 2.3412 | | 2.5686 | 1.3993 | 99 | 2.3410 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
lesso14/487dae3c-36c7-4652-8dab-df2aeae5d194
lesso14
2025-01-23T23:49:24Z
6
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/llama-3-8b", "base_model:adapter:unsloth/llama-3-8b", "license:llama3", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T23:15:57Z
--- library_name: peft license: llama3 base_model: unsloth/llama-3-8b tags: - axolotl - generated_from_trainer model-index: - name: 487dae3c-36c7-4652-8dab-df2aeae5d194 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/llama-3-8b bf16: auto chat_template: llama3 datasets: - data_files: - ba46c3e706833477_train_data.json ds_type: json format: custom path: /workspace/input_data/ba46c3e706833477_train_data.json type: field_instruction: title field_output: lyrics format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: lesso14/487dae3c-36c7-4652-8dab-df2aeae5d194 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/ba46c3e706833477_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 5627705e-aa6f-44ce-be68-0f09aae8189d wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 5627705e-aa6f-44ce-be68-0f09aae8189d warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 487dae3c-36c7-4652-8dab-df2aeae5d194 This model is a fine-tuned version of [unsloth/llama-3-8b](https://huggingface.co/unsloth/llama-3-8b) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.2238 | 200 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
haryoaw/cola_Qwen-Qwen2.5-0.5B_3_0
haryoaw
2025-01-23T23:49:02Z
7
0
transformers
[ "transformers", "safetensors", "qwen2", "text-generation", "conversational", "arxiv:1910.09700", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-01-23T23:32:24Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a ๐Ÿค— transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
infogep/07eb3007-948c-4a1b-87ab-869ea8212616
infogep
2025-01-23T23:47:27Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:unsloth/Qwen2.5-14B-Instruct", "base_model:adapter:unsloth/Qwen2.5-14B-Instruct", "license:apache-2.0", "region:us" ]
null
2025-01-23T23:30:51Z
--- library_name: peft license: apache-2.0 base_model: unsloth/Qwen2.5-14B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 07eb3007-948c-4a1b-87ab-869ea8212616 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Qwen2.5-14B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 6235a98666a9fd50_train_data.json ds_type: json format: custom path: /workspace/input_data/6235a98666a9fd50_train_data.json type: field_instruction: instruction field_output: output format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device: cuda early_stopping_patience: 1 eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null evals_per_epoch: null flash_attention: false fp16: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: true hub_model_id: infogep/07eb3007-948c-4a1b-87ab-869ea8212616 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 3 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 30 micro_batch_size: 4 mlflow_experiment_name: /tmp/6235a98666a9fd50_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: true trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 00a9672f-f900-40cf-846d-431c902b4360 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 00a9672f-f900-40cf-846d-431c902b4360 warmup_steps: 5 weight_decay: 0.0 xformers_attention: true ``` </details><br> # 07eb3007-948c-4a1b-87ab-869ea8212616 This model is a fine-tuned version of [unsloth/Qwen2.5-14B-Instruct](https://huggingface.co/unsloth/Qwen2.5-14B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 4 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 16 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 30 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0003 | 1 | nan | | 0.0 | 0.0017 | 5 | nan | | 0.0 | 0.0035 | 10 | nan | | 0.0 | 0.0052 | 15 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
nhung03/1104f496-e2cd-43ed-99e2-914ca1ec539e
nhung03
2025-01-23T23:47:13Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:NousResearch/Hermes-3-Llama-3.1-8B", "base_model:adapter:NousResearch/Hermes-3-Llama-3.1-8B", "license:llama3", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T23:16:45Z
--- library_name: peft license: llama3 base_model: NousResearch/Hermes-3-Llama-3.1-8B tags: - axolotl - generated_from_trainer model-index: - name: 1104f496-e2cd-43ed-99e2-914ca1ec539e results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: NousResearch/Hermes-3-Llama-3.1-8B bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 538661bb7d6053e0_train_data.json ds_type: json format: custom path: /workspace/input_data/538661bb7d6053e0_train_data.json type: field_input: comment field_instruction: prompt field_output: chosen format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: nhung03/1104f496-e2cd-43ed-99e2-914ca1ec539e hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/538661bb7d6053e0_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 9f67393a-7634-47cf-80e0-d495eec5feb2 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 9f67393a-7634-47cf-80e0-d495eec5feb2 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 1104f496-e2cd-43ed-99e2-914ca1ec539e This model is a fine-tuned version of [NousResearch/Hermes-3-Llama-3.1-8B](https://huggingface.co/NousResearch/Hermes-3-Llama-3.1-8B) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.6518 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.6354 | 0.2004 | 200 | 0.6518 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
mini1013/master_cate_bc7
mini1013
2025-01-23T23:46:54Z
184
0
setfit
[ "setfit", "safetensors", "roberta", "sentence-transformers", "text-classification", "generated_from_setfit_trainer", "arxiv:2209.11055", "base_model:mini1013/master_domain", "base_model:finetune:mini1013/master_domain", "model-index", "region:us" ]
text-classification
2025-01-23T23:46:20Z
--- tags: - setfit - sentence-transformers - text-classification - generated_from_setfit_trainer widget: - text: ๋งˆ๋”์ผ€์ด ๋ฆฌํ•„ํ˜• ๋กฑํ•ธ๋“ค ์ŠคํŽ€์ง€ ์‹ค๋ฆฌ์ฝ˜ ์ –๋ณ‘์†” ์ –๊ผญ์ง€์†” ์„ธํŠธ 3.๋ฆฌํ•„ํ˜• ์ŠคํŽ€์ง€ ์ –๊ผญ์ง€์†” ์„ธํŠธ_๋ฒ ์ด์ง€ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์†” - text: ๋น„์•ค๋น„ ์ –๋ณ‘์„ธ์ •์ œ ๊ฑฐํ’ˆํ˜• ์šฉ๊ธฐ 450ml B.BB์ –๋ณ‘์„ธ์ œ ๊ฑฐํ’ˆํ˜• ์šฉ๊ธฐ450mlx1๊ฐœ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์„ธ์ •์ œ - text: ๋งˆ๋”์ผ€์ด ๋ฆฌํ•„ํ˜• ๋กฑํ•ธ๋“ค์ŠคํŽ€์ง€์†” ์„ธ์ฒ™์šฉํ’ˆ์„ธํŠธ (์ –๋ณ‘๊ฑด์กฐ๋Œ€+๋ฆฌํ•„๋ธŒ๋Ÿฌ์‰ฌ+์ –๋ณ‘์ง‘๊ฒŒ) ๋„ค์ด๋น„_1.๋ฆฌํ•„ํ˜•์ –๋ณ‘์†”์„ธํŠธ_์ดˆ์ฝ”๋ธŒ๋ผ์šด ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘๊ฑด์กฐ๋Œ€ - text: ๋‹ค์šฉ๋„ ํ”Œ๋ผ์Šคํ‹ฑ ๋ฌผ๋ณ‘ ํ…€๋ธ”๋Ÿฌ ๊ฑด์กฐ๋Œ€ ๋ณดํ‹€ ๊ฑด์กฐ๋Œ€ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘๊ฑด์กฐ๋Œ€ - text: ๋น„์•ค๋น„ ์œ ์•„ ์•„๊ธฐ ์ –๋ณ‘์„ธ์ •์ œ ๊ฑฐํ’ˆํ˜• ์šฉ๊ธฐ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์„ธ์ •์ œ metrics: - accuracy pipeline_tag: text-classification library_name: setfit inference: true base_model: mini1013/master_domain model-index: - name: SetFit with mini1013/master_domain results: - task: type: text-classification name: Text Classification dataset: name: Unknown type: unknown split: test metrics: - type: accuracy value: 0.9978046103183315 name: Accuracy --- # SetFit with mini1013/master_domain This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification. The model has been trained using an efficient few-shot learning technique that involves: 1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning. 2. Training a classification head with features from the fine-tuned Sentence Transformer. ## Model Details ### Model Description - **Model Type:** SetFit - **Sentence Transformer body:** [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) - **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance - **Maximum Sequence Length:** 512 tokens - **Number of Classes:** 7 classes <!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) --> <!-- - **Language:** Unknown --> <!-- - **License:** Unknown --> ### Model Sources - **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit) - **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055) - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit) ### Model Labels | Label | Examples | |:------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | 2.0 | <ul><li>'์•„๊ธฐ ์ –๋ณ‘ ์‹๊ธฐ ์ฃผ๋ฐฉ ์„ธ์ •์ œ ์œ ์•„ ์‹ ์ƒ์•„ ์ค‘์„ฑ์„ธ์ œ ๊ฑฐํ’ˆํ˜•(๋ฆฌํ•„400ml) ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์„ธ์ •์ œ'</li><li>'๋งˆ๋”์ผ€์ด ๋””์•„ ์•„๊ธฐ ์œ ์•„ ์ด์œ ์‹๊ธฐ ์„ธ์ •์ œ 500ml (์•ก์ƒํ˜•/๋ฌดํ–ฅ) ์ด์œ ์‹๊ธฐ์„ธ์ •์ œ500ml(๋ฌดํ–ฅ)_์ด์œ ์‹๊ธฐ์„ธ์ •์ œ500ml(๋ฌดํ–ฅ) ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์„ธ์ •์ œ'</li><li>'๋น„์•ค๋น„ ์ –๋ณ‘์„ธ์ •์ œ ๊ฑฐํ’ˆํ˜• ๋ฆฌํ•„ 400ml x 4๊ฐœ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์„ธ์ •์ œ'</li></ul> | | 3.0 | <ul><li>'NEW ํด๋ ˆ๋“œ ํ”ฝ์…€ UVC LED ์ž์—ฐ๊ฑด์กฐ ์œ ์•„์†Œ๋…๊ธฐ ํ”ฝ์…€+๋ง˜๋งˆ์กดํŠธ๋ ˆ์ด_์˜คํ”„ํ™”์ดํŠธ ๋ฐ”๋””_๋”์Šคํ‹ฐํ•‘ํฌ ํŒจ๋„ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์†Œ๋…๊ธฐ'</li><li>'ํ•ด๋‹˜ UV LED ์ –๋ณ‘์†Œ๋…๊ธฐ 4์„ธ๋Œ€ ํ”Œ๋Ÿฌ์Šค ์Šค๋งˆํŠธ ํ”Œ๋ ‰์Šค_ํ™”์ดํŠธ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์†Œ๋…๊ธฐ'</li><li>'NEW ํด๋ ˆ๋“œ ํ”ฝ์…€ UVC LED ์ž์—ฐ๊ฑด์กฐ ์œ ์•„์†Œ๋…๊ธฐ ํ”ฝ์…€+๋ง˜๋งˆ์กดํŠธ๋ ˆ์ด_๋‹คํฌ๊ทธ๋ ˆ์ด ๋ฐ”๋””_์˜คํ”„ํ™”์ดํŠธ ํŒจ๋„ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์†Œ๋…๊ธฐ'</li></ul> | | 5.0 | <ul><li>'๋ธŒ๋Ÿฌ์‰ฌ ์„ธํŠธ ์Šคํฐ์ง€ ์•Œํ”„์Šค ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์†”'</li><li>'๋งˆ๋”์ผ€์ด ๋ฆฌํ•„ํ˜• ๋กฑํ•ธ๋“ค ์ŠคํŽ€์ง€ ์‹ค๋ฆฌ์ฝ˜ ์ –๋ณ‘์†” ์ –๊ผญ์ง€์†” ์„ธํŠธ 7.๋ฆฌํ•„ํ˜• ์ŠคํŽ€์ง€ ์ –๋ณ‘์†”+์ –๊ผญ์ง€์†” ํ’€์„ธํŠธ_์ธ๋””ํ•‘ํฌ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์†”'</li><li>'์ŠคํŽ™ํŠธ๋ผ ๋กฑํƒ€์ž… ์ –๊ผญ์ง€์†” 2๊ฐœ์ž…์„ธํŠธ ์ –๋ณ‘ ๋ฌผ๋ณ‘ ํ…€๋ธ”๋Ÿฌ ์„ธ์ฒ™๊ฐ€๋Šฅ 1.์ŠคํŽ™ํŠธ๋ผ ๋กฑํƒ€์ž… ์ –๊ผญ์ง€์†” 2๊ฐœ์ž… [ํ•‘ํฌ] ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์†”'</li></ul> | | 0.0 | <ul><li>'์ž์™ธ์„  ์žฅ๋‚œ๊ฐ ์‚ด๊ท ๊ธฐSW-400์—ดํ’๊ฑด์กฐ ์†Œ๋…๊ธฐ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์žฅ๋‚œ๊ฐ์†Œ๋…๊ธฐ'</li><li>'๋Œ€์‹  DS-930 ์•ž์น˜๋งˆ ์‚ด๊ท  ์†Œ๋…๊ฑด์กฐ๊ธฐ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์žฅ๋‚œ๊ฐ์†Œ๋…๊ธฐ'</li><li>'์†Œ๋… ์บ๋น„๋‹› ์–‘๋ฌธํ˜• ๊ต์žฌ ์‚ด๊ท ๊ธฐ ์ž์™ธ์„  UV ์ปต ์†Œ๋…๊ธฐ 700-GX1 ์ด์ค‘๋ฌธ ๋ฐ ์ด์ค‘์„œ๋ž(๋‚˜๋…ธ๋Œ€๋ฆฌ์„) ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์žฅ๋‚œ๊ฐ์†Œ๋…๊ธฐ'</li></ul> | | 1.0 | <ul><li>'์ –๋ณ‘๊ฑด์กฐ๋Œ€ ์ˆ˜๋‚ฉ๋ฐ•์Šค ๋ฌผ์ปต ์ –๋ณ‘์„ ๋ฐ˜ ๋ณด๊ด€ํ•จ ๋ธŒ๋ผ์šด/2318 ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘๊ฑด์กฐ๋Œ€'</li><li>'๋‰ด์ฝ”์ฝ”๋ง˜ ํ”„๋ฆฌ๋ฏธ์—„ ์ –๋ณ‘๊ฑด์กฐ๋Œ€ 2๋‹จ ๋šœ๊ป‘ ์ด์œ ์‹๊ธฐ๊ฑด์กฐ๋Œ€ 1. ๋‰ด์ฝ”์ฝ”๋ง˜ ์ –๋ณ‘๊ฑด์กฐ๋Œ€ ํ”„๋ฆฌ๋ฏธ์—„_1๋‹จ ๊ทธ๋ ˆ์ด ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘๊ฑด์กฐ๋Œ€'</li><li>'๋งˆ๋”์ผ€์ด ๋ฆฌํ•„ํ˜• ๋กฑํ•ธ๋“ค ์‹ค๋ฆฌ์ฝ˜์†” ์„ธ์ฒ™์šฉํ’ˆ์„ธํŠธ(๊ฑด์กฐ๋Œ€+๋ฆฌํ•„์„ธ์ฒ™์†”+์ง‘๊ฒŒ) ๋„ค์ด๋น„_์ –๋ณ‘์†”&์ –๊ผญ์ง€์†”_์ธ๋””ํ•‘ํฌ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘๊ฑด์กฐ๋Œ€'</li></ul> | | 6.0 | <ul><li>'์‹ค๋ฆฌ์ฝ˜ ์ –๋ณ‘์†Œ๋…์ง‘๊ฒŒ ๋ถ„์œ  ์—ดํƒ• ๊ฐ€์œ„ ๊ฑด์กฐ๊ธฐ ์‚ด๊ท  ์ˆ˜์ €๋ฐ›์นจ_์˜ฌ๋ฆฌ๋ธŒ๊ทธ๋ ˆ์ด ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์ง‘๊ฒŒ'</li><li>'๋”๊ตฟ์ฆˆ ๋‹ค์šฉ๋„ ์ –๋ณ‘ ์†Œ๋… ์ง‘๊ฒŒ ํ•‘ํฌ ํ•‘ํฌ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์ง‘๊ฒŒ'</li><li>'์ –๋ณ‘์ง‘๊ฒŒ ์ –๋ณ‘์†Œ๋…์ง‘๊ฒŒ ์•„๊ธฐ ์œ ์•„ ๋‹ค์šฉ๋„ ํŽ˜๋ธ”์‹ํƒ๋งคํŠธ(์กฐ์•ฝ๋Œ)_๊ณจ๋“œํฌ๋ฆผ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์ง‘๊ฒŒ'</li></ul> | | 4.0 | <ul><li>'์˜ค์Šค๋žŒ ์‹ค๋ฐ”๋‹ˆ์•„ ์‚ด๊ท ๋žจํ”„ 4W ์ –๋ณ‘์†Œ๋…๊ธฐ ์ž์™ธ์„ ๋žจํ”„ UV๋žจํ”„ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์†Œ๋…๊ธฐ์šฉํ’ˆ'</li><li>'์ŠคํŽ™ํŠธ๋ผ ์ –๋ณ‘์†Œ๋…๊ธฐํ˜ธํ™˜ UV ๋žจํ”„ 1๊ฐœ์ž… 4W / ์‹ค๋ฐ”๋‹ˆ์•„ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์†Œ๋…๊ธฐ์šฉํ’ˆ'</li><li>'ํšจ์„ฑ ์ž์™ธ์„ ์‚ด๊ท ๋žจํ”„ 20W UVC ์‚ด๊ท ๋“ฑ ์ –๋ณ‘์†Œ๋…๊ธฐ ์ปต์†Œ๋…๊ธฐ ์‹๊ธฐ์†Œ๋…๊ธฐ 1๊ฐœ G20T8 ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์†Œ๋…๊ธฐ์šฉํ’ˆ'</li></ul> | ## Evaluation ### Metrics | Label | Accuracy | |:--------|:---------| | **all** | 0.9978 | ## Uses ### Direct Use for Inference First install the SetFit library: ```bash pip install setfit ``` Then you can load this model and run inference. ```python from setfit import SetFitModel # Download from the ๐Ÿค— Hub model = SetFitModel.from_pretrained("mini1013/master_cate_bc7") # Run inference preds = model("๋น„์•ค๋น„ ์œ ์•„ ์•„๊ธฐ ์ –๋ณ‘์„ธ์ •์ œ ๊ฑฐํ’ˆํ˜• ์šฉ๊ธฐ ์ถœ์‚ฐ/์œก์•„ > ์†Œ๋…/์‚ด๊ท ์šฉํ’ˆ > ์ –๋ณ‘์„ธ์ •์ œ") ``` <!-- ### Downstream Use *List how someone could finetune this model on their own dataset.* --> <!-- ### Out-of-Scope Use *List how the model may foreseeably be misused and address what users ought not to do with the model.* --> <!-- ## Bias, Risks and Limitations *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.* --> <!-- ### Recommendations *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.* --> ## Training Details ### Training Set Metrics | Training set | Min | Median | Max | |:-------------|:----|:--------|:----| | Word count | 7 | 13.7494 | 25 | | Label | Training Sample Count | |:------|:----------------------| | 0.0 | 70 | | 1.0 | 70 | | 2.0 | 70 | | 3.0 | 70 | | 4.0 | 19 | | 5.0 | 70 | | 6.0 | 70 | ### Training Hyperparameters - batch_size: (256, 256) - num_epochs: (30, 30) - max_steps: -1 - sampling_strategy: oversampling - num_iterations: 50 - body_learning_rate: (2e-05, 1e-05) - head_learning_rate: 0.01 - loss: CosineSimilarityLoss - distance_metric: cosine_distance - margin: 0.25 - end_to_end: False - use_amp: False - warmup_proportion: 0.1 - l2_weight: 0.01 - seed: 42 - eval_max_steps: -1 - load_best_model_at_end: False ### Training Results | Epoch | Step | Training Loss | Validation Loss | |:-------:|:----:|:-------------:|:---------------:| | 0.0116 | 1 | 0.4771 | - | | 0.5814 | 50 | 0.4546 | - | | 1.1628 | 100 | 0.1706 | - | | 1.7442 | 150 | 0.0404 | - | | 2.3256 | 200 | 0.0101 | - | | 2.9070 | 250 | 0.0093 | - | | 3.4884 | 300 | 0.0082 | - | | 4.0698 | 350 | 0.0062 | - | | 4.6512 | 400 | 0.0001 | - | | 5.2326 | 450 | 0.0 | - | | 5.8140 | 500 | 0.0 | - | | 6.3953 | 550 | 0.0 | - | | 6.9767 | 600 | 0.0 | - | | 7.5581 | 650 | 0.0 | - | | 8.1395 | 700 | 0.0 | - | | 8.7209 | 750 | 0.0 | - | | 9.3023 | 800 | 0.0 | - | | 9.8837 | 850 | 0.0 | - | | 10.4651 | 900 | 0.0 | - | | 11.0465 | 950 | 0.0 | - | | 11.6279 | 1000 | 0.0 | - | | 12.2093 | 1050 | 0.0 | - | | 12.7907 | 1100 | 0.0 | - | | 13.3721 | 1150 | 0.0 | - | | 13.9535 | 1200 | 0.0 | - | | 14.5349 | 1250 | 0.0 | - | | 15.1163 | 1300 | 0.0 | - | | 15.6977 | 1350 | 0.0 | - | | 16.2791 | 1400 | 0.0 | - | | 16.8605 | 1450 | 0.0 | - | | 17.4419 | 1500 | 0.0 | - | | 18.0233 | 1550 | 0.0 | - | | 18.6047 | 1600 | 0.0 | - | | 19.1860 | 1650 | 0.0 | - | | 19.7674 | 1700 | 0.0 | - | | 20.3488 | 1750 | 0.0 | - | | 20.9302 | 1800 | 0.0 | - | | 21.5116 | 1850 | 0.0 | - | | 22.0930 | 1900 | 0.0 | - | | 22.6744 | 1950 | 0.0 | - | | 23.2558 | 2000 | 0.0 | - | | 23.8372 | 2050 | 0.0 | - | | 24.4186 | 2100 | 0.0 | - | | 25.0 | 2150 | 0.0 | - | | 25.5814 | 2200 | 0.0 | - | | 26.1628 | 2250 | 0.0 | - | | 26.7442 | 2300 | 0.0 | - | | 27.3256 | 2350 | 0.0 | - | | 27.9070 | 2400 | 0.0 | - | | 28.4884 | 2450 | 0.0 | - | | 29.0698 | 2500 | 0.0 | - | | 29.6512 | 2550 | 0.0 | - | ### Framework Versions - Python: 3.10.12 - SetFit: 1.1.0 - Sentence Transformers: 3.3.1 - Transformers: 4.44.2 - PyTorch: 2.2.0a0+81ea7a4 - Datasets: 3.2.0 - Tokenizers: 0.19.1 ## Citation ### BibTeX ```bibtex @article{https://doi.org/10.48550/arxiv.2209.11055, doi = {10.48550/ARXIV.2209.11055}, url = {https://arxiv.org/abs/2209.11055}, author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren}, keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences}, title = {Efficient Few-Shot Learning Without Prompts}, publisher = {arXiv}, year = {2022}, copyright = {Creative Commons Attribution 4.0 International} } ``` <!-- ## Glossary *Clearly define terms in order to be accessible across audiences.* --> <!-- ## Model Card Authors *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.* --> <!-- ## Model Card Contact *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.* -->
havinash-ai/0f0b51d5-b309-4373-8745-f8d318b9bbe2
havinash-ai
2025-01-23T23:45:37Z
9
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:DeepMount00/Llama-3-8b-Ita", "base_model:adapter:DeepMount00/Llama-3-8b-Ita", "license:llama3", "region:us" ]
null
2025-01-23T23:36:23Z
--- library_name: peft license: llama3 base_model: DeepMount00/Llama-3-8b-Ita tags: - axolotl - generated_from_trainer model-index: - name: 0f0b51d5-b309-4373-8745-f8d318b9bbe2 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: DeepMount00/Llama-3-8b-Ita bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 9e2472092fa3f997_train_data.json ds_type: json format: custom path: /workspace/input_data/9e2472092fa3f997_train_data.json type: field_instruction: source field_output: target format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: havinash-ai/0f0b51d5-b309-4373-8745-f8d318b9bbe2 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/9e2472092fa3f997_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 special_tokens: pad_token: <|eot_id|> strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 8bc33917-14ac-4e85-a4ba-cf7b8cfc11ed wandb_project: Mine-SN56-2-Gradients-On-Demand wandb_run: your_name wandb_runid: 8bc33917-14ac-4e85-a4ba-cf7b8cfc11ed warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 0f0b51d5-b309-4373-8745-f8d318b9bbe2 This model is a fine-tuned version of [DeepMount00/Llama-3-8b-Ita](https://huggingface.co/DeepMount00/Llama-3-8b-Ita) on the None dataset. It achieves the following results on the evaluation set: - Loss: 3.6892 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 4.447 | 0.0001 | 1 | 5.9268 | | 6.7141 | 0.0003 | 3 | 5.9049 | | 4.8205 | 0.0006 | 6 | 5.4564 | | 4.7458 | 0.0009 | 9 | 3.6892 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
nat-hunt/7dc85d67-2fa7-40d1-913a-ff2517551b77
nat-hunt
2025-01-23T23:43:12Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:openlm-research/open_llama_3b", "base_model:adapter:openlm-research/open_llama_3b", "license:apache-2.0", "region:us" ]
null
2025-01-23T23:39:09Z
--- library_name: peft license: apache-2.0 base_model: openlm-research/open_llama_3b tags: - axolotl - generated_from_trainer model-index: - name: 7dc85d67-2fa7-40d1-913a-ff2517551b77 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: openlm-research/open_llama_3b bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - b870a12bb86df2ef_train_data.json ds_type: json format: custom path: /workspace/input_data/b870a12bb86df2ef_train_data.json type: field_instruction: premises field_output: hypothesis format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: nat-hunt/7dc85d67-2fa7-40d1-913a-ff2517551b77 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/b870a12bb86df2ef_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 special_tokens: pad_token: </s> strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 5c11f8e4-7a4d-4298-a633-453fe28a8bed wandb_project: Birthday-SN56-25-Gradients-On-Demand wandb_run: your_name wandb_runid: 5c11f8e4-7a4d-4298-a633-453fe28a8bed warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 7dc85d67-2fa7-40d1-913a-ff2517551b77 This model is a fine-tuned version of [openlm-research/open_llama_3b](https://huggingface.co/openlm-research/open_llama_3b) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.2618 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 1.503 | 0.0003 | 1 | 1.7694 | | 1.8358 | 0.0008 | 3 | 1.7629 | | 1.6735 | 0.0016 | 6 | 1.6651 | | 1.2042 | 0.0024 | 9 | 1.2618 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
RobertoSonic/swinv2-tiny-patch4-window8-256-dmae-humeda-DAV23
RobertoSonic
2025-01-23T23:42:04Z
1,215
0
transformers
[ "transformers", "tensorboard", "safetensors", "swinv2", "image-classification", "generated_from_trainer", "base_model:microsoft/swinv2-tiny-patch4-window8-256", "base_model:finetune:microsoft/swinv2-tiny-patch4-window8-256", "license:apache-2.0", "autotrain_compatible", "endpoints_compatible", "region:us" ]
image-classification
2025-01-21T20:56:15Z
--- library_name: transformers license: apache-2.0 base_model: microsoft/swinv2-tiny-patch4-window8-256 tags: - generated_from_trainer metrics: - accuracy model-index: - name: swinv2-tiny-patch4-window8-256-dmae-humeda-DAV23 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # swinv2-tiny-patch4-window8-256-dmae-humeda-DAV23 This model is a fine-tuned version of [microsoft/swinv2-tiny-patch4-window8-256](https://huggingface.co/microsoft/swinv2-tiny-patch4-window8-256) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 0.6901 - Accuracy: 0.8118 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 32 - eval_batch_size: 32 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 128 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: linear - lr_scheduler_warmup_ratio: 0.1 - num_epochs: 40 ### Training results | Training Loss | Epoch | Step | Validation Loss | Accuracy | |:-------------:|:-------:|:----:|:---------------:|:--------:| | 6.4493 | 1.0 | 17 | 1.5281 | 0.2941 | | 5.7922 | 2.0 | 34 | 1.3176 | 0.3882 | | 4.2502 | 3.0 | 51 | 1.2015 | 0.4353 | | 3.2402 | 4.0 | 68 | 0.8902 | 0.7176 | | 2.5386 | 5.0 | 85 | 0.6509 | 0.7765 | | 2.0351 | 6.0 | 102 | 0.6759 | 0.7647 | | 1.8225 | 7.0 | 119 | 0.6607 | 0.7765 | | 1.4778 | 8.0 | 136 | 0.7162 | 0.7529 | | 1.4076 | 9.0 | 153 | 0.9084 | 0.7294 | | 1.2056 | 10.0 | 170 | 0.6901 | 0.8118 | | 0.9552 | 11.0 | 187 | 0.9153 | 0.7765 | | 0.9859 | 12.0 | 204 | 0.8694 | 0.7529 | | 0.8309 | 13.0 | 221 | 0.7666 | 0.8 | | 0.7722 | 14.0 | 238 | 0.9118 | 0.7529 | | 0.7632 | 15.0 | 255 | 0.8953 | 0.7529 | | 0.5868 | 16.0 | 272 | 0.9678 | 0.7529 | | 0.6577 | 17.0 | 289 | 1.0503 | 0.7765 | | 0.5816 | 18.0 | 306 | 1.0602 | 0.7294 | | 0.6222 | 19.0 | 323 | 1.1543 | 0.7765 | | 0.4861 | 20.0 | 340 | 0.9739 | 0.8118 | | 0.4422 | 21.0 | 357 | 1.0354 | 0.8 | | 0.506 | 22.0 | 374 | 1.1097 | 0.8118 | | 0.3833 | 23.0 | 391 | 1.2009 | 0.7765 | | 0.4574 | 24.0 | 408 | 1.1366 | 0.7765 | | 0.4467 | 25.0 | 425 | 1.0601 | 0.8118 | | 0.4451 | 26.0 | 442 | 1.0935 | 0.7765 | | 0.4384 | 27.0 | 459 | 1.1617 | 0.7647 | | 0.4321 | 28.0 | 476 | 1.1012 | 0.7765 | | 0.4398 | 29.0 | 493 | 1.0825 | 0.7882 | | 0.361 | 30.0 | 510 | 1.1127 | 0.7647 | | 0.4428 | 31.0 | 527 | 1.2024 | 0.7529 | | 0.451 | 32.0 | 544 | 1.1550 | 0.7647 | | 0.403 | 33.0 | 561 | 1.1646 | 0.7765 | | 0.3059 | 34.0 | 578 | 1.2442 | 0.7765 | | 0.3022 | 35.0 | 595 | 1.1976 | 0.7765 | | 0.319 | 36.0 | 612 | 1.1564 | 0.7765 | | 0.3737 | 37.0 | 629 | 1.1857 | 0.7765 | | 0.3063 | 37.6667 | 640 | 1.1930 | 0.7765 | ### Framework versions - Transformers 4.47.1 - Pytorch 2.5.1+cu121 - Datasets 3.2.0 - Tokenizers 0.21.0
RyanYr/reflect_llm8B_Om2SftT1-Om2G8kOm2AgIpsdpT1_traj_b0.1-ep2-lr4e-7
RyanYr
2025-01-23T23:40:29Z
36
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "generated_from_trainer", "trl", "dpo", "conversational", "arxiv:2305.18290", "base_model:RyanYr/reflect_llama8B_om2-mixed-t0-mstlrg-300k460k-t12_llama33-130k-t12_sft-t1_lr1e-6", "base_model:finetune:RyanYr/reflect_llama8B_om2-mixed-t0-mstlrg-300k460k-t12_llama33-130k-t12_sft-t1_lr1e-6", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-01-23T20:26:11Z
--- base_model: RyanYr/reflect_llama8B_om2-mixed-t0-mstlrg-300k460k-t12_llama33-130k-t12_sft-t1_lr1e-6 library_name: transformers model_name: reflect_llm8B_Om2SftT1-Om2G8kOm2AgIpsdpT1_traj_b0.1-ep2-lr4e-7 tags: - generated_from_trainer - trl - dpo licence: license --- # Model Card for reflect_llm8B_Om2SftT1-Om2G8kOm2AgIpsdpT1_traj_b0.1-ep2-lr4e-7 This model is a fine-tuned version of [RyanYr/reflect_llama8B_om2-mixed-t0-mstlrg-300k460k-t12_llama33-130k-t12_sft-t1_lr1e-6](https://huggingface.co/RyanYr/reflect_llama8B_om2-mixed-t0-mstlrg-300k460k-t12_llama33-130k-t12_sft-t1_lr1e-6). It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="RyanYr/reflect_llm8B_Om2SftT1-Om2G8kOm2AgIpsdpT1_traj_b0.1-ep2-lr4e-7", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure [<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/yyr/huggingface/runs/p4otw2f7) This model was trained with DPO, a method introduced in [Direct Preference Optimization: Your Language Model is Secretly a Reward Model](https://huggingface.co/papers/2305.18290). ### Framework versions - TRL: 0.12.0.dev0 - Transformers: 4.45.2 - Pytorch: 2.5.1 - Datasets: 3.1.0 - Tokenizers: 0.20.3 ## Citations Cite DPO as: ```bibtex @inproceedings{rafailov2023direct, title = {{Direct Preference Optimization: Your Language Model is Secretly a Reward Model}}, author = {Rafael Rafailov and Archit Sharma and Eric Mitchell and Christopher D. Manning and Stefano Ermon and Chelsea Finn}, year = 2023, booktitle = {Advances in Neural Information Processing Systems 36: Annual Conference on Neural Information Processing Systems 2023, NeurIPS 2023, New Orleans, LA, USA, December 10 - 16, 2023}, url = {http://papers.nips.cc/paper_files/paper/2023/hash/a85b405ed65c6477a4fe8302b5e06ce7-Abstract-Conference.html}, editor = {Alice Oh and Tristan Naumann and Amir Globerson and Kate Saenko and Moritz Hardt and Sergey Levine}, } ``` Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallouรฉdec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
vermoney/dafc35b7-ae9e-4ae3-868f-bdc3247a8063
vermoney
2025-01-23T23:39:07Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:NousResearch/Hermes-3-Llama-3.1-8B", "base_model:adapter:NousResearch/Hermes-3-Llama-3.1-8B", "license:llama3", "region:us" ]
null
2025-01-23T23:16:43Z
--- library_name: peft license: llama3 base_model: NousResearch/Hermes-3-Llama-3.1-8B tags: - axolotl - generated_from_trainer model-index: - name: dafc35b7-ae9e-4ae3-868f-bdc3247a8063 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: NousResearch/Hermes-3-Llama-3.1-8B bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 538661bb7d6053e0_train_data.json ds_type: json format: custom path: /workspace/input_data/538661bb7d6053e0_train_data.json type: field_input: comment field_instruction: prompt field_output: chosen format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device: cuda early_stopping_patience: 1 eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null evals_per_epoch: null flash_attention: false fp16: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: vermoney/dafc35b7-ae9e-4ae3-868f-bdc3247a8063 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 3 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_memory: 0: 78GiB max_steps: 30 micro_batch_size: 2 mlflow_experiment_name: /tmp/538661bb7d6053e0_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_torch output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: true trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 9f67393a-7634-47cf-80e0-d495eec5feb2 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 9f67393a-7634-47cf-80e0-d495eec5feb2 warmup_steps: 5 weight_decay: 0.001 xformers_attention: true ``` </details><br> # dafc35b7-ae9e-4ae3-868f-bdc3247a8063 This model is a fine-tuned version of [NousResearch/Hermes-3-Llama-3.1-8B](https://huggingface.co/NousResearch/Hermes-3-Llama-3.1-8B) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.6549 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 30 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0010 | 1 | 1.4715 | | 1.2679 | 0.0050 | 5 | 1.1581 | | 0.8366 | 0.0100 | 10 | 0.8790 | | 0.7158 | 0.0150 | 15 | 0.7548 | | 0.7084 | 0.0200 | 20 | 0.6759 | | 0.6042 | 0.0251 | 25 | 0.6577 | | 0.6252 | 0.0301 | 30 | 0.6549 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
nhungphammmmm/41ea2537-6207-4681-8852-7681e5133d51
nhungphammmmm
2025-01-23T23:36:58Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen2-7B-Instruct", "base_model:adapter:Qwen/Qwen2-7B-Instruct", "license:apache-2.0", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:30:45Z
--- library_name: peft license: apache-2.0 base_model: Qwen/Qwen2-7B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 41ea2537-6207-4681-8852-7681e5133d51 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen2-7B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 292fa1f5b3822849_train_data.json ds_type: json format: custom path: /workspace/input_data/292fa1f5b3822849_train_data.json type: field_input: '' field_instruction: prompt field_output: my_solu format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: nhungphammmmm/41ea2537-6207-4681-8852-7681e5133d51 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/292fa1f5b3822849_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 5e578b14-e915-4706-8302-b00906cfb773 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 5e578b14-e915-4706-8302-b00906cfb773 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 41ea2537-6207-4681-8852-7681e5133d51 This model is a fine-tuned version of [Qwen/Qwen2-7B-Instruct](https://huggingface.co/Qwen/Qwen2-7B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.3454 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.3503 | 0.0122 | 200 | 0.3454 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
trangtrannnnn/fc833954-da63-4287-850f-a14164ce5675
trangtrannnnn
2025-01-23T23:36:17Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen2-7B-Instruct", "base_model:adapter:Qwen/Qwen2-7B-Instruct", "license:apache-2.0", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:30:36Z
--- library_name: peft license: apache-2.0 base_model: Qwen/Qwen2-7B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: fc833954-da63-4287-850f-a14164ce5675 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen2-7B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 292fa1f5b3822849_train_data.json ds_type: json format: custom path: /workspace/input_data/292fa1f5b3822849_train_data.json type: field_input: '' field_instruction: prompt field_output: my_solu format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: trangtrannnnn/fc833954-da63-4287-850f-a14164ce5675 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/292fa1f5b3822849_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 5e578b14-e915-4706-8302-b00906cfb773 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 5e578b14-e915-4706-8302-b00906cfb773 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # fc833954-da63-4287-850f-a14164ce5675 This model is a fine-tuned version of [Qwen/Qwen2-7B-Instruct](https://huggingface.co/Qwen/Qwen2-7B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.3456 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.3501 | 0.0122 | 200 | 0.3456 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
LucAI12/11goro
LucAI12
2025-01-23T23:36:08Z
9
0
diffusers
[ "diffusers", "flux", "lora", "replicate", "text-to-image", "en", "base_model:black-forest-labs/FLUX.1-dev", "base_model:adapter:black-forest-labs/FLUX.1-dev", "license:other", "region:us" ]
text-to-image
2025-01-23T23:12:42Z
--- license: other license_name: flux-1-dev-non-commercial-license license_link: https://huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/LICENSE.md language: - en tags: - flux - diffusers - lora - replicate base_model: "black-forest-labs/FLUX.1-dev" pipeline_tag: text-to-image # widget: # - text: >- # prompt # output: # url: https://... instance_prompt: 11goro --- # 11Goro <Gallery /> Trained on Replicate using: https://replicate.com/ostris/flux-dev-lora-trainer/train ## Trigger words You should use `11goro` to trigger the image generation. ## Use it with the [๐Ÿงจ diffusers library](https://github.com/huggingface/diffusers) ```py from diffusers import AutoPipelineForText2Image import torch pipeline = AutoPipelineForText2Image.from_pretrained('black-forest-labs/FLUX.1-dev', torch_dtype=torch.float16).to('cuda') pipeline.load_lora_weights('LucAI12/11goro', weight_name='lora.safetensors') image = pipeline('your prompt').images[0] ``` For more details, including weighting, merging and fusing LoRAs, check the [documentation on loading LoRAs in diffusers](https://huggingface.co/docs/diffusers/main/en/using-diffusers/loading_adapters)
prxy5605/1dfdc72f-10b8-418f-8b16-78f0e02c9ec0
prxy5605
2025-01-23T23:35:29Z
7
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:unsloth/Qwen2.5-Math-7B-Instruct", "base_model:adapter:unsloth/Qwen2.5-Math-7B-Instruct", "license:apache-2.0", "region:us" ]
null
2025-01-23T20:37:08Z
--- library_name: peft license: apache-2.0 base_model: unsloth/Qwen2.5-Math-7B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 1dfdc72f-10b8-418f-8b16-78f0e02c9ec0 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Qwen2.5-Math-7B-Instruct bf16: true chat_template: llama3 data_processes: 16 dataset_prepared_path: null datasets: - data_files: - 8a9910a3e95b9e54_train_data.json ds_type: json format: custom path: /workspace/input_data/8a9910a3e95b9e54_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device_map: auto do_eval: true early_stopping_patience: 5 eval_batch_size: 4 eval_max_new_tokens: 128 eval_steps: 50 eval_table_size: null evals_per_epoch: null flash_attention: true fp16: false fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: prxy5605/1dfdc72f-10b8-418f-8b16-78f0e02c9ec0 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0001 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 128 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 64 lora_target_linear: true lr_scheduler: cosine max_grad_norm: 1.0 max_memory: 0: 75GB max_steps: 200 micro_batch_size: 8 mlflow_experiment_name: /tmp/8a9910a3e95b9e54_train_data.json model_type: AutoModelForCausalLM num_epochs: 3 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 50 saves_per_epoch: null sequence_len: 1024 strict: false tf32: true tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 4d275d20-528c-41c1-8773-3aca4b166744 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 4d275d20-528c-41c1-8773-3aca4b166744 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 1dfdc72f-10b8-418f-8b16-78f0e02c9ec0 This model is a fine-tuned version of [unsloth/Qwen2.5-Math-7B-Instruct](https://huggingface.co/unsloth/Qwen2.5-Math-7B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.7032 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 8 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 4.6505 | 0.0001 | 1 | 4.8503 | | 2.3998 | 0.0036 | 50 | 2.2634 | | 2.1532 | 0.0073 | 100 | 1.9093 | | 2.0779 | 0.0109 | 150 | 1.7532 | | 2.154 | 0.0145 | 200 | 1.7032 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
aleegis11/04cdcba9-1d26-45a4-ae8d-f2eee4760f76
aleegis11
2025-01-23T23:34:00Z
6
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:unsloth/Qwen2.5-Math-7B-Instruct", "base_model:adapter:unsloth/Qwen2.5-Math-7B-Instruct", "license:apache-2.0", "region:us" ]
null
2025-01-23T20:36:04Z
--- library_name: peft license: apache-2.0 base_model: unsloth/Qwen2.5-Math-7B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 04cdcba9-1d26-45a4-ae8d-f2eee4760f76 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Qwen2.5-Math-7B-Instruct bf16: true chat_template: llama3 data_processes: 16 dataset_prepared_path: null datasets: - data_files: - 8a9910a3e95b9e54_train_data.json ds_type: json format: custom path: /workspace/input_data/8a9910a3e95b9e54_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device_map: auto do_eval: true early_stopping_patience: 5 eval_batch_size: 4 eval_max_new_tokens: 128 eval_steps: 50 eval_table_size: null evals_per_epoch: null flash_attention: true fp16: false fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: aleegis11/04cdcba9-1d26-45a4-ae8d-f2eee4760f76 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0001 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 128 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 64 lora_target_linear: true lr_scheduler: cosine max_grad_norm: 1.0 max_memory: 0: 75GB max_steps: 200 micro_batch_size: 8 mlflow_experiment_name: /tmp/8a9910a3e95b9e54_train_data.json model_type: AutoModelForCausalLM num_epochs: 3 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 50 saves_per_epoch: null sequence_len: 1024 strict: false tf32: true tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 4d275d20-528c-41c1-8773-3aca4b166744 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 4d275d20-528c-41c1-8773-3aca4b166744 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 04cdcba9-1d26-45a4-ae8d-f2eee4760f76 This model is a fine-tuned version of [unsloth/Qwen2.5-Math-7B-Instruct](https://huggingface.co/unsloth/Qwen2.5-Math-7B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.7038 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 8 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 4.6505 | 0.0001 | 1 | 4.8503 | | 2.3984 | 0.0036 | 50 | 2.2640 | | 2.1512 | 0.0073 | 100 | 1.9098 | | 2.075 | 0.0109 | 150 | 1.7552 | | 2.1524 | 0.0145 | 200 | 1.7038 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
nhoxinh/d83d1cca-d6cd-48b1-99d2-85587e33c248
nhoxinh
2025-01-23T23:30:52Z
6
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen2-7B-Instruct", "base_model:adapter:Qwen/Qwen2-7B-Instruct", "license:apache-2.0", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:30:03Z
--- library_name: peft license: apache-2.0 base_model: Qwen/Qwen2-7B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: d83d1cca-d6cd-48b1-99d2-85587e33c248 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen2-7B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 292fa1f5b3822849_train_data.json ds_type: json format: custom path: /workspace/input_data/292fa1f5b3822849_train_data.json type: field_input: '' field_instruction: prompt field_output: my_solu format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: nhoxinh/d83d1cca-d6cd-48b1-99d2-85587e33c248 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/292fa1f5b3822849_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 5e578b14-e915-4706-8302-b00906cfb773 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 5e578b14-e915-4706-8302-b00906cfb773 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # d83d1cca-d6cd-48b1-99d2-85587e33c248 This model is a fine-tuned version of [Qwen/Qwen2-7B-Instruct](https://huggingface.co/Qwen/Qwen2-7B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.3455 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.3516 | 0.0122 | 200 | 0.3455 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
kostiantynk/58e63c17-e5e1-434a-aaaa-8cd1e12b4bc2
kostiantynk
2025-01-23T23:29:18Z
6
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen2.5-0.5B-Instruct", "base_model:adapter:Qwen/Qwen2.5-0.5B-Instruct", "license:apache-2.0", "region:us" ]
null
2025-01-23T23:13:42Z
--- library_name: peft license: apache-2.0 base_model: Qwen/Qwen2.5-0.5B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 58e63c17-e5e1-434a-aaaa-8cd1e12b4bc2 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen2.5-0.5B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 5079a290b9b62e47_train_data.json ds_type: json format: custom path: /workspace/input_data/5079a290b9b62e47_train_data.json type: field_instruction: seq field_output: labels_str format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: kostiantynk/58e63c17-e5e1-434a-aaaa-8cd1e12b4bc2 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/5079a290b9b62e47_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: bade6ec8-5860-4f3a-bd1f-e988637c6abe wandb_project: Mine-SN56-22-Gradients-On-Demand wandb_run: your_name wandb_runid: bade6ec8-5860-4f3a-bd1f-e988637c6abe warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 58e63c17-e5e1-434a-aaaa-8cd1e12b4bc2 This model is a fine-tuned version of [Qwen/Qwen2.5-0.5B-Instruct](https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.3288 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 3.0138 | 0.0000 | 1 | 2.7243 | | 2.3488 | 0.0001 | 3 | 2.6658 | | 1.977 | 0.0002 | 6 | 1.9902 | | 1.3934 | 0.0003 | 9 | 1.3288 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
daniel40/3e340581-f897-4aff-874b-2778cb9a8f59
daniel40
2025-01-23T23:29:00Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen2-0.5B", "base_model:adapter:Qwen/Qwen2-0.5B", "license:apache-2.0", "region:us" ]
null
2025-01-23T23:22:39Z
--- library_name: peft license: apache-2.0 base_model: Qwen/Qwen2-0.5B tags: - axolotl - generated_from_trainer model-index: - name: 3e340581-f897-4aff-874b-2778cb9a8f59 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen2-0.5B bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 745d2d05aaed18f4_train_data.json ds_type: json format: custom path: /workspace/input_data/745d2d05aaed18f4_train_data.json type: field_input: pos field_instruction: task field_output: query format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: daniel40/3e340581-f897-4aff-874b-2778cb9a8f59 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/745d2d05aaed18f4_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: fb974fc0-f90c-40fd-bd22-46669f42b395 wandb_project: Birthday-SN56-27-Gradients-On-Demand wandb_run: your_name wandb_runid: fb974fc0-f90c-40fd-bd22-46669f42b395 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 3e340581-f897-4aff-874b-2778cb9a8f59 This model is a fine-tuned version of [Qwen/Qwen2-0.5B](https://huggingface.co/Qwen/Qwen2-0.5B) on the None dataset. It achieves the following results on the evaluation set: - Loss: 2.8015 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 3.8458 | 0.0001 | 1 | 3.9556 | | 4.3614 | 0.0003 | 3 | 3.8952 | | 3.7027 | 0.0006 | 6 | 3.3212 | | 2.8335 | 0.0009 | 9 | 2.8015 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
nat-hunt/597039f9-28b5-4eef-9196-d6526907f6ce
nat-hunt
2025-01-23T23:27:59Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen2-0.5B", "base_model:adapter:Qwen/Qwen2-0.5B", "license:apache-2.0", "region:us" ]
null
2025-01-23T23:22:47Z
--- library_name: peft license: apache-2.0 base_model: Qwen/Qwen2-0.5B tags: - axolotl - generated_from_trainer model-index: - name: 597039f9-28b5-4eef-9196-d6526907f6ce results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen2-0.5B bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 745d2d05aaed18f4_train_data.json ds_type: json format: custom path: /workspace/input_data/745d2d05aaed18f4_train_data.json type: field_input: pos field_instruction: task field_output: query format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: nat-hunt/597039f9-28b5-4eef-9196-d6526907f6ce hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/745d2d05aaed18f4_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: fb974fc0-f90c-40fd-bd22-46669f42b395 wandb_project: Birthday-SN56-25-Gradients-On-Demand wandb_run: your_name wandb_runid: fb974fc0-f90c-40fd-bd22-46669f42b395 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 597039f9-28b5-4eef-9196-d6526907f6ce This model is a fine-tuned version of [Qwen/Qwen2-0.5B](https://huggingface.co/Qwen/Qwen2-0.5B) on the None dataset. It achieves the following results on the evaluation set: - Loss: 2.7916 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 3.8458 | 0.0001 | 1 | 3.9556 | | 4.3639 | 0.0003 | 3 | 3.8977 | | 3.6964 | 0.0006 | 6 | 3.3068 | | 2.8087 | 0.0009 | 9 | 2.7916 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
lesso07/6f9db13d-0a1f-4ecb-b364-3912b383034f
lesso07
2025-01-23T23:26:51Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:NousResearch/Hermes-3-Llama-3.1-8B", "base_model:adapter:NousResearch/Hermes-3-Llama-3.1-8B", "license:llama3", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T23:16:40Z
--- library_name: peft license: llama3 base_model: NousResearch/Hermes-3-Llama-3.1-8B tags: - axolotl - generated_from_trainer model-index: - name: 6f9db13d-0a1f-4ecb-b364-3912b383034f results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: NousResearch/Hermes-3-Llama-3.1-8B bf16: true chat_template: llama3 datasets: - data_files: - 538661bb7d6053e0_train_data.json ds_type: json format: custom path: /workspace/input_data/538661bb7d6053e0_train_data.json type: field_input: comment field_instruction: prompt field_output: chosen format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: 2 eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null flash_attention: false fp16: false fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: lesso07/6f9db13d-0a1f-4ecb-b364-3912b383034f hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 25 micro_batch_size: 2 mlflow_experiment_name: /tmp/538661bb7d6053e0_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 9f67393a-7634-47cf-80e0-d495eec5feb2 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 9f67393a-7634-47cf-80e0-d495eec5feb2 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 6f9db13d-0a1f-4ecb-b364-3912b383034f This model is a fine-tuned version of [NousResearch/Hermes-3-Llama-3.1-8B](https://huggingface.co/NousResearch/Hermes-3-Llama-3.1-8B) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.8475 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 25 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 1.5167 | 0.0010 | 1 | 1.4124 | | 1.3205 | 0.0050 | 5 | 1.3030 | | 1.1037 | 0.0100 | 10 | 1.0335 | | 0.9913 | 0.0150 | 15 | 0.9114 | | 0.8042 | 0.0200 | 20 | 0.8573 | | 0.9087 | 0.0251 | 25 | 0.8475 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
lesso04/3dd9fd29-c046-4a7a-88e7-bd0c521d512f
lesso04
2025-01-23T23:26:02Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/Llama-3.1-Storm-8B", "base_model:adapter:unsloth/Llama-3.1-Storm-8B", "license:llama3.1", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:28:46Z
--- library_name: peft license: llama3.1 base_model: unsloth/Llama-3.1-Storm-8B tags: - axolotl - generated_from_trainer model-index: - name: 3dd9fd29-c046-4a7a-88e7-bd0c521d512f results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Llama-3.1-Storm-8B bf16: auto chat_template: llama3 datasets: - data_files: - 935541efcc64f82d_train_data.json ds_type: json format: custom path: /workspace/input_data/935541efcc64f82d_train_data.json type: field_instruction: document field_output: query format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: lesso04/3dd9fd29-c046-4a7a-88e7-bd0c521d512f hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/935541efcc64f82d_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 6b070b86-583e-4c98-a10d-d6688cb70e68 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 6b070b86-583e-4c98-a10d-d6688cb70e68 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 3dd9fd29-c046-4a7a-88e7-bd0c521d512f This model is a fine-tuned version of [unsloth/Llama-3.1-Storm-8B](https://huggingface.co/unsloth/Llama-3.1-Storm-8B) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0367 | 200 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
prxy5606/ed64a897-4fb2-4413-86af-173153345682
prxy5606
2025-01-23T23:24:25Z
6
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen1.5-1.8B", "base_model:adapter:Qwen/Qwen1.5-1.8B", "license:other", "region:us" ]
null
2025-01-23T22:14:28Z
--- library_name: peft license: other base_model: Qwen/Qwen1.5-1.8B tags: - axolotl - generated_from_trainer model-index: - name: ed64a897-4fb2-4413-86af-173153345682 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen1.5-1.8B bf16: true chat_template: llama3 data_processes: 16 dataset_prepared_path: null datasets: - data_files: - 6f2c117da9072e42_train_data.json ds_type: json format: custom path: /workspace/input_data/6f2c117da9072e42_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device_map: auto do_eval: true early_stopping_patience: 5 eval_batch_size: 4 eval_max_new_tokens: 128 eval_steps: 50 eval_table_size: null evals_per_epoch: null flash_attention: true fp16: false fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: prxy5606/ed64a897-4fb2-4413-86af-173153345682 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0001 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 128 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 64 lora_target_linear: true lr_scheduler: cosine max_grad_norm: 1.0 max_memory: 0: 75GB max_steps: 200 micro_batch_size: 8 mlflow_experiment_name: /tmp/6f2c117da9072e42_train_data.json model_type: AutoModelForCausalLM num_epochs: 3 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 50 saves_per_epoch: null sequence_len: 1024 strict: false tf32: true tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: f27ecd68-3744-46bd-80df-eafd56255dbd wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: f27ecd68-3744-46bd-80df-eafd56255dbd warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # ed64a897-4fb2-4413-86af-173153345682 This model is a fine-tuned version of [Qwen/Qwen1.5-1.8B](https://huggingface.co/Qwen/Qwen1.5-1.8B) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.7073 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 8 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 1.1412 | 0.0001 | 1 | 1.8697 | | 2.8474 | 0.0034 | 50 | 1.7434 | | 2.7972 | 0.0067 | 100 | 1.7159 | | 2.4765 | 0.0101 | 150 | 1.7084 | | 2.8008 | 0.0135 | 200 | 1.7073 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
lesso04/4c915542-7e47-4cd9-b6a1-daa43337f136
lesso04
2025-01-23T23:22:18Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:oopsung/llama2-7b-koNqa-test-v1", "base_model:adapter:oopsung/llama2-7b-koNqa-test-v1", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:07:59Z
--- library_name: peft base_model: oopsung/llama2-7b-koNqa-test-v1 tags: - axolotl - generated_from_trainer model-index: - name: 4c915542-7e47-4cd9-b6a1-daa43337f136 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: oopsung/llama2-7b-koNqa-test-v1 bf16: auto chat_template: llama3 datasets: - data_files: - 867d3433e74b00eb_train_data.json ds_type: json format: custom path: /workspace/input_data/867d3433e74b00eb_train_data.json type: field_instruction: url field_output: text format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: lesso04/4c915542-7e47-4cd9-b6a1-daa43337f136 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/867d3433e74b00eb_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: c778556e-b6d6-4652-a6d6-7ec10e67e497 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: c778556e-b6d6-4652-a6d6-7ec10e67e497 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 4c915542-7e47-4cd9-b6a1-daa43337f136 This model is a fine-tuned version of [oopsung/llama2-7b-koNqa-test-v1](https://huggingface.co/oopsung/llama2-7b-koNqa-test-v1) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0169 | 200 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
infogeo/1522998d-8dab-4e41-bf37-41448dfec31b
infogeo
2025-01-23T23:21:33Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/llama-3-8b", "base_model:adapter:unsloth/llama-3-8b", "license:llama3", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T23:15:12Z
--- library_name: peft license: llama3 base_model: unsloth/llama-3-8b tags: - axolotl - generated_from_trainer model-index: - name: 1522998d-8dab-4e41-bf37-41448dfec31b results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/llama-3-8b bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - ba46c3e706833477_train_data.json ds_type: json format: custom path: /workspace/input_data/ba46c3e706833477_train_data.json type: field_instruction: title field_output: lyrics format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device: cuda early_stopping_patience: 1 eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null evals_per_epoch: null flash_attention: false fp16: false gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: infogeo/1522998d-8dab-4e41-bf37-41448dfec31b hub_repo: null hub_strategy: end hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: true local_rank: null logging_steps: 3 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_memory: 0: 79GiB max_steps: 30 micro_batch_size: 4 mlflow_experiment_name: /tmp/ba46c3e706833477_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_torch output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: true trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 5627705e-aa6f-44ce-be68-0f09aae8189d wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 5627705e-aa6f-44ce-be68-0f09aae8189d warmup_steps: 5 weight_decay: 0.001 xformers_attention: true ``` </details><br> # 1522998d-8dab-4e41-bf37-41448dfec31b This model is a fine-tuned version of [unsloth/llama-3-8b](https://huggingface.co/unsloth/llama-3-8b) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 4 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 16 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 30 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0022 | 1 | nan | | 0.0 | 0.0112 | 5 | nan | | 0.0 | 0.0224 | 10 | nan | | 0.0 | 0.0336 | 15 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
maksf8486/0b5537c3-d267-4f3d-8de9-aa2f99620130
maksf8486
2025-01-23T23:20:02Z
10
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "custom_code", "base_model:NousResearch/Yarn-Llama-2-7b-64k", "base_model:adapter:NousResearch/Yarn-Llama-2-7b-64k", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:34:23Z
--- library_name: peft base_model: NousResearch/Yarn-Llama-2-7b-64k tags: - axolotl - generated_from_trainer model-index: - name: 0b5537c3-d267-4f3d-8de9-aa2f99620130 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: NousResearch/Yarn-Llama-2-7b-64k bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - fd8cb244a58eab5a_train_data.json ds_type: json format: custom path: /workspace/input_data/fd8cb244a58eab5a_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device: cuda early_stopping_patience: 1 eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null evals_per_epoch: null flash_attention: false fp16: false gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: maksf8486/0b5537c3-d267-4f3d-8de9-aa2f99620130 hub_repo: null hub_strategy: end hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: true local_rank: null logging_steps: 3 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_memory: 0: 79GiB max_steps: 30 micro_batch_size: 4 mlflow_experiment_name: /tmp/fd8cb244a58eab5a_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_torch output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: true trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123 warmup_steps: 5 weight_decay: 0.001 xformers_attention: true ``` </details><br> # 0b5537c3-d267-4f3d-8de9-aa2f99620130 This model is a fine-tuned version of [NousResearch/Yarn-Llama-2-7b-64k](https://huggingface.co/NousResearch/Yarn-Llama-2-7b-64k) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.1270 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 4 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 16 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 30 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0003 | 1 | 1.4041 | | 4.6849 | 0.0016 | 5 | 1.4597 | | 3.9387 | 0.0033 | 10 | 1.2311 | | 3.5379 | 0.0049 | 15 | 1.1778 | | 3.6432 | 0.0065 | 20 | 1.1511 | | 3.8237 | 0.0081 | 25 | 1.1314 | | 4.183 | 0.0098 | 30 | 1.1270 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
brixeus/f5840a35-479b-4179-a283-3d648d3be576
brixeus
2025-01-23T23:19:43Z
6
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "custom_code", "base_model:NousResearch/Yarn-Llama-2-7b-64k", "base_model:adapter:NousResearch/Yarn-Llama-2-7b-64k", "region:us" ]
null
2025-01-23T22:33:29Z
--- library_name: peft base_model: NousResearch/Yarn-Llama-2-7b-64k tags: - axolotl - generated_from_trainer model-index: - name: f5840a35-479b-4179-a283-3d648d3be576 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: NousResearch/Yarn-Llama-2-7b-64k bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - fd8cb244a58eab5a_train_data.json ds_type: json format: custom path: /workspace/input_data/fd8cb244a58eab5a_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: brixeus/f5840a35-479b-4179-a283-3d648d3be576 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 5.0e-05 load_in_4bit: false load_in_8bit: false local_rank: 0 logging_steps: 3 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_steps: 100 micro_batch_size: 8 mlflow_experiment_name: /tmp/fd8cb244a58eab5a_train_data.json model_type: AutoModelForCausalLM num_epochs: 3 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: techspear-hub wandb_mode: online wandb_name: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123 wandb_project: Gradients-On-Three wandb_run: your_name wandb_runid: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123 warmup_steps: 10 weight_decay: 0.01 xformers_attention: null ``` </details><br> # f5840a35-479b-4179-a283-3d648d3be576 This model is a fine-tuned version of [NousResearch/Yarn-Llama-2-7b-64k](https://huggingface.co/NousResearch/Yarn-Llama-2-7b-64k) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.7154 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 8 - eval_batch_size: 8 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 100 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0007 | 1 | 0.9398 | | 3.754 | 0.0059 | 9 | 0.9156 | | 3.1803 | 0.0117 | 18 | 0.8215 | | 3.0259 | 0.0176 | 27 | 0.7804 | | 2.9517 | 0.0234 | 36 | 0.7560 | | 2.982 | 0.0293 | 45 | 0.7400 | | 2.8995 | 0.0351 | 54 | 0.7295 | | 2.8563 | 0.0410 | 63 | 0.7232 | | 2.8268 | 0.0468 | 72 | 0.7190 | | 3.0306 | 0.0527 | 81 | 0.7165 | | 2.8093 | 0.0585 | 90 | 0.7156 | | 2.8616 | 0.0644 | 99 | 0.7154 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
M-Rizwan0099/cnn_news_summary_model_trained_on_reduced_data
M-Rizwan0099
2025-01-23T23:18:59Z
6
0
transformers
[ "transformers", "tensorboard", "safetensors", "t5", "text2text-generation", "generated_from_trainer", "base_model:google-t5/t5-small", "base_model:finetune:google-t5/t5-small", "license:apache-2.0", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text2text-generation
2025-01-23T22:35:13Z
--- library_name: transformers license: apache-2.0 base_model: t5-small tags: - generated_from_trainer metrics: - rouge model-index: - name: cnn_news_summary_model_trained_on_reduced_data results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # cnn_news_summary_model_trained_on_reduced_data This model is a fine-tuned version of [t5-small](https://huggingface.co/t5-small) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 1.5027 - Rouge1: 0.223 - Rouge2: 0.0955 - Rougel: 0.1859 - Rougelsum: 0.1859 - Gen Len: 19.9994 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 16 - eval_batch_size: 16 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: linear - num_epochs: 3 - mixed_precision_training: Native AMP ### Training results | Training Loss | Epoch | Step | Validation Loss | Rouge1 | Rouge2 | Rougel | Rougelsum | Gen Len | |:-------------:|:-----:|:----:|:---------------:|:------:|:------:|:------:|:---------:|:-------:| | No log | 1.0 | 431 | 1.5091 | 0.222 | 0.0954 | 0.1853 | 0.1854 | 19.9994 | | 1.6772 | 2.0 | 862 | 1.5046 | 0.2223 | 0.0953 | 0.1854 | 0.1855 | 19.9994 | | 1.6703 | 3.0 | 1293 | 1.5027 | 0.223 | 0.0955 | 0.1859 | 0.1859 | 19.9994 | ### Framework versions - Transformers 4.47.1 - Pytorch 2.5.1+cu121 - Tokenizers 0.21.0
lesso08/d3677874-07c3-4af5-9d3c-2cd54efcc647
lesso08
2025-01-23T23:18:53Z
6
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:oopsung/llama2-7b-koNqa-test-v1", "base_model:adapter:oopsung/llama2-7b-koNqa-test-v1", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:08:07Z
--- library_name: peft base_model: oopsung/llama2-7b-koNqa-test-v1 tags: - axolotl - generated_from_trainer model-index: - name: d3677874-07c3-4af5-9d3c-2cd54efcc647 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: oopsung/llama2-7b-koNqa-test-v1 bf16: auto chat_template: llama3 datasets: - data_files: - 867d3433e74b00eb_train_data.json ds_type: json format: custom path: /workspace/input_data/867d3433e74b00eb_train_data.json type: field_instruction: url field_output: text format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: lesso08/d3677874-07c3-4af5-9d3c-2cd54efcc647 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/867d3433e74b00eb_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: c778556e-b6d6-4652-a6d6-7ec10e67e497 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: c778556e-b6d6-4652-a6d6-7ec10e67e497 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # d3677874-07c3-4af5-9d3c-2cd54efcc647 This model is a fine-tuned version of [oopsung/llama2-7b-koNqa-test-v1](https://huggingface.co/oopsung/llama2-7b-koNqa-test-v1) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0169 | 200 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
daniel40/1f67830d-1cf9-4317-afa4-8e9fb4a972c0
daniel40
2025-01-23T23:17:43Z
6
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/llama-3-8b", "base_model:adapter:unsloth/llama-3-8b", "license:llama3", "region:us" ]
null
2025-01-23T23:15:42Z
--- library_name: peft license: llama3 base_model: unsloth/llama-3-8b tags: - axolotl - generated_from_trainer model-index: - name: 1f67830d-1cf9-4317-afa4-8e9fb4a972c0 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/llama-3-8b bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - ba46c3e706833477_train_data.json ds_type: json format: custom path: /workspace/input_data/ba46c3e706833477_train_data.json type: field_instruction: title field_output: lyrics format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: daniel40/1f67830d-1cf9-4317-afa4-8e9fb4a972c0 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/ba46c3e706833477_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 5627705e-aa6f-44ce-be68-0f09aae8189d wandb_project: Birthday-SN56-27-Gradients-On-Demand wandb_run: your_name wandb_runid: 5627705e-aa6f-44ce-be68-0f09aae8189d warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 1f67830d-1cf9-4317-afa4-8e9fb4a972c0 This model is a fine-tuned version of [unsloth/llama-3-8b](https://huggingface.co/unsloth/llama-3-8b) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0011 | 1 | nan | | 0.0 | 0.0034 | 3 | nan | | 0.0 | 0.0067 | 6 | nan | | 0.0 | 0.0101 | 9 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
kokovova/40512625-485c-4c64-b5b5-3203d034c774
kokovova
2025-01-23T23:17:31Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen1.5-1.8B", "base_model:adapter:Qwen/Qwen1.5-1.8B", "license:other", "region:us" ]
null
2025-01-23T22:14:08Z
--- library_name: peft license: other base_model: Qwen/Qwen1.5-1.8B tags: - axolotl - generated_from_trainer model-index: - name: 40512625-485c-4c64-b5b5-3203d034c774 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen1.5-1.8B bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 6f2c117da9072e42_train_data.json ds_type: json format: custom path: /workspace/input_data/6f2c117da9072e42_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device: cuda early_stopping_patience: 1 eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null evals_per_epoch: null flash_attention: false fp16: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: kokovova/40512625-485c-4c64-b5b5-3203d034c774 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 3 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_memory: 0: 79GiB max_steps: 30 micro_batch_size: 4 mlflow_experiment_name: /tmp/6f2c117da9072e42_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_torch output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: true trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: f27ecd68-3744-46bd-80df-eafd56255dbd wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: f27ecd68-3744-46bd-80df-eafd56255dbd warmup_steps: 5 weight_decay: 0.001 xformers_attention: true ``` </details><br> # 40512625-485c-4c64-b5b5-3203d034c774 This model is a fine-tuned version of [Qwen/Qwen1.5-1.8B](https://huggingface.co/Qwen/Qwen1.5-1.8B) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.8948 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 4 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 16 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 30 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0000 | 1 | 1.9918 | | 1.3026 | 0.0002 | 5 | 1.9698 | | 1.5916 | 0.0003 | 10 | 1.9266 | | 1.8496 | 0.0005 | 15 | 1.9085 | | 1.7932 | 0.0007 | 20 | 1.8996 | | 1.8704 | 0.0008 | 25 | 1.8958 | | 2.0791 | 0.0010 | 30 | 1.8948 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
davidilag/wav2vec2-xls-r-1b-scandinavian-E3-100h-30-epochs-20250123
davidilag
2025-01-23T23:16:18Z
16
0
transformers
[ "transformers", "tensorboard", "safetensors", "wav2vec2", "automatic-speech-recognition", "generated_from_trainer", "base_model:facebook/wav2vec2-xls-r-1b", "base_model:finetune:facebook/wav2vec2-xls-r-1b", "license:apache-2.0", "endpoints_compatible", "region:us" ]
automatic-speech-recognition
2025-01-23T13:41:30Z
--- library_name: transformers license: apache-2.0 base_model: facebook/wav2vec2-xls-r-1b tags: - generated_from_trainer metrics: - wer model-index: - name: wav2vec2-xls-r-1b-scandinavian-E3-100h-30-epochs-20250123 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # wav2vec2-xls-r-1b-scandinavian-E3-100h-30-epochs-20250123 This model is a fine-tuned version of [facebook/wav2vec2-xls-r-1b](https://huggingface.co/facebook/wav2vec2-xls-r-1b) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 0.2819 - Wer: 21.6559 - Cer: 5.6618 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 16 - eval_batch_size: 8 - seed: 42 - gradient_accumulation_steps: 2 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 6000 - num_epochs: 30 - mixed_precision_training: Native AMP ### Training results | Training Loss | Epoch | Step | Validation Loss | Wer | Cer | |:-------------:|:-------:|:-----:|:---------------:|:-------:|:-------:| | 1.0778 | 0.6307 | 1000 | 0.6403 | 50.3070 | 15.8896 | | 0.5579 | 1.2611 | 2000 | 0.3271 | 33.1503 | 9.3525 | | 0.4943 | 1.8918 | 3000 | 0.2798 | 29.3342 | 8.2452 | | 0.364 | 2.5222 | 4000 | 0.2706 | 29.1800 | 8.1400 | | 0.3936 | 3.1526 | 5000 | 0.2704 | 29.8631 | 8.2974 | | 0.3917 | 3.7833 | 6000 | 0.2831 | 30.0634 | 8.6321 | | 0.401 | 4.4137 | 7000 | 0.2827 | 30.6442 | 8.7321 | | 0.3556 | 5.0442 | 8000 | 0.2810 | 29.5504 | 8.3789 | | 0.3758 | 5.6749 | 9000 | 0.2649 | 29.0661 | 8.2426 | | 0.2998 | 6.3053 | 10000 | 0.2632 | 29.1123 | 8.1817 | | 0.309 | 6.9360 | 11000 | 0.2585 | 28.3773 | 7.9461 | | 0.327 | 7.5664 | 12000 | 0.2638 | 29.0359 | 8.1756 | | 0.3288 | 8.1968 | 13000 | 0.2584 | 28.9768 | 8.0346 | | 0.3118 | 8.8275 | 14000 | 0.2536 | 28.0905 | 7.8639 | | 0.2333 | 9.4579 | 15000 | 0.2543 | 27.0745 | 7.5489 | | 0.2406 | 10.0883 | 16000 | 0.2584 | 27.0399 | 7.6065 | | 0.2323 | 10.7190 | 17000 | 0.2525 | 26.9203 | 7.4725 | | 0.2726 | 11.3494 | 18000 | 0.2438 | 26.8165 | 7.4168 | | 0.2361 | 11.9801 | 19000 | 0.2442 | 26.4202 | 7.3170 | | 0.2217 | 12.6105 | 20000 | 0.2416 | 25.8078 | 7.0961 | | 0.2006 | 13.2409 | 21000 | 0.2481 | 25.5728 | 7.0706 | | 0.1744 | 13.8716 | 22000 | 0.2375 | 25.5901 | 6.9779 | | 0.1803 | 14.5020 | 23000 | 0.2407 | 25.4806 | 6.9786 | | 0.1835 | 15.1325 | 24000 | 0.2390 | 25.3941 | 6.9559 | | 0.1835 | 15.7632 | 25000 | 0.2398 | 24.9474 | 6.8212 | | 0.1356 | 16.3936 | 26000 | 0.2371 | 24.1332 | 6.5554 | | 0.1275 | 17.0240 | 27000 | 0.2414 | 24.2600 | 6.5575 | | 0.1354 | 17.6547 | 28000 | 0.2421 | 23.9026 | 6.4959 | | 0.1377 | 18.2851 | 29000 | 0.2541 | 23.6561 | 6.3947 | | 0.1245 | 18.9158 | 30000 | 0.2326 | 23.4256 | 6.3225 | | 0.1146 | 19.5462 | 31000 | 0.2477 | 22.9918 | 6.1989 | | 0.0842 | 20.1766 | 32000 | 0.2480 | 22.9082 | 6.1661 | | 0.0822 | 20.8073 | 33000 | 0.2508 | 22.6992 | 6.0991 | | 0.0813 | 21.4377 | 34000 | 0.2546 | 22.6776 | 6.0490 | | 0.0876 | 22.0681 | 35000 | 0.2610 | 22.4600 | 5.9675 | | 0.0906 | 22.6988 | 36000 | 0.2623 | 22.3274 | 5.9101 | | 0.0755 | 23.3292 | 37000 | 0.2632 | 22.3750 | 5.8953 | | 0.0734 | 23.9599 | 38000 | 0.2637 | 22.0378 | 5.8312 | | 0.0665 | 24.5904 | 39000 | 0.2690 | 21.9455 | 5.7953 | | 0.0628 | 25.2208 | 40000 | 0.2816 | 21.8274 | 5.7466 | | 0.068 | 25.8515 | 41000 | 0.2767 | 21.8245 | 5.7178 | | 0.0637 | 26.4819 | 42000 | 0.2801 | 21.7755 | 5.7103 | | 0.0535 | 27.1123 | 43000 | 0.2787 | 21.7423 | 5.6853 | | 0.0523 | 27.7430 | 44000 | 0.2833 | 21.6746 | 5.6771 | | 0.0493 | 28.3734 | 45000 | 0.2822 | 21.6587 | 5.6658 | | 0.0576 | 29.0038 | 46000 | 0.2805 | 21.6414 | 5.6632 | | 0.0559 | 29.6345 | 47000 | 0.2819 | 21.6559 | 5.6618 | ### Framework versions - Transformers 4.48.1 - Pytorch 2.5.1+cu124 - Datasets 3.2.0 - Tokenizers 0.21.0
lesso17/24e12d63-ece8-4e93-904f-ade926654dbd
lesso17
2025-01-23T23:15:44Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen1.5-1.8B", "base_model:adapter:Qwen/Qwen1.5-1.8B", "license:other", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:13:58Z
--- library_name: peft license: other base_model: Qwen/Qwen1.5-1.8B tags: - axolotl - generated_from_trainer model-index: - name: 24e12d63-ece8-4e93-904f-ade926654dbd results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen1.5-1.8B bf16: auto chat_template: llama3 datasets: - data_files: - 6f2c117da9072e42_train_data.json ds_type: json format: custom path: /workspace/input_data/6f2c117da9072e42_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: lesso17/24e12d63-ece8-4e93-904f-ade926654dbd hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/6f2c117da9072e42_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: f27ecd68-3744-46bd-80df-eafd56255dbd wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: f27ecd68-3744-46bd-80df-eafd56255dbd warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 24e12d63-ece8-4e93-904f-ade926654dbd This model is a fine-tuned version of [Qwen/Qwen1.5-1.8B](https://huggingface.co/Qwen/Qwen1.5-1.8B) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.6845 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 1.7233 | 0.0034 | 200 | 1.6845 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
prxy5604/08973e35-e61d-42fa-b37a-6d75665d5fd4
prxy5604
2025-01-23T23:13:52Z
8
0
peft
[ "peft", "safetensors", "mistral", "axolotl", "generated_from_trainer", "base_model:dltjdgh0928/test_instruction", "base_model:adapter:dltjdgh0928/test_instruction", "license:apache-2.0", "region:us" ]
null
2025-01-23T22:17:43Z
--- library_name: peft license: apache-2.0 base_model: dltjdgh0928/test_instruction tags: - axolotl - generated_from_trainer model-index: - name: 08973e35-e61d-42fa-b37a-6d75665d5fd4 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: dltjdgh0928/test_instruction bf16: true chat_template: llama3 data_processes: 16 dataset_prepared_path: null datasets: - data_files: - 0e7cbca1d74d5638_train_data.json ds_type: json format: custom path: /workspace/input_data/0e7cbca1d74d5638_train_data.json type: field_input: context field_instruction: title field_output: question format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device_map: auto do_eval: true early_stopping_patience: 5 eval_batch_size: 4 eval_max_new_tokens: 128 eval_steps: 50 eval_table_size: null evals_per_epoch: null flash_attention: true fp16: false fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: prxy5604/08973e35-e61d-42fa-b37a-6d75665d5fd4 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0001 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 128 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 64 lora_target_linear: true lr_scheduler: cosine max_grad_norm: 1.0 max_memory: 0: 75GB max_steps: 200 micro_batch_size: 8 mlflow_experiment_name: /tmp/0e7cbca1d74d5638_train_data.json model_type: AutoModelForCausalLM num_epochs: 3 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 50 saves_per_epoch: null sequence_len: 1024 strict: false tf32: true tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 75c62ccf-8344-4c4c-863e-7f901f5d31de wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 75c62ccf-8344-4c4c-863e-7f901f5d31de warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 08973e35-e61d-42fa-b37a-6d75665d5fd4 This model is a fine-tuned version of [dltjdgh0928/test_instruction](https://huggingface.co/dltjdgh0928/test_instruction) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.0718 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 8 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 12.125 | 0.0054 | 1 | 3.2138 | | 0.6881 | 0.2725 | 50 | 0.4057 | | 0.489 | 0.5450 | 100 | 0.2211 | | 0.3423 | 0.8174 | 150 | 0.1114 | | 0.4998 | 1.0913 | 200 | 0.0718 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
lesso01/32cc0f63-e69f-480d-a0ea-b4015b7b0923
lesso01
2025-01-23T23:12:11Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "custom_code", "base_model:NousResearch/Yarn-Llama-2-7b-64k", "base_model:adapter:NousResearch/Yarn-Llama-2-7b-64k", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:34:07Z
--- library_name: peft base_model: NousResearch/Yarn-Llama-2-7b-64k tags: - axolotl - generated_from_trainer model-index: - name: 32cc0f63-e69f-480d-a0ea-b4015b7b0923 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: NousResearch/Yarn-Llama-2-7b-64k bf16: true chat_template: llama3 datasets: - data_files: - fd8cb244a58eab5a_train_data.json ds_type: json format: custom path: /workspace/input_data/fd8cb244a58eab5a_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: 2 eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null flash_attention: false fp16: false fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: lesso01/32cc0f63-e69f-480d-a0ea-b4015b7b0923 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 25 micro_batch_size: 2 mlflow_experiment_name: /tmp/fd8cb244a58eab5a_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 32cc0f63-e69f-480d-a0ea-b4015b7b0923 This model is a fine-tuned version of [NousResearch/Yarn-Llama-2-7b-64k](https://huggingface.co/NousResearch/Yarn-Llama-2-7b-64k) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.8037 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 25 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 3.5627 | 0.0002 | 1 | 0.9583 | | 3.9716 | 0.0008 | 5 | 0.9511 | | 3.4151 | 0.0016 | 10 | 0.8704 | | 3.0551 | 0.0024 | 15 | 0.8331 | | 3.6 | 0.0033 | 20 | 0.8091 | | 3.5221 | 0.0041 | 25 | 0.8037 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
bbytxt/fc927c5d-009e-4407-9ca9-c93790dde29d
bbytxt
2025-01-23T23:11:23Z
6
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/Llama-3.1-Storm-8B", "base_model:adapter:unsloth/Llama-3.1-Storm-8B", "license:llama3.1", "region:us" ]
null
2025-01-23T22:28:19Z
--- library_name: peft license: llama3.1 base_model: unsloth/Llama-3.1-Storm-8B tags: - axolotl - generated_from_trainer model-index: - name: fc927c5d-009e-4407-9ca9-c93790dde29d results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Llama-3.1-Storm-8B bf16: true chat_template: llama3 data_processes: 16 dataset_prepared_path: null datasets: - data_files: - 935541efcc64f82d_train_data.json ds_type: json format: custom path: /workspace/input_data/935541efcc64f82d_train_data.json type: field_instruction: document field_output: query format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device_map: auto do_eval: true early_stopping_patience: 5 eval_batch_size: 4 eval_max_new_tokens: 128 eval_steps: 50 eval_table_size: null evals_per_epoch: null flash_attention: true fp16: false fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: bbytxt/fc927c5d-009e-4407-9ca9-c93790dde29d hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0001 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 128 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 64 lora_target_linear: true lr_scheduler: cosine max_grad_norm: 1.0 max_memory: 0: 75GB max_steps: 200 micro_batch_size: 8 mlflow_experiment_name: /tmp/935541efcc64f82d_train_data.json model_type: AutoModelForCausalLM num_epochs: 3 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 50 saves_per_epoch: null sequence_len: 1024 strict: false tf32: true tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 6b070b86-583e-4c98-a10d-d6688cb70e68 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 6b070b86-583e-4c98-a10d-d6688cb70e68 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # fc927c5d-009e-4407-9ca9-c93790dde29d This model is a fine-tuned version of [unsloth/Llama-3.1-Storm-8B](https://huggingface.co/unsloth/Llama-3.1-Storm-8B) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.0280 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 8 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 4.1959 | 0.0007 | 1 | 4.0230 | | 1.0073 | 0.0367 | 50 | 1.1251 | | 0.9381 | 0.0733 | 100 | 1.0687 | | 1.0217 | 0.1100 | 150 | 1.0379 | | 0.8132 | 0.1466 | 200 | 1.0280 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
dzanbek/2a886994-9780-47ab-aa54-c59f3d19c581
dzanbek
2025-01-23T23:11:04Z
6
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "custom_code", "base_model:NousResearch/Yarn-Llama-2-7b-64k", "base_model:adapter:NousResearch/Yarn-Llama-2-7b-64k", "region:us" ]
null
2025-01-23T22:34:13Z
--- library_name: peft base_model: NousResearch/Yarn-Llama-2-7b-64k tags: - axolotl - generated_from_trainer model-index: - name: 2a886994-9780-47ab-aa54-c59f3d19c581 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: NousResearch/Yarn-Llama-2-7b-64k bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - fd8cb244a58eab5a_train_data.json ds_type: json format: custom path: /workspace/input_data/fd8cb244a58eab5a_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device: cuda early_stopping_patience: 1 eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null evals_per_epoch: null flash_attention: false fp16: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: false hub_model_id: dzanbek/2a886994-9780-47ab-aa54-c59f3d19c581 hub_repo: null hub_strategy: end hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 3 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_memory: 0: 78GiB max_steps: 30 micro_batch_size: 2 mlflow_experiment_name: /tmp/fd8cb244a58eab5a_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_torch output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: true trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 41c1cfc2-4854-41dd-aa2c-b18f0b6c6123 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 2a886994-9780-47ab-aa54-c59f3d19c581 This model is a fine-tuned version of [NousResearch/Yarn-Llama-2-7b-64k](https://huggingface.co/NousResearch/Yarn-Llama-2-7b-64k) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.0587 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 30 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0002 | 1 | 1.3121 | | 5.0128 | 0.0008 | 5 | 1.2831 | | 4.827 | 0.0016 | 10 | 1.1430 | | 4.3899 | 0.0024 | 15 | 1.1015 | | 4.1246 | 0.0033 | 20 | 1.0747 | | 4.2226 | 0.0041 | 25 | 1.0612 | | 4.1296 | 0.0049 | 30 | 1.0587 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
nbninh/8d33201b-8303-461f-ad8b-602eb01e20cb
nbninh
2025-01-23T23:10:40Z
6
0
peft
[ "peft", "safetensors", "mistral", "axolotl", "generated_from_trainer", "base_model:dltjdgh0928/test_instruction", "base_model:adapter:dltjdgh0928/test_instruction", "license:apache-2.0", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:30:31Z
--- library_name: peft license: apache-2.0 base_model: dltjdgh0928/test_instruction tags: - axolotl - generated_from_trainer model-index: - name: 8d33201b-8303-461f-ad8b-602eb01e20cb results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: dltjdgh0928/test_instruction bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 76022a30315552b8_train_data.json ds_type: json format: custom path: /workspace/input_data/76022a30315552b8_train_data.json type: field_instruction: input field_output: target format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: nbninh/8d33201b-8303-461f-ad8b-602eb01e20cb hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/76022a30315552b8_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 0573e27c-6a6f-4989-9b30-ba29f333396d wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 0573e27c-6a6f-4989-9b30-ba29f333396d warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 8d33201b-8303-461f-ad8b-602eb01e20cb This model is a fine-tuned version of [dltjdgh0928/test_instruction](https://huggingface.co/dltjdgh0928/test_instruction) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.2622 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.9441 | 0.0322 | 200 | 0.2622 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
thaffggg/9c6bde1b-0933-4382-ab23-93e550e0fca7
thaffggg
2025-01-23T23:10:15Z
6
0
peft
[ "peft", "safetensors", "mistral", "axolotl", "generated_from_trainer", "base_model:dltjdgh0928/test_instruction", "base_model:adapter:dltjdgh0928/test_instruction", "license:apache-2.0", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T22:30:44Z
--- library_name: peft license: apache-2.0 base_model: dltjdgh0928/test_instruction tags: - axolotl - generated_from_trainer model-index: - name: 9c6bde1b-0933-4382-ab23-93e550e0fca7 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: dltjdgh0928/test_instruction bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 76022a30315552b8_train_data.json ds_type: json format: custom path: /workspace/input_data/76022a30315552b8_train_data.json type: field_instruction: input field_output: target format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: thaffggg/9c6bde1b-0933-4382-ab23-93e550e0fca7 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/76022a30315552b8_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 0573e27c-6a6f-4989-9b30-ba29f333396d wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 0573e27c-6a6f-4989-9b30-ba29f333396d warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 9c6bde1b-0933-4382-ab23-93e550e0fca7 This model is a fine-tuned version of [dltjdgh0928/test_instruction](https://huggingface.co/dltjdgh0928/test_instruction) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.2619 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.9532 | 0.0322 | 200 | 0.2619 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
mrHunghddddd/80078bc8-c84a-4cee-a72f-aa33d4cd4fae
mrHunghddddd
2025-01-23T23:09:21Z
6
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:unsloth/Qwen2.5-Math-7B-Instruct", "base_model:adapter:unsloth/Qwen2.5-Math-7B-Instruct", "license:apache-2.0", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T20:38:10Z
--- library_name: peft license: apache-2.0 base_model: unsloth/Qwen2.5-Math-7B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 80078bc8-c84a-4cee-a72f-aa33d4cd4fae results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Qwen2.5-Math-7B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 8a9910a3e95b9e54_train_data.json ds_type: json format: custom path: /workspace/input_data/8a9910a3e95b9e54_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: mrHunghddddd/80078bc8-c84a-4cee-a72f-aa33d4cd4fae hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/8a9910a3e95b9e54_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 4d275d20-528c-41c1-8773-3aca4b166744 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 4d275d20-528c-41c1-8773-3aca4b166744 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 80078bc8-c84a-4cee-a72f-aa33d4cd4fae This model is a fine-tuned version of [unsloth/Qwen2.5-Math-7B-Instruct](https://huggingface.co/unsloth/Qwen2.5-Math-7B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 2.6191 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 2.9372 | 0.0036 | 200 | 2.6191 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
hongngo/364a7f0b-8bfd-4111-9ef7-ffae3c39fa31
hongngo
2025-01-23T23:08:58Z
6
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/tinyllama-chat", "base_model:adapter:unsloth/tinyllama-chat", "license:apache-2.0", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T23:00:48Z
--- library_name: peft license: apache-2.0 base_model: unsloth/tinyllama-chat tags: - axolotl - generated_from_trainer model-index: - name: 364a7f0b-8bfd-4111-9ef7-ffae3c39fa31 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/tinyllama-chat bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 07830763800e2537_train_data.json ds_type: json format: custom path: /workspace/input_data/07830763800e2537_train_data.json type: field_instruction: title field_output: dialogue format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: hongngo/364a7f0b-8bfd-4111-9ef7-ffae3c39fa31 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/07830763800e2537_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: aeb7a994-bf0d-40dd-9f20-b17c9de47b12 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: aeb7a994-bf0d-40dd-9f20-b17c9de47b12 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 364a7f0b-8bfd-4111-9ef7-ffae3c39fa31 This model is a fine-tuned version of [unsloth/tinyllama-chat](https://huggingface.co/unsloth/tinyllama-chat) on the None dataset. It achieves the following results on the evaluation set: - Loss: 2.9682 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 3.1407 | 0.4063 | 200 | 2.9682 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
nat-hunt/97bf57c3-416a-4650-b6c3-acd8762618fc
nat-hunt
2025-01-23T23:05:16Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:defog/llama-3-sqlcoder-8b", "base_model:adapter:defog/llama-3-sqlcoder-8b", "license:cc-by-sa-4.0", "region:us" ]
null
2025-01-23T23:01:16Z
--- library_name: peft license: cc-by-sa-4.0 base_model: defog/llama-3-sqlcoder-8b tags: - axolotl - generated_from_trainer model-index: - name: 97bf57c3-416a-4650-b6c3-acd8762618fc results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: defog/llama-3-sqlcoder-8b bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 8e91c8fc8aa471c6_train_data.json ds_type: json format: custom path: /workspace/input_data/8e91c8fc8aa471c6_train_data.json type: field_input: schema field_instruction: query field_output: response format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: nat-hunt/97bf57c3-416a-4650-b6c3-acd8762618fc hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/8e91c8fc8aa471c6_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 special_tokens: pad_token: <|eot_id|> strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: a2b04a74-21ae-496c-999f-245629e779f7 wandb_project: Birthday-SN56-4-Gradients-On-Demand wandb_run: your_name wandb_runid: a2b04a74-21ae-496c-999f-245629e779f7 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 97bf57c3-416a-4650-b6c3-acd8762618fc This model is a fine-tuned version of [defog/llama-3-sqlcoder-8b](https://huggingface.co/defog/llama-3-sqlcoder-8b) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.2569 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.3952 | 0.0004 | 1 | 0.3860 | | 0.3256 | 0.0012 | 3 | 0.3830 | | 0.27 | 0.0025 | 6 | 0.3235 | | 0.2845 | 0.0037 | 9 | 0.2569 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
ClarenceDan/c4b38be3-4d3a-4831-a434-b73124a4b4e8
ClarenceDan
2025-01-23T23:01:07Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/tinyllama-chat", "base_model:adapter:unsloth/tinyllama-chat", "license:apache-2.0", "region:us" ]
null
2025-01-23T23:00:39Z
--- library_name: peft license: apache-2.0 base_model: unsloth/tinyllama-chat tags: - axolotl - generated_from_trainer model-index: - name: c4b38be3-4d3a-4831-a434-b73124a4b4e8 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/tinyllama-chat bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 07830763800e2537_train_data.json ds_type: json format: custom path: /workspace/input_data/07830763800e2537_train_data.json type: field_instruction: title field_output: dialogue format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: ClarenceDan/c4b38be3-4d3a-4831-a434-b73124a4b4e8 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/07830763800e2537_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: aeb7a994-bf0d-40dd-9f20-b17c9de47b12 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: aeb7a994-bf0d-40dd-9f20-b17c9de47b12 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # c4b38be3-4d3a-4831-a434-b73124a4b4e8 This model is a fine-tuned version of [unsloth/tinyllama-chat](https://huggingface.co/unsloth/tinyllama-chat) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0020 | 1 | nan | | 0.0 | 0.0061 | 3 | nan | | 0.0 | 0.0122 | 6 | nan | | 0.0 | 0.0183 | 9 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
JordiOrtega/finetuned_mental_health_distilgpt2
JordiOrtega
2025-01-23T22:56:30Z
20
0
transformers
[ "transformers", "safetensors", "gpt2", "text-generation", "generated_from_trainer", "trl", "sft", "base_model:JordiOrtega/distilgpt2", "base_model:finetune:JordiOrtega/distilgpt2", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-01-23T22:56:19Z
--- base_model: JordiOrtega/distilgpt2 library_name: transformers model_name: finetuned_mental_health_distilgpt2 tags: - generated_from_trainer - trl - sft licence: license --- # Model Card for finetuned_mental_health_distilgpt2 This model is a fine-tuned version of [JordiOrtega/distilgpt2](https://huggingface.co/JordiOrtega/distilgpt2). It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="JordiOrtega/finetuned_mental_health_distilgpt2", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure This model was trained with SFT. ### Framework versions - TRL: 0.13.0 - Transformers: 4.48.1 - Pytorch: 2.5.1+cu121 - Datasets: 3.2.0 - Tokenizers: 0.21.0 ## Citations Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallouรฉdec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
Best000/5b67fd24-cf44-48d7-85ac-315e63b4252a
Best000
2025-01-23T22:54:11Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:unsloth/Qwen2.5-Coder-7B-Instruct", "base_model:adapter:unsloth/Qwen2.5-Coder-7B-Instruct", "license:apache-2.0", "region:us" ]
null
2025-01-23T22:52:39Z
--- library_name: peft license: apache-2.0 base_model: unsloth/Qwen2.5-Coder-7B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 5b67fd24-cf44-48d7-85ac-315e63b4252a results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Qwen2.5-Coder-7B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 1c80e6e0f7b1f9db_train_data.json ds_type: json format: custom path: /workspace/input_data/1c80e6e0f7b1f9db_train_data.json type: field_input: choices field_instruction: full_prompt field_output: example format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: Best000/5b67fd24-cf44-48d7-85ac-315e63b4252a hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/1c80e6e0f7b1f9db_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: f27f7b2e-f4a6-47ee-8546-93e834f85e8e wandb_project: Birthday-SN56-16-Gradients-On-Demand wandb_run: your_name wandb_runid: f27f7b2e-f4a6-47ee-8546-93e834f85e8e warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 5b67fd24-cf44-48d7-85ac-315e63b4252a This model is a fine-tuned version of [unsloth/Qwen2.5-Coder-7B-Instruct](https://huggingface.co/unsloth/Qwen2.5-Coder-7B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0336 | 1 | nan | | 0.0 | 0.1008 | 3 | nan | | 0.0 | 0.2017 | 6 | nan | | 0.0 | 0.3025 | 9 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
kholiavko/test-ds-1-5
kholiavko
2025-01-23T22:53:38Z
22
0
transformers
[ "transformers", "gguf", "qwen2", "text-generation-inference", "unsloth", "en", "license:apache-2.0", "endpoints_compatible", "region:us", "conversational" ]
null
2025-01-23T22:53:22Z
--- base_model: unsloth/deepseek-r1-distill-qwen-1.5b tags: - text-generation-inference - transformers - unsloth - qwen2 - gguf license: apache-2.0 language: - en --- # Uploaded model - **Developed by:** kholiavko - **License:** apache-2.0 - **Finetuned from model :** unsloth/deepseek-r1-distill-qwen-1.5b This qwen2 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
dimasik1987/a277bf70-8879-43e6-8d2a-0bbc2e71105a
dimasik1987
2025-01-23T22:49:18Z
8
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:unsloth/Llama-3.1-Storm-8B", "base_model:adapter:unsloth/Llama-3.1-Storm-8B", "license:llama3.1", "region:us" ]
null
2025-01-23T22:28:49Z
--- library_name: peft license: llama3.1 base_model: unsloth/Llama-3.1-Storm-8B tags: - axolotl - generated_from_trainer model-index: - name: a277bf70-8879-43e6-8d2a-0bbc2e71105a results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Llama-3.1-Storm-8B bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 935541efcc64f82d_train_data.json ds_type: json format: custom path: /workspace/input_data/935541efcc64f82d_train_data.json type: field_instruction: document field_output: query format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device: cuda early_stopping_patience: 1 eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null evals_per_epoch: null flash_attention: false fp16: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: dimasik1987/a277bf70-8879-43e6-8d2a-0bbc2e71105a hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 3 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_memory: 0: 79GiB max_steps: 30 micro_batch_size: 4 mlflow_experiment_name: /tmp/935541efcc64f82d_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_torch output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: true trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 6b070b86-583e-4c98-a10d-d6688cb70e68 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 6b070b86-583e-4c98-a10d-d6688cb70e68 warmup_steps: 5 weight_decay: 0.001 xformers_attention: true ``` </details><br> # a277bf70-8879-43e6-8d2a-0bbc2e71105a This model is a fine-tuned version of [unsloth/Llama-3.1-Storm-8B](https://huggingface.co/unsloth/Llama-3.1-Storm-8B) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 4 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 16 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 30 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0004 | 1 | nan | | 1.756 | 0.0018 | 5 | nan | | 0.0 | 0.0037 | 10 | nan | | 0.0 | 0.0055 | 15 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
haryoaw/cola_meta-llama-Llama-3.2-3B_5_0
haryoaw
2025-01-23T22:49:08Z
7
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "arxiv:1910.09700", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-01-23T21:44:32Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a ๐Ÿค— transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
HFXM/Trial0-6Rules-RA-Llama3-2-3B-63K
HFXM
2025-01-23T22:48:26Z
6
0
transformers
[ "transformers", "safetensors", "llama", "text-classification", "arxiv:1910.09700", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-classification
2025-01-23T22:45:51Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a ๐Ÿค— transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
kmkarakaya/nutuk-llama-3-8b-gguf
kmkarakaya
2025-01-23T22:48:13Z
81
0
transformers
[ "transformers", "gguf", "llama", "text-generation-inference", "unsloth", "en", "base_model:unsloth/llama-3-8b-Instruct-bnb-4bit", "base_model:quantized:unsloth/llama-3-8b-Instruct-bnb-4bit", "license:apache-2.0", "endpoints_compatible", "region:us", "conversational" ]
null
2025-01-23T22:42:41Z
--- base_model: unsloth/llama-3-8b-Instruct-bnb-4bit tags: - text-generation-inference - transformers - unsloth - llama - gguf license: apache-2.0 language: - en --- # Uploaded model - **Developed by:** kmkarakaya - **License:** apache-2.0 - **Finetuned from model :** unsloth/llama-3-8b-Instruct-bnb-4bit This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
NewEden/chameleon-7b
NewEden
2025-01-23T22:46:48Z
7
0
null
[ "safetensors", "chameleon", "image-text-to-text", "arxiv:2405.09818", "license:other", "region:us" ]
image-text-to-text
2025-01-23T22:43:55Z
--- license: other license_name: chameleon-research-license license_link: https://ai.meta.com/resources/models-and-libraries/chameleon-license/ extra_gated_prompt: '### META CHAMELEON RESEARCH LICENSE AGREEMENT' extra_gated_fields: First Name: text Last Name: text Date of birth: date_picker Country: country Affiliation: text I accept the terms and conditions: checkbox geo: ip_location extra_gated_description: Meta Chameleon Research License and Acceptable Use Policy extra_gated_button_content: I Accept Meta Chameleon Research License and AUP pipeline_tag: image-text-to-text --- # **Meta Chameleon 7B** Repository for Meta Chameleon, a mixed-modal early-fusion foundation model from FAIR. See the [Chameleon paper](//arxiv.org/abs/2405.09818) for more information. The [Chameleon collection](//huggingface.co/collections/facebook/chameleon-668da9663f80d483b4c61f58) on HuggingFace contains [7 billion parameter](//huggingface.co/facebook/chameleon-7b) and [30 billion parameter](//huggingface.co/facebook/chameleon-30b) model checkpoints. *[more details and usage examples coming soon]* ### Citation To cite the paper, model, or software, please use the below: ``` @article{Chameleon_Team_Chameleon_Mixed-Modal_Early-Fusion_2024, author = {Chameleon Team}, doi = {10.48550/arXiv.2405.09818}, journal = {arXiv preprint arXiv:2405.09818}, title = {Chameleon: Mixed-Modal Early-Fusion Foundation Models}, url = {https://github.com/facebookresearch/chameleon}, year = {2024} } ``` ### License Use of this repository and related resources are governed by the [Chameleon Research License](//ai.meta.com/resources/models-and-libraries/chameleon-license) and this repository's [LICENSE](./LICENSE) file.
HFXM/Trial0-3Rules-RA-Llama3-2-3B-63K
HFXM
2025-01-23T22:42:42Z
11
0
transformers
[ "transformers", "safetensors", "llama", "text-classification", "arxiv:1910.09700", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-classification
2025-01-23T22:39:56Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a ๐Ÿค— transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
Best000/37519048-ef2c-4357-8158-addf3dca9522
Best000
2025-01-23T22:40:56Z
6
0
peft
[ "peft", "safetensors", "falcon", "axolotl", "generated_from_trainer", "custom_code", "base_model:tiiuae/falcon-rw-1b", "base_model:adapter:tiiuae/falcon-rw-1b", "license:apache-2.0", "region:us" ]
null
2025-01-23T21:22:55Z
--- library_name: peft license: apache-2.0 base_model: tiiuae/falcon-rw-1b tags: - axolotl - generated_from_trainer model-index: - name: 37519048-ef2c-4357-8158-addf3dca9522 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: tiiuae/falcon-rw-1b bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - f7077b539ce146ff_train_data.json ds_type: json format: custom path: /workspace/input_data/f7077b539ce146ff_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: Best000/37519048-ef2c-4357-8158-addf3dca9522 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/f7077b539ce146ff_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 special_tokens: pad_token: <|endoftext|> strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 1d9ea8a0-0c1e-4552-96c4-84ec38c9f39b wandb_project: Birthday-SN56-16-Gradients-On-Demand wandb_run: your_name wandb_runid: 1d9ea8a0-0c1e-4552-96c4-84ec38c9f39b warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 37519048-ef2c-4357-8158-addf3dca9522 This model is a fine-tuned version of [tiiuae/falcon-rw-1b](https://huggingface.co/tiiuae/falcon-rw-1b) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.5344 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 9.4793 | 0.0000 | 1 | 1.6230 | | 4.2064 | 0.0000 | 3 | 1.6210 | | 6.6482 | 0.0001 | 6 | 1.6007 | | 6.6491 | 0.0001 | 9 | 1.5344 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
mrHungddddh/0ecef4c0-4c85-45b6-946f-5f8ccc8942c7
mrHungddddh
2025-01-23T22:40:30Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:unsloth/Qwen2.5-3B-Instruct", "base_model:adapter:unsloth/Qwen2.5-3B-Instruct", "license:other", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T21:30:15Z
--- library_name: peft license: other base_model: unsloth/Qwen2.5-3B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 0ecef4c0-4c85-45b6-946f-5f8ccc8942c7 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Qwen2.5-3B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 2db0686093697b5a_train_data.json ds_type: json format: custom path: /workspace/input_data/2db0686093697b5a_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: mrHungddddh/0ecef4c0-4c85-45b6-946f-5f8ccc8942c7 hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/2db0686093697b5a_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 5b52948b-c74c-428c-b3b5-5acf6a0cd4c2 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 5b52948b-c74c-428c-b3b5-5acf6a0cd4c2 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 0ecef4c0-4c85-45b6-946f-5f8ccc8942c7 This model is a fine-tuned version of [unsloth/Qwen2.5-3B-Instruct](https://huggingface.co/unsloth/Qwen2.5-3B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.8676 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.598 | 0.0075 | 200 | 0.8676 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
robiual-awal/823ec4ce-6d0d-4343-b9fa-c7e40a0d3d8e
robiual-awal
2025-01-23T22:38:55Z
8
0
peft
[ "peft", "safetensors", "mistral", "axolotl", "generated_from_trainer", "base_model:dltjdgh0928/test_instruction", "base_model:adapter:dltjdgh0928/test_instruction", "license:apache-2.0", "region:us" ]
null
2025-01-23T22:30:42Z
--- library_name: peft license: apache-2.0 base_model: dltjdgh0928/test_instruction tags: - axolotl - generated_from_trainer model-index: - name: 823ec4ce-6d0d-4343-b9fa-c7e40a0d3d8e results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: dltjdgh0928/test_instruction bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 76022a30315552b8_train_data.json ds_type: json format: custom path: /workspace/input_data/76022a30315552b8_train_data.json type: field_instruction: input field_output: target format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: robiual-awal/823ec4ce-6d0d-4343-b9fa-c7e40a0d3d8e hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/76022a30315552b8_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 0573e27c-6a6f-4989-9b30-ba29f333396d wandb_project: Birthday-SN56-29-Gradients-On-Demand wandb_run: your_name wandb_runid: 0573e27c-6a6f-4989-9b30-ba29f333396d warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 823ec4ce-6d0d-4343-b9fa-c7e40a0d3d8e This model is a fine-tuned version of [dltjdgh0928/test_instruction](https://huggingface.co/dltjdgh0928/test_instruction) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0002 | 1 | nan | | 0.0 | 0.0005 | 3 | nan | | 0.0 | 0.0010 | 6 | nan | | 0.0 | 0.0014 | 9 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
kostiantynk-out/0a6bd269-9fac-436b-8c5e-cb265d4f59c9
kostiantynk-out
2025-01-23T22:36:46Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:unsloth/Qwen2-1.5B", "base_model:adapter:unsloth/Qwen2-1.5B", "license:apache-2.0", "region:us" ]
null
2025-01-23T22:23:23Z
--- library_name: peft license: apache-2.0 base_model: unsloth/Qwen2-1.5B tags: - axolotl - generated_from_trainer model-index: - name: 0a6bd269-9fac-436b-8c5e-cb265d4f59c9 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Qwen2-1.5B bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 6aaf299a346782ed_train_data.json ds_type: json format: custom path: /workspace/input_data/6aaf299a346782ed_train_data.json type: field_input: rejected field_instruction: prompt field_output: chosen format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: kostiantynk-out/0a6bd269-9fac-436b-8c5e-cb265d4f59c9 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/6aaf299a346782ed_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: d2e1c062-a472-4c6b-b3de-eecbaacfbed7 wandb_project: Mine-SN56-1-Gradients-On-Demand wandb_run: your_name wandb_runid: d2e1c062-a472-4c6b-b3de-eecbaacfbed7 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 0a6bd269-9fac-436b-8c5e-cb265d4f59c9 This model is a fine-tuned version of [unsloth/Qwen2-1.5B](https://huggingface.co/unsloth/Qwen2-1.5B) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 0.0 | 0.0000 | 1 | nan | | 0.0 | 0.0001 | 3 | nan | | 0.0 | 0.0003 | 6 | nan | | 0.0 | 0.0004 | 9 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
bookbot/byt5-small-wikipron-eng-latn-us-broad
bookbot
2025-01-23T22:35:08Z
127
0
transformers
[ "transformers", "pytorch", "tensorboard", "safetensors", "t5", "text2text-generation", "generated_from_trainer", "license:apache-2.0", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text2text-generation
2023-04-05T09:15:38Z
--- license: apache-2.0 tags: - generated_from_trainer model-index: - name: byt5-small-wikipron-eng-latn-us-broad results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # byt5-small-wikipron-eng-latn-us-broad This model is a fine-tuned version of [google/byt5-small](https://huggingface.co/google/byt5-small) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.1668 - Per: 0.2588 - Gen Len: 15.7318 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 128 - eval_batch_size: 32 - seed: 42 - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08 - lr_scheduler_type: linear - lr_scheduler_warmup_ratio: 0.1 - num_epochs: 10.0 ### Training results | Training Loss | Epoch | Step | Validation Loss | Per | Gen Len | |:-------------:|:-----:|:----:|:---------------:|:------:|:-------:| | 1.9462 | 1.0 | 382 | 0.2963 | 0.3495 | 15.453 | | 0.2979 | 2.0 | 764 | 0.2144 | 0.2941 | 15.6759 | | 0.2319 | 3.0 | 1146 | 0.1898 | 0.2765 | 15.7219 | | 0.2042 | 4.0 | 1528 | 0.1799 | 0.2719 | 15.7235 | | 0.1879 | 5.0 | 1910 | 0.1744 | 0.2657 | 15.7054 | | 0.1763 | 6.0 | 2292 | 0.1729 | 0.2645 | 15.7406 | | 0.1677 | 7.0 | 2674 | 0.1693 | 0.2619 | 15.7269 | | 0.1613 | 8.0 | 3056 | 0.1668 | 0.2604 | 15.7371 | | 0.1559 | 9.0 | 3438 | 0.1667 | 0.2585 | 15.7383 | | 0.1534 | 10.0 | 3820 | 0.1668 | 0.2588 | 15.7318 | ### Framework versions - Transformers 4.28.0.dev0 - Pytorch 1.13.1+cu117 - Datasets 2.9.0 - Tokenizers 0.13.2
ClarenceDan/7efab565-dc64-4fa9-a3ad-4cc292c82575
ClarenceDan
2025-01-23T22:34:42Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:unsloth/Qwen2.5-Math-7B-Instruct", "base_model:adapter:unsloth/Qwen2.5-Math-7B-Instruct", "license:apache-2.0", "region:us" ]
null
2025-01-23T21:05:04Z
--- library_name: peft license: apache-2.0 base_model: unsloth/Qwen2.5-Math-7B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 7efab565-dc64-4fa9-a3ad-4cc292c82575 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Qwen2.5-Math-7B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 8a9910a3e95b9e54_train_data.json ds_type: json format: custom path: /workspace/input_data/8a9910a3e95b9e54_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: ClarenceDan/7efab565-dc64-4fa9-a3ad-4cc292c82575 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/8a9910a3e95b9e54_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 4d275d20-528c-41c1-8773-3aca4b166744 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 4d275d20-528c-41c1-8773-3aca4b166744 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 7efab565-dc64-4fa9-a3ad-4cc292c82575 This model is a fine-tuned version of [unsloth/Qwen2.5-Math-7B-Instruct](https://huggingface.co/unsloth/Qwen2.5-Math-7B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 2.177 | 0.0000 | 1 | nan | | 0.0 | 0.0001 | 3 | nan | | 0.0 | 0.0001 | 6 | nan | | 0.0 | 0.0002 | 9 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
NewEden/chameleon-30b
NewEden
2025-01-23T22:32:23Z
15
0
null
[ "safetensors", "chameleon", "image-text-to-text", "arxiv:2405.09818", "license:other", "region:us" ]
image-text-to-text
2025-01-23T22:06:05Z
--- license: other license_name: chameleon-research-license license_link: https://ai.meta.com/resources/models-and-libraries/chameleon-license/ extra_gated_prompt: '### META CHAMELEON RESEARCH LICENSE AGREEMENT' extra_gated_fields: First Name: text Last Name: text Date of birth: date_picker Country: country Affiliation: text I accept the terms and conditions: checkbox geo: ip_location extra_gated_description: Meta Chameleon Research License and Acceptable Use Policy extra_gated_button_content: I Accept Meta Chameleon Research License and AUP pipeline_tag: image-text-to-text --- # **Meta Chameleon 30B** Repository for Meta Chameleon, a mixed-modal early-fusion foundation model from FAIR. See the [Chameleon paper](//arxiv.org/abs/2405.09818) for more information. The [Chameleon collection](//huggingface.co/collections/facebook/chameleon-668da9663f80d483b4c61f58) on HuggingFace contains [7 billion parameter](//huggingface.co/facebook/chameleon-7b) and [30 billion parameter](//huggingface.co/facebook/chameleon-30b) model checkpoints. *[more details and usage examples coming soon]* ### Citation To cite the paper, model, or software, please use the below: ``` @article{Chameleon_Team_Chameleon_Mixed-Modal_Early-Fusion_2024, author = {Chameleon Team}, doi = {10.48550/arXiv.2405.09818}, journal = {arXiv preprint arXiv:2405.09818}, title = {Chameleon: Mixed-Modal Early-Fusion Foundation Models}, url = {https://github.com/facebookresearch/chameleon}, year = {2024} } ``` ### License Use of this repository and related resources are governed by the [Chameleon Research License](//ai.meta.com/resources/models-and-libraries/chameleon-license) and this repository's [LICENSE](./LICENSE) file.
vmpsergio/94f6081a-758f-4316-852c-c069fd4f150e
vmpsergio
2025-01-23T22:28:45Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:unsloth/Qwen2.5-3B-Instruct", "base_model:adapter:unsloth/Qwen2.5-3B-Instruct", "license:other", "region:us" ]
null
2025-01-23T21:29:33Z
--- library_name: peft license: other base_model: unsloth/Qwen2.5-3B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 94f6081a-758f-4316-852c-c069fd4f150e results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Qwen2.5-3B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 2db0686093697b5a_train_data.json ds_type: json format: custom path: /workspace/input_data/2db0686093697b5a_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device: cuda early_stopping_patience: 1 eval_max_new_tokens: 128 eval_steps: 5 eval_table_size: null evals_per_epoch: null flash_attention: false fp16: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: false hub_model_id: vmpsergio/94f6081a-758f-4316-852c-c069fd4f150e hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 3 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_memory: 0: 78GiB max_steps: 30 micro_batch_size: 2 mlflow_experiment_name: /tmp/2db0686093697b5a_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_torch output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 10 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: true trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 5b52948b-c74c-428c-b3b5-5acf6a0cd4c2 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 5b52948b-c74c-428c-b3b5-5acf6a0cd4c2 warmup_steps: 10 weight_decay: 0.01 xformers_attention: true ``` </details><br> # 94f6081a-758f-4316-852c-c069fd4f150e This model is a fine-tuned version of [unsloth/Qwen2.5-3B-Instruct](https://huggingface.co/unsloth/Qwen2.5-3B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: nan ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 30 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0000 | 1 | nan | | 0.0 | 0.0002 | 5 | nan | | 0.0 | 0.0004 | 10 | nan | | 0.0 | 0.0006 | 15 | nan | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
prxy5608/d32d294c-d60a-4be9-8973-103c546e6f35
prxy5608
2025-01-23T22:24:47Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:unsloth/Qwen2.5-1.5B-Instruct", "base_model:adapter:unsloth/Qwen2.5-1.5B-Instruct", "license:apache-2.0", "region:us" ]
null
2025-01-23T22:11:59Z
--- library_name: peft license: apache-2.0 base_model: unsloth/Qwen2.5-1.5B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: d32d294c-d60a-4be9-8973-103c546e6f35 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Qwen2.5-1.5B-Instruct bf16: true chat_template: llama3 data_processes: 16 dataset_prepared_path: null datasets: - data_files: - c3d24d6d6c48ff52_train_data.json ds_type: json format: custom path: /workspace/input_data/c3d24d6d6c48ff52_train_data.json type: field_instruction: instruction field_output: output format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device_map: auto do_eval: true early_stopping_patience: 5 eval_batch_size: 4 eval_max_new_tokens: 128 eval_steps: 50 eval_table_size: null evals_per_epoch: null flash_attention: true fp16: false fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: prxy5608/d32d294c-d60a-4be9-8973-103c546e6f35 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0001 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 128 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 64 lora_target_linear: true lr_scheduler: cosine max_grad_norm: 1.0 max_memory: 0: 75GB max_steps: 200 micro_batch_size: 8 mlflow_experiment_name: /tmp/c3d24d6d6c48ff52_train_data.json model_type: AutoModelForCausalLM num_epochs: 3 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 50 saves_per_epoch: null sequence_len: 1024 strict: false tf32: true tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 513b3e11-240a-4e5c-926d-00c59c088490 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 513b3e11-240a-4e5c-926d-00c59c088490 warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # d32d294c-d60a-4be9-8973-103c546e6f35 This model is a fine-tuned version of [unsloth/Qwen2.5-1.5B-Instruct](https://huggingface.co/unsloth/Qwen2.5-1.5B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.8193 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 8 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 1.1941 | 0.0017 | 1 | 1.5711 | | 0.8231 | 0.0850 | 50 | 0.9598 | | 0.758 | 0.1701 | 100 | 0.8660 | | 0.6745 | 0.2551 | 150 | 0.8297 | | 0.7105 | 0.3401 | 200 | 0.8193 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
philip-hightech/6bda84ac-3d0c-4a5b-852d-e3d2de023c53
philip-hightech
2025-01-23T22:21:14Z
6
0
peft
[ "peft", "safetensors", "falcon", "axolotl", "generated_from_trainer", "custom_code", "base_model:tiiuae/falcon-rw-1b", "base_model:adapter:tiiuae/falcon-rw-1b", "license:apache-2.0", "region:us" ]
null
2025-01-23T21:04:10Z
--- library_name: peft license: apache-2.0 base_model: tiiuae/falcon-rw-1b tags: - axolotl - generated_from_trainer model-index: - name: 6bda84ac-3d0c-4a5b-852d-e3d2de023c53 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: tiiuae/falcon-rw-1b bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - f7077b539ce146ff_train_data.json ds_type: json format: custom path: /workspace/input_data/f7077b539ce146ff_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: false fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: false group_by_length: false hub_model_id: philip-hightech/6bda84ac-3d0c-4a5b-852d-e3d2de023c53 hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0002 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 10 micro_batch_size: 2 mlflow_experiment_name: /tmp/f7077b539ce146ff_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 512 special_tokens: pad_token: <|endoftext|> strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 1d9ea8a0-0c1e-4552-96c4-84ec38c9f39b wandb_project: Mine-SN56-21-Gradients-On-Demand wandb_run: your_name wandb_runid: 1d9ea8a0-0c1e-4552-96c4-84ec38c9f39b warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 6bda84ac-3d0c-4a5b-852d-e3d2de023c53 This model is a fine-tuned version of [tiiuae/falcon-rw-1b](https://huggingface.co/tiiuae/falcon-rw-1b) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.5306 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0002 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 10 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 9.4793 | 0.0000 | 1 | 1.6230 | | 4.2213 | 0.0000 | 3 | 1.6211 | | 6.6555 | 0.0001 | 6 | 1.5986 | | 6.6563 | 0.0001 | 9 | 1.5306 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
nbninh/a55029e8-e613-4993-9c87-d8fa355dbe1f
nbninh
2025-01-23T22:19:17Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:unsloth/Qwen2.5-Math-7B-Instruct", "base_model:adapter:unsloth/Qwen2.5-Math-7B-Instruct", "license:apache-2.0", "8-bit", "bitsandbytes", "region:us" ]
null
2025-01-23T20:38:17Z
--- library_name: peft license: apache-2.0 base_model: unsloth/Qwen2.5-Math-7B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: a55029e8-e613-4993-9c87-d8fa355dbe1f results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: unsloth/Qwen2.5-Math-7B-Instruct bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 8a9910a3e95b9e54_train_data.json ds_type: json format: custom path: /workspace/input_data/8a9910a3e95b9e54_train_data.json type: field_input: input field_instruction: instruction field_output: output format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 1 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: nbninh/a55029e8-e613-4993-9c87-d8fa355dbe1f hub_repo: null hub_strategy: end hub_token: null learning_rate: 5.0e-05 load_in_4bit: true load_in_8bit: true local_rank: null logging_steps: 1 lora_alpha: 16 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 8 lora_target_linear: true lr_scheduler: cosine max_steps: 200 micro_batch_size: 2 mlflow_experiment_name: /tmp/8a9910a3e95b9e54_train_data.json model_type: AutoModelForCausalLM num_epochs: 1 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 1 sequence_len: 1024 strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 4d275d20-528c-41c1-8773-3aca4b166744 wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 4d275d20-528c-41c1-8773-3aca4b166744 warmup_steps: 5 weight_decay: 0.01 xformers_attention: true ``` </details><br> # a55029e8-e613-4993-9c87-d8fa355dbe1f This model is a fine-tuned version of [unsloth/Qwen2.5-Math-7B-Instruct](https://huggingface.co/unsloth/Qwen2.5-Math-7B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 2.6172 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 8 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 2.9411 | 0.0036 | 200 | 2.6172 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
oldiday/314d43ef-91d1-4fc5-965b-3841fad6c19f
oldiday
2025-01-23T22:18:30Z
10
0
peft
[ "peft", "safetensors", "llama", "axolotl", "generated_from_trainer", "base_model:defog/llama-3-sqlcoder-8b", "base_model:adapter:defog/llama-3-sqlcoder-8b", "license:cc-by-sa-4.0", "region:us" ]
null
2025-01-23T21:42:20Z
--- library_name: peft license: cc-by-sa-4.0 base_model: defog/llama-3-sqlcoder-8b tags: - axolotl - generated_from_trainer model-index: - name: 314d43ef-91d1-4fc5-965b-3841fad6c19f results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: defog/llama-3-sqlcoder-8b bf16: auto chat_template: llama3 dataset_prepared_path: null datasets: - data_files: - 8e91c8fc8aa471c6_train_data.json ds_type: json format: custom path: /workspace/input_data/8e91c8fc8aa471c6_train_data.json type: field_input: schema field_instruction: query field_output: response format: '{instruction} {input}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null early_stopping_patience: null eval_max_new_tokens: 128 eval_table_size: null evals_per_epoch: 4 flash_attention: true fp16: null fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true gradient_clipping: 1.0 group_by_length: false hub_model_id: oldiday/314d43ef-91d1-4fc5-965b-3841fad6c19f hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 5.0e-05 load_in_4bit: false load_in_8bit: false local_rank: 0 logging_steps: 3 lora_alpha: 32 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 16 lora_target_linear: true lr_scheduler: cosine max_steps: 100 micro_batch_size: 8 mlflow_experiment_name: /tmp/8e91c8fc8aa471c6_train_data.json model_type: AutoModelForCausalLM num_epochs: 3 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false saves_per_epoch: 4 sequence_len: 1024 special_tokens: pad_token: <|eot_id|> strict: false tf32: false tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: techspear-hub wandb_mode: online wandb_name: a2b04a74-21ae-496c-999f-245629e779f7 wandb_project: Gradients-On-Six wandb_run: your_name wandb_runid: a2b04a74-21ae-496c-999f-245629e779f7 warmup_steps: 10 weight_decay: 0.01 xformers_attention: null ``` </details><br> # 314d43ef-91d1-4fc5-965b-3841fad6c19f This model is a fine-tuned version of [defog/llama-3-sqlcoder-8b](https://huggingface.co/defog/llama-3-sqlcoder-8b) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.2254 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 8 - eval_batch_size: 8 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 100 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | No log | 0.0016 | 1 | 0.3595 | | 0.3353 | 0.0148 | 9 | 0.2876 | | 0.2143 | 0.0297 | 18 | 0.2400 | | 0.221 | 0.0445 | 27 | 0.2340 | | 0.2437 | 0.0593 | 36 | 0.2310 | | 0.2255 | 0.0741 | 45 | 0.2293 | | 0.2244 | 0.0890 | 54 | 0.2276 | | 0.2133 | 0.1038 | 63 | 0.2264 | | 0.2351 | 0.1186 | 72 | 0.2258 | | 0.2049 | 0.1334 | 81 | 0.2255 | | 0.2172 | 0.1483 | 90 | 0.2253 | | 0.2055 | 0.1631 | 99 | 0.2254 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
mini1013/master_cate_bc6
mini1013
2025-01-23T22:18:15Z
605
0
setfit
[ "setfit", "safetensors", "roberta", "sentence-transformers", "text-classification", "generated_from_setfit_trainer", "arxiv:2209.11055", "base_model:mini1013/master_domain", "base_model:finetune:mini1013/master_domain", "model-index", "region:us" ]
text-classification
2025-01-23T22:17:54Z
--- tags: - setfit - sentence-transformers - text-classification - generated_from_setfit_trainer widget: - text: ๋งค์ผ์œ ์—… ์•ฑ์†”๋ฃจํŠธ ์„ผ์„œํ‹ฐ๋ธŒ 1๋‹จ๊ณ„ 900g x 1๊ฐœ [์Œ๋ฃŒ] ์ฐจ์Œ๋ฃŒ_๋น„๋ฝ์‹ํ˜œ175ml30์บ” ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ๊ตญ๋‚ด๋ถ„์œ  - text: Hipp ํž™ ์ฝค๋น„์˜คํ‹ฑ ์œ ๊ธฐ๋† 1๋‹จ๊ณ„ 800g [์œก์•„] ๋ถ„์œ _Hipp ํž™ ์ฝค๋น„์˜คํ‹ฑ ์œ ๊ธฐ๋† 3๋‹จ๊ณ„ 800g ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ์ˆ˜์ž…๋ถ„์œ  - text: ๋‚จ์–‘์œ ์—… ์•„์ด์— ๋งˆ๋” ์•ก์ƒ 3๋‹จ๊ณ„ 240ml x96๊ฐœ ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ๊ตญ๋‚ด๋ถ„์œ  - text: ์ผ๋™ํ›„๋””์Šค ํ”„๋ฆฌ๋ฏธ์—„ ์‚ฐ์–‘๋ถ„์œ  3๋‹จ๊ณ„ 800g x 1๊ฐœ [์œก์•„] ๋ถ„์œ _ํŒŒ์Šคํ‡ด๋ฅด ๋ฌดํ•ญ์ƒ์ œ ์œ„๋“œ๋ง˜ 3๋‹จ๊ณ„ 750g ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ๊ตญ๋‚ด๋ถ„์œ  - text: ์ผ๋™ํ›„๋””์Šค ํ”„๋ฆฌ๋ฏธ์—„ ์‚ฐ์–‘๋ถ„์œ  1๋‹จ๊ณ„ 800g x 1๊ฐœ [์Œ๋ฃŒ] ํƒ„์‚ฐ์Œ๋ฃŒ_์›ฐ์น˜์Šค์ œ๋กœ์˜ค๋ Œ์ง€355ml24์บ” ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ๊ตญ๋‚ด๋ถ„์œ  metrics: - accuracy pipeline_tag: text-classification library_name: setfit inference: true base_model: mini1013/master_domain model-index: - name: SetFit with mini1013/master_domain results: - task: type: text-classification name: Text Classification dataset: name: Unknown type: unknown split: test metrics: - type: accuracy value: 1.0 name: Accuracy --- # SetFit with mini1013/master_domain This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification. The model has been trained using an efficient few-shot learning technique that involves: 1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning. 2. Training a classification head with features from the fine-tuned Sentence Transformer. ## Model Details ### Model Description - **Model Type:** SetFit - **Sentence Transformer body:** [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) - **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance - **Maximum Sequence Length:** 512 tokens - **Number of Classes:** 3 classes <!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) --> <!-- - **Language:** Unknown --> <!-- - **License:** Unknown --> ### Model Sources - **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit) - **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055) - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit) ### Model Labels | Label | Examples | |:------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | 2.0 | <ul><li>'์…€๋ ‰์Šค ๋งค์ผ ๋งˆ์‹œ๋Š” ํ”„๋กœํ‹ด 12l 160ml ร— 48๊ฐœ ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ํŠน์ˆ˜๋ถ„์œ '</li><li>'์ผ๋™ํ›„๋””์Šค ์ดˆ์œ ๋ฐ€ํ”Œ๋Ÿฌ์Šค2๋‹จ๊ณ„ 1์บ”(1gx90ํฌ)) ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ํŠน์ˆ˜๋ถ„์œ '</li><li>'gvp ์Šค๋งˆํŠธํฐ ์นด๋“œํฌ์ผ“ ์Šค๋งˆํŠธ๋ง๋ธ”๋ž™ ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ํŠน์ˆ˜๋ถ„์œ '</li></ul> | | 0.0 | <ul><li>'๋งค์ผ์œ ์—… ์•ฑ์†”๋ฃจํŠธ ๋ช…์ž‘ 2FL ์•ก์ƒ 2๋‹จ๊ณ„ 240ml 24๊ฐœ x2๊ฐœ ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ๊ตญ๋‚ด๋ถ„์œ '</li><li>'๋งค์ผ์œ ์—… ์•ฑ์†”๋ฃจํŠธ ์„ผ์„œํ‹ฐ๋ธŒ 1๋‹จ๊ณ„ 900g x 1๊ฐœ [๋ผ๋ฉด] ๋ด‰์ง€๋ผ๋ฉด_์–ผํฐํ•œ ๋„ˆ๊ตฌ๋ฆฌ 120g 20๊ฐœ ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ๊ตญ๋‚ด๋ถ„์œ '</li><li>'๋งค์ผ์œ ์—… ์•ฑ์†”๋ฃจํŠธ ์„ผ์„œํ‹ฐ๋ธŒ 1๋‹จ๊ณ„ 900g x 1๊ฐœ [์Œ๋ฃŒ] ์šฐ์œ ๋‘์œ _์‚ผ์œก๊ฒ€์€์ฝฉ์•ค์นผ์Š˜ํŒŒ์šฐ์น˜190ml40ํŒฉ ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ๊ตญ๋‚ด๋ถ„์œ '</li></ul> | | 1.0 | <ul><li>'ํž™ ์••ํƒ€๋ฐ€ HA ๋ขฐ๋ฒค์ง  ๋ฐ€๋ผ์‚ฐ ํ™€๋ ˆ ํ‡ดํผ ๋ฒ ๋ฐ” ์„ธ๋ ˆ๋ฝ ํ”„๋ ˆ 2๋‹จ๊ณ„ ์ฝค๋น„์˜คํ‹ฑ ๋ฌด์ „๋ถ„ ์‚ฐ์–‘ [ํ‡ดํผ] Tรถpfer_ํ‡ดํผ ๋ฝํƒ€๋‚˜ 600g (์ตœ๋Œ€8ํ†ต)_[1ํ†ต] xPRE Topfer ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ์ˆ˜์ž…๋ถ„์œ '</li><li>'๋‰ดํŠธ๋ฆฌ์‹œ์•„ ์••ํƒ€๋ฐ€ ํ”„๋กœ๋ˆ„ํŠธ๋ผ ์–ด๋“œ๋ฐด์Šค 2๋‹จ๊ณ„ 800g [์Œ๋ฃŒ] ํƒ„์‚ฐ์Œ๋ฃŒ_๋ฐ๋ฏธ์†Œ๋‹คํ”ผ์น˜250ml30์บ” ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ์ˆ˜์ž…๋ถ„์œ '</li><li>'ํ‡ดํผ ํ™€๋ ˆ ๋ขฐ๋ฒค์ง  ํž™ ๋…ธ๋ฐœ๋ฝ ์••ํƒ€๋ฐ€ ๋ฌด์ „๋ถ„ AR ํ‚จ๋”๋ฐ€์‰ฌ ์••ํƒ€๋ฐ€ ์˜ค๊ฐ€๋‹‰(New)_์˜ค๊ฐ€๋‹‰ 2 800g 1ํ†ต_โ—†dm4056631003169_1โ—† ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ์ˆ˜์ž…๋ถ„์œ '</li></ul> | ## Evaluation ### Metrics | Label | Accuracy | |:--------|:---------| | **all** | 1.0 | ## Uses ### Direct Use for Inference First install the SetFit library: ```bash pip install setfit ``` Then you can load this model and run inference. ```python from setfit import SetFitModel # Download from the ๐Ÿค— Hub model = SetFitModel.from_pretrained("mini1013/master_cate_bc6") # Run inference preds = model("๋‚จ์–‘์œ ์—… ์•„์ด์— ๋งˆ๋” ์•ก์ƒ 3๋‹จ๊ณ„ 240ml x96๊ฐœ ์ถœ์‚ฐ/์œก์•„ > ๋ถ„์œ  > ๊ตญ๋‚ด๋ถ„์œ ") ``` <!-- ### Downstream Use *List how someone could finetune this model on their own dataset.* --> <!-- ### Out-of-Scope Use *List how the model may foreseeably be misused and address what users ought not to do with the model.* --> <!-- ## Bias, Risks and Limitations *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.* --> <!-- ### Recommendations *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.* --> ## Training Details ### Training Set Metrics | Training set | Min | Median | Max | |:-------------|:----|:--------|:----| | Word count | 7 | 14.9429 | 30 | | Label | Training Sample Count | |:------|:----------------------| | 0.0 | 70 | | 1.0 | 70 | | 2.0 | 70 | ### Training Hyperparameters - batch_size: (256, 256) - num_epochs: (30, 30) - max_steps: -1 - sampling_strategy: oversampling - num_iterations: 50 - body_learning_rate: (2e-05, 1e-05) - head_learning_rate: 0.01 - loss: CosineSimilarityLoss - distance_metric: cosine_distance - margin: 0.25 - end_to_end: False - use_amp: False - warmup_proportion: 0.1 - l2_weight: 0.01 - seed: 42 - eval_max_steps: -1 - load_best_model_at_end: False ### Training Results | Epoch | Step | Training Loss | Validation Loss | |:-------:|:----:|:-------------:|:---------------:| | 0.0238 | 1 | 0.4943 | - | | 1.1905 | 50 | 0.4806 | - | | 2.3810 | 100 | 0.1671 | - | | 3.5714 | 150 | 0.0003 | - | | 4.7619 | 200 | 0.0 | - | | 5.9524 | 250 | 0.0 | - | | 7.1429 | 300 | 0.0 | - | | 8.3333 | 350 | 0.0 | - | | 9.5238 | 400 | 0.0 | - | | 10.7143 | 450 | 0.0 | - | | 11.9048 | 500 | 0.0 | - | | 13.0952 | 550 | 0.0 | - | | 14.2857 | 600 | 0.0 | - | | 15.4762 | 650 | 0.0 | - | | 16.6667 | 700 | 0.0 | - | | 17.8571 | 750 | 0.0 | - | | 19.0476 | 800 | 0.0 | - | | 20.2381 | 850 | 0.0 | - | | 21.4286 | 900 | 0.0 | - | | 22.6190 | 950 | 0.0 | - | | 23.8095 | 1000 | 0.0 | - | | 25.0 | 1050 | 0.0 | - | | 26.1905 | 1100 | 0.0 | - | | 27.3810 | 1150 | 0.0 | - | | 28.5714 | 1200 | 0.0 | - | | 29.7619 | 1250 | 0.0 | - | ### Framework Versions - Python: 3.10.12 - SetFit: 1.1.0 - Sentence Transformers: 3.3.1 - Transformers: 4.44.2 - PyTorch: 2.2.0a0+81ea7a4 - Datasets: 3.2.0 - Tokenizers: 0.19.1 ## Citation ### BibTeX ```bibtex @article{https://doi.org/10.48550/arxiv.2209.11055, doi = {10.48550/ARXIV.2209.11055}, url = {https://arxiv.org/abs/2209.11055}, author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren}, keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences}, title = {Efficient Few-Shot Learning Without Prompts}, publisher = {arXiv}, year = {2022}, copyright = {Creative Commons Attribution 4.0 International} } ``` <!-- ## Glossary *Clearly define terms in order to be accessible across audiences.* --> <!-- ## Model Card Authors *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.* --> <!-- ## Model Card Contact *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.* -->
prxy5607/8080d68f-c21a-4294-8491-0e1e2f25f71f
prxy5607
2025-01-23T22:16:32Z
8
0
peft
[ "peft", "safetensors", "qwen2", "axolotl", "generated_from_trainer", "base_model:Qwen/Qwen2.5-Math-7B-Instruct", "base_model:adapter:Qwen/Qwen2.5-Math-7B-Instruct", "license:apache-2.0", "region:us" ]
null
2025-01-23T21:40:32Z
--- library_name: peft license: apache-2.0 base_model: Qwen/Qwen2.5-Math-7B-Instruct tags: - axolotl - generated_from_trainer model-index: - name: 8080d68f-c21a-4294-8491-0e1e2f25f71f results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.4.1` ```yaml adapter: lora base_model: Qwen/Qwen2.5-Math-7B-Instruct bf16: true chat_template: llama3 data_processes: 16 dataset_prepared_path: null datasets: - data_files: - b49fbb5a502d82d6_train_data.json ds_type: json format: custom path: /workspace/input_data/b49fbb5a502d82d6_train_data.json type: field_instruction: instruction field_output: left_answer format: '{instruction}' no_input_format: '{instruction}' system_format: '{system}' system_prompt: '' debug: null deepspeed: null device_map: auto do_eval: true early_stopping_patience: 5 eval_batch_size: 4 eval_max_new_tokens: 128 eval_steps: 50 eval_table_size: null evals_per_epoch: null flash_attention: true fp16: false fsdp: null fsdp_config: null gradient_accumulation_steps: 4 gradient_checkpointing: true group_by_length: true hub_model_id: prxy5607/8080d68f-c21a-4294-8491-0e1e2f25f71f hub_repo: null hub_strategy: checkpoint hub_token: null learning_rate: 0.0001 load_in_4bit: false load_in_8bit: false local_rank: null logging_steps: 1 lora_alpha: 128 lora_dropout: 0.05 lora_fan_in_fan_out: null lora_model_dir: null lora_r: 64 lora_target_linear: true lr_scheduler: cosine max_grad_norm: 1.0 max_memory: 0: 75GB max_steps: 200 micro_batch_size: 8 mlflow_experiment_name: /tmp/b49fbb5a502d82d6_train_data.json model_type: AutoModelForCausalLM num_epochs: 3 optim_args: adam_beta1: 0.9 adam_beta2: 0.95 adam_epsilon: 1e-5 optimizer: adamw_bnb_8bit output_dir: miner_id_24 pad_to_sequence_len: true resume_from_checkpoint: null s2_attention: null sample_packing: false save_steps: 50 saves_per_epoch: null sequence_len: 1024 strict: false tf32: true tokenizer_type: AutoTokenizer train_on_inputs: false trust_remote_code: true val_set_size: 0.05 wandb_entity: null wandb_mode: online wandb_name: 1da9aedd-5dcb-4394-8274-c1bf67f192ca wandb_project: Gradients-On-Demand wandb_run: your_name wandb_runid: 1da9aedd-5dcb-4394-8274-c1bf67f192ca warmup_steps: 10 weight_decay: 0.0 xformers_attention: null ``` </details><br> # 8080d68f-c21a-4294-8491-0e1e2f25f71f This model is a fine-tuned version of [Qwen/Qwen2.5-Math-7B-Instruct](https://huggingface.co/Qwen/Qwen2.5-Math-7B-Instruct) on the None dataset. It achieves the following results on the evaluation set: - Loss: 1.5981 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 8 - eval_batch_size: 4 - seed: 42 - gradient_accumulation_steps: 4 - total_train_batch_size: 32 - optimizer: Use OptimizerNames.ADAMW_BNB with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=adam_beta1=0.9,adam_beta2=0.95,adam_epsilon=1e-5 - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 10 - training_steps: 200 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:------:|:----:|:---------------:| | 2.5285 | 0.0010 | 1 | 4.1166 | | 4.0304 | 0.0491 | 50 | 2.4134 | | 2.5106 | 0.0981 | 100 | 1.8428 | | 1.6387 | 0.1472 | 150 | 1.6382 | | 1.7615 | 0.1963 | 200 | 1.5981 | ### Framework versions - PEFT 0.13.2 - Transformers 4.46.0 - Pytorch 2.5.0+cu124 - Datasets 3.0.1 - Tokenizers 0.20.1
rsicproject/resnet-GPT-RSICD-captioning_without_transformer
rsicproject
2025-01-23T22:16:24Z
11
0
transformers
[ "transformers", "tensorboard", "safetensors", "vision-encoder-decoder", "generated_from_trainer", "endpoints_compatible", "region:us" ]
null
2025-01-23T22:15:41Z
--- library_name: transformers tags: - generated_from_trainer metrics: - rouge model-index: - name: resnet-GPT-RSICD-captioning_without_transformer results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # resnet-GPT-RSICD-captioning_without_transformer This model is a fine-tuned version of [](https://huggingface.co/) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 2.7874 - Rouge: 0.5828 - Bleu1: 0.6822 - Bleu2: 0.5519 - Bleu3: 0.4540 - Bleu4: 0.3819 - Meteor: 0.6141 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 64 - eval_batch_size: 64 - seed: 50 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: linear - lr_scheduler_warmup_steps: 1024 - num_epochs: 128 ### Training results | Training Loss | Epoch | Step | Validation Loss | Rouge | Bleu1 | Bleu2 | Bleu3 | Bleu4 | Meteor | |:-------------:|:-----:|:----:|:---------------:|:------:|:------:|:------:|:------:|:------:|:------:| | No log | 1.0 | 683 | 1.8774 | 0.6341 | 0.6966 | 0.5760 | 0.4855 | 0.4153 | 0.6800 | | 1.1677 | 2.0 | 1366 | 1.9946 | 0.6005 | 0.6926 | 0.5607 | 0.4635 | 0.3920 | 0.6489 | | 0.6905 | 3.0 | 2049 | 2.1251 | 0.6072 | 0.6863 | 0.5589 | 0.4643 | 0.3954 | 0.6581 | | 0.6905 | 4.0 | 2732 | 2.2060 | 0.5860 | 0.6740 | 0.5430 | 0.4481 | 0.3797 | 0.6168 | | 0.4252 | 5.0 | 3415 | 2.2911 | 0.5882 | 0.6774 | 0.5468 | 0.4508 | 0.3790 | 0.6190 | | 0.3129 | 6.0 | 4098 | 2.4356 | 0.5714 | 0.6661 | 0.5317 | 0.4326 | 0.3599 | 0.6125 | | 0.3129 | 7.0 | 4781 | 2.4974 | 0.5877 | 0.6828 | 0.5519 | 0.4554 | 0.3839 | 0.6164 | | 0.2224 | 8.0 | 5464 | 2.5728 | 0.6018 | 0.6858 | 0.5598 | 0.4635 | 0.3919 | 0.6401 | | 0.1869 | 9.0 | 6147 | 2.6660 | 0.5941 | 0.6884 | 0.5554 | 0.4561 | 0.3830 | 0.6293 | | 0.1869 | 10.0 | 6830 | 2.7253 | 0.5833 | 0.6632 | 0.5314 | 0.4353 | 0.3646 | 0.6284 | | 0.1482 | 11.0 | 7513 | 2.7874 | 0.5828 | 0.6822 | 0.5519 | 0.4540 | 0.3819 | 0.6141 | ### Framework versions - Transformers 4.48.1 - Pytorch 2.5.1+cu124 - Datasets 3.2.0 - Tokenizers 0.21.0