SentenceTransformer based on sentence-transformers/all-MiniLM-L6-v2

This is a sentence-transformers model finetuned from sentence-transformers/all-MiniLM-L6-v2 on the json dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: sentence-transformers/all-MiniLM-L6-v2
  • Maximum Sequence Length: 256 tokens
  • Output Dimensionality: 384 dimensions
  • Similarity Function: Cosine Similarity
  • Training Dataset:
    • json

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("GbrlOl/finetune-embedding-all-MiniLM-L6-v2-geotechnical-test-v1")
# Run inference
sentences = [
    '¿Qué medidas incorpora el plan de cierre aprobado en el año 2010?',
    'P or lo tanto, en atención a \nlos puntos precedentes, la elaboración de este plan de cierre está focalizada en cumplir con los \nrequerimientos establecidos en el Régimen Transitorio de la Ley de C ierre y las guías \nmetodológicas desarrolladas por SERNAGEOMIN a este respecto, realizando una valorización del \núltimo plan aprobado bajo la Resolución Nº 0687 del 03 de Agosto de 2010 de SERNAGEOMIN. \n \nEl plan de cierre incorpora las medidas presentadas en el plan de cierre aprobado el año 2010, los \ncompromisos ambientales emanados de la tramitación de proyectos en el Sistema de Evaluación \nde Impacto Ambiental (SEIA), y los compromisos de cierre establecidos en las resoluciones \notorgadas por SERNAGEOMIN a la faena de Guanaco Compañía Minera. \n \nPosterior a la entrada en vigencia de la Ley 19.300 de Bases Generales de Medio Ambiente, \nGuanaco Compañía Minera ha presentado 4 proyectos los cuales mejoran, modifican o amplían \nprocesos mineros de la faena.',
    '15 metros de espesor \nsobre una superficie de 31.410 m2  m3           \n4.711,50  \n                \n0,17  \n            \n796,63  \nCosto del material (limos) \nEstimación del costo del material a \nutilizar para el cubrimiento del \ndepósito \ngl                 \n1,00  \n            \n833,91  \n            \n833,91  \nDisposición de estrato de suelo vegetal \nsobre la superficie y taludes del depósito  \nCapa de 0,3 metros de espesor sobre \nuna superficie de 31.410 m2  m3           \n9.423,00  \n                \n0,17  \n         \n1.593,25  \nNivelación de la superficie del depósito \n(tipo "domo") \nNivelación en una superficie estimada \nde 31.410 m2  m2         \n31.410,00  \n                \n0,01  \n            \n369,97  \nCierre de accesos Pretil de 1,5 m de altura y 3 m de m3',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

json

  • Dataset: json
  • Size: 442 training samples
  • Columns: query, sentence, and label
  • Approximate statistics based on the first 442 samples:
    query sentence label
    type string string int
    details
    • min: 9 tokens
    • mean: 24.66 tokens
    • max: 69 tokens
    • min: 48 tokens
    • mean: 239.65 tokens
    • max: 256 tokens
    • 0: ~59.05%
    • 1: ~40.95%
  • Samples:
    query sentence label
    ¿Es estable el depósito? 28
    Tabla 25. Coordenadas ubicación deposito de Relaves Seco
    Vértice Coordenadas UTM/WGS84
    Norte Este
    1 7.224.729,00 446.092,78
    2 7.224.893,63 445.986,67
    3 7.225.276,95 446.247,94
    4 7.225.279,81 446.252,38
    5 7.225.293,73 446.491,54
    6 7.225.281,47 446.503,49
    7 7.224.830,32 446,463,09
    8 7.224.748,09 446.386,62
    9 7.224,745,05 446,357,42

    El material depositado será compactado al alcanzar 0,5 m de altura.
    La forma del depósito considera un espacio de 10 m entre el borde de éste y el pie de la pila.
    La superficie basal del depósito será de 216.457 m2 y se cargará en 2 niveles, el primero de 10
    m de altura y el segundo de 5 m de altura. Los taludes serán 4: 1 (H:V), con un banco de
    estabilidad de 5 m de ancho como mínimo. La superficie de la corona será paralela a la
    superficie del depósito.
    Tabla 26.
    0
    ¿Es estable el depósito? La superficie de la corona será paralela a la
    superficie del depósito.
    Tabla 26. Características geométricas del depósito de relaves seco
    Parámetro Valor
    Capacidad final del deposito 2,54 M m3/4,07 M ton
    Área basal del deposito 216.457 m2
    Altura nivel 1 10 m
    Altura nivel 2 5 m
    Talud de depositación entre bermas 4:1 (H:V)
    Pendiente final de la corona del depósito (pendiente
    entre 1 y 3%)
    Paralela a superficie
    mejorada
    Ancho del banco de estabilidad 5m (min)
    Elevación máxima de corona 2.796 m.s.n.m.
    Elevación mínima de corona 2770 m.s.n.m

    Los materiales de empréstito a utilizar en el depósito de relaves corresponden al material
    destinado a:
    • Construcción del muro; corresponden a 34,437 m3 estimados de material de lastre de
    tamaños máximos superiores a 12”.
    • Recubrimiento de canaletas de aguas lluvias; consistente en 785 m3 de material de
    grava angulosa, con tamaño de 4” promedio.
    Tabla 27. Características del depósito de relaves secos
    Parámetro Valor
    S...
    0
    ¿Cuál es la elevación máxima de la corona del depósito? La superficie de la corona será paralela a la
    superficie del depósito.
    Tabla 26. Características geométricas del depósito de relaves seco
    Parámetro Valor
    Capacidad final del deposito 2,54 M m3/4,07 M ton
    Área basal del deposito 216.457 m2
    Altura nivel 1 10 m
    Altura nivel 2 5 m
    Talud de depositación entre bermas 4:1 (H:V)
    Pendiente final de la corona del depósito (pendiente
    entre 1 y 3%)
    Paralela a superficie
    mejorada
    Ancho del banco de estabilidad 5m (min)
    Elevación máxima de corona 2.796 m.s.n.m.
    Elevación mínima de corona 2770 m.s.n.m

    Los materiales de empréstito a utilizar en el depósito de relaves corresponden al material
    destinado a:
    • Construcción del muro; corresponden a 34,437 m3 estimados de material de lastre de
    tamaños máximos superiores a 12”.
    • Recubrimiento de canaletas de aguas lluvias; consistente en 785 m3 de material de
    grava angulosa, con tamaño de 4” promedio.
    Tabla 27. Características del depósito de relaves secos
    Parámetro Valor
    S...
    1
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • learning_rate: 2e-05
  • num_train_epochs: 100
  • warmup_ratio: 0.1
  • fp16: True
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: no
  • prediction_loss_only: True
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 100
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Epoch Step Training Loss
6.7143 100 2.2976
13.3571 200 0.3082
20.0714 300 0.0002
26.7143 400 0.0
33.3571 500 0.0
40.0714 600 0.0
46.7143 700 0.0
53.3571 800 0.0
60.0714 900 0.0
66.7143 1000 0.0
73.3571 1100 0.0
80.0714 1200 0.0
86.7143 1300 0.0
93.3571 1400 0.0

Framework Versions

  • Python: 3.10.16
  • Sentence Transformers: 3.3.1
  • Transformers: 4.48.1
  • PyTorch: 2.5.1+cu124
  • Accelerate: 1.3.0
  • Datasets: 3.2.0
  • Tokenizers: 0.21.0

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

CoSENTLoss

@online{kexuefm-8847,
    title={CoSENT: A more efficient sentence vector scheme than Sentence-BERT},
    author={Su Jianlin},
    year={2022},
    month={Jan},
    url={https://kexue.fm/archives/8847},
}
Downloads last month
7
Safetensors
Model size
22.7M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.

Model tree for GbrlOl/finetune-embedding-all-MiniLM-L6-v2-geotechnical-test-v1

Finetuned
(227)
this model