You need to agree to share your contact information to access this model

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

Log in or Sign Up to review the conditions and access this model content.

SentenceTransformer based on intfloat/multilingual-e5-base

This is a sentence-transformers model finetuned from intfloat/multilingual-e5-base on the rozetka_positive_pairs dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: intfloat/multilingual-e5-base
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 768 dimensions
  • Similarity Function: Dot Product
  • Training Dataset:
    • rozetka_positive_pairs

Model Sources

Full Model Architecture

RZTKSentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("yklymchuk-rztk/multilingual-e5-base-matryoshka2d-mnr-11")
# Run inference
sentences = [
    'query: poco f3 чехол',
    'passage: Чохол-накладка Armor Frame для Xiaomi Poco F3 1, black',
    'passage: Чохол-книжка Elegant на Xiaomi Redmi Note 10 Pro чорний',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

RZTKInformation Retrieval

  • Dataset: validation--matryoshka_dim-768--
  • Evaluated with sentence_transformers_training.evaluation.information_retrieval_evaluator.RZTKInformationRetrievalEvaluator
Metric Value
dot_accuracy_10 0.7022
dot_precision_10 0.1124
dot_recall_10 0.5701
dot_ndcg_10 0.4203
dot_mrr_10 0.4061
dot_map_60 0.3661

RZTKInformation Retrieval

  • Datasets: bm-full, core-uk-title, core-ru-title, core-uk-options, core-ru-options, options-uk-title, options-ru-title, options-uk-options, options-ru-options, rusisms-uk-title, rusisms-ru-title, rusisms-uk-options, rusisms-ru-options, rusisms_corrected-uk-title, rusisms_corrected-ru-title, rusisms_corrected-uk-options, rusisms_corrected-ru-options, core_typos-uk-title, core_typos-ru-title, core_typos-uk-options and core_typos-ru-options
  • Evaluated with sentence_transformers_training.evaluation.information_retrieval_evaluator.RZTKInformationRetrievalEvaluator
Metric bm-full core-uk-title core-ru-title core-uk-options core-ru-options options-uk-title options-ru-title options-uk-options options-ru-options rusisms-uk-title rusisms-ru-title rusisms-uk-options rusisms-ru-options rusisms_corrected-uk-title rusisms_corrected-ru-title rusisms_corrected-uk-options rusisms_corrected-ru-options core_typos-uk-title core_typos-ru-title core_typos-uk-options core_typos-ru-options
dot_accuracy_1 0.6258 0.7598 0.7861 0.5971 0.6089 0.8107 0.8155 0.6456 0.6578 0.7923 0.7923 0.5846 0.6 0.8923 0.8615 0.7692 0.7615 0.6614 0.6706 0.4869 0.4764
dot_accuracy_3 0.7527 0.9199 0.9331 0.7861 0.7769 0.9393 0.9417 0.8155 0.8252 0.8615 0.8846 0.7 0.7462 0.9462 0.9231 0.8769 0.9154 0.836 0.8438 0.6588 0.664
dot_accuracy_5 0.8088 0.9528 0.9541 0.8609 0.8583 0.9636 0.966 0.8689 0.8762 0.8923 0.9 0.7769 0.8 0.9462 0.9615 0.9308 0.9385 0.8845 0.8858 0.7441 0.7388
dot_accuracy_10 0.8845 0.9895 0.9869 0.9318 0.9304 0.9879 0.9854 0.9296 0.9369 0.9154 0.9231 0.8538 0.8769 0.9769 1.0 1.0 0.9615 0.9331 0.9291 0.8346 0.8399
dot_precision_1 0.6258 0.7598 0.7861 0.5971 0.6089 0.8107 0.8155 0.6456 0.6578 0.7923 0.7923 0.5846 0.6 0.8923 0.8615 0.7692 0.7615 0.6614 0.6706 0.4869 0.4764
dot_precision_3 0.6194 0.6833 0.7065 0.5477 0.549 0.7492 0.7468 0.5898 0.6011 0.7179 0.7333 0.5667 0.5769 0.8282 0.7923 0.7026 0.7051 0.5971 0.6098 0.4431 0.4506
dot_precision_5 0.6022 0.5984 0.6076 0.495 0.4892 0.585 0.5893 0.4791 0.4854 0.6677 0.6785 0.5431 0.54 0.7692 0.7446 0.6692 0.6585 0.5257 0.5276 0.4018 0.4024
dot_precision_10 0.558 0.3811 0.3808 0.3394 0.3379 0.3337 0.3318 0.2966 0.2981 0.5831 0.5977 0.4892 0.4938 0.6508 0.6477 0.5938 0.5854 0.3406 0.3416 0.281 0.282
dot_recall_1 0.0419 0.2348 0.2392 0.1699 0.1756 0.2527 0.2507 0.198 0.2018 0.1452 0.1467 0.1113 0.1149 0.172 0.1623 0.1621 0.1555 0.1951 0.1967 0.1353 0.1285
dot_recall_3 0.1204 0.5443 0.5628 0.4169 0.4231 0.6675 0.6644 0.5193 0.5315 0.322 0.3398 0.2503 0.2533 0.3773 0.3628 0.3356 0.3387 0.4668 0.4798 0.3288 0.3347
dot_recall_5 0.1881 0.7428 0.7549 0.598 0.5918 0.8427 0.847 0.6856 0.6954 0.4394 0.4473 0.3487 0.3535 0.507 0.5058 0.4659 0.4575 0.6463 0.65 0.4746 0.4786
dot_recall_10 0.3279 0.9132 0.9122 0.7976 0.7953 0.9538 0.9476 0.839 0.8425 0.6349 0.6528 0.5278 0.5363 0.7238 0.7352 0.6877 0.6679 0.8122 0.813 0.6568 0.659
dot_ndcg_10 0.5958 0.8316 0.84 0.6932 0.6948 0.8748 0.8723 0.7356 0.7412 0.7736 0.7903 0.6311 0.639 0.8761 0.8649 0.7955 0.7834 0.7289 0.7331 0.5638 0.5636
dot_mrr_10 0.7013 0.8457 0.8613 0.7095 0.7126 0.8766 0.8802 0.7411 0.7513 0.8323 0.8406 0.6653 0.6867 0.921 0.9039 0.8347 0.8352 0.7572 0.7605 0.5954 0.5894
dot_map_100 0.5279 0.7784 0.7905 0.6359 0.6407 0.8227 0.8223 0.6757 0.6806 0.7563 0.7736 0.6249 0.622 0.8662 0.8475 0.7811 0.7604 0.675 0.6814 0.5149 0.514

RZTKInformation Retrieval

  • Datasets: bm-full--matryoshka_dim-768--, bm-full--matryoshka_dim-512--, bm-full--matryoshka_dim-256-- and bm-full--matryoshka_dim-128--
  • Evaluated with sentence_transformers_training.evaluation.information_retrieval_evaluator.RZTKInformationRetrievalEvaluator
Metric bm-full--matryoshka_dim-768-- bm-full--matryoshka_dim-512-- bm-full--matryoshka_dim-256-- bm-full--matryoshka_dim-128--
dot_accuracy_1 0.6258 0.6196 0.6115 0.5835
dot_precision_1 0.6258 0.6196 0.6115 0.5835
dot_recall_1 0.0419 0.0414 0.0405 0.0383
dot_ndcg_1 0.6258 0.6196 0.6115 0.5835
dot_mrr_1 0.6258 0.6196 0.6115 0.5835
dot_map_100 0.5279 0.5193 0.507 0.4668

Training Details

Training Dataset

rozetka_positive_pairs

  • Dataset: rozetka_positive_pairs
  • Size: 18,358,599 training samples
  • Columns: query and text
  • Approximate statistics based on the first 1000 samples:
    query text
    type string string
    details
    • min: 8 tokens
    • mean: 15.96 tokens
    • max: 59 tokens
    • min: 6 tokens
    • mean: 55.12 tokens
    • max: 512 tokens
  • Samples:
    query text
    query: campingaz fold n cool classic 10l dark blue passage: Термосумка Campingaz Fold'n Cool Classic 10L Dark Blue (4823082704729)
    query: campingaz fold n cool classic 10l dark blue passage: Термопродукція Campingaz Гарантія 14 днів Вид Термосумки Колір Синій з білим Режим роботи Охолодження Країна реєстрації бренда Франція Країна-виробник товару Китай Тип гарантійного талона Гарантія по чеку Можливість доставки Почтомати Доставка Premium Немає
    query: campingaz fold n cool classic 10l dark blue passage: Термосумка Campingaz Fold'n Cool Classic 10L Dark Blue (4823082704729)
  • Loss: sentence_transformers_training.model.matryoshka2d_loss.RZTKMatryoshka2dLoss with these parameters:
    {
        "loss": "RZTKMultipleNegativesRankingLoss",
        "n_layers_per_step": 1,
        "last_layer_weight": 1.0,
        "prior_layers_weight": 1.0,
        "kl_div_weight": 1.0,
        "kl_temperature": 0.3,
        "matryoshka_dims": [
            768,
            512,
            256,
            128
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": 1
    }
    

Evaluation Dataset

rozetka_positive_pairs

  • Dataset: rozetka_positive_pairs
  • Size: 214,291 evaluation samples
  • Columns: query and text
  • Approximate statistics based on the first 1000 samples:
    query text
    type string string
    details
    • min: 9 tokens
    • mean: 11.92 tokens
    • max: 15 tokens
    • min: 7 tokens
    • mean: 36.37 tokens
    • max: 172 tokens
  • Samples:
    query text
    query: redmi note 5 чехол passage: Чохол Iron для Xiaomi Redmi Note 5 / Note 5 Pro Global броньований Бампер Броня Blue Без бренду
    query: redmi note 5 чехол passage: Чохли для мобільних телефонів Iron Матеріал Пластик Колір Light Blue Форм-фактор Бампер Країна-виробник товару Китай Сумісна модель Redmi Note 5 Global Сумісна модель Redmi Note 5
    query: redmi note 5 чехол passage: Чехол Iron для Xiaomi Redmi Note 5 / Note 5 Pro Global бронированный Бампер Броня Blue
  • Loss: sentence_transformers_training.model.matryoshka2d_loss.RZTKMatryoshka2dLoss with these parameters:
    {
        "loss": "RZTKMultipleNegativesRankingLoss",
        "n_layers_per_step": 1,
        "last_layer_weight": 1.0,
        "prior_layers_weight": 1.0,
        "kl_div_weight": 1.0,
        "kl_temperature": 0.3,
        "matryoshka_dims": [
            768,
            512,
            256,
            128
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": 1
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 88
  • per_device_eval_batch_size: 88
  • learning_rate: 2e-05
  • num_train_epochs: 1.0
  • warmup_ratio: 0.1
  • bf16: True
  • bf16_full_eval: True
  • tf32: True
  • dataloader_num_workers: 4
  • load_best_model_at_end: True
  • optim: adafactor
  • push_to_hub: True
  • hub_model_id: yklymchuk-rztk/multilingual-e5-base-matryoshka2d-mnr-11
  • hub_private_repo: True
  • prompts: {'query': 'query: ', 'text': 'passage: '}
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 88
  • per_device_eval_batch_size: 88
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 1.0
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: True
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: True
  • fp16_full_eval: False
  • tf32: True
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: True
  • dataloader_num_workers: 4
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adafactor
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: True
  • resume_from_checkpoint: None
  • hub_model_id: yklymchuk-rztk/multilingual-e5-base-matryoshka2d-mnr-11
  • hub_strategy: every_save
  • hub_private_repo: True
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: {'query': 'query: ', 'text': 'passage: '}
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional
  • ddp_static_graph: False
  • ddp_comm_hook: bf16
  • gradient_as_bucket_view: False
  • num_proc: 30

Training Logs

Click to expand
Epoch Step Training Loss Validation Loss validation--matryoshka_dim-768--_dot_ndcg_10 bm-full_dot_ndcg_10 core-uk-title_dot_ndcg_10 core-ru-title_dot_ndcg_10 core-uk-options_dot_ndcg_10 core-ru-options_dot_ndcg_10 options-uk-title_dot_ndcg_10 options-ru-title_dot_ndcg_10 options-uk-options_dot_ndcg_10 options-ru-options_dot_ndcg_10 rusisms-uk-title_dot_ndcg_10 rusisms-ru-title_dot_ndcg_10 rusisms-uk-options_dot_ndcg_10 rusisms-ru-options_dot_ndcg_10 rusisms_corrected-uk-title_dot_ndcg_10 rusisms_corrected-ru-title_dot_ndcg_10 rusisms_corrected-uk-options_dot_ndcg_10 rusisms_corrected-ru-options_dot_ndcg_10 core_typos-uk-title_dot_ndcg_10 core_typos-ru-title_dot_ndcg_10 core_typos-uk-options_dot_ndcg_10 core_typos-ru-options_dot_ndcg_10 bm-full--matryoshka_dim-768--_dot_ndcg_1 bm-full--matryoshka_dim-512--_dot_ndcg_1 bm-full--matryoshka_dim-256--_dot_ndcg_1 bm-full--matryoshka_dim-128--_dot_ndcg_1
0.0050 261 4.2504 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0100 522 4.1567 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0150 783 3.7857 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0200 1044 3.2701 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0250 1305 2.4478 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0300 1566 1.7493 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0350 1827 1.5419 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0400 2088 1.2999 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0450 2349 1.1683 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0500 2610 1.2371 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0550 2871 1.0661 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0601 3132 0.965 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0651 3393 0.9489 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0701 3654 0.9034 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0751 3915 0.8823 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0801 4176 0.7987 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0851 4437 0.7175 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0901 4698 0.745 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.0951 4959 0.7636 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1000 5216 - 1.1090 0.3872 - - - - - - - - - - - - - - - - - - - - - - - - -
0.1001 5220 0.7137 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1051 5481 0.6958 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1101 5742 0.7145 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1151 6003 0.5996 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1201 6264 0.6035 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1251 6525 0.5951 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1301 6786 0.6132 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1351 7047 0.6029 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1401 7308 0.5708 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1451 7569 0.504 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1501 7830 0.4978 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1551 8091 0.5146 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1601 8352 0.51 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1651 8613 0.4613 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1701 8874 0.4675 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1752 9135 0.4645 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1802 9396 0.4637 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1852 9657 0.425 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1902 9918 0.4385 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1952 10179 0.4624 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2000 10432 - 0.8710 0.4039 - - - - - - - - - - - - - - - - - - - - - - - - -
0.2002 10440 0.4322 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2052 10701 0.4548 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2102 10962 0.4412 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2152 11223 0.4277 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2202 11484 0.4199 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2252 11745 0.3891 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2302 12006 0.4149 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2352 12267 0.3972 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2402 12528 0.4031 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2452 12789 0.4218 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2502 13050 0.4247 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2552 13311 0.3823 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2602 13572 0.3589 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2652 13833 0.3791 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2702 14094 0.3377 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2752 14355 0.3603 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2802 14616 0.3514 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2852 14877 0.3689 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2903 15138 0.3502 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2953 15399 0.3469 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3000 15648 - 0.7582 0.4098 - - - - - - - - - - - - - - - - - - - - - - - - -
0.3003 15660 0.3515 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3053 15921 0.3592 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3103 16182 0.3272 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3153 16443 0.3502 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3203 16704 0.3497 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3253 16965 0.3427 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3303 17226 0.3398 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3353 17487 0.3261 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3403 17748 0.3432 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3453 18009 0.3318 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3503 18270 0.336 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3553 18531 0.328 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3603 18792 0.3413 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3653 19053 0.3441 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3703 19314 0.3449 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3753 19575 0.3525 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3803 19836 0.3797 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3853 20097 0.3139 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3903 20358 0.2878 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3953 20619 0.3234 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4000 20864 - 0.6852 0.4144 - - - - - - - - - - - - - - - - - - - - - - - - -
0.4003 20880 0.3174 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4053 21141 0.3265 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4104 21402 0.3322 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4154 21663 0.3124 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4204 21924 0.3013 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4254 22185 0.2926 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4304 22446 0.3004 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4354 22707 0.3018 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4404 22968 0.3004 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4454 23229 0.3112 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4504 23490 0.3107 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4554 23751 0.301 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4604 24012 0.3051 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4654 24273 0.3476 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4704 24534 0.3427 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4754 24795 0.3007 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4804 25056 0.2903 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4854 25317 0.3095 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4904 25578 0.281 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4954 25839 0.2923 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5000 26080 - 0.6535 0.4164 - - - - - - - - - - - - - - - - - - - - - - - - -
0.5004 26100 0.2977 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5054 26361 0.2954 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5104 26622 0.3067 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5154 26883 0.273 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5204 27144 0.286 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5255 27405 0.302 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5305 27666 0.3036 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5355 27927 0.3032 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5405 28188 0.2931 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5455 28449 0.2901 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5505 28710 0.2852 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5555 28971 0.3117 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5605 29232 0.4105 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5655 29493 0.3893 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5705 29754 0.3069 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5755 30015 0.3036 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5805 30276 0.3161 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5855 30537 0.2947 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5905 30798 0.2785 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5955 31059 0.2654 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6001 31296 - 0.6642 0.4199 - - - - - - - - - - - - - - - - - - - - - - - - -
0.6005 31320 0.2639 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6055 31581 0.2973 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6105 31842 0.2575 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6155 32103 0.2512 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6205 32364 0.2414 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6255 32625 0.2815 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6305 32886 0.2937 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6355 33147 0.3234 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6406 33408 0.2969 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6456 33669 0.2728 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6506 33930 0.2886 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6556 34191 0.2885 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6606 34452 0.286 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6656 34713 0.2908 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6706 34974 0.2708 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6756 35235 0.3075 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6806 35496 0.2866 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6856 35757 0.2714 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6906 36018 0.2659 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6956 36279 0.2548 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7001 36512 - 0.6313 0.4194 - - - - - - - - - - - - - - - - - - - - - - - - -
0.7006 36540 0.252 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7056 36801 0.2746 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7106 37062 0.2706 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7156 37323 0.2527 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7206 37584 0.298 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7256 37845 0.2836 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7306 38106 0.2693 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7356 38367 0.2803 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7406 38628 0.2755 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7456 38889 0.2757 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7506 39150 0.2836 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7557 39411 0.2892 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7607 39672 0.2676 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7657 39933 0.2878 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7707 40194 0.306 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7757 40455 0.2896 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7807 40716 0.2833 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7857 40977 0.2705 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7907 41238 0.2808 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7957 41499 0.2976 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8001 41728 - 0.6242 0.4198 - - - - - - - - - - - - - - - - - - - - - - - - -
0.8007 41760 0.2751 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8057 42021 0.2837 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8107 42282 0.2765 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8157 42543 0.2986 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8207 42804 0.274 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8257 43065 0.2644 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8307 43326 0.2857 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8357 43587 0.3037 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8407 43848 0.2805 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8457 44109 0.2765 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8507 44370 0.2606 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8557 44631 0.2905 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8607 44892 0.2864 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8657 45153 0.2652 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8708 45414 0.2718 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8758 45675 0.3121 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8808 45936 0.2799 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8858 46197 0.296 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8908 46458 0.2692 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8958 46719 0.2758 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9001 46944 - 0.6567 0.4203 - - - - - - - - - - - - - - - - - - - - - - - - -
0.9008 46980 0.2864 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9058 47241 0.2736 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9108 47502 0.3033 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9158 47763 0.2848 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9208 48024 0.3088 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9258 48285 0.2677 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9308 48546 0.2535 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9358 48807 0.2826 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9408 49068 0.2669 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9458 49329 0.2626 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9508 49590 0.2825 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9558 49851 0.2715 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9608 50112 0.2765 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9658 50373 0.2464 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9708 50634 0.268 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9758 50895 0.2739 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9808 51156 0.2835 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9858 51417 0.3003 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9909 51678 0.2907 - - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9959 51939 0.2952 - - - - - - - - - - - - - - - - - - - - - - - - - - -
1.0000 52154 - - - 0.5958 0.8316 0.8400 0.6932 0.6948 0.8748 0.8723 0.7356 0.7412 0.7736 0.7903 0.6311 0.6390 0.8761 0.8649 0.7955 0.7834 0.7289 0.7331 0.5638 0.5636 0.6258 0.6196 0.6115 0.5835
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.11.10
  • Sentence Transformers: 3.3.0
  • Transformers: 4.46.3
  • PyTorch: 2.5.1+cu124
  • Accelerate: 1.1.1
  • Datasets: 3.1.0
  • Tokenizers: 0.20.3

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
Downloads last month
3
Safetensors
Model size
278M params
Tensor type
BF16
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.

Model tree for yklymchuk-rztk/multilingual-e5-base-matryoshka2d-mnr-11

Quantized
(32)
this model

Evaluation results