---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:126423
- loss:MultipleNegativesRankingLoss
base_model: sentence-transformers/LaBSE
widget:
- source_sentence: چگونه باید درست از سال اول آماده شوم تا Google Summer of Code را
ترک کنم؟
sentences:
- یک پروژه ترم خوب برای یک دوره تجزیه و تحلیل مدار چیست؟
- چگونه می توانم تابستان کد GSOC-Google را ترک کنم؟
- یک بازیکن فوتبال در حال پوشیدن بازوبندهای مشکی است
- source_sentence: چه معنایی دارد وقتی یک دختر یک روز برای پاسخ به متن شما می رود؟
sentences:
- وقتی دختران یک روز بعد به یک متن پاسخ می دهند چیست؟
- چه کسی باید در سال 2017 به عنوان رئیس جمهور هند انتخاب شود؟
- دریافت تابش از لپ تاپ من چقدر مضر است؟
- source_sentence: اقدامات احتیاطی ایمنی در مورد استفاده از اسلحه های پیشنهادی NRA
در ماساچوست چیست؟
sentences:
- چه کسی بیشترین پیروان را در Quora دارد؟
- اقدامات احتیاطی ایمنی در مورد استفاده از اسلحه های پیشنهادی NRA در نیوجرسی چیست؟
- خواهرم عادت عجیبی دارد که در محل کار خود بخوابد.او چه کاری باید انجام دهد؟
- source_sentence: چگونه می توانم انگلیسی شفاهی را به خوبی یاد بگیرم؟
sentences:
- چه کاری انجام می دهم اگر من انگلیسی را خوب یاد بگیرم؟
- چگونه می توانم مکانیک کوانتومی را درک کنم؟
- بهترین راه برای تمیز کردن مانیتورهای LCD چیست؟
- source_sentence: من می خواهم آماده سازی برای امتحان IAS را شروع کنم ، چگونه باید
ادامه دهم؟
sentences:
- کشورهایی را که ایالت اسرائیل را به رسمیت نمی شناسند نامگذاری کنید؟
- چگونه می توانم آماده سازی برای آزمون UPSC را شروع کنم؟
- یک کوهنورد یک صخره را میگیرد و مرد دیگر یک دیوار را با طناب میبندد
pipeline_tag: sentence-similarity
library_name: sentence-transformers
---
# SentenceTransformer based on sentence-transformers/LaBSE
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/LaBSE](https://huggingface.co/sentence-transformers/LaBSE). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [sentence-transformers/LaBSE](https://huggingface.co/sentence-transformers/LaBSE)
- **Maximum Sequence Length:** 256 tokens
- **Output Dimensionality:** 768 dimensions
- **Similarity Function:** Cosine Similarity
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Dense({'in_features': 768, 'out_features': 768, 'bias': True, 'activation_function': 'torch.nn.modules.activation.Tanh'})
(3): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("codersan/FaLaBSE-v10")
# Run inference
sentences = [
'من می خواهم آماده سازی برای امتحان IAS را شروع کنم ، چگونه باید ادامه دهم؟',
'چگونه می توانم آماده سازی برای آزمون UPSC را شروع کنم؟',
'یک کوهنورد یک صخره را می\u200cگیرد و مرد دیگر یک دیوار را با طناب می\u200cبندد',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 126,423 training samples
* Columns: anchor
and positive
* Approximate statistics based on the first 1000 samples:
| | anchor | positive |
|:--------|:-----------------------------------------------------------------------------------|:---------------------------------------------------------------------------------|
| type | string | string |
| details |
خانواده در حال تماشای یک پسر کوچک است که به توپ بیسبال ضربه میزند
| خانواده در حال تماشای پسری است که به توپ بیسبال ضربه میزند
|
| چرا هند باید محصولات چین را خریداری کند اگر آنها محصولات ما را خریداری نکنند؟ و بیشتر از آن در برابر هند است از هر جنبه ای. آیا ما محصولات چینی را تحریم می کنیم؟
| اگر چین خیلی مخالف هند است ، چرا هندی ها از خرید محصولات چینی دست نمی کشند؟
|
| چه تفاوتی بین همه جانبه و قادر مطلق وجود دارد؟
| تفاوت های بین همه چیز و قادر مطلق چیست؟
|
* Loss: [MultipleNegativesRankingLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `per_device_train_batch_size`: 32
- `learning_rate`: 2e-05
- `weight_decay`: 0.01
- `num_train_epochs`: 2
- `batch_sampler`: no_duplicates
#### All Hyperparameters