SMARTICT's picture
Upload README.md with huggingface_hub
15dad46 verified
---
language:
- en
license: apache-2.0
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:8970
- loss:MultipleNegativesRankingLoss
base_model: BAAI/bge-small-en-v1.5
widget:
- source_sentence: 'Seri konum efekti tarafından oluşturulan şeklindeki seri konum
eğrisini gösteren grafik. ''''''Seri konum etkisi'''''', bir kişinin, bir serideki
ilk ve son ögeleri en iyi; ortanca ögeleri en kötü hatırlama eğilimidir. Bu terim,
Hermann Ebbinghaus tarafından kendi üzerine yaptığı çalışmalar ile ve bu terim,
hatırlama doğruluğunun, bir ögenin bir çalışma listesindeki konumunun bir fonksiyonu
olarak değiştiği bulgusuna değinmektedir. Sırası fark etmeksizin (serbest hatırlama)
listedeki ögelerin hatırlanması istenildiğinde, insanlar listenin sonundaki ögeleri
hatırlamaya başlama eğilimindedir ve bu ögeleri en iyi şekilde hatırlarlar (''''''sonluk
etkisi''''''). Daha önceki liste ögeleri arasında, ilk birkaç öge, orta ögelerden
daha sık hatırlanır (''''''ilklik etkisi''''''). İlklik etkisi için önerilen bir
neden, sunulan ilk ögelerin kendilerine ayrılmış daha fazla miktarda işlem nedeniyle
en etkin şekilde hareketsiz bellekte depolanmasıdır. (İlk liste ögesi kendi başına
prova edilebilir; ikincisi, birincisi ile birlikte prova edilmek zorundadır, üçüncü,
birincisi ve ikincisi ile birlikte, ve böyle devam eder.) Ögeler hızlı bir şekilde
sunulduğunda ilklik etkisi azalır ve yavaş sunulduğunda artar (her bir ögenin
işlenmesini ve böylece kalıcı depolanmasını azaltan ve arttıran faktörler). Daha
uzun sunum listelerinin ilklik etkisini azalttığı bulunmuştur. Sonluk etkisi için
teorileşmiş bir neden, bu ögelerin geri hatırlanması talep edildiğinde hala aktif
hafızada bulunmasıdır. Hiçbirinden yararlanmayan ögeler (ortanca ögeler) en kötü
şekilde geri çağrılır. Sonluk etkisi için ek bir açıklama zamansal bağlamla ilgilidir:
Mevcut zamansal bağlam, daha yeni ögelerin, farklı bir zamansal bağlamda (listenin
başlarında) incelenen ögelere göre daha yüksek geri hatırlama olasılığına sahip
olacağını haber veren bir geri hatırlama işareti olarak kullanılabilir. Araya
giren bir görev verildiğinde sonluk etkisi azalır. Araya giren görevler, çalışan
belleği kullanır, ve dikkat dağıtıcı aktivite süresi 15 ila 30 saniyeyi aşarsa,
sonluk etkisini bozabilir. Ek olarak, geri hatırlama testten hemen sonra gelirse,
sonluk etkisi çalışılan listenin uzunluğuna, veya sunum hızına bakılmaksızın istikrarlıdır.
Kalıcı uzun süreli hafıza oluşturma kabiliyeti zayıf olan amnezyaklar ilklik etkisi
göstermezler, ancak hatırlama çalışmadan hemen sonra gelirse bir sonluk etkisi
gösterirler. Alzheimer hastalığı olan kişiler daha düşük bir ilklik etkisi sergiler,
ancak hatırlamada bir sonluk etkisi göstermezler. İlklik etkisi İlklik etkisi,
psikolojide ve sosyolojide, kişinin ilk verilen bilgiyi daha sonra verilen bilgiden
daha iyi hatırlamasına neden olan bir bilişsel önyargıdır. Örneğin, yeterince
uzun bir kelime listesini okuyan bir kişinin, listenin başındaki kelimeleri hatırlaması
listenin ortasındakileri hatırlamasından daha yüksek ihtimallidir. Birçok araştırmacı
bu olguyu serbest hatırlama null testler yoluyla açıklamaya çalışmıştır. Coluccia,
Gamboz ve Brandimonte (2011), serbest hatırlamayı katılımcıların herhangi bir
telkin olmaksızın bilgileri hatırlamaya çalışması olarak açıklamaktadır. 20. yüzyılın
sonlarındaki bazı deneylerde, kendilerine sunulan bir listede test edileceklerini
bilen katılımcıların ögeleri prova edeceği kaydedildi: Ögeler sunulduğunda katılımcılar
bu ögeleri kendilerine tekrar edecek ve yeni ögeler sunuldukça katılımcılar daha
yeni maddelerle birlikte önceki ögeleri prova etmeye devam edeceklerdi. İlklik
etkisinin ögelerin sunumu arasında daha fazla zaman olduğunda hatırlama üzerinde
daha büyük bir etkisi olduğu, böylece katılımcıların önceki (asal) ögeleri prova
etme şansının daha yüksek olacağı gösterilmiştir. Açık prova katılımcıların prova
örüntülerini test etmek için kullanılan bir teknikti. Bu tekniğin kullanıldığı
bir deneyde, katılımcılardan akla gelen ögeleri yüksek sesle söylemeleri istendi.
Bu şekilde deneyci, katılımcıların listenin başındaki ögeleri listenin ortasındaki
ögelerden daha çok böylece onları daha sık prova yapacağını ve daha sonra listenin
ortasındaki ögelerden daha iyi hatırlayacağını görebildi. Brodie ve Murdock tarafından
yapılan başka bir deneyde, sonluk etkisinin ilklik etkisinden kısmen sorumlu olduğu
bulunmuştur. Deneylerinde, aynı zamanda açık prova tekniğini kullandılar ve katılımcıların
daha önceki ögeleri daha fazla prova yapmasının yanı sıra, listenin başındaki
kelimeleri provada daha sonra söylediklerini keşfettiler. Bu şekilde, daha önceki
ögeler prova yolu sayesinde test sonuna daha yakındı ve kısmen sonluk etkisi ile
2013 yılında yapılan bir araştırma, ilklik etkisinin, edimsel koşullama olarak
da bilinen bir öğrenme süreci olan tekrarlanan seçim deneyime dayalı karar verme
sürecinde de önemli olduğunu göstermiştir. Yazarlar, takip eden davranışın ilk
ödülünün değerine verilen önemi göstermiş ve bu olguyu sonuç önceliği olarak ifade
etmişlerdir. Başka bir çalışmada, katılımcılar iki cümleden birini aldı. Örneğin,
cümlelerin biri "Steve akıllı, çalışkan, eleştirel, fevri ve kıskançtır."; diğeri
ise "Steve kıskanç, fevri, eleştirel, çalışkan ve akıllıdır." olabilir. Bu iki
cümle aynı bilgileri içerir. Birincisi başlangıçta pozitif özellikleri gösterirken,
ikincisi olumsuz özelliklere sahiptir. Araştırmacılar, katılımcıların Steve''i
ilk cümle verildiğinde ikincisine kıyasla daha olumlu buldular. Sonluk etkisi
İki geleneksel teori sınıfı sonluk etkisini açıklar. Çift depo modelleri Bu modeller,
en son listelenen çalışma ögelerinin oldukça erişilebilir kısa süreli ara bellekten,
yani insan hafızasındaki kısa süreli depodan (KSD) alındığını varsayar. Bu, daha
sonra incelenen ögelerin, daha önce incelenen ögelere göre bir avantaja sahip
olmasını sağlar, çünkü daha önceki çalışma ögelerinin uzun süreli bellek deposundan
(USD) geriye getirilmesi için daha fazla çaba harcanması gerekir. Bu tür modellerin
önemli bir tahmini, alıkoyma döneminde (liste sunumu ile test arasındaki süre)
10-30 saniye aritmetik problemleri çözme gibi dikkat dağıtıcı bir sunumun yenilik
etkisini azaltmasıdır. KSD sınırlı kapasiteye sahip olduğundan, dikkat dağınıklığı
daha sonraki çalışma listesi ögelerini KSD''den değiştirir, böylece testte bu
ögeler sadece USD''den alınabilir ve kısa süreli ara bellekten daha kolay alınabilme
avantajlarını yitirebilir. Bu nedenle, çift depolu modeller, hem anlık hatırlama
görevlerindeki sonluk etkisini hem de gecikmeli serbest geri hatırlama görevinde
böyle bir etkinin zayıflamasını başarılı bir şekilde açıklar. Bununla birlikte,
bu modelle ilgili büyük bir sorun, uyarıcılar arası zaman aralığı (aralıksız çeldirici
görev) sırasında her çalışma maddesi arasında bir dikkat dağılması olduğunda,
gecikmeli hatırlamada gözlemlenen uzun süreli etkisini tahmin edememesidir. Dikkatin
dağılması, son çalışma maddesinden sonra hala mevcut olduğundan, çalışma maddesini
KSD''den, sonluk etkisi azaltılacak şekilde Bu uzun vadeli sonluk etkisinin varlığı,
anlık ve uzun süreli sonluk etkilerinin ortak bir mekanizmayı paylaşması olasılığını
arttırmaktadır. Tek depo modelleri Tek depo teorilerine göre, dizisel konum etkilerinden
tek bir mekanizma sorumludur. İlk model türü, her bir liste ögesinin incelenmesi
ile test arasındaki sürenin, bir ögenin alınırken bellek izinin göreceli rekabetçiliğini
belirlediği göreceli zamansal farklılığa dayanmaktadır. Bu modelde, liste sonu
ögelerinin daha belirgin ve dolayısıyla daha kolay alınabileceği Başka bir model
türü, ögelerin bellekten geri alınmasının yalnızca kişinin çalışma ögesinin kendisini
değil, aynı zamanda çalışma bağlamını zihinsel temsiline bağlı olduğunu öne süren
bağlamsal değişkenliğe dayanmaktadır. Bağlam zamanla değiştiğinden ve gittikçe
değiştiğinden, bellek ögelerini geri almak için yarıştığında, anlık serbest hatırlama
testinde, daha yakın zamanda incelenen ögelerin test bağlamıyla daha benzer kodlama
bağlamları olacaktır ve geriye getirme olasılığı daha yüksektir. Anlık serbest
hatırlama dışında, bu modeller gecikmeli serbest hatırlama ve sürekli çeldirici
serbest hatırlama koşullarında sonluk etkisinin varlığını veya yokluğunu da tahmin
edebilir. Gecikmeli hatırlama koşulları altında, test bağlamı artan tutma aralığıyla
uzaklaşarak zayıflamış bir sonluk etkisi yaratır. Sürekli çeldirici hatırlama
koşullarında, artan yorumlama aralıkları çalışma bağlamı ve test bağlamı arasındaki
benzerlikleri azaltırken, maddeler arasındaki göreli benzerlikler değişmeden kalmaktadır.
Hatırlama işlemi rekabetçi olduğu sürece, son ögeler kazanacaktır, bu nedenle
bir sonluk etkisi gözlenir. Oran kuralı Genel olarak, sonluk etkisi ile ilgili
önemli bir ampirik gözlem, mutlak tutma aralıkları (çalışma sonu ile test süresi
arasındaki süre) veya sunumlar arası aralıklar (farklı çalışma ögeleri arasındaki
süre) olmamasıdır. Bunun yerine, sonluk miktarı ile belirlenen oran; mutlak tutma
aralıkları ve sunumlar arası aralıklar oranı (oran kuralı). Sonuç olarak, bu oran
sabit kaldığı sürece, aralıkların mutlak değerlerinden bağımsız olarak yenilik
gözlenecektir, böylece ''''''zaman ölçeği değişmezliği'''''' olarak bilinen bir
fenomen olan tüm zaman ölçeklerinde yenilik gözlenebilir. Bu, yeniliğin KSD''nin
büyüklüğüne ve KSD''deki ögelerin yer değiştirmesini yöneten kurala bağlı olduğunu
varsayan çift depo modelleri ile çelişmektedir. Olası açıklamalar daha sonra tek,
aynı bir mekanizma yoluyla ortaya çıkan sonluk etkisini açıklar ya da anlık ve
uzun süreli sonluk etkileri için iki farklı mekanizmayı öngörebilen farklı bir
modelle yeniden açıklar. Böyle bir açıklama Davelaar ve ark. (2005), tek bileşenli
bir bellek modeli tarafından açıklanamayan anlık ve uzun süreli sonluk fenomenleri
arasında ayrışmalar olduğunu, anlık ve sonluk açıklayan bir KSD''nin varlığını
savunan ve bir saniye uzun süreli sonluğu açıklayan bağlamsal kaymaya dayanan
mekanizmadır. İlgili etkiler 1977''de William Crano özellikle birbirinin zıttı
olduğu söylenen ilklik ve sonluk etkileri başta olmak üzere sıra etkilerinin doğasını
belirten bir çalışma hazırlamaya karar verdi. Crano tarafından test edilen özellikler:
Anlam değişimi hipotezi Bir listenin başındaki ögeler, katılımcıların listenin
geri kalanının da uymasını beklediği bir tema oluşturur. Katılımcı, listedeki
bazı kelimelerin anlamlarını belirlediği beklentiye uyacak şekilde değiştirir.
Watkins ve Peynircioğlu (1984), katılımcıların kelimelerin anlamlarını değiştirerek
belirlenen temadan uzaklaşarak da olsa sunulan bilgideki sapmayı azalttığını açıklamıştır.
Tutarsızlık durumda saymama Katılımcılar, kendilerine sunulan önceki maddelerle
tutarlı olmayan bilgileri dikkate almazlar. Başka bir deyişle, tutarsızlık durumda
saymama, sunulan diğer bilgilerle tutarsız olan bilgileri tutarlı olanlardan daha
az önemli görmeyi içerir (Devine ve Ostrom, 1985). Dikkat azaltma hipotezi Önce
sunulan bilgilerin katılımcılar üzerinde daha sonra sunulan bilgilerden daha fazla
etkisi vardır ve bu bilgiler tutarlı olsa bile öncelikli bir etkinin ortaya çıkmasına
neden olur. Steiner ve Rain (1989) insanların başlangıçta sunulan bilgilere daha
fazla dikkat ettiklerini, ancak kendilerine sonradan sunulan bilgilere giderek
daha az dikkat ettiklerini açıklamaktadır. İlklik etkisi, katılımcıların başlangıç
bilgilerine dikkat etmeleri ve daha sonra sunulan bilgileri görmezden gelmeleri
nedeniyle oluşur. Öte yandan, katılımcılar sürekli olarak bilgiye dikkat etmek
zorunda oldukları bir durumdaysa, sonluk etkisi oluşabilir. ''''''Süreklilik etkisi''''''
veya gecikme etkisi, başarılı bir geri çağırma sonra, bir sonraki geri çağrılan
ögenin, yakın bir seri konumdan ziyade, uzak bir seri konumdan gelme olasılığının
düşük olduğunu tahmin eder (Kahana, Howard, Zaromb ve Wingfiend, 2002). İki ögenin
seri konumu arasındaki fark seri konum gecikmesi olarak adlandırılır. Koşullu
yanıt olasılığı olarak adlandırılan bir başka faktör, belirli bir seri konum gecikmesini
hatırlama olasılığıdır. Ayrıca bakınız Anchoring Clive Wearing Serbest Hatırlama
Henry Molaison İknada İlklik Yasası Öğrenme Eğrisi Hafıza Eğilimleri Listesi Bilişsel
Eğilimler Listesi Sonucun İlkliği Öğrenme İlkeleri Tepe-Uç Kuralı Anımsama Yumrusu
Kaynakça ;Atıflar ;Basılı eserler Konuyla ilgili yayınlar Liebermann, David A.
L''''earning and memory: An integrative approach.'''' Belmont, CA: Thomson Wadsworth,
2004, Kategori:Bellek süreçleri eğilimler'
sentences:
- Sultan Bey'in hayatının ikinci kısmını oluşturan önemli olay nedir?
- Aslanbaba hangi ilçeye bağlı bir mahalledir?
- Seri konum eğrisinin şeklini hangi etmenlerin belirlediği anlatıyor musunuz?
- source_sentence: (doğum adı '''David Gordon Kirkpatrick''' 13 Haziran 1927 19 Eylül
2003), Avustralyalı country müzik şarkıcısı ve söz yazarıydı. Avustralya için
bir kültür ikonuydu ve ülkenin en çok ödül alan yıldızlarından biriydi. Haziran
1927'de Nulla Nulla Creek'te bir çiftçinin oğlu olarak doğan Dusty, ilk şarkısı
"The Way the Cowboy Dies"ı 1937'de yazdı ve 1938'de 11 yaşındayken "Slim Dusty"
sahne adını aldı. Yetmiş yıla yakın kariyerinde çok sayıda kayıt yaptı. Yüzden
fazla albüm çıkardı, yedi milyondan fazla kayıt sattı ve 70'in üzerinde altın
ve platin albüm sertifikası kazandı". Sidney 2000 Olimpiyat Oyunlarının kapanış
töreninde Avustralya'da çok ünlü bir şarkı olan "Waltzing Matilda" seslendirdi.
1951'de Dusty, şarkıcı-söz yazarı Joy McKean ile evlendi ve onun desteğiyle Avustralya'da
büyük başarılar elde etti. Çiftin, şarkıcı-söz yazarı olan Anne Kirkpatrick ve
David Kirkpatrick adlı iki çocukları oldu. Akciğer ve böbrek kanseri ile uzun
bir mücadelenin ardından 19 Eylül 2003'te 76 yaşında Yeni Güney Galler'deki evinde
öldü. Kaynakça Hristiyanlar erkek şarkıcı-şarkı yazarları Şeref Nişanı sahipleri
erkek gitaristler kanserinden ölenler Kategori:Böbrek kanserinden ölenler Kategori:Yeni
Güney Galler'de kanserden ölenler asıllı Avustralyalılar gitaristler country şarkıcıları
Kategori:ARIA Hall of Fame üyeleri Kategori:ARIA Ödülü sahipleri Kategori:APRA
Ödülü sahipleri gitaristler Kategori:21. yüzyıl gitaristleri Kategori:20. yüzyıl
gitaristleri Kategori:2003 yılında ölenler Kategori:1927 doğumlular
sentences:
- Bu Hollandalı aktrisin adı nedir?
- Kimdi Slim Dusty?
- Dusty Springfield hangi hastalıktan öldü?
- source_sentence: 14 Aralık 1929 tarihli Milliyet gazetesinde İstanbul'da Kır Koşusu
Eski logosu '''Türkiye Atletizm Federasyonu''' ('''TAF'''), atletizm sporunun
Türkiye'deki yönetim teşkilatı olan spor federasyonu. 1922'de Türkiye İdman Cemiyetleri
İttifakı (TİCİ) bünyesinde kurulan Türkiye Atletizm Federasyonu, aynı yıl Uluslararası
Atletizm Federasyonları Birliği (IAAF) üyeliğine kabul edildi. Görev yapmış başkanlar
Türkiye Atletizm Federasyonu'nun kronolojik sırayla başkanları; Ali Seyfi Beyti
Ahmet Fetgeri Burhan Felek Vildan Aşir Savaşır Saffet Gürol Adnan Hün İrfan Şahinbaş
İsmail Hakkı Güngör Ali Naili Moran Refik Tagay Sadun Özdede Nejat Kök Behçet
Beylem Erol Zorlu Kurthan Fişek Jerfi Fıratlı Nuri Turan Abdullah Kökpınar Cüneyt
Koryürek Yılmaz Sazak İlker Çetin Hüseyin Manioğlu Ali Ergenç Muharrem Dalkılıç
Aşkın Tuna Fikret Çetinkaya Semra Aksu Hüseyin Yıldırım Mehmet Yurdadön Mehmet
Terzi Hüseyin Yıldırım Fatih Çintimar Kaynakça Dış bağlantılar Federasyonun resmi
sitesi Atletizm Federasyon Kategori:Avrupa Atletizm Birliği üyesi federasyonlar
Kategori:Ankara merkezli kuruluşlar Osmanlı kurulan oluşumlar kurulan spor kuruluşları
sentences:
- Leandro Pereira kimdir?
- Türkiye Atletizm Federasyonu ne zaman kuruldu?
- P.E.N. nedir?
- source_sentence: '''''İlkbaharda Dağ Yolunda Yürümek'''' ''''''Ma Yuan'''''' (;
1160''lar-1225), Güney Song Hanedanı döneminde yaşamış Çinli bir ressamdı. Çalışmaları,
Xia Gui''ninkiyle birlikte, sözde Ma-Xia resim okulunun temelini oluşturdu ve
dönemin en iyileri arasında kabul edilmektedir. Eserleri hem Zhe okulunun Çinli
sanatçılarına hem de ilk Japon ressamlar Shūbun ve Sesshū''ye ilham verdi. Kaynakça
Dunlop, Ronald Ossory. 1954. ''''Landscape Painting: Ma Yüan to Picasso''''. London:
Seeley, Service Co. Little, Stephen. '''' Taoism and the Arts of China,'''' p.
160. Chicago: Art Institute of Chicago. Dış bağlantılar Ma Yuan Painting Gallery
at China Online Museum Sung and Yuan paintings an exhibition catalog from The
Metropolitan Museum of Art Libraries (fully available online as PDF), which contains
material on Ma Yuan (see list of paintings) doğanlar doğumlular Kategori:1225
yılında ölenler Kategori:Çinli ressamlar Kategori:Song Hanedanı kişileri Kategori:12.
yüzyıl ressamları Kategori:13. yüzyıl ressamları'
sentences:
- Denon hangi sanatsal hareketle ilişkilendirilir?
- Hammâd bin Süleyman'ın hocası kimdir?
- Ma Yuan hangi okulun ressamıydı?
- source_sentence: 'veya ''''''Afrika insansıları'''''', ilk kez John Edward Gray
tarafından 1825 yılında tanımlanmış bir Hominidae alt familyasıdır. Açıklama (insansı)
aile ağacı sol Mevcut (5 tür) ve soyu tükenmiş türleriyle birlikte iki oymak içerir:
''''''Hominini'''''' oymağı ve ''''''Gorillini'''''' oymağı. Kimi yazarlar ise,
''''Pan'''' cinsinin bazen kendi üçüncü oymağı Panini''ye ait olduğunu düşünür.
Homininae, orangutanların (Ponginae alt familyası) hominid soyundan ayrılmasından
(yaklaşık 16 myö) sonra ortaya çıkan, insanlarla orangutanlara göre daha yakın
akraba olan tüm hominidleri içerir. Bu alt familyadaki canlılar, ''''hominine''''
veya ''''hominineler'''' olarak tanımlanır. Evrim Homininae alt familyasının yaşı
son ortak atası) tahminlere göre 14 ila 12.5 milyon yıldır Gorillini ve Hominini
oymaklarına ayrılmasının ("goril insan son ortak atası", GHLCA) geç Miyosen''de,
nakayamai''''nin yaşadığı döneme yakın bir zamanda, ila 10 milyon yıl önce gerçekleştiği
tahmin edilmiştir (TGHLCA). ''''Pan-Homo'''' bölünmesine kadar (5-7 myö) gorillerin
ve ''''Pan-Homo'''' atalarının melezlendiğine dair kanıtlar vardır. Filogeni Parins-Fukuchi
''''ve 2019''daki çalışmasına göre oluşturulmuş, soyu tükenmiş homininleri içeren
bir Homininae kladogramı: Ayrıca bakınız son ortak ata Ponginae Notlar Kaynakça
Dış bağlantılar Kategori:John Edward Gray tarafından adlandırılmış taksonlar tanımlanan
taksonlar'
sentences:
- Homininae alt familyası ilk kez ne zaman ve kim tarafından tanımlandı?
- Amr Hassan Zaki hangi takımlarda forma giymiştir?
- KKTC spor kulübü hangi şehirde kurulmuştur?
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- cosine_accuracy@1
- cosine_accuracy@3
- cosine_accuracy@5
- cosine_accuracy@10
- cosine_precision@1
- cosine_precision@3
- cosine_precision@5
- cosine_precision@10
- cosine_recall@1
- cosine_recall@3
- cosine_recall@5
- cosine_recall@10
- cosine_ndcg@10
- cosine_mrr@10
- cosine_map@100
model-index:
- name: bge-small-en-v1.5-tr-rag-v1
results:
- task:
type: information-retrieval
name: Information Retrieval
dataset:
name: dim 384
type: dim_384
metrics:
- type: cosine_accuracy@1
value: 0.6088264794383149
name: Cosine Accuracy@1
- type: cosine_accuracy@3
value: 0.6850551654964895
name: Cosine Accuracy@3
- type: cosine_accuracy@5
value: 0.7171514543630892
name: Cosine Accuracy@5
- type: cosine_accuracy@10
value: 0.7482447342026078
name: Cosine Accuracy@10
- type: cosine_precision@1
value: 0.6088264794383149
name: Cosine Precision@1
- type: cosine_precision@3
value: 0.22835172183216315
name: Cosine Precision@3
- type: cosine_precision@5
value: 0.14343029087261785
name: Cosine Precision@5
- type: cosine_precision@10
value: 0.07482447342026077
name: Cosine Precision@10
- type: cosine_recall@1
value: 0.6088264794383149
name: Cosine Recall@1
- type: cosine_recall@3
value: 0.6850551654964895
name: Cosine Recall@3
- type: cosine_recall@5
value: 0.7171514543630892
name: Cosine Recall@5
- type: cosine_recall@10
value: 0.7482447342026078
name: Cosine Recall@10
- type: cosine_ndcg@10
value: 0.6771265619538723
name: Cosine Ndcg@10
- type: cosine_mrr@10
value: 0.654520704972059
name: Cosine Mrr@10
- type: cosine_map@100
value: 0.6582962117755787
name: Cosine Map@100
---
# bge-small-en-v1.5-tr-rag-v1
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [BAAI/bge-small-en-v1.5](https://huggingface.co/BAAI/bge-small-en-v1.5) on the json dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [BAAI/bge-small-en-v1.5](https://huggingface.co/BAAI/bge-small-en-v1.5) <!-- at revision 5c38ec7c405ec4b44b94cc5a9bb96e735b38267a -->
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 384 dimensions
- **Similarity Function:** Cosine Similarity
- **Training Dataset:**
- json
- **Language:** en
- **License:** apache-2.0
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': True}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("bge-small-en-v1.5-tr-rag-v1")
# Run inference
sentences = [
'veya \'\'\'Afrika insansıları\'\'\', ilk kez John Edward Gray tarafından 1825 yılında tanımlanmış bir Hominidae alt familyasıdır. Açıklama (insansı) aile ağacı sol Mevcut (5 tür) ve soyu tükenmiş türleriyle birlikte iki oymak içerir: \'\'\'Hominini\'\'\' oymağı ve \'\'\'Gorillini\'\'\' oymağı. Kimi yazarlar ise, \'\'Pan\'\' cinsinin bazen kendi üçüncü oymağı Panini\'ye ait olduğunu düşünür. Homininae, orangutanların (Ponginae alt familyası) hominid soyundan ayrılmasından (yaklaşık 16 myö) sonra ortaya çıkan, insanlarla orangutanlara göre daha yakın akraba olan tüm hominidleri içerir. Bu alt familyadaki canlılar, \'\'hominine\'\' veya \'\'hominineler\'\' olarak tanımlanır. Evrim Homininae alt familyasının yaşı son ortak atası) tahminlere göre 14 ila 12.5 milyon yıldır Gorillini ve Hominini oymaklarına ayrılmasının ("goril insan son ortak atası", GHLCA) geç Miyosen\'de, nakayamai\'\'nin yaşadığı döneme yakın bir zamanda, ila 10 milyon yıl önce gerçekleştiği tahmin edilmiştir (TGHLCA). \'\'Pan-Homo\'\' bölünmesine kadar (5-7 myö) gorillerin ve \'\'Pan-Homo\'\' atalarının melezlendiğine dair kanıtlar vardır. Filogeni Parins-Fukuchi \'\'ve 2019\'daki çalışmasına göre oluşturulmuş, soyu tükenmiş homininleri içeren bir Homininae kladogramı: Ayrıca bakınız son ortak ata Ponginae Notlar Kaynakça Dış bağlantılar Kategori:John Edward Gray tarafından adlandırılmış taksonlar tanımlanan taksonlar',
'Homininae alt familyası ilk kez ne zaman ve kim tarafından tanımlandı?',
'Amr Hassan Zaki hangi takımlarda forma giymiştir?',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
## Evaluation
### Metrics
#### Information Retrieval
* Dataset: `dim_384`
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
| Metric | Value |
|:--------------------|:-----------|
| cosine_accuracy@1 | 0.6088 |
| cosine_accuracy@3 | 0.6851 |
| cosine_accuracy@5 | 0.7172 |
| cosine_accuracy@10 | 0.7482 |
| cosine_precision@1 | 0.6088 |
| cosine_precision@3 | 0.2284 |
| cosine_precision@5 | 0.1434 |
| cosine_precision@10 | 0.0748 |
| cosine_recall@1 | 0.6088 |
| cosine_recall@3 | 0.6851 |
| cosine_recall@5 | 0.7172 |
| cosine_recall@10 | 0.7482 |
| **cosine_ndcg@10** | **0.6771** |
| cosine_mrr@10 | 0.6545 |
| cosine_map@100 | 0.6583 |
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### json
* Dataset: json
* Size: 8,970 training samples
* Columns: <code>positive</code> and <code>anchor</code>
* Approximate statistics based on the first 1000 samples:
| | positive | anchor |
|:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
| type | string | string |
| details | <ul><li>min: 92 tokens</li><li>mean: 387.75 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 2 tokens</li><li>mean: 22.76 tokens</li><li>max: 58 tokens</li></ul> |
* Samples:
| positive | anchor |
|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------|
| <code>Diyarbakır ilinin Bismil ilçesine bağlı bir mahalledir. Tarihçe Mahallenin adı, 1928 yılı kayıtlarında olarak geçmektedir. Coğrafya Diyarbakır il merkezine 57 km, Bismil ilçe merkezine 22 km uzaklıktadır. Nüfus Yıllara göre mahalle nüfus verileri 2007 2000 185 1997 165 Kaynakça Dış bağlantılar Yerelnet mahalleleri</code> | <code>Mahallenin adı ne zaman kaydedilmiştir?</code> |
| <code>'''karmaşık neden''', '''nedensel aşırı '''nedensel veya '''indirgeme safsatası''', bir sonucun birkaç nedenden kaynaklanması mümkünken; bir tek nedeni olduğu varsayıldığında ortaya çıkan kuşkulu neden safsatasıdır. Mantıksal olarak şu şekilde açıklanabilir: "X, Y'ye neden oldu; bu nedenle, X, Y'nin tek nedeniydi" Nedensel aşırı basitleştirme, birleşik olasılıkların göz ardı edildiği belirli bir tür yanlış ikilemdir. Diğer bir deyişle, "A ve ve C" veya "A ve ama değil" şeklindeki öncüller dikkate alınmadığında olası nedenlerin "A veya veya C" olduğu varsayılır. Kaynakça</code> | <code>Karmaşık neden safsatası nedir ve nasıl oluşur?</code> |
| <code>Akyazı Sakarya ili ilçesi Akyazı, Adıyaman Adıyaman ili merkez ilçesine bağlı köy Akyazı, Besni Adıyaman ili Besni ilçesine bağlı köy Akyazı, Amasya Amasya ili merkez ilçesine bağlı köy Akyazı, Adilcevaz Bitlis ili Adilcevaz ilçesine bağlı köy Akyazı, Düzce Düzce ili merkez ilçesine bağlı köy Akyazı, Çorum Çorum ili merkez ilçesine bağlı köy Akyazı, Aziziye Erzurum ili Aziziye ilçesine bağlı mahalle Akyazı, Kızıltepe Mardin ili Kızıltepe ilçesine bağlı mahalle Akyazı, Asarcık Samsun ili Asarcık ilçesine bağlı mahalle Akyazı, Ortahisar Trabzon ili Ortahisar ilçesine bağlı mahalle</code> | <code>Akyazı adında kaç köy vardır?</code> |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: epoch
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 16
- `gradient_accumulation_steps`: 16
- `learning_rate`: 2e-05
- `num_train_epochs`: 5
- `lr_scheduler_type`: cosine
- `warmup_ratio`: 0.1
- `tf32`: False
- `load_best_model_at_end`: True
- `optim`: adamw_torch_fused
- `batch_sampler`: no_duplicates
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: epoch
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 16
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 16
- `eval_accumulation_steps`: None
- `learning_rate`: 2e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 5
- `max_steps`: -1
- `lr_scheduler_type`: cosine
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.1
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: False
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: False
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: True
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch_fused
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: False
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `dispatch_batches`: None
- `split_batches`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `prompts`: None
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: proportional
</details>
### Training Logs
| Epoch | Step | Training Loss | dim_384_cosine_ndcg@10 |
|:----------:|:------:|:-------------:|:----------------------:|
| 0.5694 | 10 | 1.8837 | - |
| 0.9680 | 17 | - | 0.6095 |
| 1.1388 | 20 | 1.1104 | - |
| 1.7082 | 30 | 0.8451 | - |
| 1.9929 | 35 | - | 0.6585 |
| 2.2776 | 40 | 0.7245 | - |
| 2.8470 | 50 | 0.6472 | - |
| 2.9609 | 52 | - | 0.6751 |
| 3.4164 | 60 | 0.6274 | - |
| 3.9858 | 70 | 0.5872 | 0.6764 |
| 4.5552 | 80 | 0.5975 | - |
| **4.8399** | **85** | **-** | **0.6771** |
* The bold row denotes the saved checkpoint.
### Framework Versions
- Python: 3.12.7
- Sentence Transformers: 3.3.1
- Transformers: 4.41.2
- PyTorch: 2.5.1+cu124
- Accelerate: 1.1.1
- Datasets: 2.19.1
- Tokenizers: 0.19.1
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
#### MultipleNegativesRankingLoss
```bibtex
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->