metadata
language:
- en
license: apache-2.0
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:8970
- loss:MultipleNegativesRankingLoss
base_model: BAAI/bge-small-en-v1.5
widget:
- source_sentence: >-
Seri konum efekti tarafından oluşturulan şeklindeki seri konum eğrisini
gösteren grafik. '''Seri konum etkisi''', bir kişinin, bir serideki ilk ve
son ögeleri en iyi; ortanca ögeleri en kötü hatırlama eğilimidir. Bu
terim, Hermann Ebbinghaus tarafından kendi üzerine yaptığı çalışmalar ile
ve bu terim, hatırlama doğruluğunun, bir ögenin bir çalışma listesindeki
konumunun bir fonksiyonu olarak değiştiği bulgusuna değinmektedir. Sırası
fark etmeksizin (serbest hatırlama) listedeki ögelerin hatırlanması
istenildiğinde, insanlar listenin sonundaki ögeleri hatırlamaya başlama
eğilimindedir ve bu ögeleri en iyi şekilde hatırlarlar ('''sonluk
etkisi'''). Daha önceki liste ögeleri arasında, ilk birkaç öge, orta
ögelerden daha sık hatırlanır ('''ilklik etkisi'''). İlklik etkisi için
önerilen bir neden, sunulan ilk ögelerin kendilerine ayrılmış daha fazla
miktarda işlem nedeniyle en etkin şekilde hareketsiz bellekte
depolanmasıdır. (İlk liste ögesi kendi başına prova edilebilir; ikincisi,
birincisi ile birlikte prova edilmek zorundadır, üçüncü, birincisi ve
ikincisi ile birlikte, ve böyle devam eder.) Ögeler hızlı bir şekilde
sunulduğunda ilklik etkisi azalır ve yavaş sunulduğunda artar (her bir
ögenin işlenmesini ve böylece kalıcı depolanmasını azaltan ve arttıran
faktörler). Daha uzun sunum listelerinin ilklik etkisini azalttığı
bulunmuştur. Sonluk etkisi için teorileşmiş bir neden, bu ögelerin geri
hatırlanması talep edildiğinde hala aktif hafızada bulunmasıdır.
Hiçbirinden yararlanmayan ögeler (ortanca ögeler) en kötü şekilde geri
çağrılır. Sonluk etkisi için ek bir açıklama zamansal bağlamla ilgilidir:
Mevcut zamansal bağlam, daha yeni ögelerin, farklı bir zamansal bağlamda
(listenin başlarında) incelenen ögelere göre daha yüksek geri hatırlama
olasılığına sahip olacağını haber veren bir geri hatırlama işareti olarak
kullanılabilir. Araya giren bir görev verildiğinde sonluk etkisi azalır.
Araya giren görevler, çalışan belleği kullanır, ve dikkat dağıtıcı
aktivite süresi 15 ila 30 saniyeyi aşarsa, sonluk etkisini bozabilir. Ek
olarak, geri hatırlama testten hemen sonra gelirse, sonluk etkisi
çalışılan listenin uzunluğuna, veya sunum hızına bakılmaksızın
istikrarlıdır. Kalıcı uzun süreli hafıza oluşturma kabiliyeti zayıf olan
amnezyaklar ilklik etkisi göstermezler, ancak hatırlama çalışmadan hemen
sonra gelirse bir sonluk etkisi gösterirler. Alzheimer hastalığı olan
kişiler daha düşük bir ilklik etkisi sergiler, ancak hatırlamada bir
sonluk etkisi göstermezler. İlklik etkisi İlklik etkisi, psikolojide ve
sosyolojide, kişinin ilk verilen bilgiyi daha sonra verilen bilgiden daha
iyi hatırlamasına neden olan bir bilişsel önyargıdır. Örneğin, yeterince
uzun bir kelime listesini okuyan bir kişinin, listenin başındaki
kelimeleri hatırlaması listenin ortasındakileri hatırlamasından daha
yüksek ihtimallidir. Birçok araştırmacı bu olguyu serbest hatırlama null
testler yoluyla açıklamaya çalışmıştır. Coluccia, Gamboz ve Brandimonte
(2011), serbest hatırlamayı katılımcıların herhangi bir telkin olmaksızın
bilgileri hatırlamaya çalışması olarak açıklamaktadır. 20. yüzyılın
sonlarındaki bazı deneylerde, kendilerine sunulan bir listede test
edileceklerini bilen katılımcıların ögeleri prova edeceği kaydedildi:
Ögeler sunulduğunda katılımcılar bu ögeleri kendilerine tekrar edecek ve
yeni ögeler sunuldukça katılımcılar daha yeni maddelerle birlikte önceki
ögeleri prova etmeye devam edeceklerdi. İlklik etkisinin ögelerin sunumu
arasında daha fazla zaman olduğunda hatırlama üzerinde daha büyük bir
etkisi olduğu, böylece katılımcıların önceki (asal) ögeleri prova etme
şansının daha yüksek olacağı gösterilmiştir. Açık prova katılımcıların
prova örüntülerini test etmek için kullanılan bir teknikti. Bu tekniğin
kullanıldığı bir deneyde, katılımcılardan akla gelen ögeleri yüksek sesle
söylemeleri istendi. Bu şekilde deneyci, katılımcıların listenin başındaki
ögeleri listenin ortasındaki ögelerden daha çok böylece onları daha sık
prova yapacağını ve daha sonra listenin ortasındaki ögelerden daha iyi
hatırlayacağını görebildi. Brodie ve Murdock tarafından yapılan başka bir
deneyde, sonluk etkisinin ilklik etkisinden kısmen sorumlu olduğu
bulunmuştur. Deneylerinde, aynı zamanda açık prova tekniğini kullandılar
ve katılımcıların daha önceki ögeleri daha fazla prova yapmasının yanı
sıra, listenin başındaki kelimeleri provada daha sonra söylediklerini
keşfettiler. Bu şekilde, daha önceki ögeler prova yolu sayesinde test
sonuna daha yakındı ve kısmen sonluk etkisi ile 2013 yılında yapılan bir
araştırma, ilklik etkisinin, edimsel koşullama olarak da bilinen bir
öğrenme süreci olan tekrarlanan seçim deneyime dayalı karar verme
sürecinde de önemli olduğunu göstermiştir. Yazarlar, takip eden davranışın
ilk ödülünün değerine verilen önemi göstermiş ve bu olguyu sonuç önceliği
olarak ifade etmişlerdir. Başka bir çalışmada, katılımcılar iki cümleden
birini aldı. Örneğin, cümlelerin biri "Steve akıllı, çalışkan, eleştirel,
fevri ve kıskançtır."; diğeri ise "Steve kıskanç, fevri, eleştirel,
çalışkan ve akıllıdır." olabilir. Bu iki cümle aynı bilgileri içerir.
Birincisi başlangıçta pozitif özellikleri gösterirken, ikincisi olumsuz
özelliklere sahiptir. Araştırmacılar, katılımcıların Steve'i ilk cümle
verildiğinde ikincisine kıyasla daha olumlu buldular. Sonluk etkisi İki
geleneksel teori sınıfı sonluk etkisini açıklar. Çift depo modelleri Bu
modeller, en son listelenen çalışma ögelerinin oldukça erişilebilir kısa
süreli ara bellekten, yani insan hafızasındaki kısa süreli depodan (KSD)
alındığını varsayar. Bu, daha sonra incelenen ögelerin, daha önce
incelenen ögelere göre bir avantaja sahip olmasını sağlar, çünkü daha
önceki çalışma ögelerinin uzun süreli bellek deposundan (USD) geriye
getirilmesi için daha fazla çaba harcanması gerekir. Bu tür modellerin
önemli bir tahmini, alıkoyma döneminde (liste sunumu ile test arasındaki
süre) 10-30 saniye aritmetik problemleri çözme gibi dikkat dağıtıcı bir
sunumun yenilik etkisini azaltmasıdır. KSD sınırlı kapasiteye sahip
olduğundan, dikkat dağınıklığı daha sonraki çalışma listesi ögelerini
KSD'den değiştirir, böylece testte bu ögeler sadece USD'den alınabilir ve
kısa süreli ara bellekten daha kolay alınabilme avantajlarını yitirebilir.
Bu nedenle, çift depolu modeller, hem anlık hatırlama görevlerindeki
sonluk etkisini hem de gecikmeli serbest geri hatırlama görevinde böyle
bir etkinin zayıflamasını başarılı bir şekilde açıklar. Bununla birlikte,
bu modelle ilgili büyük bir sorun, uyarıcılar arası zaman aralığı
(aralıksız çeldirici görev) sırasında her çalışma maddesi arasında bir
dikkat dağılması olduğunda, gecikmeli hatırlamada gözlemlenen uzun süreli
etkisini tahmin edememesidir. Dikkatin dağılması, son çalışma maddesinden
sonra hala mevcut olduğundan, çalışma maddesini KSD'den, sonluk etkisi
azaltılacak şekilde Bu uzun vadeli sonluk etkisinin varlığı, anlık ve uzun
süreli sonluk etkilerinin ortak bir mekanizmayı paylaşması olasılığını
arttırmaktadır. Tek depo modelleri Tek depo teorilerine göre, dizisel
konum etkilerinden tek bir mekanizma sorumludur. İlk model türü, her bir
liste ögesinin incelenmesi ile test arasındaki sürenin, bir ögenin
alınırken bellek izinin göreceli rekabetçiliğini belirlediği göreceli
zamansal farklılığa dayanmaktadır. Bu modelde, liste sonu ögelerinin daha
belirgin ve dolayısıyla daha kolay alınabileceği Başka bir model türü,
ögelerin bellekten geri alınmasının yalnızca kişinin çalışma ögesinin
kendisini değil, aynı zamanda çalışma bağlamını zihinsel temsiline bağlı
olduğunu öne süren bağlamsal değişkenliğe dayanmaktadır. Bağlam zamanla
değiştiğinden ve gittikçe değiştiğinden, bellek ögelerini geri almak için
yarıştığında, anlık serbest hatırlama testinde, daha yakın zamanda
incelenen ögelerin test bağlamıyla daha benzer kodlama bağlamları
olacaktır ve geriye getirme olasılığı daha yüksektir. Anlık serbest
hatırlama dışında, bu modeller gecikmeli serbest hatırlama ve sürekli
çeldirici serbest hatırlama koşullarında sonluk etkisinin varlığını veya
yokluğunu da tahmin edebilir. Gecikmeli hatırlama koşulları altında, test
bağlamı artan tutma aralığıyla uzaklaşarak zayıflamış bir sonluk etkisi
yaratır. Sürekli çeldirici hatırlama koşullarında, artan yorumlama
aralıkları çalışma bağlamı ve test bağlamı arasındaki benzerlikleri
azaltırken, maddeler arasındaki göreli benzerlikler değişmeden
kalmaktadır. Hatırlama işlemi rekabetçi olduğu sürece, son ögeler
kazanacaktır, bu nedenle bir sonluk etkisi gözlenir. Oran kuralı Genel
olarak, sonluk etkisi ile ilgili önemli bir ampirik gözlem, mutlak tutma
aralıkları (çalışma sonu ile test süresi arasındaki süre) veya sunumlar
arası aralıklar (farklı çalışma ögeleri arasındaki süre) olmamasıdır.
Bunun yerine, sonluk miktarı ile belirlenen oran; mutlak tutma aralıkları
ve sunumlar arası aralıklar oranı (oran kuralı). Sonuç olarak, bu oran
sabit kaldığı sürece, aralıkların mutlak değerlerinden bağımsız olarak
yenilik gözlenecektir, böylece '''zaman ölçeği değişmezliği''' olarak
bilinen bir fenomen olan tüm zaman ölçeklerinde yenilik gözlenebilir. Bu,
yeniliğin KSD'nin büyüklüğüne ve KSD'deki ögelerin yer değiştirmesini
yöneten kurala bağlı olduğunu varsayan çift depo modelleri ile
çelişmektedir. Olası açıklamalar daha sonra tek, aynı bir mekanizma
yoluyla ortaya çıkan sonluk etkisini açıklar ya da anlık ve uzun süreli
sonluk etkileri için iki farklı mekanizmayı öngörebilen farklı bir modelle
yeniden açıklar. Böyle bir açıklama Davelaar ve ark. (2005), tek bileşenli
bir bellek modeli tarafından açıklanamayan anlık ve uzun süreli sonluk
fenomenleri arasında ayrışmalar olduğunu, anlık ve sonluk açıklayan bir
KSD'nin varlığını savunan ve bir saniye uzun süreli sonluğu açıklayan
bağlamsal kaymaya dayanan mekanizmadır. İlgili etkiler 1977'de William
Crano özellikle birbirinin zıttı olduğu söylenen ilklik ve sonluk etkileri
başta olmak üzere sıra etkilerinin doğasını belirten bir çalışma
hazırlamaya karar verdi. Crano tarafından test edilen özellikler: Anlam
değişimi hipotezi Bir listenin başındaki ögeler, katılımcıların listenin
geri kalanının da uymasını beklediği bir tema oluşturur. Katılımcı,
listedeki bazı kelimelerin anlamlarını belirlediği beklentiye uyacak
şekilde değiştirir. Watkins ve Peynircioğlu (1984), katılımcıların
kelimelerin anlamlarını değiştirerek belirlenen temadan uzaklaşarak da
olsa sunulan bilgideki sapmayı azalttığını açıklamıştır. Tutarsızlık
durumda saymama Katılımcılar, kendilerine sunulan önceki maddelerle
tutarlı olmayan bilgileri dikkate almazlar. Başka bir deyişle, tutarsızlık
durumda saymama, sunulan diğer bilgilerle tutarsız olan bilgileri tutarlı
olanlardan daha az önemli görmeyi içerir (Devine ve Ostrom, 1985). Dikkat
azaltma hipotezi Önce sunulan bilgilerin katılımcılar üzerinde daha sonra
sunulan bilgilerden daha fazla etkisi vardır ve bu bilgiler tutarlı olsa
bile öncelikli bir etkinin ortaya çıkmasına neden olur. Steiner ve Rain
(1989) insanların başlangıçta sunulan bilgilere daha fazla dikkat
ettiklerini, ancak kendilerine sonradan sunulan bilgilere giderek daha az
dikkat ettiklerini açıklamaktadır. İlklik etkisi, katılımcıların başlangıç
bilgilerine dikkat etmeleri ve daha sonra sunulan bilgileri görmezden
gelmeleri nedeniyle oluşur. Öte yandan, katılımcılar sürekli olarak
bilgiye dikkat etmek zorunda oldukları bir durumdaysa, sonluk etkisi
oluşabilir. '''Süreklilik etkisi''' veya gecikme etkisi, başarılı bir geri
çağırma sonra, bir sonraki geri çağrılan ögenin, yakın bir seri konumdan
ziyade, uzak bir seri konumdan gelme olasılığının düşük olduğunu tahmin
eder (Kahana, Howard, Zaromb ve Wingfiend, 2002). İki ögenin seri konumu
arasındaki fark seri konum gecikmesi olarak adlandırılır. Koşullu yanıt
olasılığı olarak adlandırılan bir başka faktör, belirli bir seri konum
gecikmesini hatırlama olasılığıdır. Ayrıca bakınız Anchoring Clive Wearing
Serbest Hatırlama Henry Molaison İknada İlklik Yasası Öğrenme Eğrisi
Hafıza Eğilimleri Listesi Bilişsel Eğilimler Listesi Sonucun İlkliği
Öğrenme İlkeleri Tepe-Uç Kuralı Anımsama Yumrusu Kaynakça ;Atıflar ;Basılı
eserler Konuyla ilgili yayınlar Liebermann, David A. L''earning and
memory: An integrative approach.'' Belmont, CA: Thomson Wadsworth, 2004,
Kategori:Bellek süreçleri eğilimler
sentences:
- Sultan Bey'in hayatının ikinci kısmını oluşturan önemli olay nedir?
- Aslanbaba hangi ilçeye bağlı bir mahalledir?
- >-
Seri konum eğrisinin şeklini hangi etmenlerin belirlediği anlatıyor
musunuz?
- source_sentence: >-
(doğum adı '''David Gordon Kirkpatrick''' 13 Haziran 1927 19 Eylül 2003),
Avustralyalı country müzik şarkıcısı ve söz yazarıydı. Avustralya için bir
kültür ikonuydu ve ülkenin en çok ödül alan yıldızlarından biriydi.
Haziran 1927'de Nulla Nulla Creek'te bir çiftçinin oğlu olarak doğan
Dusty, ilk şarkısı "The Way the Cowboy Dies"ı 1937'de yazdı ve 1938'de 11
yaşındayken "Slim Dusty" sahne adını aldı. Yetmiş yıla yakın kariyerinde
çok sayıda kayıt yaptı. Yüzden fazla albüm çıkardı, yedi milyondan fazla
kayıt sattı ve 70'in üzerinde altın ve platin albüm sertifikası kazandı".
Sidney 2000 Olimpiyat Oyunlarının kapanış töreninde Avustralya'da çok ünlü
bir şarkı olan "Waltzing Matilda"yı seslendirdi. 1951'de Dusty,
şarkıcı-söz yazarı Joy McKean ile evlendi ve onun desteğiyle Avustralya'da
büyük başarılar elde etti. Çiftin, şarkıcı-söz yazarı olan Anne
Kirkpatrick ve David Kirkpatrick adlı iki çocukları oldu. Akciğer ve
böbrek kanseri ile uzun bir mücadelenin ardından 19 Eylül 2003'te 76
yaşında Yeni Güney Galler'deki evinde öldü. Kaynakça Hristiyanlar erkek
şarkıcı-şarkı yazarları Şeref Nişanı sahipleri erkek gitaristler
kanserinden ölenler Kategori:Böbrek kanserinden ölenler Kategori:Yeni
Güney Galler'de kanserden ölenler asıllı Avustralyalılar gitaristler
country şarkıcıları Kategori:ARIA Hall of Fame üyeleri Kategori:ARIA Ödülü
sahipleri Kategori:APRA Ödülü sahipleri gitaristler Kategori:21. yüzyıl
gitaristleri Kategori:20. yüzyıl gitaristleri Kategori:2003 yılında
ölenler Kategori:1927 doğumlular
sentences:
- Bu Hollandalı aktrisin adı nedir?
- Kimdi Slim Dusty?
- Dusty Springfield hangi hastalıktan öldü?
- source_sentence: >-
14 Aralık 1929 tarihli Milliyet gazetesinde İstanbul'da Kır Koşusu Eski
logosu '''Türkiye Atletizm Federasyonu''' ('''TAF'''), atletizm sporunun
Türkiye'deki yönetim teşkilatı olan spor federasyonu. 1922'de Türkiye
İdman Cemiyetleri İttifakı (TİCİ) bünyesinde kurulan Türkiye Atletizm
Federasyonu, aynı yıl Uluslararası Atletizm Federasyonları Birliği (IAAF)
üyeliğine kabul edildi. Görev yapmış başkanlar Türkiye Atletizm
Federasyonu'nun kronolojik sırayla başkanları; Ali Seyfi Beyti Ahmet
Fetgeri Burhan Felek Vildan Aşir Savaşır Saffet Gürol Adnan Hün İrfan
Şahinbaş İsmail Hakkı Güngör Ali Naili Moran Refik Tagay Sadun Özdede
Nejat Kök Behçet Beylem Erol Zorlu Kurthan Fişek Jerfi Fıratlı Nuri Turan
Abdullah Kökpınar Cüneyt Koryürek Yılmaz Sazak İlker Çetin Hüseyin
Manioğlu Ali Ergenç Muharrem Dalkılıç Aşkın Tuna Fikret Çetinkaya Semra
Aksu Hüseyin Yıldırım Mehmet Yurdadön Mehmet Terzi Hüseyin Yıldırım Fatih
Çintimar Kaynakça Dış bağlantılar Federasyonun resmi sitesi Atletizm
Federasyon Kategori:Avrupa Atletizm Birliği üyesi federasyonlar
Kategori:Ankara merkezli kuruluşlar Osmanlı kurulan oluşumlar kurulan spor
kuruluşları
sentences:
- Leandro Pereira kimdir?
- Türkiye Atletizm Federasyonu ne zaman kuruldu?
- P.E.N. nedir?
- source_sentence: >-
''İlkbaharda Dağ Yolunda Yürümek'' '''Ma Yuan''' (; 1160'lar-1225), Güney
Song Hanedanı döneminde yaşamış Çinli bir ressamdı. Çalışmaları, Xia
Gui'ninkiyle birlikte, sözde Ma-Xia resim okulunun temelini oluşturdu ve
dönemin en iyileri arasında kabul edilmektedir. Eserleri hem Zhe okulunun
Çinli sanatçılarına hem de ilk Japon ressamlar Shūbun ve Sesshū'ye ilham
verdi. Kaynakça Dunlop, Ronald Ossory. 1954. ''Landscape Painting: Ma Yüan
to Picasso''. London: Seeley, Service Co. Little, Stephen. '' Taoism and
the Arts of China,'' p. 160. Chicago: Art Institute of Chicago. Dış
bağlantılar Ma Yuan Painting Gallery at China Online Museum Sung and Yuan
paintings an exhibition catalog from The Metropolitan Museum of Art
Libraries (fully available online as PDF), which contains material on Ma
Yuan (see list of paintings) doğanlar doğumlular Kategori:1225 yılında
ölenler Kategori:Çinli ressamlar Kategori:Song Hanedanı kişileri
Kategori:12. yüzyıl ressamları Kategori:13. yüzyıl ressamları
sentences:
- Denon hangi sanatsal hareketle ilişkilendirilir?
- Hammâd bin Süleyman'ın hocası kimdir?
- Ma Yuan hangi okulun ressamıydı?
- source_sentence: >-
veya '''Afrika insansıları''', ilk kez John Edward Gray tarafından 1825
yılında tanımlanmış bir Hominidae alt familyasıdır. Açıklama (insansı)
aile ağacı sol Mevcut (5 tür) ve soyu tükenmiş türleriyle birlikte iki
oymak içerir: '''Hominini''' oymağı ve '''Gorillini''' oymağı. Kimi
yazarlar ise, ''Pan'' cinsinin bazen kendi üçüncü oymağı Panini'ye ait
olduğunu düşünür. Homininae, orangutanların (Ponginae alt familyası)
hominid soyundan ayrılmasından (yaklaşık 16 myö) sonra ortaya çıkan,
insanlarla orangutanlara göre daha yakın akraba olan tüm hominidleri
içerir. Bu alt familyadaki canlılar, ''hominine'' veya ''hominineler''
olarak tanımlanır. Evrim Homininae alt familyasının yaşı son ortak atası)
tahminlere göre 14 ila 12.5 milyon yıldır Gorillini ve Hominini
oymaklarına ayrılmasının ("goril insan son ortak atası", GHLCA) geç
Miyosen'de, nakayamai''nin yaşadığı döneme yakın bir zamanda, ila 10
milyon yıl önce gerçekleştiği tahmin edilmiştir (TGHLCA). ''Pan-Homo''
bölünmesine kadar (5-7 myö) gorillerin ve ''Pan-Homo'' atalarının
melezlendiğine dair kanıtlar vardır. Filogeni Parins-Fukuchi ''ve
2019'daki çalışmasına göre oluşturulmuş, soyu tükenmiş homininleri içeren
bir Homininae kladogramı: Ayrıca bakınız son ortak ata Ponginae Notlar
Kaynakça Dış bağlantılar Kategori:John Edward Gray tarafından
adlandırılmış taksonlar tanımlanan taksonlar
sentences:
- Homininae alt familyası ilk kez ne zaman ve kim tarafından tanımlandı?
- Amr Hassan Zaki hangi takımlarda forma giymiştir?
- KKTC spor kulübü hangi şehirde kurulmuştur?
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- cosine_accuracy@1
- cosine_accuracy@3
- cosine_accuracy@5
- cosine_accuracy@10
- cosine_precision@1
- cosine_precision@3
- cosine_precision@5
- cosine_precision@10
- cosine_recall@1
- cosine_recall@3
- cosine_recall@5
- cosine_recall@10
- cosine_ndcg@10
- cosine_mrr@10
- cosine_map@100
model-index:
- name: bge-small-en-v1.5-tr-rag-v1
results:
- task:
type: information-retrieval
name: Information Retrieval
dataset:
name: dim 384
type: dim_384
metrics:
- type: cosine_accuracy@1
value: 0.6088264794383149
name: Cosine Accuracy@1
- type: cosine_accuracy@3
value: 0.6850551654964895
name: Cosine Accuracy@3
- type: cosine_accuracy@5
value: 0.7171514543630892
name: Cosine Accuracy@5
- type: cosine_accuracy@10
value: 0.7482447342026078
name: Cosine Accuracy@10
- type: cosine_precision@1
value: 0.6088264794383149
name: Cosine Precision@1
- type: cosine_precision@3
value: 0.22835172183216315
name: Cosine Precision@3
- type: cosine_precision@5
value: 0.14343029087261785
name: Cosine Precision@5
- type: cosine_precision@10
value: 0.07482447342026077
name: Cosine Precision@10
- type: cosine_recall@1
value: 0.6088264794383149
name: Cosine Recall@1
- type: cosine_recall@3
value: 0.6850551654964895
name: Cosine Recall@3
- type: cosine_recall@5
value: 0.7171514543630892
name: Cosine Recall@5
- type: cosine_recall@10
value: 0.7482447342026078
name: Cosine Recall@10
- type: cosine_ndcg@10
value: 0.6771265619538723
name: Cosine Ndcg@10
- type: cosine_mrr@10
value: 0.654520704972059
name: Cosine Mrr@10
- type: cosine_map@100
value: 0.6582962117755787
name: Cosine Map@100
bge-small-en-v1.5-tr-rag-v1
This is a sentence-transformers model finetuned from BAAI/bge-small-en-v1.5 on the json dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: BAAI/bge-small-en-v1.5
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 384 dimensions
- Similarity Function: Cosine Similarity
- Training Dataset:
- json
- Language: en
- License: apache-2.0
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': True}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("bge-small-en-v1.5-tr-rag-v1")
# Run inference
sentences = [
'veya \'\'\'Afrika insansıları\'\'\', ilk kez John Edward Gray tarafından 1825 yılında tanımlanmış bir Hominidae alt familyasıdır. Açıklama (insansı) aile ağacı sol Mevcut (5 tür) ve soyu tükenmiş türleriyle birlikte iki oymak içerir: \'\'\'Hominini\'\'\' oymağı ve \'\'\'Gorillini\'\'\' oymağı. Kimi yazarlar ise, \'\'Pan\'\' cinsinin bazen kendi üçüncü oymağı Panini\'ye ait olduğunu düşünür. Homininae, orangutanların (Ponginae alt familyası) hominid soyundan ayrılmasından (yaklaşık 16 myö) sonra ortaya çıkan, insanlarla orangutanlara göre daha yakın akraba olan tüm hominidleri içerir. Bu alt familyadaki canlılar, \'\'hominine\'\' veya \'\'hominineler\'\' olarak tanımlanır. Evrim Homininae alt familyasının yaşı son ortak atası) tahminlere göre 14 ila 12.5 milyon yıldır Gorillini ve Hominini oymaklarına ayrılmasının ("goril insan son ortak atası", GHLCA) geç Miyosen\'de, nakayamai\'\'nin yaşadığı döneme yakın bir zamanda, ila 10 milyon yıl önce gerçekleştiği tahmin edilmiştir (TGHLCA). \'\'Pan-Homo\'\' bölünmesine kadar (5-7 myö) gorillerin ve \'\'Pan-Homo\'\' atalarının melezlendiğine dair kanıtlar vardır. Filogeni Parins-Fukuchi \'\'ve 2019\'daki çalışmasına göre oluşturulmuş, soyu tükenmiş homininleri içeren bir Homininae kladogramı: Ayrıca bakınız son ortak ata Ponginae Notlar Kaynakça Dış bağlantılar Kategori:John Edward Gray tarafından adlandırılmış taksonlar tanımlanan taksonlar',
'Homininae alt familyası ilk kez ne zaman ve kim tarafından tanımlandı?',
'Amr Hassan Zaki hangi takımlarda forma giymiştir?',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Information Retrieval
- Dataset:
dim_384
- Evaluated with
InformationRetrievalEvaluator
Metric | Value |
---|---|
cosine_accuracy@1 | 0.6088 |
cosine_accuracy@3 | 0.6851 |
cosine_accuracy@5 | 0.7172 |
cosine_accuracy@10 | 0.7482 |
cosine_precision@1 | 0.6088 |
cosine_precision@3 | 0.2284 |
cosine_precision@5 | 0.1434 |
cosine_precision@10 | 0.0748 |
cosine_recall@1 | 0.6088 |
cosine_recall@3 | 0.6851 |
cosine_recall@5 | 0.7172 |
cosine_recall@10 | 0.7482 |
cosine_ndcg@10 | 0.6771 |
cosine_mrr@10 | 0.6545 |
cosine_map@100 | 0.6583 |
Training Details
Training Dataset
json
- Dataset: json
- Size: 8,970 training samples
- Columns:
positive
andanchor
- Approximate statistics based on the first 1000 samples:
positive anchor type string string details - min: 92 tokens
- mean: 387.75 tokens
- max: 512 tokens
- min: 2 tokens
- mean: 22.76 tokens
- max: 58 tokens
- Samples:
positive anchor Diyarbakır ilinin Bismil ilçesine bağlı bir mahalledir. Tarihçe Mahallenin adı, 1928 yılı kayıtlarında olarak geçmektedir. Coğrafya Diyarbakır il merkezine 57 km, Bismil ilçe merkezine 22 km uzaklıktadır. Nüfus Yıllara göre mahalle nüfus verileri 2007 2000 185 1997 165 Kaynakça Dış bağlantılar Yerelnet mahalleleri
Mahallenin adı ne zaman kaydedilmiştir?
'''karmaşık neden''', '''nedensel aşırı '''nedensel veya '''indirgeme safsatası''', bir sonucun birkaç nedenden kaynaklanması mümkünken; bir tek nedeni olduğu varsayıldığında ortaya çıkan kuşkulu neden safsatasıdır. Mantıksal olarak şu şekilde açıklanabilir: "X, Y'ye neden oldu; bu nedenle, X, Y'nin tek nedeniydi" Nedensel aşırı basitleştirme, birleşik olasılıkların göz ardı edildiği belirli bir tür yanlış ikilemdir. Diğer bir deyişle, "A ve ve C" veya "A ve ama değil" şeklindeki öncüller dikkate alınmadığında olası nedenlerin "A veya veya C" olduğu varsayılır. Kaynakça
Karmaşık neden safsatası nedir ve nasıl oluşur?
Akyazı Sakarya ili ilçesi Akyazı, Adıyaman Adıyaman ili merkez ilçesine bağlı köy Akyazı, Besni Adıyaman ili Besni ilçesine bağlı köy Akyazı, Amasya Amasya ili merkez ilçesine bağlı köy Akyazı, Adilcevaz Bitlis ili Adilcevaz ilçesine bağlı köy Akyazı, Düzce Düzce ili merkez ilçesine bağlı köy Akyazı, Çorum Çorum ili merkez ilçesine bağlı köy Akyazı, Aziziye Erzurum ili Aziziye ilçesine bağlı mahalle Akyazı, Kızıltepe Mardin ili Kızıltepe ilçesine bağlı mahalle Akyazı, Asarcık Samsun ili Asarcık ilçesine bağlı mahalle Akyazı, Ortahisar Trabzon ili Ortahisar ilçesine bağlı mahalle
Akyazı adında kaç köy vardır?
- Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: epochper_device_train_batch_size
: 32per_device_eval_batch_size
: 16gradient_accumulation_steps
: 16learning_rate
: 2e-05num_train_epochs
: 5lr_scheduler_type
: cosinewarmup_ratio
: 0.1tf32
: Falseload_best_model_at_end
: Trueoptim
: adamw_torch_fusedbatch_sampler
: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: epochprediction_loss_only
: Trueper_device_train_batch_size
: 32per_device_eval_batch_size
: 16per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 16eval_accumulation_steps
: Nonelearning_rate
: 2e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 5max_steps
: -1lr_scheduler_type
: cosinelr_scheduler_kwargs
: {}warmup_ratio
: 0.1warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Falselocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Trueignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torch_fusedoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseprompts
: Nonebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: proportional
Training Logs
Epoch | Step | Training Loss | dim_384_cosine_ndcg@10 |
---|---|---|---|
0.5694 | 10 | 1.8837 | - |
0.9680 | 17 | - | 0.6095 |
1.1388 | 20 | 1.1104 | - |
1.7082 | 30 | 0.8451 | - |
1.9929 | 35 | - | 0.6585 |
2.2776 | 40 | 0.7245 | - |
2.8470 | 50 | 0.6472 | - |
2.9609 | 52 | - | 0.6751 |
3.4164 | 60 | 0.6274 | - |
3.9858 | 70 | 0.5872 | 0.6764 |
4.5552 | 80 | 0.5975 | - |
4.8399 | 85 | - | 0.6771 |
- The bold row denotes the saved checkpoint.
Framework Versions
- Python: 3.12.7
- Sentence Transformers: 3.3.1
- Transformers: 4.41.2
- PyTorch: 2.5.1+cu124
- Accelerate: 1.1.1
- Datasets: 2.19.1
- Tokenizers: 0.19.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}