SMARTICT's picture
Upload README.md with huggingface_hub
15dad46 verified
metadata
language:
  - en
license: apache-2.0
tags:
  - sentence-transformers
  - sentence-similarity
  - feature-extraction
  - generated_from_trainer
  - dataset_size:8970
  - loss:MultipleNegativesRankingLoss
base_model: BAAI/bge-small-en-v1.5
widget:
  - source_sentence: >-
      Seri konum efekti tarafından oluşturulan şeklindeki seri konum eğrisini
      gösteren grafik. '''Seri konum etkisi''', bir kişinin, bir serideki ilk ve
      son ögeleri en iyi; ortanca ögeleri en kötü hatırlama eğilimidir. Bu
      terim, Hermann Ebbinghaus tarafından kendi üzerine yaptığı çalışmalar ile
      ve bu terim, hatırlama doğruluğunun, bir ögenin bir çalışma listesindeki
      konumunun bir fonksiyonu olarak değiştiği bulgusuna değinmektedir. Sırası
      fark etmeksizin (serbest hatırlama) listedeki ögelerin hatırlanması
      istenildiğinde, insanlar listenin sonundaki ögeleri hatırlamaya başlama
      eğilimindedir ve bu ögeleri en iyi şekilde hatırlarlar ('''sonluk
      etkisi'''). Daha önceki liste ögeleri arasında, ilk birkaç öge, orta
      ögelerden daha sık hatırlanır ('''ilklik etkisi'''). İlklik etkisi için
      önerilen bir neden, sunulan ilk ögelerin kendilerine ayrılmış daha fazla
      miktarda işlem nedeniyle en etkin şekilde hareketsiz bellekte
      depolanmasıdır. (İlk liste ögesi kendi başına prova edilebilir; ikincisi,
      birincisi ile birlikte prova edilmek zorundadır, üçüncü, birincisi ve
      ikincisi ile birlikte, ve böyle devam eder.) Ögeler hızlı bir şekilde
      sunulduğunda ilklik etkisi azalır ve yavaş sunulduğunda artar (her bir
      ögenin işlenmesini ve böylece kalıcı depolanmasını azaltan ve arttıran
      faktörler). Daha uzun sunum listelerinin ilklik etkisini azalttığı
      bulunmuştur. Sonluk etkisi için teorileşmiş bir neden, bu ögelerin geri
      hatırlanması talep edildiğinde hala aktif hafızada bulunmasıdır.
      Hiçbirinden yararlanmayan ögeler (ortanca ögeler) en kötü şekilde geri
      çağrılır. Sonluk etkisi için ek bir açıklama zamansal bağlamla ilgilidir:
      Mevcut zamansal bağlam, daha yeni ögelerin, farklı bir zamansal bağlamda
      (listenin başlarında) incelenen ögelere göre daha yüksek geri hatırlama
      olasılığına sahip olacağını haber veren bir geri hatırlama işareti olarak
      kullanılabilir. Araya giren bir görev verildiğinde sonluk etkisi azalır.
      Araya giren görevler, çalışan belleği kullanır, ve dikkat dağıtıcı
      aktivite süresi 15 ila 30 saniyeyi aşarsa, sonluk etkisini bozabilir. Ek
      olarak, geri hatırlama testten hemen sonra gelirse, sonluk etkisi
      çalışılan listenin uzunluğuna, veya sunum hızına bakılmaksızın
      istikrarlıdır. Kalıcı uzun süreli hafıza oluşturma kabiliyeti zayıf olan
      amnezyaklar ilklik etkisi göstermezler, ancak hatırlama çalışmadan hemen
      sonra gelirse bir sonluk etkisi gösterirler. Alzheimer hastalığı olan
      kişiler daha düşük bir ilklik etkisi sergiler, ancak hatırlamada bir
      sonluk etkisi göstermezler. İlklik etkisi İlklik etkisi, psikolojide ve
      sosyolojide, kişinin ilk verilen bilgiyi daha sonra verilen bilgiden daha
      iyi hatırlamasına neden olan bir bilişsel önyargıdır. Örneğin, yeterince
      uzun bir kelime listesini okuyan bir kişinin, listenin başındaki
      kelimeleri hatırlaması listenin ortasındakileri hatırlamasından daha
      yüksek ihtimallidir. Birçok araştırmacı bu olguyu serbest hatırlama null
      testler yoluyla açıklamaya çalışmıştır. Coluccia, Gamboz ve Brandimonte
      (2011), serbest hatırlamayı katılımcıların herhangi bir telkin olmaksızın
      bilgileri hatırlamaya çalışması olarak açıklamaktadır. 20. yüzyılın
      sonlarındaki bazı deneylerde, kendilerine sunulan bir listede test
      edileceklerini bilen katılımcıların ögeleri prova edeceği kaydedildi:
      Ögeler sunulduğunda katılımcılar bu ögeleri kendilerine tekrar edecek ve
      yeni ögeler sunuldukça katılımcılar daha yeni maddelerle birlikte önceki
      ögeleri prova etmeye devam edeceklerdi. İlklik etkisinin ögelerin sunumu
      arasında daha fazla zaman olduğunda hatırlama üzerinde daha büyük bir
      etkisi olduğu, böylece katılımcıların önceki (asal) ögeleri prova etme
      şansının daha yüksek olacağı gösterilmiştir. Açık prova katılımcıların
      prova örüntülerini test etmek için kullanılan bir teknikti. Bu tekniğin
      kullanıldığı bir deneyde, katılımcılardan akla gelen ögeleri yüksek sesle
      söylemeleri istendi. Bu şekilde deneyci, katılımcıların listenin başındaki
      ögeleri listenin ortasındaki ögelerden daha çok böylece onları daha sık
      prova yapacağını ve daha sonra listenin ortasındaki ögelerden daha iyi
      hatırlayacağını görebildi. Brodie ve Murdock tarafından yapılan başka bir
      deneyde, sonluk etkisinin ilklik etkisinden kısmen sorumlu olduğu
      bulunmuştur. Deneylerinde, aynı zamanda açık prova tekniğini kullandılar
      ve katılımcıların daha önceki ögeleri daha fazla prova yapmasının yanı
      sıra, listenin başındaki kelimeleri provada daha sonra söylediklerini
      keşfettiler. Bu şekilde, daha önceki ögeler prova yolu sayesinde test
      sonuna daha yakındı ve kısmen sonluk etkisi ile 2013 yılında yapılan bir
      araştırma, ilklik etkisinin, edimsel koşullama olarak da bilinen bir
      öğrenme süreci olan tekrarlanan seçim deneyime dayalı karar verme
      sürecinde de önemli olduğunu göstermiştir. Yazarlar, takip eden davranışın
      ilk ödülünün değerine verilen önemi göstermiş ve bu olguyu sonuç önceliği
      olarak ifade etmişlerdir. Başka bir çalışmada, katılımcılar iki cümleden
      birini aldı. Örneğin, cümlelerin biri "Steve akıllı, çalışkan, eleştirel,
      fevri ve kıskançtır."; diğeri ise "Steve kıskanç, fevri, eleştirel,
      çalışkan ve akıllıdır." olabilir. Bu iki cümle aynı bilgileri içerir.
      Birincisi başlangıçta pozitif özellikleri gösterirken, ikincisi olumsuz
      özelliklere sahiptir. Araştırmacılar, katılımcıların Steve'i ilk cümle
      verildiğinde ikincisine kıyasla daha olumlu buldular. Sonluk etkisi İki
      geleneksel teori sınıfı sonluk etkisini açıklar. Çift depo modelleri Bu
      modeller, en son listelenen çalışma ögelerinin oldukça erişilebilir kısa
      süreli ara bellekten, yani insan hafızasındaki kısa süreli depodan (KSD)
      alındığını varsayar. Bu, daha sonra incelenen ögelerin, daha önce
      incelenen ögelere göre bir avantaja sahip olmasını sağlar, çünkü daha
      önceki çalışma ögelerinin uzun süreli bellek deposundan (USD) geriye
      getirilmesi için daha fazla çaba harcanması gerekir. Bu tür modellerin
      önemli bir tahmini, alıkoyma döneminde (liste sunumu ile test arasındaki
      süre) 10-30 saniye aritmetik problemleri çözme gibi dikkat dağıtıcı bir
      sunumun yenilik etkisini azaltmasıdır. KSD sınırlı kapasiteye sahip
      olduğundan, dikkat dağınıklığı daha sonraki çalışma listesi ögelerini
      KSD'den değiştirir, böylece testte bu ögeler sadece USD'den alınabilir ve
      kısa süreli ara bellekten daha kolay alınabilme avantajlarını yitirebilir.
      Bu nedenle, çift depolu modeller, hem anlık hatırlama görevlerindeki
      sonluk etkisini hem de gecikmeli serbest geri hatırlama görevinde böyle
      bir etkinin zayıflamasını başarılı bir şekilde açıklar. Bununla birlikte,
      bu modelle ilgili büyük bir sorun, uyarıcılar arası zaman aralığı
      (aralıksız çeldirici görev) sırasında her çalışma maddesi arasında bir
      dikkat dağılması olduğunda, gecikmeli hatırlamada gözlemlenen uzun süreli
      etkisini tahmin edememesidir. Dikkatin dağılması, son çalışma maddesinden
      sonra hala mevcut olduğundan, çalışma maddesini KSD'den, sonluk etkisi
      azaltılacak şekilde Bu uzun vadeli sonluk etkisinin varlığı, anlık ve uzun
      süreli sonluk etkilerinin ortak bir mekanizmayı paylaşması olasılığını
      arttırmaktadır. Tek depo modelleri Tek depo teorilerine göre, dizisel
      konum etkilerinden tek bir mekanizma sorumludur. İlk model türü, her bir
      liste ögesinin incelenmesi ile test arasındaki sürenin, bir ögenin
      alınırken bellek izinin göreceli rekabetçiliğini belirlediği göreceli
      zamansal farklılığa dayanmaktadır. Bu modelde, liste sonu ögelerinin daha
      belirgin ve dolayısıyla daha kolay alınabileceği Başka bir model türü,
      ögelerin bellekten geri alınmasının yalnızca kişinin çalışma ögesinin
      kendisini değil, aynı zamanda çalışma bağlamını zihinsel temsiline bağlı
      olduğunu öne süren bağlamsal değişkenliğe dayanmaktadır. Bağlam zamanla
      değiştiğinden ve gittikçe değiştiğinden, bellek ögelerini geri almak için
      yarıştığında, anlık serbest hatırlama testinde, daha yakın zamanda
      incelenen ögelerin test bağlamıyla daha benzer kodlama bağlamları
      olacaktır ve geriye getirme olasılığı daha yüksektir. Anlık serbest
      hatırlama dışında, bu modeller gecikmeli serbest hatırlama ve sürekli
      çeldirici serbest hatırlama koşullarında sonluk etkisinin varlığını veya
      yokluğunu da tahmin edebilir. Gecikmeli hatırlama koşulları altında, test
      bağlamı artan tutma aralığıyla uzaklaşarak zayıflamış bir sonluk etkisi
      yaratır. Sürekli çeldirici hatırlama koşullarında, artan yorumlama
      aralıkları çalışma bağlamı ve test bağlamı arasındaki benzerlikleri
      azaltırken, maddeler arasındaki göreli benzerlikler değişmeden
      kalmaktadır. Hatırlama işlemi rekabetçi olduğu sürece, son ögeler
      kazanacaktır, bu nedenle bir sonluk etkisi gözlenir. Oran kuralı Genel
      olarak, sonluk etkisi ile ilgili önemli bir ampirik gözlem, mutlak tutma
      aralıkları (çalışma sonu ile test süresi arasındaki süre) veya sunumlar
      arası aralıklar (farklı çalışma ögeleri arasındaki süre) olmamasıdır.
      Bunun yerine, sonluk miktarı ile belirlenen oran; mutlak tutma aralıkları
      ve sunumlar arası aralıklar oranı (oran kuralı). Sonuç olarak, bu oran
      sabit kaldığı sürece, aralıkların mutlak değerlerinden bağımsız olarak
      yenilik gözlenecektir, böylece '''zaman ölçeği değişmezliği''' olarak
      bilinen bir fenomen olan tüm zaman ölçeklerinde yenilik gözlenebilir. Bu,
      yeniliğin KSD'nin büyüklüğüne ve KSD'deki ögelerin yer değiştirmesini
      yöneten kurala bağlı olduğunu varsayan çift depo modelleri ile
      çelişmektedir. Olası açıklamalar daha sonra tek, aynı bir mekanizma
      yoluyla ortaya çıkan sonluk etkisini açıklar ya da anlık ve uzun süreli
      sonluk etkileri için iki farklı mekanizmayı öngörebilen farklı bir modelle
      yeniden açıklar. Böyle bir açıklama Davelaar ve ark. (2005), tek bileşenli
      bir bellek modeli tarafından açıklanamayan anlık ve uzun süreli sonluk
      fenomenleri arasında ayrışmalar olduğunu, anlık ve sonluk açıklayan bir
      KSD'nin varlığını savunan ve bir saniye uzun süreli sonluğu açıklayan
      bağlamsal kaymaya dayanan mekanizmadır. İlgili etkiler 1977'de William
      Crano özellikle birbirinin zıttı olduğu söylenen ilklik ve sonluk etkileri
      başta olmak üzere sıra etkilerinin doğasını belirten bir çalışma
      hazırlamaya karar verdi. Crano tarafından test edilen özellikler: Anlam
      değişimi hipotezi Bir listenin başındaki ögeler, katılımcıların listenin
      geri kalanının da uymasını beklediği bir tema oluşturur. Katılımcı,
      listedeki bazı kelimelerin anlamlarını belirlediği beklentiye uyacak
      şekilde değiştirir. Watkins ve Peynircioğlu (1984), katılımcıların
      kelimelerin anlamlarını değiştirerek belirlenen temadan uzaklaşarak da
      olsa sunulan bilgideki sapmayı azalttığını açıklamıştır. Tutarsızlık
      durumda saymama Katılımcılar, kendilerine sunulan önceki maddelerle
      tutarlı olmayan bilgileri dikkate almazlar. Başka bir deyişle, tutarsızlık
      durumda saymama, sunulan diğer bilgilerle tutarsız olan bilgileri tutarlı
      olanlardan daha az önemli görmeyi içerir (Devine ve Ostrom, 1985). Dikkat
      azaltma hipotezi Önce sunulan bilgilerin katılımcılar üzerinde daha sonra
      sunulan bilgilerden daha fazla etkisi vardır ve bu bilgiler tutarlı olsa
      bile öncelikli bir etkinin ortaya çıkmasına neden olur. Steiner ve Rain
      (1989) insanların başlangıçta sunulan bilgilere daha fazla dikkat
      ettiklerini, ancak kendilerine sonradan sunulan bilgilere giderek daha az
      dikkat ettiklerini açıklamaktadır. İlklik etkisi, katılımcıların başlangıç
      bilgilerine dikkat etmeleri ve daha sonra sunulan bilgileri görmezden
      gelmeleri nedeniyle oluşur. Öte yandan, katılımcılar sürekli olarak
      bilgiye dikkat etmek zorunda oldukları bir durumdaysa, sonluk etkisi
      oluşabilir. '''Süreklilik etkisi''' veya gecikme etkisi, başarılı bir geri
      çağırma sonra, bir sonraki geri çağrılan ögenin, yakın bir seri konumdan
      ziyade, uzak bir seri konumdan gelme olasılığının düşük olduğunu tahmin
      eder (Kahana, Howard, Zaromb ve Wingfiend, 2002). İki ögenin seri konumu
      arasındaki fark seri konum gecikmesi olarak adlandırılır. Koşullu yanıt
      olasılığı olarak adlandırılan bir başka faktör, belirli bir seri konum
      gecikmesini hatırlama olasılığıdır. Ayrıca bakınız Anchoring Clive Wearing
      Serbest Hatırlama Henry Molaison İknada İlklik Yasası Öğrenme Eğrisi
      Hafıza Eğilimleri Listesi Bilişsel Eğilimler Listesi Sonucun İlkliği
      Öğrenme İlkeleri Tepe-Uç Kuralı Anımsama Yumrusu Kaynakça ;Atıflar ;Basılı
      eserler Konuyla ilgili yayınlar Liebermann, David A. L''earning and
      memory: An integrative approach.'' Belmont, CA: Thomson Wadsworth, 2004,
      Kategori:Bellek süreçleri eğilimler
    sentences:
      - Sultan Bey'in hayatının ikinci kısmını oluşturan önemli olay nedir?
      - Aslanbaba hangi ilçeye bağlı bir mahalledir?
      - >-
        Seri konum eğrisinin şeklini hangi etmenlerin belirlediği anlatıyor
        musunuz?
  - source_sentence: >-
      (doğum adı '''David Gordon Kirkpatrick''' 13 Haziran 1927 19 Eylül 2003),
      Avustralyalı country müzik şarkıcısı ve söz yazarıydı. Avustralya için bir
      kültür ikonuydu ve ülkenin en çok ödül alan yıldızlarından biriydi.
      Haziran 1927'de Nulla Nulla Creek'te bir çiftçinin oğlu olarak doğan
      Dusty, ilk şarkısı "The Way the Cowboy Dies"ı 1937'de yazdı ve 1938'de 11
      yaşındayken "Slim Dusty" sahne adını aldı. Yetmiş yıla yakın kariyerinde
      çok sayıda kayıt yaptı. Yüzden fazla albüm çıkardı, yedi milyondan fazla
      kayıt sattı ve 70'in üzerinde altın ve platin albüm sertifikası kazandı".
      Sidney 2000 Olimpiyat Oyunlarının kapanış töreninde Avustralya'da çok ünlü
      bir şarkı olan "Waltzing Matilda"yı seslendirdi. 1951'de Dusty,
      şarkıcı-söz yazarı Joy McKean ile evlendi ve onun desteğiyle Avustralya'da
      büyük başarılar elde etti. Çiftin, şarkıcı-söz yazarı olan Anne
      Kirkpatrick ve David Kirkpatrick adlı iki çocukları oldu. Akciğer ve
      böbrek kanseri ile uzun bir mücadelenin ardından 19 Eylül 2003'te 76
      yaşında Yeni Güney Galler'deki evinde öldü. Kaynakça Hristiyanlar erkek
      şarkıcı-şarkı yazarları Şeref Nişanı sahipleri erkek gitaristler
      kanserinden ölenler Kategori:Böbrek kanserinden ölenler Kategori:Yeni
      Güney Galler'de kanserden ölenler asıllı Avustralyalılar gitaristler
      country şarkıcıları Kategori:ARIA Hall of Fame üyeleri Kategori:ARIA Ödülü
      sahipleri Kategori:APRA Ödülü sahipleri gitaristler Kategori:21. yüzyıl
      gitaristleri Kategori:20. yüzyıl gitaristleri Kategori:2003 yılında
      ölenler Kategori:1927 doğumlular
    sentences:
      - Bu Hollandalı aktrisin adı nedir?
      - Kimdi Slim Dusty?
      - Dusty Springfield hangi hastalıktan öldü?
  - source_sentence: >-
      14 Aralık 1929 tarihli Milliyet gazetesinde İstanbul'da Kır Koşusu Eski
      logosu '''Türkiye Atletizm Federasyonu''' ('''TAF'''), atletizm sporunun
      Türkiye'deki yönetim teşkilatı olan spor federasyonu. 1922'de Türkiye
      İdman Cemiyetleri İttifakı (TİCİ) bünyesinde kurulan Türkiye Atletizm
      Federasyonu, aynı yıl Uluslararası Atletizm Federasyonları Birliği (IAAF)
      üyeliğine kabul edildi. Görev yapmış başkanlar Türkiye Atletizm
      Federasyonu'nun kronolojik sırayla başkanları; Ali Seyfi Beyti Ahmet
      Fetgeri Burhan Felek Vildan Aşir Savaşır Saffet Gürol Adnan Hün İrfan
      Şahinbaş İsmail Hakkı Güngör Ali Naili Moran Refik Tagay Sadun Özdede
      Nejat Kök Behçet Beylem Erol Zorlu Kurthan Fişek Jerfi Fıratlı Nuri Turan
      Abdullah Kökpınar Cüneyt Koryürek Yılmaz Sazak İlker Çetin Hüseyin
      Manioğlu Ali Ergenç Muharrem Dalkılıç Aşkın Tuna Fikret Çetinkaya Semra
      Aksu Hüseyin Yıldırım Mehmet Yurdadön Mehmet Terzi Hüseyin Yıldırım Fatih
      Çintimar Kaynakça Dış bağlantılar Federasyonun resmi sitesi Atletizm
      Federasyon Kategori:Avrupa Atletizm Birliği üyesi federasyonlar
      Kategori:Ankara merkezli kuruluşlar Osmanlı kurulan oluşumlar kurulan spor
      kuruluşları
    sentences:
      - Leandro Pereira kimdir?
      - Türkiye Atletizm Federasyonu ne zaman kuruldu?
      - P.E.N. nedir?
  - source_sentence: >-
      ''İlkbaharda Dağ Yolunda Yürümek'' '''Ma Yuan''' (; 1160'lar-1225), Güney
      Song Hanedanı döneminde yaşamış Çinli bir ressamdı. Çalışmaları, Xia
      Gui'ninkiyle birlikte, sözde Ma-Xia resim okulunun temelini oluşturdu ve
      dönemin en iyileri arasında kabul edilmektedir. Eserleri hem Zhe okulunun
      Çinli sanatçılarına hem de ilk Japon ressamlar Shūbun ve Sesshū'ye ilham
      verdi. Kaynakça Dunlop, Ronald Ossory. 1954. ''Landscape Painting: Ma Yüan
      to Picasso''. London: Seeley, Service Co. Little, Stephen. '' Taoism and
      the Arts of China,'' p. 160. Chicago: Art Institute of Chicago. Dış
      bağlantılar Ma Yuan Painting Gallery at China Online Museum Sung and Yuan
      paintings an exhibition catalog from The Metropolitan Museum of Art
      Libraries (fully available online as PDF), which contains material on Ma
      Yuan (see list of paintings) doğanlar doğumlular Kategori:1225 yılında
      ölenler Kategori:Çinli ressamlar Kategori:Song Hanedanı kişileri
      Kategori:12. yüzyıl ressamları Kategori:13. yüzyıl ressamları
    sentences:
      - Denon hangi sanatsal hareketle ilişkilendirilir?
      - Hammâd bin Süleyman'ın hocası kimdir?
      - Ma Yuan hangi okulun ressamıydı?
  - source_sentence: >-
      veya '''Afrika insansıları''', ilk kez John Edward Gray tarafından 1825
      yılında tanımlanmış bir Hominidae alt familyasıdır. Açıklama (insansı)
      aile ağacı sol Mevcut (5 tür) ve soyu tükenmiş türleriyle birlikte iki
      oymak içerir: '''Hominini''' oymağı ve '''Gorillini''' oymağı. Kimi
      yazarlar ise, ''Pan'' cinsinin bazen kendi üçüncü oymağı Panini'ye ait
      olduğunu düşünür. Homininae, orangutanların (Ponginae alt familyası)
      hominid soyundan ayrılmasından (yaklaşık 16 myö) sonra ortaya çıkan,
      insanlarla orangutanlara göre daha yakın akraba olan tüm hominidleri
      içerir. Bu alt familyadaki canlılar, ''hominine'' veya ''hominineler''
      olarak tanımlanır. Evrim Homininae alt familyasının yaşı son ortak atası)
      tahminlere göre 14 ila 12.5 milyon yıldır Gorillini ve Hominini
      oymaklarına ayrılmasının ("goril insan son ortak atası", GHLCA) geç
      Miyosen'de, nakayamai''nin yaşadığı döneme yakın bir zamanda, ila 10
      milyon yıl önce gerçekleştiği tahmin edilmiştir (TGHLCA). ''Pan-Homo''
      bölünmesine kadar (5-7 myö) gorillerin ve ''Pan-Homo'' atalarının
      melezlendiğine dair kanıtlar vardır. Filogeni Parins-Fukuchi ''ve
      2019'daki çalışmasına göre oluşturulmuş, soyu tükenmiş homininleri içeren
      bir Homininae kladogramı: Ayrıca bakınız son ortak ata Ponginae Notlar
      Kaynakça Dış bağlantılar Kategori:John Edward Gray tarafından
      adlandırılmış taksonlar tanımlanan taksonlar
    sentences:
      - Homininae alt familyası ilk kez ne zaman ve kim tarafından tanımlandı?
      - Amr Hassan Zaki hangi takımlarda forma giymiştir?
      - KKTC spor kulübü hangi şehirde kurulmuştur?
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
  - cosine_accuracy@1
  - cosine_accuracy@3
  - cosine_accuracy@5
  - cosine_accuracy@10
  - cosine_precision@1
  - cosine_precision@3
  - cosine_precision@5
  - cosine_precision@10
  - cosine_recall@1
  - cosine_recall@3
  - cosine_recall@5
  - cosine_recall@10
  - cosine_ndcg@10
  - cosine_mrr@10
  - cosine_map@100
model-index:
  - name: bge-small-en-v1.5-tr-rag-v1
    results:
      - task:
          type: information-retrieval
          name: Information Retrieval
        dataset:
          name: dim 384
          type: dim_384
        metrics:
          - type: cosine_accuracy@1
            value: 0.6088264794383149
            name: Cosine Accuracy@1
          - type: cosine_accuracy@3
            value: 0.6850551654964895
            name: Cosine Accuracy@3
          - type: cosine_accuracy@5
            value: 0.7171514543630892
            name: Cosine Accuracy@5
          - type: cosine_accuracy@10
            value: 0.7482447342026078
            name: Cosine Accuracy@10
          - type: cosine_precision@1
            value: 0.6088264794383149
            name: Cosine Precision@1
          - type: cosine_precision@3
            value: 0.22835172183216315
            name: Cosine Precision@3
          - type: cosine_precision@5
            value: 0.14343029087261785
            name: Cosine Precision@5
          - type: cosine_precision@10
            value: 0.07482447342026077
            name: Cosine Precision@10
          - type: cosine_recall@1
            value: 0.6088264794383149
            name: Cosine Recall@1
          - type: cosine_recall@3
            value: 0.6850551654964895
            name: Cosine Recall@3
          - type: cosine_recall@5
            value: 0.7171514543630892
            name: Cosine Recall@5
          - type: cosine_recall@10
            value: 0.7482447342026078
            name: Cosine Recall@10
          - type: cosine_ndcg@10
            value: 0.6771265619538723
            name: Cosine Ndcg@10
          - type: cosine_mrr@10
            value: 0.654520704972059
            name: Cosine Mrr@10
          - type: cosine_map@100
            value: 0.6582962117755787
            name: Cosine Map@100

bge-small-en-v1.5-tr-rag-v1

This is a sentence-transformers model finetuned from BAAI/bge-small-en-v1.5 on the json dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: BAAI/bge-small-en-v1.5
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 384 dimensions
  • Similarity Function: Cosine Similarity
  • Training Dataset:
    • json
  • Language: en
  • License: apache-2.0

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': True}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("bge-small-en-v1.5-tr-rag-v1")
# Run inference
sentences = [
    'veya \'\'\'Afrika insansıları\'\'\', ilk kez John Edward Gray tarafından 1825 yılında tanımlanmış bir Hominidae alt familyasıdır. Açıklama (insansı) aile ağacı sol Mevcut (5 tür) ve soyu tükenmiş türleriyle birlikte iki oymak içerir: \'\'\'Hominini\'\'\' oymağı ve \'\'\'Gorillini\'\'\' oymağı. Kimi yazarlar ise, \'\'Pan\'\' cinsinin bazen kendi üçüncü oymağı Panini\'ye ait olduğunu düşünür. Homininae, orangutanların (Ponginae alt familyası) hominid soyundan ayrılmasından (yaklaşık 16 myö) sonra ortaya çıkan, insanlarla orangutanlara göre daha yakın akraba olan tüm hominidleri içerir. Bu alt familyadaki canlılar, \'\'hominine\'\' veya \'\'hominineler\'\' olarak tanımlanır. Evrim Homininae alt familyasının yaşı son ortak atası) tahminlere göre 14 ila 12.5 milyon yıldır Gorillini ve Hominini oymaklarına ayrılmasının ("goril insan son ortak atası", GHLCA) geç Miyosen\'de, nakayamai\'\'nin yaşadığı döneme yakın bir zamanda, ila 10 milyon yıl önce gerçekleştiği tahmin edilmiştir (TGHLCA). \'\'Pan-Homo\'\' bölünmesine kadar (5-7 myö) gorillerin ve \'\'Pan-Homo\'\' atalarının melezlendiğine dair kanıtlar vardır. Filogeni Parins-Fukuchi \'\'ve 2019\'daki çalışmasına göre oluşturulmuş, soyu tükenmiş homininleri içeren bir Homininae kladogramı: Ayrıca bakınız son ortak ata Ponginae Notlar Kaynakça Dış bağlantılar Kategori:John Edward Gray tarafından adlandırılmış taksonlar tanımlanan taksonlar',
    'Homininae alt familyası ilk kez ne zaman ve kim tarafından tanımlandı?',
    'Amr Hassan Zaki hangi takımlarda forma giymiştir?',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Information Retrieval

Metric Value
cosine_accuracy@1 0.6088
cosine_accuracy@3 0.6851
cosine_accuracy@5 0.7172
cosine_accuracy@10 0.7482
cosine_precision@1 0.6088
cosine_precision@3 0.2284
cosine_precision@5 0.1434
cosine_precision@10 0.0748
cosine_recall@1 0.6088
cosine_recall@3 0.6851
cosine_recall@5 0.7172
cosine_recall@10 0.7482
cosine_ndcg@10 0.6771
cosine_mrr@10 0.6545
cosine_map@100 0.6583

Training Details

Training Dataset

json

  • Dataset: json
  • Size: 8,970 training samples
  • Columns: positive and anchor
  • Approximate statistics based on the first 1000 samples:
    positive anchor
    type string string
    details
    • min: 92 tokens
    • mean: 387.75 tokens
    • max: 512 tokens
    • min: 2 tokens
    • mean: 22.76 tokens
    • max: 58 tokens
  • Samples:
    positive anchor
    Diyarbakır ilinin Bismil ilçesine bağlı bir mahalledir. Tarihçe Mahallenin adı, 1928 yılı kayıtlarında olarak geçmektedir. Coğrafya Diyarbakır il merkezine 57 km, Bismil ilçe merkezine 22 km uzaklıktadır. Nüfus Yıllara göre mahalle nüfus verileri 2007 2000 185 1997 165 Kaynakça Dış bağlantılar Yerelnet mahalleleri Mahallenin adı ne zaman kaydedilmiştir?
    '''karmaşık neden''', '''nedensel aşırı '''nedensel veya '''indirgeme safsatası''', bir sonucun birkaç nedenden kaynaklanması mümkünken; bir tek nedeni olduğu varsayıldığında ortaya çıkan kuşkulu neden safsatasıdır. Mantıksal olarak şu şekilde açıklanabilir: "X, Y'ye neden oldu; bu nedenle, X, Y'nin tek nedeniydi" Nedensel aşırı basitleştirme, birleşik olasılıkların göz ardı edildiği belirli bir tür yanlış ikilemdir. Diğer bir deyişle, "A ve ve C" veya "A ve ama değil" şeklindeki öncüller dikkate alınmadığında olası nedenlerin "A veya veya C" olduğu varsayılır. Kaynakça Karmaşık neden safsatası nedir ve nasıl oluşur?
    Akyazı Sakarya ili ilçesi Akyazı, Adıyaman Adıyaman ili merkez ilçesine bağlı köy Akyazı, Besni Adıyaman ili Besni ilçesine bağlı köy Akyazı, Amasya Amasya ili merkez ilçesine bağlı köy Akyazı, Adilcevaz Bitlis ili Adilcevaz ilçesine bağlı köy Akyazı, Düzce Düzce ili merkez ilçesine bağlı köy Akyazı, Çorum Çorum ili merkez ilçesine bağlı köy Akyazı, Aziziye Erzurum ili Aziziye ilçesine bağlı mahalle Akyazı, Kızıltepe Mardin ili Kızıltepe ilçesine bağlı mahalle Akyazı, Asarcık Samsun ili Asarcık ilçesine bağlı mahalle Akyazı, Ortahisar Trabzon ili Ortahisar ilçesine bağlı mahalle Akyazı adında kaç köy vardır?
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: epoch
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 16
  • gradient_accumulation_steps: 16
  • learning_rate: 2e-05
  • num_train_epochs: 5
  • lr_scheduler_type: cosine
  • warmup_ratio: 0.1
  • tf32: False
  • load_best_model_at_end: True
  • optim: adamw_torch_fused
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: epoch
  • prediction_loss_only: True
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 16
  • eval_accumulation_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 5
  • max_steps: -1
  • lr_scheduler_type: cosine
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: False
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch_fused
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Epoch Step Training Loss dim_384_cosine_ndcg@10
0.5694 10 1.8837 -
0.9680 17 - 0.6095
1.1388 20 1.1104 -
1.7082 30 0.8451 -
1.9929 35 - 0.6585
2.2776 40 0.7245 -
2.8470 50 0.6472 -
2.9609 52 - 0.6751
3.4164 60 0.6274 -
3.9858 70 0.5872 0.6764
4.5552 80 0.5975 -
4.8399 85 - 0.6771
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.12.7
  • Sentence Transformers: 3.3.1
  • Transformers: 4.41.2
  • PyTorch: 2.5.1+cu124
  • Accelerate: 1.1.1
  • Datasets: 2.19.1
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}