|
--- |
|
language: |
|
- en |
|
license: apache-2.0 |
|
tags: |
|
- sentence-transformers |
|
- sentence-similarity |
|
- feature-extraction |
|
- generated_from_trainer |
|
- dataset_size:8970 |
|
- loss:MultipleNegativesRankingLoss |
|
base_model: BAAI/bge-small-en-v1.5 |
|
widget: |
|
- source_sentence: 'Seri konum efekti tarafından oluşturulan şeklindeki seri konum |
|
eğrisini gösteren grafik. ''''''Seri konum etkisi'''''', bir kişinin, bir serideki |
|
ilk ve son ögeleri en iyi; ortanca ögeleri en kötü hatırlama eğilimidir. Bu terim, |
|
Hermann Ebbinghaus tarafından kendi üzerine yaptığı çalışmalar ile ve bu terim, |
|
hatırlama doğruluğunun, bir ögenin bir çalışma listesindeki konumunun bir fonksiyonu |
|
olarak değiştiği bulgusuna değinmektedir. Sırası fark etmeksizin (serbest hatırlama) |
|
listedeki ögelerin hatırlanması istenildiğinde, insanlar listenin sonundaki ögeleri |
|
hatırlamaya başlama eğilimindedir ve bu ögeleri en iyi şekilde hatırlarlar (''''''sonluk |
|
etkisi''''''). Daha önceki liste ögeleri arasında, ilk birkaç öge, orta ögelerden |
|
daha sık hatırlanır (''''''ilklik etkisi''''''). İlklik etkisi için önerilen bir |
|
neden, sunulan ilk ögelerin kendilerine ayrılmış daha fazla miktarda işlem nedeniyle |
|
en etkin şekilde hareketsiz bellekte depolanmasıdır. (İlk liste ögesi kendi başına |
|
prova edilebilir; ikincisi, birincisi ile birlikte prova edilmek zorundadır, üçüncü, |
|
birincisi ve ikincisi ile birlikte, ve böyle devam eder.) Ögeler hızlı bir şekilde |
|
sunulduğunda ilklik etkisi azalır ve yavaş sunulduğunda artar (her bir ögenin |
|
işlenmesini ve böylece kalıcı depolanmasını azaltan ve arttıran faktörler). Daha |
|
uzun sunum listelerinin ilklik etkisini azalttığı bulunmuştur. Sonluk etkisi için |
|
teorileşmiş bir neden, bu ögelerin geri hatırlanması talep edildiğinde hala aktif |
|
hafızada bulunmasıdır. Hiçbirinden yararlanmayan ögeler (ortanca ögeler) en kötü |
|
şekilde geri çağrılır. Sonluk etkisi için ek bir açıklama zamansal bağlamla ilgilidir: |
|
Mevcut zamansal bağlam, daha yeni ögelerin, farklı bir zamansal bağlamda (listenin |
|
başlarında) incelenen ögelere göre daha yüksek geri hatırlama olasılığına sahip |
|
olacağını haber veren bir geri hatırlama işareti olarak kullanılabilir. Araya |
|
giren bir görev verildiğinde sonluk etkisi azalır. Araya giren görevler, çalışan |
|
belleği kullanır, ve dikkat dağıtıcı aktivite süresi 15 ila 30 saniyeyi aşarsa, |
|
sonluk etkisini bozabilir. Ek olarak, geri hatırlama testten hemen sonra gelirse, |
|
sonluk etkisi çalışılan listenin uzunluğuna, veya sunum hızına bakılmaksızın istikrarlıdır. |
|
Kalıcı uzun süreli hafıza oluşturma kabiliyeti zayıf olan amnezyaklar ilklik etkisi |
|
göstermezler, ancak hatırlama çalışmadan hemen sonra gelirse bir sonluk etkisi |
|
gösterirler. Alzheimer hastalığı olan kişiler daha düşük bir ilklik etkisi sergiler, |
|
ancak hatırlamada bir sonluk etkisi göstermezler. İlklik etkisi İlklik etkisi, |
|
psikolojide ve sosyolojide, kişinin ilk verilen bilgiyi daha sonra verilen bilgiden |
|
daha iyi hatırlamasına neden olan bir bilişsel önyargıdır. Örneğin, yeterince |
|
uzun bir kelime listesini okuyan bir kişinin, listenin başındaki kelimeleri hatırlaması |
|
listenin ortasındakileri hatırlamasından daha yüksek ihtimallidir. Birçok araştırmacı |
|
bu olguyu serbest hatırlama null testler yoluyla açıklamaya çalışmıştır. Coluccia, |
|
Gamboz ve Brandimonte (2011), serbest hatırlamayı katılımcıların herhangi bir |
|
telkin olmaksızın bilgileri hatırlamaya çalışması olarak açıklamaktadır. 20. yüzyılın |
|
sonlarındaki bazı deneylerde, kendilerine sunulan bir listede test edileceklerini |
|
bilen katılımcıların ögeleri prova edeceği kaydedildi: Ögeler sunulduğunda katılımcılar |
|
bu ögeleri kendilerine tekrar edecek ve yeni ögeler sunuldukça katılımcılar daha |
|
yeni maddelerle birlikte önceki ögeleri prova etmeye devam edeceklerdi. İlklik |
|
etkisinin ögelerin sunumu arasında daha fazla zaman olduğunda hatırlama üzerinde |
|
daha büyük bir etkisi olduğu, böylece katılımcıların önceki (asal) ögeleri prova |
|
etme şansının daha yüksek olacağı gösterilmiştir. Açık prova katılımcıların prova |
|
örüntülerini test etmek için kullanılan bir teknikti. Bu tekniğin kullanıldığı |
|
bir deneyde, katılımcılardan akla gelen ögeleri yüksek sesle söylemeleri istendi. |
|
Bu şekilde deneyci, katılımcıların listenin başındaki ögeleri listenin ortasındaki |
|
ögelerden daha çok böylece onları daha sık prova yapacağını ve daha sonra listenin |
|
ortasındaki ögelerden daha iyi hatırlayacağını görebildi. Brodie ve Murdock tarafından |
|
yapılan başka bir deneyde, sonluk etkisinin ilklik etkisinden kısmen sorumlu olduğu |
|
bulunmuştur. Deneylerinde, aynı zamanda açık prova tekniğini kullandılar ve katılımcıların |
|
daha önceki ögeleri daha fazla prova yapmasının yanı sıra, listenin başındaki |
|
kelimeleri provada daha sonra söylediklerini keşfettiler. Bu şekilde, daha önceki |
|
ögeler prova yolu sayesinde test sonuna daha yakındı ve kısmen sonluk etkisi ile |
|
2013 yılında yapılan bir araştırma, ilklik etkisinin, edimsel koşullama olarak |
|
da bilinen bir öğrenme süreci olan tekrarlanan seçim deneyime dayalı karar verme |
|
sürecinde de önemli olduğunu göstermiştir. Yazarlar, takip eden davranışın ilk |
|
ödülünün değerine verilen önemi göstermiş ve bu olguyu sonuç önceliği olarak ifade |
|
etmişlerdir. Başka bir çalışmada, katılımcılar iki cümleden birini aldı. Örneğin, |
|
cümlelerin biri "Steve akıllı, çalışkan, eleştirel, fevri ve kıskançtır."; diğeri |
|
ise "Steve kıskanç, fevri, eleştirel, çalışkan ve akıllıdır." olabilir. Bu iki |
|
cümle aynı bilgileri içerir. Birincisi başlangıçta pozitif özellikleri gösterirken, |
|
ikincisi olumsuz özelliklere sahiptir. Araştırmacılar, katılımcıların Steve''i |
|
ilk cümle verildiğinde ikincisine kıyasla daha olumlu buldular. Sonluk etkisi |
|
İki geleneksel teori sınıfı sonluk etkisini açıklar. Çift depo modelleri Bu modeller, |
|
en son listelenen çalışma ögelerinin oldukça erişilebilir kısa süreli ara bellekten, |
|
yani insan hafızasındaki kısa süreli depodan (KSD) alındığını varsayar. Bu, daha |
|
sonra incelenen ögelerin, daha önce incelenen ögelere göre bir avantaja sahip |
|
olmasını sağlar, çünkü daha önceki çalışma ögelerinin uzun süreli bellek deposundan |
|
(USD) geriye getirilmesi için daha fazla çaba harcanması gerekir. Bu tür modellerin |
|
önemli bir tahmini, alıkoyma döneminde (liste sunumu ile test arasındaki süre) |
|
10-30 saniye aritmetik problemleri çözme gibi dikkat dağıtıcı bir sunumun yenilik |
|
etkisini azaltmasıdır. KSD sınırlı kapasiteye sahip olduğundan, dikkat dağınıklığı |
|
daha sonraki çalışma listesi ögelerini KSD''den değiştirir, böylece testte bu |
|
ögeler sadece USD''den alınabilir ve kısa süreli ara bellekten daha kolay alınabilme |
|
avantajlarını yitirebilir. Bu nedenle, çift depolu modeller, hem anlık hatırlama |
|
görevlerindeki sonluk etkisini hem de gecikmeli serbest geri hatırlama görevinde |
|
böyle bir etkinin zayıflamasını başarılı bir şekilde açıklar. Bununla birlikte, |
|
bu modelle ilgili büyük bir sorun, uyarıcılar arası zaman aralığı (aralıksız çeldirici |
|
görev) sırasında her çalışma maddesi arasında bir dikkat dağılması olduğunda, |
|
gecikmeli hatırlamada gözlemlenen uzun süreli etkisini tahmin edememesidir. Dikkatin |
|
dağılması, son çalışma maddesinden sonra hala mevcut olduğundan, çalışma maddesini |
|
KSD''den, sonluk etkisi azaltılacak şekilde Bu uzun vadeli sonluk etkisinin varlığı, |
|
anlık ve uzun süreli sonluk etkilerinin ortak bir mekanizmayı paylaşması olasılığını |
|
arttırmaktadır. Tek depo modelleri Tek depo teorilerine göre, dizisel konum etkilerinden |
|
tek bir mekanizma sorumludur. İlk model türü, her bir liste ögesinin incelenmesi |
|
ile test arasındaki sürenin, bir ögenin alınırken bellek izinin göreceli rekabetçiliğini |
|
belirlediği göreceli zamansal farklılığa dayanmaktadır. Bu modelde, liste sonu |
|
ögelerinin daha belirgin ve dolayısıyla daha kolay alınabileceği Başka bir model |
|
türü, ögelerin bellekten geri alınmasının yalnızca kişinin çalışma ögesinin kendisini |
|
değil, aynı zamanda çalışma bağlamını zihinsel temsiline bağlı olduğunu öne süren |
|
bağlamsal değişkenliğe dayanmaktadır. Bağlam zamanla değiştiğinden ve gittikçe |
|
değiştiğinden, bellek ögelerini geri almak için yarıştığında, anlık serbest hatırlama |
|
testinde, daha yakın zamanda incelenen ögelerin test bağlamıyla daha benzer kodlama |
|
bağlamları olacaktır ve geriye getirme olasılığı daha yüksektir. Anlık serbest |
|
hatırlama dışında, bu modeller gecikmeli serbest hatırlama ve sürekli çeldirici |
|
serbest hatırlama koşullarında sonluk etkisinin varlığını veya yokluğunu da tahmin |
|
edebilir. Gecikmeli hatırlama koşulları altında, test bağlamı artan tutma aralığıyla |
|
uzaklaşarak zayıflamış bir sonluk etkisi yaratır. Sürekli çeldirici hatırlama |
|
koşullarında, artan yorumlama aralıkları çalışma bağlamı ve test bağlamı arasındaki |
|
benzerlikleri azaltırken, maddeler arasındaki göreli benzerlikler değişmeden kalmaktadır. |
|
Hatırlama işlemi rekabetçi olduğu sürece, son ögeler kazanacaktır, bu nedenle |
|
bir sonluk etkisi gözlenir. Oran kuralı Genel olarak, sonluk etkisi ile ilgili |
|
önemli bir ampirik gözlem, mutlak tutma aralıkları (çalışma sonu ile test süresi |
|
arasındaki süre) veya sunumlar arası aralıklar (farklı çalışma ögeleri arasındaki |
|
süre) olmamasıdır. Bunun yerine, sonluk miktarı ile belirlenen oran; mutlak tutma |
|
aralıkları ve sunumlar arası aralıklar oranı (oran kuralı). Sonuç olarak, bu oran |
|
sabit kaldığı sürece, aralıkların mutlak değerlerinden bağımsız olarak yenilik |
|
gözlenecektir, böylece ''''''zaman ölçeği değişmezliği'''''' olarak bilinen bir |
|
fenomen olan tüm zaman ölçeklerinde yenilik gözlenebilir. Bu, yeniliğin KSD''nin |
|
büyüklüğüne ve KSD''deki ögelerin yer değiştirmesini yöneten kurala bağlı olduğunu |
|
varsayan çift depo modelleri ile çelişmektedir. Olası açıklamalar daha sonra tek, |
|
aynı bir mekanizma yoluyla ortaya çıkan sonluk etkisini açıklar ya da anlık ve |
|
uzun süreli sonluk etkileri için iki farklı mekanizmayı öngörebilen farklı bir |
|
modelle yeniden açıklar. Böyle bir açıklama Davelaar ve ark. (2005), tek bileşenli |
|
bir bellek modeli tarafından açıklanamayan anlık ve uzun süreli sonluk fenomenleri |
|
arasında ayrışmalar olduğunu, anlık ve sonluk açıklayan bir KSD''nin varlığını |
|
savunan ve bir saniye uzun süreli sonluğu açıklayan bağlamsal kaymaya dayanan |
|
mekanizmadır. İlgili etkiler 1977''de William Crano özellikle birbirinin zıttı |
|
olduğu söylenen ilklik ve sonluk etkileri başta olmak üzere sıra etkilerinin doğasını |
|
belirten bir çalışma hazırlamaya karar verdi. Crano tarafından test edilen özellikler: |
|
Anlam değişimi hipotezi Bir listenin başındaki ögeler, katılımcıların listenin |
|
geri kalanının da uymasını beklediği bir tema oluşturur. Katılımcı, listedeki |
|
bazı kelimelerin anlamlarını belirlediği beklentiye uyacak şekilde değiştirir. |
|
Watkins ve Peynircioğlu (1984), katılımcıların kelimelerin anlamlarını değiştirerek |
|
belirlenen temadan uzaklaşarak da olsa sunulan bilgideki sapmayı azalttığını açıklamıştır. |
|
Tutarsızlık durumda saymama Katılımcılar, kendilerine sunulan önceki maddelerle |
|
tutarlı olmayan bilgileri dikkate almazlar. Başka bir deyişle, tutarsızlık durumda |
|
saymama, sunulan diğer bilgilerle tutarsız olan bilgileri tutarlı olanlardan daha |
|
az önemli görmeyi içerir (Devine ve Ostrom, 1985). Dikkat azaltma hipotezi Önce |
|
sunulan bilgilerin katılımcılar üzerinde daha sonra sunulan bilgilerden daha fazla |
|
etkisi vardır ve bu bilgiler tutarlı olsa bile öncelikli bir etkinin ortaya çıkmasına |
|
neden olur. Steiner ve Rain (1989) insanların başlangıçta sunulan bilgilere daha |
|
fazla dikkat ettiklerini, ancak kendilerine sonradan sunulan bilgilere giderek |
|
daha az dikkat ettiklerini açıklamaktadır. İlklik etkisi, katılımcıların başlangıç |
|
bilgilerine dikkat etmeleri ve daha sonra sunulan bilgileri görmezden gelmeleri |
|
nedeniyle oluşur. Öte yandan, katılımcılar sürekli olarak bilgiye dikkat etmek |
|
zorunda oldukları bir durumdaysa, sonluk etkisi oluşabilir. ''''''Süreklilik etkisi'''''' |
|
veya gecikme etkisi, başarılı bir geri çağırma sonra, bir sonraki geri çağrılan |
|
ögenin, yakın bir seri konumdan ziyade, uzak bir seri konumdan gelme olasılığının |
|
düşük olduğunu tahmin eder (Kahana, Howard, Zaromb ve Wingfiend, 2002). İki ögenin |
|
seri konumu arasındaki fark seri konum gecikmesi olarak adlandırılır. Koşullu |
|
yanıt olasılığı olarak adlandırılan bir başka faktör, belirli bir seri konum gecikmesini |
|
hatırlama olasılığıdır. Ayrıca bakınız Anchoring Clive Wearing Serbest Hatırlama |
|
Henry Molaison İknada İlklik Yasası Öğrenme Eğrisi Hafıza Eğilimleri Listesi Bilişsel |
|
Eğilimler Listesi Sonucun İlkliği Öğrenme İlkeleri Tepe-Uç Kuralı Anımsama Yumrusu |
|
Kaynakça ;Atıflar ;Basılı eserler Konuyla ilgili yayınlar Liebermann, David A. |
|
L''''earning and memory: An integrative approach.'''' Belmont, CA: Thomson Wadsworth, |
|
2004, Kategori:Bellek süreçleri eğilimler' |
|
sentences: |
|
- Sultan Bey'in hayatının ikinci kısmını oluşturan önemli olay nedir? |
|
- Aslanbaba hangi ilçeye bağlı bir mahalledir? |
|
- Seri konum eğrisinin şeklini hangi etmenlerin belirlediği anlatıyor musunuz? |
|
- source_sentence: (doğum adı '''David Gordon Kirkpatrick''' 13 Haziran 1927 19 Eylül |
|
2003), Avustralyalı country müzik şarkıcısı ve söz yazarıydı. Avustralya için |
|
bir kültür ikonuydu ve ülkenin en çok ödül alan yıldızlarından biriydi. Haziran |
|
1927'de Nulla Nulla Creek'te bir çiftçinin oğlu olarak doğan Dusty, ilk şarkısı |
|
"The Way the Cowboy Dies"ı 1937'de yazdı ve 1938'de 11 yaşındayken "Slim Dusty" |
|
sahne adını aldı. Yetmiş yıla yakın kariyerinde çok sayıda kayıt yaptı. Yüzden |
|
fazla albüm çıkardı, yedi milyondan fazla kayıt sattı ve 70'in üzerinde altın |
|
ve platin albüm sertifikası kazandı". Sidney 2000 Olimpiyat Oyunlarının kapanış |
|
töreninde Avustralya'da çok ünlü bir şarkı olan "Waltzing Matilda"yı seslendirdi. |
|
1951'de Dusty, şarkıcı-söz yazarı Joy McKean ile evlendi ve onun desteğiyle Avustralya'da |
|
büyük başarılar elde etti. Çiftin, şarkıcı-söz yazarı olan Anne Kirkpatrick ve |
|
David Kirkpatrick adlı iki çocukları oldu. Akciğer ve böbrek kanseri ile uzun |
|
bir mücadelenin ardından 19 Eylül 2003'te 76 yaşında Yeni Güney Galler'deki evinde |
|
öldü. Kaynakça Hristiyanlar erkek şarkıcı-şarkı yazarları Şeref Nişanı sahipleri |
|
erkek gitaristler kanserinden ölenler Kategori:Böbrek kanserinden ölenler Kategori:Yeni |
|
Güney Galler'de kanserden ölenler asıllı Avustralyalılar gitaristler country şarkıcıları |
|
Kategori:ARIA Hall of Fame üyeleri Kategori:ARIA Ödülü sahipleri Kategori:APRA |
|
Ödülü sahipleri gitaristler Kategori:21. yüzyıl gitaristleri Kategori:20. yüzyıl |
|
gitaristleri Kategori:2003 yılında ölenler Kategori:1927 doğumlular |
|
sentences: |
|
- Bu Hollandalı aktrisin adı nedir? |
|
- Kimdi Slim Dusty? |
|
- Dusty Springfield hangi hastalıktan öldü? |
|
- source_sentence: 14 Aralık 1929 tarihli Milliyet gazetesinde İstanbul'da Kır Koşusu |
|
Eski logosu '''Türkiye Atletizm Federasyonu''' ('''TAF'''), atletizm sporunun |
|
Türkiye'deki yönetim teşkilatı olan spor federasyonu. 1922'de Türkiye İdman Cemiyetleri |
|
İttifakı (TİCİ) bünyesinde kurulan Türkiye Atletizm Federasyonu, aynı yıl Uluslararası |
|
Atletizm Federasyonları Birliği (IAAF) üyeliğine kabul edildi. Görev yapmış başkanlar |
|
Türkiye Atletizm Federasyonu'nun kronolojik sırayla başkanları; Ali Seyfi Beyti |
|
Ahmet Fetgeri Burhan Felek Vildan Aşir Savaşır Saffet Gürol Adnan Hün İrfan Şahinbaş |
|
İsmail Hakkı Güngör Ali Naili Moran Refik Tagay Sadun Özdede Nejat Kök Behçet |
|
Beylem Erol Zorlu Kurthan Fişek Jerfi Fıratlı Nuri Turan Abdullah Kökpınar Cüneyt |
|
Koryürek Yılmaz Sazak İlker Çetin Hüseyin Manioğlu Ali Ergenç Muharrem Dalkılıç |
|
Aşkın Tuna Fikret Çetinkaya Semra Aksu Hüseyin Yıldırım Mehmet Yurdadön Mehmet |
|
Terzi Hüseyin Yıldırım Fatih Çintimar Kaynakça Dış bağlantılar Federasyonun resmi |
|
sitesi Atletizm Federasyon Kategori:Avrupa Atletizm Birliği üyesi federasyonlar |
|
Kategori:Ankara merkezli kuruluşlar Osmanlı kurulan oluşumlar kurulan spor kuruluşları |
|
sentences: |
|
- Leandro Pereira kimdir? |
|
- Türkiye Atletizm Federasyonu ne zaman kuruldu? |
|
- P.E.N. nedir? |
|
- source_sentence: '''''İlkbaharda Dağ Yolunda Yürümek'''' ''''''Ma Yuan'''''' (; |
|
1160''lar-1225), Güney Song Hanedanı döneminde yaşamış Çinli bir ressamdı. Çalışmaları, |
|
Xia Gui''ninkiyle birlikte, sözde Ma-Xia resim okulunun temelini oluşturdu ve |
|
dönemin en iyileri arasında kabul edilmektedir. Eserleri hem Zhe okulunun Çinli |
|
sanatçılarına hem de ilk Japon ressamlar Shūbun ve Sesshū''ye ilham verdi. Kaynakça |
|
Dunlop, Ronald Ossory. 1954. ''''Landscape Painting: Ma Yüan to Picasso''''. London: |
|
Seeley, Service Co. Little, Stephen. '''' Taoism and the Arts of China,'''' p. |
|
160. Chicago: Art Institute of Chicago. Dış bağlantılar Ma Yuan Painting Gallery |
|
at China Online Museum Sung and Yuan paintings an exhibition catalog from The |
|
Metropolitan Museum of Art Libraries (fully available online as PDF), which contains |
|
material on Ma Yuan (see list of paintings) doğanlar doğumlular Kategori:1225 |
|
yılında ölenler Kategori:Çinli ressamlar Kategori:Song Hanedanı kişileri Kategori:12. |
|
yüzyıl ressamları Kategori:13. yüzyıl ressamları' |
|
sentences: |
|
- Denon hangi sanatsal hareketle ilişkilendirilir? |
|
- Hammâd bin Süleyman'ın hocası kimdir? |
|
- Ma Yuan hangi okulun ressamıydı? |
|
- source_sentence: 'veya ''''''Afrika insansıları'''''', ilk kez John Edward Gray |
|
tarafından 1825 yılında tanımlanmış bir Hominidae alt familyasıdır. Açıklama (insansı) |
|
aile ağacı sol Mevcut (5 tür) ve soyu tükenmiş türleriyle birlikte iki oymak içerir: |
|
''''''Hominini'''''' oymağı ve ''''''Gorillini'''''' oymağı. Kimi yazarlar ise, |
|
''''Pan'''' cinsinin bazen kendi üçüncü oymağı Panini''ye ait olduğunu düşünür. |
|
Homininae, orangutanların (Ponginae alt familyası) hominid soyundan ayrılmasından |
|
(yaklaşık 16 myö) sonra ortaya çıkan, insanlarla orangutanlara göre daha yakın |
|
akraba olan tüm hominidleri içerir. Bu alt familyadaki canlılar, ''''hominine'''' |
|
veya ''''hominineler'''' olarak tanımlanır. Evrim Homininae alt familyasının yaşı |
|
son ortak atası) tahminlere göre 14 ila 12.5 milyon yıldır Gorillini ve Hominini |
|
oymaklarına ayrılmasının ("goril insan son ortak atası", GHLCA) geç Miyosen''de, |
|
nakayamai''''nin yaşadığı döneme yakın bir zamanda, ila 10 milyon yıl önce gerçekleştiği |
|
tahmin edilmiştir (TGHLCA). ''''Pan-Homo'''' bölünmesine kadar (5-7 myö) gorillerin |
|
ve ''''Pan-Homo'''' atalarının melezlendiğine dair kanıtlar vardır. Filogeni Parins-Fukuchi |
|
''''ve 2019''daki çalışmasına göre oluşturulmuş, soyu tükenmiş homininleri içeren |
|
bir Homininae kladogramı: Ayrıca bakınız son ortak ata Ponginae Notlar Kaynakça |
|
Dış bağlantılar Kategori:John Edward Gray tarafından adlandırılmış taksonlar tanımlanan |
|
taksonlar' |
|
sentences: |
|
- Homininae alt familyası ilk kez ne zaman ve kim tarafından tanımlandı? |
|
- Amr Hassan Zaki hangi takımlarda forma giymiştir? |
|
- KKTC spor kulübü hangi şehirde kurulmuştur? |
|
pipeline_tag: sentence-similarity |
|
library_name: sentence-transformers |
|
metrics: |
|
- cosine_accuracy@1 |
|
- cosine_accuracy@3 |
|
- cosine_accuracy@5 |
|
- cosine_accuracy@10 |
|
- cosine_precision@1 |
|
- cosine_precision@3 |
|
- cosine_precision@5 |
|
- cosine_precision@10 |
|
- cosine_recall@1 |
|
- cosine_recall@3 |
|
- cosine_recall@5 |
|
- cosine_recall@10 |
|
- cosine_ndcg@10 |
|
- cosine_mrr@10 |
|
- cosine_map@100 |
|
model-index: |
|
- name: bge-small-en-v1.5-tr-rag-v1 |
|
results: |
|
- task: |
|
type: information-retrieval |
|
name: Information Retrieval |
|
dataset: |
|
name: dim 384 |
|
type: dim_384 |
|
metrics: |
|
- type: cosine_accuracy@1 |
|
value: 0.6088264794383149 |
|
name: Cosine Accuracy@1 |
|
- type: cosine_accuracy@3 |
|
value: 0.6850551654964895 |
|
name: Cosine Accuracy@3 |
|
- type: cosine_accuracy@5 |
|
value: 0.7171514543630892 |
|
name: Cosine Accuracy@5 |
|
- type: cosine_accuracy@10 |
|
value: 0.7482447342026078 |
|
name: Cosine Accuracy@10 |
|
- type: cosine_precision@1 |
|
value: 0.6088264794383149 |
|
name: Cosine Precision@1 |
|
- type: cosine_precision@3 |
|
value: 0.22835172183216315 |
|
name: Cosine Precision@3 |
|
- type: cosine_precision@5 |
|
value: 0.14343029087261785 |
|
name: Cosine Precision@5 |
|
- type: cosine_precision@10 |
|
value: 0.07482447342026077 |
|
name: Cosine Precision@10 |
|
- type: cosine_recall@1 |
|
value: 0.6088264794383149 |
|
name: Cosine Recall@1 |
|
- type: cosine_recall@3 |
|
value: 0.6850551654964895 |
|
name: Cosine Recall@3 |
|
- type: cosine_recall@5 |
|
value: 0.7171514543630892 |
|
name: Cosine Recall@5 |
|
- type: cosine_recall@10 |
|
value: 0.7482447342026078 |
|
name: Cosine Recall@10 |
|
- type: cosine_ndcg@10 |
|
value: 0.6771265619538723 |
|
name: Cosine Ndcg@10 |
|
- type: cosine_mrr@10 |
|
value: 0.654520704972059 |
|
name: Cosine Mrr@10 |
|
- type: cosine_map@100 |
|
value: 0.6582962117755787 |
|
name: Cosine Map@100 |
|
--- |
|
|
|
# bge-small-en-v1.5-tr-rag-v1 |
|
|
|
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [BAAI/bge-small-en-v1.5](https://huggingface.co/BAAI/bge-small-en-v1.5) on the json dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more. |
|
|
|
## Model Details |
|
|
|
### Model Description |
|
- **Model Type:** Sentence Transformer |
|
- **Base model:** [BAAI/bge-small-en-v1.5](https://huggingface.co/BAAI/bge-small-en-v1.5) <!-- at revision 5c38ec7c405ec4b44b94cc5a9bb96e735b38267a --> |
|
- **Maximum Sequence Length:** 512 tokens |
|
- **Output Dimensionality:** 384 dimensions |
|
- **Similarity Function:** Cosine Similarity |
|
- **Training Dataset:** |
|
- json |
|
- **Language:** en |
|
- **License:** apache-2.0 |
|
|
|
### Model Sources |
|
|
|
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net) |
|
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers) |
|
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers) |
|
|
|
### Full Model Architecture |
|
|
|
``` |
|
SentenceTransformer( |
|
(0): Transformer({'max_seq_length': 512, 'do_lower_case': True}) with Transformer model: BertModel |
|
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True}) |
|
(2): Normalize() |
|
) |
|
``` |
|
|
|
## Usage |
|
|
|
### Direct Usage (Sentence Transformers) |
|
|
|
First install the Sentence Transformers library: |
|
|
|
```bash |
|
pip install -U sentence-transformers |
|
``` |
|
|
|
Then you can load this model and run inference. |
|
```python |
|
from sentence_transformers import SentenceTransformer |
|
|
|
# Download from the 🤗 Hub |
|
model = SentenceTransformer("bge-small-en-v1.5-tr-rag-v1") |
|
# Run inference |
|
sentences = [ |
|
'veya \'\'\'Afrika insansıları\'\'\', ilk kez John Edward Gray tarafından 1825 yılında tanımlanmış bir Hominidae alt familyasıdır. Açıklama (insansı) aile ağacı sol Mevcut (5 tür) ve soyu tükenmiş türleriyle birlikte iki oymak içerir: \'\'\'Hominini\'\'\' oymağı ve \'\'\'Gorillini\'\'\' oymağı. Kimi yazarlar ise, \'\'Pan\'\' cinsinin bazen kendi üçüncü oymağı Panini\'ye ait olduğunu düşünür. Homininae, orangutanların (Ponginae alt familyası) hominid soyundan ayrılmasından (yaklaşık 16 myö) sonra ortaya çıkan, insanlarla orangutanlara göre daha yakın akraba olan tüm hominidleri içerir. Bu alt familyadaki canlılar, \'\'hominine\'\' veya \'\'hominineler\'\' olarak tanımlanır. Evrim Homininae alt familyasının yaşı son ortak atası) tahminlere göre 14 ila 12.5 milyon yıldır Gorillini ve Hominini oymaklarına ayrılmasının ("goril insan son ortak atası", GHLCA) geç Miyosen\'de, nakayamai\'\'nin yaşadığı döneme yakın bir zamanda, ila 10 milyon yıl önce gerçekleştiği tahmin edilmiştir (TGHLCA). \'\'Pan-Homo\'\' bölünmesine kadar (5-7 myö) gorillerin ve \'\'Pan-Homo\'\' atalarının melezlendiğine dair kanıtlar vardır. Filogeni Parins-Fukuchi \'\'ve 2019\'daki çalışmasına göre oluşturulmuş, soyu tükenmiş homininleri içeren bir Homininae kladogramı: Ayrıca bakınız son ortak ata Ponginae Notlar Kaynakça Dış bağlantılar Kategori:John Edward Gray tarafından adlandırılmış taksonlar tanımlanan taksonlar', |
|
'Homininae alt familyası ilk kez ne zaman ve kim tarafından tanımlandı?', |
|
'Amr Hassan Zaki hangi takımlarda forma giymiştir?', |
|
] |
|
embeddings = model.encode(sentences) |
|
print(embeddings.shape) |
|
# [3, 384] |
|
|
|
# Get the similarity scores for the embeddings |
|
similarities = model.similarity(embeddings, embeddings) |
|
print(similarities.shape) |
|
# [3, 3] |
|
``` |
|
|
|
<!-- |
|
### Direct Usage (Transformers) |
|
|
|
<details><summary>Click to see the direct usage in Transformers</summary> |
|
|
|
</details> |
|
--> |
|
|
|
<!-- |
|
### Downstream Usage (Sentence Transformers) |
|
|
|
You can finetune this model on your own dataset. |
|
|
|
<details><summary>Click to expand</summary> |
|
|
|
</details> |
|
--> |
|
|
|
<!-- |
|
### Out-of-Scope Use |
|
|
|
*List how the model may foreseeably be misused and address what users ought not to do with the model.* |
|
--> |
|
|
|
## Evaluation |
|
|
|
### Metrics |
|
|
|
#### Information Retrieval |
|
|
|
* Dataset: `dim_384` |
|
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) |
|
|
|
| Metric | Value | |
|
|:--------------------|:-----------| |
|
| cosine_accuracy@1 | 0.6088 | |
|
| cosine_accuracy@3 | 0.6851 | |
|
| cosine_accuracy@5 | 0.7172 | |
|
| cosine_accuracy@10 | 0.7482 | |
|
| cosine_precision@1 | 0.6088 | |
|
| cosine_precision@3 | 0.2284 | |
|
| cosine_precision@5 | 0.1434 | |
|
| cosine_precision@10 | 0.0748 | |
|
| cosine_recall@1 | 0.6088 | |
|
| cosine_recall@3 | 0.6851 | |
|
| cosine_recall@5 | 0.7172 | |
|
| cosine_recall@10 | 0.7482 | |
|
| **cosine_ndcg@10** | **0.6771** | |
|
| cosine_mrr@10 | 0.6545 | |
|
| cosine_map@100 | 0.6583 | |
|
|
|
<!-- |
|
## Bias, Risks and Limitations |
|
|
|
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.* |
|
--> |
|
|
|
<!-- |
|
### Recommendations |
|
|
|
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.* |
|
--> |
|
|
|
## Training Details |
|
|
|
### Training Dataset |
|
|
|
#### json |
|
|
|
* Dataset: json |
|
* Size: 8,970 training samples |
|
* Columns: <code>positive</code> and <code>anchor</code> |
|
* Approximate statistics based on the first 1000 samples: |
|
| | positive | anchor | |
|
|:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------| |
|
| type | string | string | |
|
| details | <ul><li>min: 92 tokens</li><li>mean: 387.75 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 2 tokens</li><li>mean: 22.76 tokens</li><li>max: 58 tokens</li></ul> | |
|
* Samples: |
|
| positive | anchor | |
|
|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------| |
|
| <code>Diyarbakır ilinin Bismil ilçesine bağlı bir mahalledir. Tarihçe Mahallenin adı, 1928 yılı kayıtlarında olarak geçmektedir. Coğrafya Diyarbakır il merkezine 57 km, Bismil ilçe merkezine 22 km uzaklıktadır. Nüfus Yıllara göre mahalle nüfus verileri 2007 2000 185 1997 165 Kaynakça Dış bağlantılar Yerelnet mahalleleri</code> | <code>Mahallenin adı ne zaman kaydedilmiştir?</code> | |
|
| <code>'''karmaşık neden''', '''nedensel aşırı '''nedensel veya '''indirgeme safsatası''', bir sonucun birkaç nedenden kaynaklanması mümkünken; bir tek nedeni olduğu varsayıldığında ortaya çıkan kuşkulu neden safsatasıdır. Mantıksal olarak şu şekilde açıklanabilir: "X, Y'ye neden oldu; bu nedenle, X, Y'nin tek nedeniydi" Nedensel aşırı basitleştirme, birleşik olasılıkların göz ardı edildiği belirli bir tür yanlış ikilemdir. Diğer bir deyişle, "A ve ve C" veya "A ve ama değil" şeklindeki öncüller dikkate alınmadığında olası nedenlerin "A veya veya C" olduğu varsayılır. Kaynakça</code> | <code>Karmaşık neden safsatası nedir ve nasıl oluşur?</code> | |
|
| <code>Akyazı Sakarya ili ilçesi Akyazı, Adıyaman Adıyaman ili merkez ilçesine bağlı köy Akyazı, Besni Adıyaman ili Besni ilçesine bağlı köy Akyazı, Amasya Amasya ili merkez ilçesine bağlı köy Akyazı, Adilcevaz Bitlis ili Adilcevaz ilçesine bağlı köy Akyazı, Düzce Düzce ili merkez ilçesine bağlı köy Akyazı, Çorum Çorum ili merkez ilçesine bağlı köy Akyazı, Aziziye Erzurum ili Aziziye ilçesine bağlı mahalle Akyazı, Kızıltepe Mardin ili Kızıltepe ilçesine bağlı mahalle Akyazı, Asarcık Samsun ili Asarcık ilçesine bağlı mahalle Akyazı, Ortahisar Trabzon ili Ortahisar ilçesine bağlı mahalle</code> | <code>Akyazı adında kaç köy vardır?</code> | |
|
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters: |
|
```json |
|
{ |
|
"scale": 20.0, |
|
"similarity_fct": "cos_sim" |
|
} |
|
``` |
|
|
|
### Training Hyperparameters |
|
#### Non-Default Hyperparameters |
|
|
|
- `eval_strategy`: epoch |
|
- `per_device_train_batch_size`: 32 |
|
- `per_device_eval_batch_size`: 16 |
|
- `gradient_accumulation_steps`: 16 |
|
- `learning_rate`: 2e-05 |
|
- `num_train_epochs`: 5 |
|
- `lr_scheduler_type`: cosine |
|
- `warmup_ratio`: 0.1 |
|
- `tf32`: False |
|
- `load_best_model_at_end`: True |
|
- `optim`: adamw_torch_fused |
|
- `batch_sampler`: no_duplicates |
|
|
|
#### All Hyperparameters |
|
<details><summary>Click to expand</summary> |
|
|
|
- `overwrite_output_dir`: False |
|
- `do_predict`: False |
|
- `eval_strategy`: epoch |
|
- `prediction_loss_only`: True |
|
- `per_device_train_batch_size`: 32 |
|
- `per_device_eval_batch_size`: 16 |
|
- `per_gpu_train_batch_size`: None |
|
- `per_gpu_eval_batch_size`: None |
|
- `gradient_accumulation_steps`: 16 |
|
- `eval_accumulation_steps`: None |
|
- `learning_rate`: 2e-05 |
|
- `weight_decay`: 0.0 |
|
- `adam_beta1`: 0.9 |
|
- `adam_beta2`: 0.999 |
|
- `adam_epsilon`: 1e-08 |
|
- `max_grad_norm`: 1.0 |
|
- `num_train_epochs`: 5 |
|
- `max_steps`: -1 |
|
- `lr_scheduler_type`: cosine |
|
- `lr_scheduler_kwargs`: {} |
|
- `warmup_ratio`: 0.1 |
|
- `warmup_steps`: 0 |
|
- `log_level`: passive |
|
- `log_level_replica`: warning |
|
- `log_on_each_node`: True |
|
- `logging_nan_inf_filter`: True |
|
- `save_safetensors`: True |
|
- `save_on_each_node`: False |
|
- `save_only_model`: False |
|
- `restore_callback_states_from_checkpoint`: False |
|
- `no_cuda`: False |
|
- `use_cpu`: False |
|
- `use_mps_device`: False |
|
- `seed`: 42 |
|
- `data_seed`: None |
|
- `jit_mode_eval`: False |
|
- `use_ipex`: False |
|
- `bf16`: False |
|
- `fp16`: False |
|
- `fp16_opt_level`: O1 |
|
- `half_precision_backend`: auto |
|
- `bf16_full_eval`: False |
|
- `fp16_full_eval`: False |
|
- `tf32`: False |
|
- `local_rank`: 0 |
|
- `ddp_backend`: None |
|
- `tpu_num_cores`: None |
|
- `tpu_metrics_debug`: False |
|
- `debug`: [] |
|
- `dataloader_drop_last`: False |
|
- `dataloader_num_workers`: 0 |
|
- `dataloader_prefetch_factor`: None |
|
- `past_index`: -1 |
|
- `disable_tqdm`: False |
|
- `remove_unused_columns`: True |
|
- `label_names`: None |
|
- `load_best_model_at_end`: True |
|
- `ignore_data_skip`: False |
|
- `fsdp`: [] |
|
- `fsdp_min_num_params`: 0 |
|
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False} |
|
- `fsdp_transformer_layer_cls_to_wrap`: None |
|
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None} |
|
- `deepspeed`: None |
|
- `label_smoothing_factor`: 0.0 |
|
- `optim`: adamw_torch_fused |
|
- `optim_args`: None |
|
- `adafactor`: False |
|
- `group_by_length`: False |
|
- `length_column_name`: length |
|
- `ddp_find_unused_parameters`: None |
|
- `ddp_bucket_cap_mb`: None |
|
- `ddp_broadcast_buffers`: False |
|
- `dataloader_pin_memory`: True |
|
- `dataloader_persistent_workers`: False |
|
- `skip_memory_metrics`: True |
|
- `use_legacy_prediction_loop`: False |
|
- `push_to_hub`: False |
|
- `resume_from_checkpoint`: None |
|
- `hub_model_id`: None |
|
- `hub_strategy`: every_save |
|
- `hub_private_repo`: False |
|
- `hub_always_push`: False |
|
- `gradient_checkpointing`: False |
|
- `gradient_checkpointing_kwargs`: None |
|
- `include_inputs_for_metrics`: False |
|
- `eval_do_concat_batches`: True |
|
- `fp16_backend`: auto |
|
- `push_to_hub_model_id`: None |
|
- `push_to_hub_organization`: None |
|
- `mp_parameters`: |
|
- `auto_find_batch_size`: False |
|
- `full_determinism`: False |
|
- `torchdynamo`: None |
|
- `ray_scope`: last |
|
- `ddp_timeout`: 1800 |
|
- `torch_compile`: False |
|
- `torch_compile_backend`: None |
|
- `torch_compile_mode`: None |
|
- `dispatch_batches`: None |
|
- `split_batches`: None |
|
- `include_tokens_per_second`: False |
|
- `include_num_input_tokens_seen`: False |
|
- `neftune_noise_alpha`: None |
|
- `optim_target_modules`: None |
|
- `batch_eval_metrics`: False |
|
- `prompts`: None |
|
- `batch_sampler`: no_duplicates |
|
- `multi_dataset_batch_sampler`: proportional |
|
|
|
</details> |
|
|
|
### Training Logs |
|
| Epoch | Step | Training Loss | dim_384_cosine_ndcg@10 | |
|
|:----------:|:------:|:-------------:|:----------------------:| |
|
| 0.5694 | 10 | 1.8837 | - | |
|
| 0.9680 | 17 | - | 0.6095 | |
|
| 1.1388 | 20 | 1.1104 | - | |
|
| 1.7082 | 30 | 0.8451 | - | |
|
| 1.9929 | 35 | - | 0.6585 | |
|
| 2.2776 | 40 | 0.7245 | - | |
|
| 2.8470 | 50 | 0.6472 | - | |
|
| 2.9609 | 52 | - | 0.6751 | |
|
| 3.4164 | 60 | 0.6274 | - | |
|
| 3.9858 | 70 | 0.5872 | 0.6764 | |
|
| 4.5552 | 80 | 0.5975 | - | |
|
| **4.8399** | **85** | **-** | **0.6771** | |
|
|
|
* The bold row denotes the saved checkpoint. |
|
|
|
### Framework Versions |
|
- Python: 3.12.7 |
|
- Sentence Transformers: 3.3.1 |
|
- Transformers: 4.41.2 |
|
- PyTorch: 2.5.1+cu124 |
|
- Accelerate: 1.1.1 |
|
- Datasets: 2.19.1 |
|
- Tokenizers: 0.19.1 |
|
|
|
## Citation |
|
|
|
### BibTeX |
|
|
|
#### Sentence Transformers |
|
```bibtex |
|
@inproceedings{reimers-2019-sentence-bert, |
|
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks", |
|
author = "Reimers, Nils and Gurevych, Iryna", |
|
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing", |
|
month = "11", |
|
year = "2019", |
|
publisher = "Association for Computational Linguistics", |
|
url = "https://arxiv.org/abs/1908.10084", |
|
} |
|
``` |
|
|
|
#### MultipleNegativesRankingLoss |
|
```bibtex |
|
@misc{henderson2017efficient, |
|
title={Efficient Natural Language Response Suggestion for Smart Reply}, |
|
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil}, |
|
year={2017}, |
|
eprint={1705.00652}, |
|
archivePrefix={arXiv}, |
|
primaryClass={cs.CL} |
|
} |
|
``` |
|
|
|
<!-- |
|
## Glossary |
|
|
|
*Clearly define terms in order to be accessible across audiences.* |
|
--> |
|
|
|
<!-- |
|
## Model Card Authors |
|
|
|
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.* |
|
--> |
|
|
|
<!-- |
|
## Model Card Contact |
|
|
|
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.* |
|
--> |