File size: 39,218 Bytes
15dad46
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
---
language:
- en
license: apache-2.0
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:8970
- loss:MultipleNegativesRankingLoss
base_model: BAAI/bge-small-en-v1.5
widget:
- source_sentence: 'Seri konum efekti tarafından oluşturulan şeklindeki seri konum
    eğrisini gösteren grafik. ''''''Seri konum etkisi'''''', bir kişinin, bir serideki
    ilk ve son ögeleri en iyi; ortanca ögeleri en kötü hatırlama eğilimidir. Bu terim,
    Hermann Ebbinghaus tarafından kendi üzerine yaptığı çalışmalar ile ve bu terim,
    hatırlama doğruluğunun, bir ögenin bir çalışma listesindeki konumunun bir fonksiyonu
    olarak değiştiği bulgusuna değinmektedir. Sırası fark etmeksizin (serbest hatırlama)
    listedeki ögelerin hatırlanması istenildiğinde, insanlar listenin sonundaki ögeleri
    hatırlamaya başlama eğilimindedir ve bu ögeleri en iyi şekilde hatırlarlar (''''''sonluk
    etkisi''''''). Daha önceki liste ögeleri arasında, ilk birkaç öge, orta ögelerden
    daha sık hatırlanır (''''''ilklik etkisi''''''). İlklik etkisi için önerilen bir
    neden, sunulan ilk ögelerin kendilerine ayrılmış daha fazla miktarda işlem nedeniyle
    en etkin şekilde hareketsiz bellekte depolanmasıdır. (İlk liste ögesi kendi başına
    prova edilebilir; ikincisi, birincisi ile birlikte prova edilmek zorundadır, üçüncü,
    birincisi ve ikincisi ile birlikte, ve böyle devam eder.) Ögeler hızlı bir şekilde
    sunulduğunda ilklik etkisi azalır ve yavaş sunulduğunda artar (her bir ögenin
    işlenmesini ve böylece kalıcı depolanmasını azaltan ve arttıran faktörler). Daha
    uzun sunum listelerinin ilklik etkisini azalttığı bulunmuştur. Sonluk etkisi için
    teorileşmiş bir neden, bu ögelerin geri hatırlanması talep edildiğinde hala aktif
    hafızada bulunmasıdır. Hiçbirinden yararlanmayan ögeler (ortanca ögeler) en kötü
    şekilde geri çağrılır. Sonluk etkisi için ek bir açıklama zamansal bağlamla ilgilidir:
    Mevcut zamansal bağlam, daha yeni ögelerin, farklı bir zamansal bağlamda (listenin
    başlarında) incelenen ögelere göre daha yüksek geri hatırlama olasılığına sahip
    olacağını haber veren bir geri hatırlama işareti olarak kullanılabilir. Araya
    giren bir görev verildiğinde sonluk etkisi azalır. Araya giren görevler, çalışan
    belleği kullanır, ve dikkat dağıtıcı aktivite süresi 15 ila 30 saniyeyi aşarsa,
    sonluk etkisini bozabilir. Ek olarak, geri hatırlama testten hemen sonra gelirse,
    sonluk etkisi çalışılan listenin uzunluğuna, veya sunum hızına bakılmaksızın istikrarlıdır.
    Kalıcı uzun süreli hafıza oluşturma kabiliyeti zayıf olan amnezyaklar ilklik etkisi
    göstermezler, ancak hatırlama çalışmadan hemen sonra gelirse bir sonluk etkisi
    gösterirler. Alzheimer hastalığı olan kişiler daha düşük bir ilklik etkisi sergiler,
    ancak hatırlamada bir sonluk etkisi göstermezler. İlklik etkisi İlklik etkisi,
    psikolojide ve sosyolojide, kişinin ilk verilen bilgiyi daha sonra verilen bilgiden
    daha iyi hatırlamasına neden olan bir bilişsel önyargıdır. Örneğin, yeterince
    uzun bir kelime listesini okuyan bir kişinin, listenin başındaki kelimeleri hatırlaması
    listenin ortasındakileri hatırlamasından daha yüksek ihtimallidir. Birçok araştırmacı
    bu olguyu serbest hatırlama null testler yoluyla açıklamaya çalışmıştır. Coluccia,
    Gamboz ve Brandimonte (2011), serbest hatırlamayı katılımcıların herhangi bir
    telkin olmaksızın bilgileri hatırlamaya çalışması olarak açıklamaktadır. 20. yüzyılın
    sonlarındaki bazı deneylerde, kendilerine sunulan bir listede test edileceklerini
    bilen katılımcıların ögeleri prova edeceği kaydedildi: Ögeler sunulduğunda katılımcılar
    bu ögeleri kendilerine tekrar edecek ve yeni ögeler sunuldukça katılımcılar daha
    yeni maddelerle birlikte önceki ögeleri prova etmeye devam edeceklerdi. İlklik
    etkisinin ögelerin sunumu arasında daha fazla zaman olduğunda hatırlama üzerinde
    daha büyük bir etkisi olduğu, böylece katılımcıların önceki (asal) ögeleri prova
    etme şansının daha yüksek olacağı gösterilmiştir. Açık prova katılımcıların prova
    örüntülerini test etmek için kullanılan bir teknikti. Bu tekniğin kullanıldığı
    bir deneyde, katılımcılardan akla gelen ögeleri yüksek sesle söylemeleri istendi.
    Bu şekilde deneyci, katılımcıların listenin başındaki ögeleri listenin ortasındaki
    ögelerden daha çok böylece onları daha sık prova yapacağını ve daha sonra listenin
    ortasındaki ögelerden daha iyi hatırlayacağını görebildi. Brodie ve Murdock tarafından
    yapılan başka bir deneyde, sonluk etkisinin ilklik etkisinden kısmen sorumlu olduğu
    bulunmuştur. Deneylerinde, aynı zamanda açık prova tekniğini kullandılar ve katılımcıların
    daha önceki ögeleri daha fazla prova yapmasının yanı sıra, listenin başındaki
    kelimeleri provada daha sonra söylediklerini keşfettiler. Bu şekilde, daha önceki
    ögeler prova yolu sayesinde test sonuna daha yakındı ve kısmen sonluk etkisi ile
    2013 yılında yapılan bir araştırma, ilklik etkisinin, edimsel koşullama olarak
    da bilinen bir öğrenme süreci olan tekrarlanan seçim deneyime dayalı karar verme
    sürecinde de önemli olduğunu göstermiştir. Yazarlar, takip eden davranışın ilk
    ödülünün değerine verilen önemi göstermiş ve bu olguyu sonuç önceliği olarak ifade
    etmişlerdir. Başka bir çalışmada, katılımcılar iki cümleden birini aldı. Örneğin,
    cümlelerin biri "Steve akıllı, çalışkan, eleştirel, fevri ve kıskançtır."; diğeri
    ise "Steve kıskanç, fevri, eleştirel, çalışkan ve akıllıdır." olabilir. Bu iki
    cümle aynı bilgileri içerir. Birincisi başlangıçta pozitif özellikleri gösterirken,
    ikincisi olumsuz özelliklere sahiptir. Araştırmacılar, katılımcıların Steve''i
    ilk cümle verildiğinde ikincisine kıyasla daha olumlu buldular. Sonluk etkisi
    İki geleneksel teori sınıfı sonluk etkisini açıklar. Çift depo modelleri Bu modeller,
    en son listelenen çalışma ögelerinin oldukça erişilebilir kısa süreli ara bellekten,
    yani insan hafızasındaki kısa süreli depodan (KSD) alındığını varsayar. Bu, daha
    sonra incelenen ögelerin, daha önce incelenen ögelere göre bir avantaja sahip
    olmasını sağlar, çünkü daha önceki çalışma ögelerinin uzun süreli bellek deposundan
    (USD) geriye getirilmesi için daha fazla çaba harcanması gerekir. Bu tür modellerin
    önemli bir tahmini, alıkoyma döneminde (liste sunumu ile test arasındaki süre)
    10-30 saniye aritmetik problemleri çözme gibi dikkat dağıtıcı bir sunumun yenilik
    etkisini azaltmasıdır. KSD sınırlı kapasiteye sahip olduğundan, dikkat dağınıklığı
    daha sonraki çalışma listesi ögelerini KSD''den değiştirir, böylece testte bu
    ögeler sadece USD''den alınabilir ve kısa süreli ara bellekten daha kolay alınabilme
    avantajlarını yitirebilir. Bu nedenle, çift depolu modeller, hem anlık hatırlama
    görevlerindeki sonluk etkisini hem de gecikmeli serbest geri hatırlama görevinde
    böyle bir etkinin zayıflamasını başarılı bir şekilde açıklar. Bununla birlikte,
    bu modelle ilgili büyük bir sorun, uyarıcılar arası zaman aralığı (aralıksız çeldirici
    görev) sırasında her çalışma maddesi arasında bir dikkat dağılması olduğunda,
    gecikmeli hatırlamada gözlemlenen uzun süreli etkisini tahmin edememesidir. Dikkatin
    dağılması, son çalışma maddesinden sonra hala mevcut olduğundan, çalışma maddesini
    KSD''den, sonluk etkisi azaltılacak şekilde Bu uzun vadeli sonluk etkisinin varlığı,
    anlık ve uzun süreli sonluk etkilerinin ortak bir mekanizmayı paylaşması olasılığını
    arttırmaktadır. Tek depo modelleri Tek depo teorilerine göre, dizisel konum etkilerinden
    tek bir mekanizma sorumludur. İlk model türü, her bir liste ögesinin incelenmesi
    ile test arasındaki sürenin, bir ögenin alınırken bellek izinin göreceli rekabetçiliğini
    belirlediği göreceli zamansal farklılığa dayanmaktadır. Bu modelde, liste sonu
    ögelerinin daha belirgin ve dolayısıyla daha kolay alınabileceği Başka bir model
    türü, ögelerin bellekten geri alınmasının yalnızca kişinin çalışma ögesinin kendisini
    değil, aynı zamanda çalışma bağlamını zihinsel temsiline bağlı olduğunu öne süren
    bağlamsal değişkenliğe dayanmaktadır. Bağlam zamanla değiştiğinden ve gittikçe
    değiştiğinden, bellek ögelerini geri almak için yarıştığında, anlık serbest hatırlama
    testinde, daha yakın zamanda incelenen ögelerin test bağlamıyla daha benzer kodlama
    bağlamları olacaktır ve geriye getirme olasılığı daha yüksektir. Anlık serbest
    hatırlama dışında, bu modeller gecikmeli serbest hatırlama ve sürekli çeldirici
    serbest hatırlama koşullarında sonluk etkisinin varlığını veya yokluğunu da tahmin
    edebilir. Gecikmeli hatırlama koşulları altında, test bağlamı artan tutma aralığıyla
    uzaklaşarak zayıflamış bir sonluk etkisi yaratır. Sürekli çeldirici hatırlama
    koşullarında, artan yorumlama aralıkları çalışma bağlamı ve test bağlamı arasındaki
    benzerlikleri azaltırken, maddeler arasındaki göreli benzerlikler değişmeden kalmaktadır.
    Hatırlama işlemi rekabetçi olduğu sürece, son ögeler kazanacaktır, bu nedenle
    bir sonluk etkisi gözlenir. Oran kuralı Genel olarak, sonluk etkisi ile ilgili
    önemli bir ampirik gözlem, mutlak tutma aralıkları (çalışma sonu ile test süresi
    arasındaki süre) veya sunumlar arası aralıklar (farklı çalışma ögeleri arasındaki
    süre) olmamasıdır. Bunun yerine, sonluk miktarı ile belirlenen oran; mutlak tutma
    aralıkları ve sunumlar arası aralıklar oranı (oran kuralı). Sonuç olarak, bu oran
    sabit kaldığı sürece, aralıkların mutlak değerlerinden bağımsız olarak yenilik
    gözlenecektir, böylece ''''''zaman ölçeği değişmezliği'''''' olarak bilinen bir
    fenomen olan tüm zaman ölçeklerinde yenilik gözlenebilir. Bu, yeniliğin KSD''nin
    büyüklüğüne ve KSD''deki ögelerin yer değiştirmesini yöneten kurala bağlı olduğunu
    varsayan çift depo modelleri ile çelişmektedir. Olası açıklamalar daha sonra tek,
    aynı bir mekanizma yoluyla ortaya çıkan sonluk etkisini açıklar ya da anlık ve
    uzun süreli sonluk etkileri için iki farklı mekanizmayı öngörebilen farklı bir
    modelle yeniden açıklar. Böyle bir açıklama Davelaar ve ark. (2005), tek bileşenli
    bir bellek modeli tarafından açıklanamayan anlık ve uzun süreli sonluk fenomenleri
    arasında ayrışmalar olduğunu, anlık ve sonluk açıklayan bir KSD''nin varlığını
    savunan ve bir saniye uzun süreli sonluğu açıklayan bağlamsal kaymaya dayanan
    mekanizmadır. İlgili etkiler 1977''de William Crano özellikle birbirinin zıttı
    olduğu söylenen ilklik ve sonluk etkileri başta olmak üzere sıra etkilerinin doğasını
    belirten bir çalışma hazırlamaya karar verdi. Crano tarafından test edilen özellikler:
    Anlam değişimi hipotezi Bir listenin başındaki ögeler, katılımcıların listenin
    geri kalanının da uymasını beklediği bir tema oluşturur. Katılımcı, listedeki
    bazı kelimelerin anlamlarını belirlediği beklentiye uyacak şekilde değiştirir.
    Watkins ve Peynircioğlu (1984), katılımcıların kelimelerin anlamlarını değiştirerek
    belirlenen temadan uzaklaşarak da olsa sunulan bilgideki sapmayı azalttığını açıklamıştır.
    Tutarsızlık durumda saymama Katılımcılar, kendilerine sunulan önceki maddelerle
    tutarlı olmayan bilgileri dikkate almazlar. Başka bir deyişle, tutarsızlık durumda
    saymama, sunulan diğer bilgilerle tutarsız olan bilgileri tutarlı olanlardan daha
    az önemli görmeyi içerir (Devine ve Ostrom, 1985). Dikkat azaltma hipotezi Önce
    sunulan bilgilerin katılımcılar üzerinde daha sonra sunulan bilgilerden daha fazla
    etkisi vardır ve bu bilgiler tutarlı olsa bile öncelikli bir etkinin ortaya çıkmasına
    neden olur. Steiner ve Rain (1989) insanların başlangıçta sunulan bilgilere daha
    fazla dikkat ettiklerini, ancak kendilerine sonradan sunulan bilgilere giderek
    daha az dikkat ettiklerini açıklamaktadır. İlklik etkisi, katılımcıların başlangıç
    bilgilerine dikkat etmeleri ve daha sonra sunulan bilgileri görmezden gelmeleri
    nedeniyle oluşur. Öte yandan, katılımcılar sürekli olarak bilgiye dikkat etmek
    zorunda oldukları bir durumdaysa, sonluk etkisi oluşabilir. ''''''Süreklilik etkisi''''''
    veya gecikme etkisi, başarılı bir geri çağırma sonra, bir sonraki geri çağrılan
    ögenin, yakın bir seri konumdan ziyade, uzak bir seri konumdan gelme olasılığının
    düşük olduğunu tahmin eder (Kahana, Howard, Zaromb ve Wingfiend, 2002). İki ögenin
    seri konumu arasındaki fark seri konum gecikmesi olarak adlandırılır. Koşullu
    yanıt olasılığı olarak adlandırılan bir başka faktör, belirli bir seri konum gecikmesini
    hatırlama olasılığıdır. Ayrıca bakınız Anchoring Clive Wearing Serbest Hatırlama
    Henry Molaison İknada İlklik Yasası Öğrenme Eğrisi Hafıza Eğilimleri Listesi Bilişsel
    Eğilimler Listesi Sonucun İlkliği Öğrenme İlkeleri Tepe-Uç Kuralı Anımsama Yumrusu
    Kaynakça ;Atıflar ;Basılı eserler Konuyla ilgili yayınlar Liebermann, David A.
    L''''earning and memory: An integrative approach.'''' Belmont, CA: Thomson Wadsworth,
    2004, Kategori:Bellek süreçleri eğilimler'
  sentences:
  - Sultan Bey'in hayatının ikinci kısmını oluşturan önemli olay nedir?
  - Aslanbaba hangi ilçeye bağlı bir mahalledir?
  - Seri konum eğrisinin şeklini hangi etmenlerin belirlediği anlatıyor musunuz?
- source_sentence: (doğum adı '''David Gordon Kirkpatrick''' 13 Haziran 1927 19 Eylül
    2003), Avustralyalı country müzik şarkıcısı ve söz yazarıydı. Avustralya için
    bir kültür ikonuydu ve ülkenin en çok ödül alan yıldızlarından biriydi. Haziran
    1927'de Nulla Nulla Creek'te bir çiftçinin oğlu olarak doğan Dusty, ilk şarkısı
    "The Way the Cowboy Dies"ı 1937'de yazdı ve 1938'de 11 yaşındayken "Slim Dusty"
    sahne adını aldı. Yetmiş yıla yakın kariyerinde çok sayıda kayıt yaptı. Yüzden
    fazla albüm çıkardı, yedi milyondan fazla kayıt sattı ve 70'in üzerinde altın
    ve platin albüm sertifikası kazandı". Sidney 2000 Olimpiyat Oyunlarının kapanış
    töreninde Avustralya'da çok ünlü bir şarkı olan "Waltzing Matilda" seslendirdi.
    1951'de Dusty, şarkıcı-söz yazarı Joy McKean ile evlendi ve onun desteğiyle Avustralya'da
    büyük başarılar elde etti. Çiftin, şarkıcı-söz yazarı olan Anne Kirkpatrick ve
    David Kirkpatrick adlı iki çocukları oldu. Akciğer ve böbrek kanseri ile uzun
    bir mücadelenin ardından 19 Eylül 2003'te 76 yaşında Yeni Güney Galler'deki evinde
    öldü. Kaynakça Hristiyanlar erkek şarkıcı-şarkı yazarları Şeref Nişanı sahipleri
    erkek gitaristler kanserinden ölenler Kategori:Böbrek kanserinden ölenler Kategori:Yeni
    Güney Galler'de kanserden ölenler asıllı Avustralyalılar gitaristler country şarkıcıları
    Kategori:ARIA Hall of Fame üyeleri Kategori:ARIA Ödülü sahipleri Kategori:APRA
    Ödülü sahipleri gitaristler Kategori:21. yüzyıl gitaristleri Kategori:20. yüzyıl
    gitaristleri Kategori:2003 yılında ölenler Kategori:1927 doğumlular
  sentences:
  - Bu Hollandalı aktrisin adı nedir?
  - Kimdi Slim Dusty?
  - Dusty Springfield hangi hastalıktan öldü?
- source_sentence: 14 Aralık 1929 tarihli Milliyet gazetesinde İstanbul'da Kır Koşusu
    Eski logosu '''Türkiye Atletizm Federasyonu''' ('''TAF'''), atletizm sporunun
    Türkiye'deki yönetim teşkilatı olan spor federasyonu. 1922'de Türkiye İdman Cemiyetleri
    İttifakı (TİCİ) bünyesinde kurulan Türkiye Atletizm Federasyonu, aynı yıl Uluslararası
    Atletizm Federasyonları Birliği (IAAF) üyeliğine kabul edildi. Görev yapmış başkanlar
    Türkiye Atletizm Federasyonu'nun kronolojik sırayla başkanları; Ali Seyfi Beyti
    Ahmet Fetgeri Burhan Felek Vildan Aşir Savaşır Saffet Gürol Adnan Hün İrfan Şahinbaş
    İsmail Hakkı Güngör Ali Naili Moran Refik Tagay Sadun Özdede Nejat Kök Behçet
    Beylem Erol Zorlu Kurthan Fişek Jerfi Fıratlı Nuri Turan Abdullah Kökpınar Cüneyt
    Koryürek Yılmaz Sazak İlker Çetin Hüseyin Manioğlu Ali Ergenç Muharrem Dalkılıç
    Aşkın Tuna Fikret Çetinkaya Semra Aksu Hüseyin Yıldırım Mehmet Yurdadön Mehmet
    Terzi Hüseyin Yıldırım Fatih Çintimar Kaynakça Dış bağlantılar Federasyonun resmi
    sitesi Atletizm Federasyon Kategori:Avrupa Atletizm Birliği üyesi federasyonlar
    Kategori:Ankara merkezli kuruluşlar Osmanlı kurulan oluşumlar kurulan spor kuruluşları
  sentences:
  - Leandro Pereira kimdir?
  - Türkiye Atletizm Federasyonu ne zaman kuruldu?
  - P.E.N. nedir?
- source_sentence: '''''İlkbaharda Dağ Yolunda Yürümek'''' ''''''Ma Yuan'''''' (;
    1160''lar-1225), Güney Song Hanedanı döneminde yaşamış Çinli bir ressamdı. Çalışmaları,
    Xia Gui''ninkiyle birlikte, sözde Ma-Xia resim okulunun temelini oluşturdu ve
    dönemin en iyileri arasında kabul edilmektedir. Eserleri hem Zhe okulunun Çinli
    sanatçılarına hem de ilk Japon ressamlar Shūbun ve Sesshū''ye ilham verdi. Kaynakça
    Dunlop, Ronald Ossory. 1954. ''''Landscape Painting: Ma Yüan to Picasso''''. London:
    Seeley, Service Co. Little, Stephen. '''' Taoism and the Arts of China,'''' p.
    160. Chicago: Art Institute of Chicago. Dış bağlantılar Ma Yuan Painting Gallery
    at China Online Museum Sung and Yuan paintings an exhibition catalog from The
    Metropolitan Museum of Art Libraries (fully available online as PDF), which contains
    material on Ma Yuan (see list of paintings) doğanlar doğumlular Kategori:1225
    yılında ölenler Kategori:Çinli ressamlar Kategori:Song Hanedanı kişileri Kategori:12.
    yüzyıl ressamları Kategori:13. yüzyıl ressamları'
  sentences:
  - Denon hangi sanatsal hareketle ilişkilendirilir?
  - Hammâd bin Süleyman'ın hocası kimdir?
  - Ma Yuan hangi okulun ressamıydı?
- source_sentence: 'veya ''''''Afrika insansıları'''''', ilk kez John Edward Gray
    tarafından 1825 yılında tanımlanmış bir Hominidae alt familyasıdır. Açıklama (insansı)
    aile ağacı sol Mevcut (5 tür) ve soyu tükenmiş türleriyle birlikte iki oymak içerir:
    ''''''Hominini'''''' oymağı ve ''''''Gorillini'''''' oymağı. Kimi yazarlar ise,
    ''''Pan'''' cinsinin bazen kendi üçüncü oymağı Panini''ye ait olduğunu düşünür.
    Homininae, orangutanların (Ponginae alt familyası) hominid soyundan ayrılmasından
    (yaklaşık 16 myö) sonra ortaya çıkan, insanlarla orangutanlara göre daha yakın
    akraba olan tüm hominidleri içerir. Bu alt familyadaki canlılar, ''''hominine''''
    veya ''''hominineler'''' olarak tanımlanır. Evrim Homininae alt familyasının yaşı
    son ortak atası) tahminlere göre 14 ila 12.5 milyon yıldır Gorillini ve Hominini
    oymaklarına ayrılmasının ("goril insan son ortak atası", GHLCA) geç Miyosen''de,
    nakayamai''''nin yaşadığı döneme yakın bir zamanda, ila 10 milyon yıl önce gerçekleştiği
    tahmin edilmiştir (TGHLCA). ''''Pan-Homo'''' bölünmesine kadar (5-7 myö) gorillerin
    ve ''''Pan-Homo'''' atalarının melezlendiğine dair kanıtlar vardır. Filogeni Parins-Fukuchi
    ''''ve 2019''daki çalışmasına göre oluşturulmuş, soyu tükenmiş homininleri içeren
    bir Homininae kladogramı: Ayrıca bakınız son ortak ata Ponginae Notlar Kaynakça
    Dış bağlantılar Kategori:John Edward Gray tarafından adlandırılmış taksonlar tanımlanan
    taksonlar'
  sentences:
  - Homininae alt familyası ilk kez ne zaman ve kim tarafından tanımlandı?
  - Amr Hassan Zaki hangi takımlarda forma giymiştir?
  - KKTC spor kulübü hangi şehirde kurulmuştur?
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- cosine_accuracy@1
- cosine_accuracy@3
- cosine_accuracy@5
- cosine_accuracy@10
- cosine_precision@1
- cosine_precision@3
- cosine_precision@5
- cosine_precision@10
- cosine_recall@1
- cosine_recall@3
- cosine_recall@5
- cosine_recall@10
- cosine_ndcg@10
- cosine_mrr@10
- cosine_map@100
model-index:
- name: bge-small-en-v1.5-tr-rag-v1
  results:
  - task:
      type: information-retrieval
      name: Information Retrieval
    dataset:
      name: dim 384
      type: dim_384
    metrics:
    - type: cosine_accuracy@1
      value: 0.6088264794383149
      name: Cosine Accuracy@1
    - type: cosine_accuracy@3
      value: 0.6850551654964895
      name: Cosine Accuracy@3
    - type: cosine_accuracy@5
      value: 0.7171514543630892
      name: Cosine Accuracy@5
    - type: cosine_accuracy@10
      value: 0.7482447342026078
      name: Cosine Accuracy@10
    - type: cosine_precision@1
      value: 0.6088264794383149
      name: Cosine Precision@1
    - type: cosine_precision@3
      value: 0.22835172183216315
      name: Cosine Precision@3
    - type: cosine_precision@5
      value: 0.14343029087261785
      name: Cosine Precision@5
    - type: cosine_precision@10
      value: 0.07482447342026077
      name: Cosine Precision@10
    - type: cosine_recall@1
      value: 0.6088264794383149
      name: Cosine Recall@1
    - type: cosine_recall@3
      value: 0.6850551654964895
      name: Cosine Recall@3
    - type: cosine_recall@5
      value: 0.7171514543630892
      name: Cosine Recall@5
    - type: cosine_recall@10
      value: 0.7482447342026078
      name: Cosine Recall@10
    - type: cosine_ndcg@10
      value: 0.6771265619538723
      name: Cosine Ndcg@10
    - type: cosine_mrr@10
      value: 0.654520704972059
      name: Cosine Mrr@10
    - type: cosine_map@100
      value: 0.6582962117755787
      name: Cosine Map@100
---

# bge-small-en-v1.5-tr-rag-v1

This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [BAAI/bge-small-en-v1.5](https://huggingface.co/BAAI/bge-small-en-v1.5) on the json dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

## Model Details

### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [BAAI/bge-small-en-v1.5](https://huggingface.co/BAAI/bge-small-en-v1.5) <!-- at revision 5c38ec7c405ec4b44b94cc5a9bb96e735b38267a -->
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 384 dimensions
- **Similarity Function:** Cosine Similarity
- **Training Dataset:**
    - json
- **Language:** en
- **License:** apache-2.0

### Model Sources

- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)

### Full Model Architecture

```
SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': True}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)
```

## Usage

### Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

```bash
pip install -U sentence-transformers
```

Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("bge-small-en-v1.5-tr-rag-v1")
# Run inference
sentences = [
    'veya \'\'\'Afrika insansıları\'\'\', ilk kez John Edward Gray tarafından 1825 yılında tanımlanmış bir Hominidae alt familyasıdır. Açıklama (insansı) aile ağacı sol Mevcut (5 tür) ve soyu tükenmiş türleriyle birlikte iki oymak içerir: \'\'\'Hominini\'\'\' oymağı ve \'\'\'Gorillini\'\'\' oymağı. Kimi yazarlar ise, \'\'Pan\'\' cinsinin bazen kendi üçüncü oymağı Panini\'ye ait olduğunu düşünür. Homininae, orangutanların (Ponginae alt familyası) hominid soyundan ayrılmasından (yaklaşık 16 myö) sonra ortaya çıkan, insanlarla orangutanlara göre daha yakın akraba olan tüm hominidleri içerir. Bu alt familyadaki canlılar, \'\'hominine\'\' veya \'\'hominineler\'\' olarak tanımlanır. Evrim Homininae alt familyasının yaşı son ortak atası) tahminlere göre 14 ila 12.5 milyon yıldır Gorillini ve Hominini oymaklarına ayrılmasının ("goril insan son ortak atası", GHLCA) geç Miyosen\'de, nakayamai\'\'nin yaşadığı döneme yakın bir zamanda, ila 10 milyon yıl önce gerçekleştiği tahmin edilmiştir (TGHLCA). \'\'Pan-Homo\'\' bölünmesine kadar (5-7 myö) gorillerin ve \'\'Pan-Homo\'\' atalarının melezlendiğine dair kanıtlar vardır. Filogeni Parins-Fukuchi \'\'ve 2019\'daki çalışmasına göre oluşturulmuş, soyu tükenmiş homininleri içeren bir Homininae kladogramı: Ayrıca bakınız son ortak ata Ponginae Notlar Kaynakça Dış bağlantılar Kategori:John Edward Gray tarafından adlandırılmış taksonlar tanımlanan taksonlar',
    'Homininae alt familyası ilk kez ne zaman ve kim tarafından tanımlandı?',
    'Amr Hassan Zaki hangi takımlarda forma giymiştir?',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```

<!--
### Direct Usage (Transformers)

<details><summary>Click to see the direct usage in Transformers</summary>

</details>
-->

<!--
### Downstream Usage (Sentence Transformers)

You can finetune this model on your own dataset.

<details><summary>Click to expand</summary>

</details>
-->

<!--
### Out-of-Scope Use

*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->

## Evaluation

### Metrics

#### Information Retrieval

* Dataset: `dim_384`
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)

| Metric              | Value      |
|:--------------------|:-----------|
| cosine_accuracy@1   | 0.6088     |
| cosine_accuracy@3   | 0.6851     |
| cosine_accuracy@5   | 0.7172     |
| cosine_accuracy@10  | 0.7482     |
| cosine_precision@1  | 0.6088     |
| cosine_precision@3  | 0.2284     |
| cosine_precision@5  | 0.1434     |
| cosine_precision@10 | 0.0748     |
| cosine_recall@1     | 0.6088     |
| cosine_recall@3     | 0.6851     |
| cosine_recall@5     | 0.7172     |
| cosine_recall@10    | 0.7482     |
| **cosine_ndcg@10**  | **0.6771** |
| cosine_mrr@10       | 0.6545     |
| cosine_map@100      | 0.6583     |

<!--
## Bias, Risks and Limitations

*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->

<!--
### Recommendations

*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->

## Training Details

### Training Dataset

#### json

* Dataset: json
* Size: 8,970 training samples
* Columns: <code>positive</code> and <code>anchor</code>
* Approximate statistics based on the first 1000 samples:
  |         | positive                                                                             | anchor                                                                            |
  |:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
  | type    | string                                                                               | string                                                                            |
  | details | <ul><li>min: 92 tokens</li><li>mean: 387.75 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 2 tokens</li><li>mean: 22.76 tokens</li><li>max: 58 tokens</li></ul> |
* Samples:
  | positive                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                               | anchor                                                       |
  |:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------|
  | <code>Diyarbakır ilinin Bismil ilçesine bağlı bir mahalledir. Tarihçe Mahallenin adı, 1928 yılı kayıtlarında olarak geçmektedir. Coğrafya Diyarbakır il merkezine 57 km, Bismil ilçe merkezine 22 km uzaklıktadır. Nüfus Yıllara göre mahalle nüfus verileri 2007 2000 185 1997 165 Kaynakça Dış bağlantılar Yerelnet mahalleleri</code>                                                                                                                                                                                                                                                                               | <code>Mahallenin adı ne zaman kaydedilmiştir?</code>         |
  | <code>'''karmaşık neden''', '''nedensel aşırı '''nedensel veya '''indirgeme safsatası''', bir sonucun birkaç nedenden kaynaklanması mümkünken; bir tek nedeni olduğu varsayıldığında ortaya çıkan kuşkulu neden safsatasıdır. Mantıksal olarak şu şekilde açıklanabilir: "X, Y'ye neden oldu; bu nedenle, X, Y'nin tek nedeniydi" Nedensel aşırı basitleştirme, birleşik olasılıkların göz ardı edildiği belirli bir tür yanlış ikilemdir. Diğer bir deyişle, "A ve ve C" veya "A ve ama değil" şeklindeki öncüller dikkate alınmadığında olası nedenlerin "A veya veya C" olduğu varsayılır. Kaynakça</code>          | <code>Karmaşık neden safsatası nedir ve nasıl oluşur?</code> |
  | <code>Akyazı Sakarya ili ilçesi Akyazı, Adıyaman Adıyaman ili merkez ilçesine bağlı köy Akyazı, Besni Adıyaman ili Besni ilçesine bağlı köy Akyazı, Amasya Amasya ili merkez ilçesine bağlı köy Akyazı, Adilcevaz Bitlis ili Adilcevaz ilçesine bağlı köy Akyazı, Düzce Düzce ili merkez ilçesine bağlı köy Akyazı, Çorum Çorum ili merkez ilçesine bağlı köy Akyazı, Aziziye Erzurum ili Aziziye ilçesine bağlı mahalle Akyazı, Kızıltepe Mardin ili Kızıltepe ilçesine bağlı mahalle Akyazı, Asarcık Samsun ili Asarcık ilçesine bağlı mahalle Akyazı, Ortahisar Trabzon ili Ortahisar ilçesine bağlı mahalle</code> | <code>Akyazı adında kaç köy vardır?</code>                   |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
  ```json
  {
      "scale": 20.0,
      "similarity_fct": "cos_sim"
  }
  ```

### Training Hyperparameters
#### Non-Default Hyperparameters

- `eval_strategy`: epoch
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 16
- `gradient_accumulation_steps`: 16
- `learning_rate`: 2e-05
- `num_train_epochs`: 5
- `lr_scheduler_type`: cosine
- `warmup_ratio`: 0.1
- `tf32`: False
- `load_best_model_at_end`: True
- `optim`: adamw_torch_fused
- `batch_sampler`: no_duplicates

#### All Hyperparameters
<details><summary>Click to expand</summary>

- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: epoch
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 16
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 16
- `eval_accumulation_steps`: None
- `learning_rate`: 2e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 5
- `max_steps`: -1
- `lr_scheduler_type`: cosine
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.1
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: False
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: False
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: True
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch_fused
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: False
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`: 
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `dispatch_batches`: None
- `split_batches`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `prompts`: None
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: proportional

</details>

### Training Logs
| Epoch      | Step   | Training Loss | dim_384_cosine_ndcg@10 |
|:----------:|:------:|:-------------:|:----------------------:|
| 0.5694     | 10     | 1.8837        | -                      |
| 0.9680     | 17     | -             | 0.6095                 |
| 1.1388     | 20     | 1.1104        | -                      |
| 1.7082     | 30     | 0.8451        | -                      |
| 1.9929     | 35     | -             | 0.6585                 |
| 2.2776     | 40     | 0.7245        | -                      |
| 2.8470     | 50     | 0.6472        | -                      |
| 2.9609     | 52     | -             | 0.6751                 |
| 3.4164     | 60     | 0.6274        | -                      |
| 3.9858     | 70     | 0.5872        | 0.6764                 |
| 4.5552     | 80     | 0.5975        | -                      |
| **4.8399** | **85** | **-**         | **0.6771**             |

* The bold row denotes the saved checkpoint.

### Framework Versions
- Python: 3.12.7
- Sentence Transformers: 3.3.1
- Transformers: 4.41.2
- PyTorch: 2.5.1+cu124
- Accelerate: 1.1.1
- Datasets: 2.19.1
- Tokenizers: 0.19.1

## Citation

### BibTeX

#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
```

#### MultipleNegativesRankingLoss
```bibtex
@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
```

<!--
## Glossary

*Clearly define terms in order to be accessible across audiences.*
-->

<!--
## Model Card Authors

*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->

<!--
## Model Card Contact

*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->