mini1013 commited on
Commit
2030070
·
verified ·
1 Parent(s): 49f74a4

Push model using huggingface_hub.

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,373 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - setfit
4
+ - sentence-transformers
5
+ - text-classification
6
+ - generated_from_setfit_trainer
7
+ widget:
8
+ - text: 아기 모자 돌 유아 캡 털 모자 벙거지 비니 두돌 베레모 겨울 보넷 바라클라바 방한 [B타입] 바라클라바&방한모_B3-무지 바라클라바_블랙
9
+ 출산/육아 > 유아동잡화 > 모자
10
+ - text: 23겨울 색종이장갑 노랑 출산/육아 > 유아동잡화 > 장갑
11
+ - text: 어린이 미니 캐릭터 공룡 크로스백 소지품 분실방지 힙색 공룡디자인 어린이크로스백 유아용가방 소지품보관 블루 출산/육아 > 유아동잡화
12
+ > 가방 > 크로스백
13
+ - text: 콜맨슈즈 바론2 아동 레인부츠 키즈장화 네이비_210 출산/육아 > 유아동잡화 > 신발 > 장화
14
+ - text: 마리앤키즈 유아 아동 아기 겨울 여아털구두 05_MK-R09_레인보우 퍼플_170 출산/육아 > 유아동잡화 > 신발 > 구두
15
+ metrics:
16
+ - accuracy
17
+ pipeline_tag: text-classification
18
+ library_name: setfit
19
+ inference: true
20
+ base_model: mini1013/master_domain
21
+ model-index:
22
+ - name: SetFit with mini1013/master_domain
23
+ results:
24
+ - task:
25
+ type: text-classification
26
+ name: Text Classification
27
+ dataset:
28
+ name: Unknown
29
+ type: unknown
30
+ split: test
31
+ metrics:
32
+ - type: accuracy
33
+ value: 1.0
34
+ name: Accuracy
35
+ ---
36
+
37
+ # SetFit with mini1013/master_domain
38
+
39
+ This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
40
+
41
+ The model has been trained using an efficient few-shot learning technique that involves:
42
+
43
+ 1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
44
+ 2. Training a classification head with features from the fine-tuned Sentence Transformer.
45
+
46
+ ## Model Details
47
+
48
+ ### Model Description
49
+ - **Model Type:** SetFit
50
+ - **Sentence Transformer body:** [mini1013/master_domain](https://huggingface.co/mini1013/master_domain)
51
+ - **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
52
+ - **Maximum Sequence Length:** 512 tokens
53
+ - **Number of Classes:** 18 classes
54
+ <!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
55
+ <!-- - **Language:** Unknown -->
56
+ <!-- - **License:** Unknown -->
57
+
58
+ ### Model Sources
59
+
60
+ - **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
61
+ - **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
62
+ - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
63
+
64
+ ### Model Labels
65
+ | Label | Examples |
66
+ |:------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
67
+ | 6.0 | <ul><li>'대퍼스냅퍼 똑딱이 매직벨트 유아벨트 [160001]똑딱이 매직벨트-레드 출산/육아 > 유아동잡화 > 벨트/멜빵'</li><li>'[리틀그라운드](신세계타임스퀘어점패션관)룰라비(WH)-골지타이즈(73A12-816-03) 화이트_19 출산/육아 > 유아동잡화 > 벨트/멜빵'</li><li>'어린이 기획전 땡땡이 멜빵 블랙 잇템 출산/육아 > 유아동잡화 > 벨트/멜빵'</li></ul> |
68
+ | 9.0 | <ul><li>'키즈 양털 부츠 아동 여아 방한 털 신발 겨울 방한화 털신 유아 어린이 슈즈 PS8218 10_PS8220_블랙_180 출산/육아 > 유아동잡화 > 신발 > 부츠/털신'</li><li>'반스 키즈 운동화 팔켄 올드스쿨 유아 벨크로 115 - 220mm 01. 반스 올드스쿨V 키즈_화이트레드_160(오늘출발) 출산/육아 > 유아동잡화 > 신발 > 운동화'</li><li>'텐우드 뉴벤 아기 유아 아동 여아 남아 엄마랑 세트 운동화 신발 140-250 네이비_190 출산/육아 > 유아동잡화 > 신발 > 운동화'</li></ul> |
69
+ | 1.0 | <ul><li>'푸아송 악세 플레인귀마개 핑크_FREE 출산/육아 > 유아동잡화 > 귀마개'</li><li>'아동 귀마개 유아 아기 초등 여아 남아 방한 겨울 귀도리 D.방한세트_11_몰랑 핑크_핑크 (763930) 출산/육아 > 유아동잡화 > 귀마개'</li><li>'노스페이스키즈 귀마개 ���즈 이어머프 NA5IP50S ONE 출산/육아 > 유아동잡화 > 귀마개'</li></ul> |
70
+ | 2.0 | <ul><li>'미니위즈 웨이브 아쿠아슈즈 핫핑크 170 출산/육아 > 유아동잡화 > 기타유아동잡화'</li><li>'아오스타 페이크폴라 아이보리_Free 출산/육아 > 유아동잡화 > 기타유아동잡화'</li><li>'23겨울신상)고유 바닐라워머 갈색_junior-withadult(+3200) 출산/육아 > 유아동잡화 > 기타유아동잡화'</li></ul> |
71
+ | 3.0 | <ul><li>'포크칩스 에펠넥타이 키즈 주니어 리본으로도가능 유아동잡화 23가을 베이지_free 출산/육아 > 유아동잡화 > 넥타이'</li><li>'댄디피쉬 유아 보타이 핀타입_백일 출산/육아 > 유아동잡화 > 넥타이'</li><li>'네오텍스 스팡클 넥타이 / 어린이넥타이 블루 출산/육아 > 유아동잡화 > 넥타이'</li></ul> |
72
+ | 5.0 | <ul><li>'유아동 겨울 안감 네키 넥워머 모음, 아기 목도리, 국내생산 유아 여아 남아 머플러 4.체크사각곰_레드 출산/육아 > 유아동잡화 > 목도리'</li><li>'아기 아동 유아 목도리 머플러 워머 쁘띠 어린이집 유치원 단체 학원 교회 브라운 베이지_2.셀프-노랑바스켓(+꽃 스티커) 출산/육아 > 유아동잡화 > 목도리'</li><li>'23겨울 미니로브 잼잼머플러 진핑크_FREE 출산/육아 > 유아동잡화 > 목도리'</li></ul> |
73
+ | 7.0 | <ul><li>'달빛상회 주니어선글라스 쥬피터 화이트&형광오렌지 유아안경 키즈선글라스 실버렌즈(FA2147 SILVER) 출산/육아 > 유아동잡화 > 선글라스'</li><li>'어린이 야구 스포츠 고글 선글라스 자외선X 조카선물 렌즈색상_레드(51053RED) 출산/육아 > 유아동잡화 > 선글라스'</li><li>'리얼쉐이드 아기 유아 아동선글라스 자외선차단 KC인증 리얼키즈쉐이드 C3.칠리(0~2세)_블랙+c716 출산/육아 > 유아동잡화 > 선글라스'</li></ul> |
74
+ | 10.0 | <ul><li>'유아 아동 방수 앞치마 팔토시세트 김장 요리 미술 사자_130 출산/육아 > 유아동잡화 > 앞치마/토시/두건'</li><li>'유아앞치마 아기 어린이집 앞치마 두건 세트 팔토시 옐로우_케빈(남아2)_한글반듯체 출산/육아 > 유아동잡화 > 앞치마/토시/두건'</li><li>'플리에 한정수량 세일 유아미술가운 / 전신미술가운 / 지퍼백제공 B급상품(이염불량) 색상랜덤발송 / 성별기재_전신미술가운(투피스)_S (키95cm 이하) 출산/육아 > 유아동잡화 > 앞치마/토시/두건'</li></ul> |
75
+ | 12.0 | <ul><li>'유아 아동 우산 초등학생 초등 어린이 투명우산 포켓몬 시나모롤 피카츄 카카오 아기상어 헬로키티_16_헬로키티 스위트_200 (753761) 출산/육아 > 유아동잡화 > 우산'</li><li>'핸드메이드 유아 아동 어린이 판초우의-체크 동물 캐릭터 비옷 우비 레인코트 장마 안전자켓 03. 유아동 판초우의-체크(블랙)_03. 유아동 판초우의-체크(블랙)/XL 출산/육아 > 유아동잡화 > 우산'</li><li>'카카오프렌즈 어린이 아동 우산 32종 모음 02 트래블패턴 30011 네오핫핑크 출산/육아 > 유아동잡화 > 우산'</li></ul> |
76
+ | 14.0 | <ul><li>'초등학생지갑 남아카드지갑 여아지갑 동전 남학생반지갑 07~08. 초등학생지갑_07.009 부드러운 소가죽카드지갑_옐로우 출산/육아 > 유아동잡화 > 지갑'</li><li>'유아동 어린이 남아 여아 선물 캐릭터 추천지갑 모음 (산리오 시나모롤 피카츄 포켓몬 동전지갑 목걸이지갑 반지갑) 포켓몬 원형 목걸이지갑_블랙 출산/육아 > 유아동잡화 > 지갑'</li><li>'초등학생지갑 남아카드지갑 여아지갑 동전 남학생반지갑 09~10. 양가죽지갑_10.코인목걸이카드지갑 _그레이 출산/육아 > 유아동잡화 > 지갑'</li></ul> |
77
+ | 0.0 | <ul><li>'초등 학생 책가방 아동 키즈 백팩 여아 가방 051.BB-314_블랙 출산/육아 > 유아동잡화 > 가방 > 백팩'</li><li>'뉴발란스 키즈 고기능 고학년 2WAY 에센셜 데일리 초등학생 뉴키온세트 백팩 책가방 시즌 미니미 백팩_NK8ADF502U 베이지 출산/육아 > 유아동잡화 > 가방 > 백팩'</li><li>'산리오 시나모롤 미아방지 가방 입체 배낭 251864 출산/육아 > 유아동잡화 > 가방 > 미아방지가방'</li></ul> |
78
+ | 11.0 | <ul><li>'아기 양말 신생아 발목 니삭스 돌 백일 양말세트 02)골지 양말_블랙_0호(90-110mm) 출산/육아 > 유아동잡화 > 양말'</li><li>'아동양말 아기 유아 겨울 크리스마스 양말 주니어 어린이 키즈퓨처 남아 여아 초등 W03- 드림수면 (5종)_4호 (7~8세) 출산/육아 > 유아동잡화 > 양말'</li><li>'아기양말 유아양말 아동양말 키즈 컬러 돌돌이 가을 겨울 미끄럼방지 세트 돌돌이 3호(L)_버건디(1켤레) 출산/육아 > 유아동잡화 > 양말'</li></ul> |
79
+ | 13.0 | <ul><li>'유아 어린이 아동 니트 스마트폰 터치 기모 털 겨울 장갑 주니어 초등 성인 여성 방한 2) 하트 / 아동(5~7세용)_레드 출산/육아 > 유아동잡화 > 장갑'</li><li>'로이 키즈울장갑 초등학생 베이지_Free 출산/육아 > 유아동잡화 > 장갑'</li><li>'남아장갑 아동 유아 스키장갑 초등학생 주니어 벙어리 손가락 F.오지스키장갑_36_윈터 체크 오지_M (00380) 출산/육아 > 유아동잡화 > 장갑'</li></ul> |
80
+ | 16.0 | <ul><li>'아기 유아 한복 머리띠 배씨 호박 헤어밴드 머리핀 여아 돌잔치 설 추석 촬영 출산/육아 > 유아동잡화 > 한복소품'</li><li>'BEEU 명절 설 한복 머리핀 나비 꽃 호박 여아 여성 유아 아기 아동 어린이 성인 헤어핀 머리띠 헤어밴드 장식 장신구 출산/육아 > 유아동잡화 > 한복소품'</li><li>'명절 한복 머리띠,설 추석 호박 배씨 선녀 자개 땋은 댕기 헤어밴드 유아동 여아 여성 출산/육아 > 유아동잡화 > 한복소품'</li></ul> |
81
+ | 17.0 | <ul><li>'(흐르지않는) 유아 헤어핀 아기 머리핀 여아 똑딱 집게 논슬립 핀 어린이집 선물 B92.데이지 미니_데이지_3.5cm벨벳집게핀 출산/육아 > 유아동잡화 > 헤어액세서리 > 헤어핀'</li><li>'아기헤어밴드 신생아 리본 레이스 백일 돌 유아 여아 머리띠 ♡11 피오니 헤어밴드_화이트 출산/육아 > 유아동잡화 > 헤어액세서리 > 헤어밴드'</li><li>'밍크 벨벳 유아머리끈 여아 머리방울 아기 고무줄 12. 벨로아 방울 (한쌍)_대-인디핑크 출산/육아 > 유아동잡화 > 헤어액세서리 > 헤어끈'</li></ul> |
82
+ | 8.0 | <ul><li>'사계절 아기 목수건 겨울 기모 스카프빕 초등 봄 여름 거즈 턱받이 소프트스카프빕_코끼리블루 출산/육아 > 유아동잡화 > 스카프'</li><li>'삼각 아기스카프 유아 쁘띠 어린이집 목수건 거즈 스카프_심플 핑크 출산/육아 > 유아동잡화 > 스카프'</li><li>'아오스타 윈터케이프 진주_Free 출산/육아 > 유아동잡화 > 스카프'</li></ul> |
83
+ | 15.0 | <ul><li>'밴드 타이즈 크림아이_3-4세 출산/육아 > 유아동잡화 > 타이즈'</li><li>'도레미 27컬러 봄 유아동 골지 데일리 타이즈 베이비 스타킹 남아 여아 공용 브라운_3호 출산/육아 > 유아동잡화 > 타이즈'</li><li>'데일리베베 분리형타이즈 검정_JS ( 9-10세) 출산/육아 > 유아동잡화 > 타이즈'</li></ul> |
84
+ | 4.0 | <ul><li>'아기모자 유아 귀달이 방한 겨울 비니 니트 모자 B1.코튼 레옹 비니_브라운_FREE(3개월~4세) 출산/육아 > 유아동잡화 > 모자'</li><li>'아기모자 캡 벙거지 니트 비니 유아 아동 백일 돌 두돌 베레모 봄 여름 가을 겨울 워싱무지 JJ)m자수볼캡_퍼플_FREE 출산/육아 > 유아동잡화 > 모자'</li><li>'비치붐 카멜레온 리버시블 버킷햇 여성벙거지모자 키즈 아동 성인 코코아_L(59cm) 출산/육아 > 유아동잡화 > 모자'</li></ul> |
85
+
86
+ ## Evaluation
87
+
88
+ ### Metrics
89
+ | Label | Accuracy |
90
+ |:--------|:---------|
91
+ | **all** | 1.0 |
92
+
93
+ ## Uses
94
+
95
+ ### Direct Use for Inference
96
+
97
+ First install the SetFit library:
98
+
99
+ ```bash
100
+ pip install setfit
101
+ ```
102
+
103
+ Then you can load this model and run inference.
104
+
105
+ ```python
106
+ from setfit import SetFitModel
107
+
108
+ # Download from the 🤗 Hub
109
+ model = SetFitModel.from_pretrained("mini1013/master_cate_bc20")
110
+ # Run inference
111
+ preds = model("23겨울 색종이장갑 노랑 출산/육아 > 유아동잡화 > 장갑")
112
+ ```
113
+
114
+ <!--
115
+ ### Downstream Use
116
+
117
+ *List how someone could finetune this model on their own dataset.*
118
+ -->
119
+
120
+ <!--
121
+ ### Out-of-Scope Use
122
+
123
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
124
+ -->
125
+
126
+ <!--
127
+ ## Bias, Risks and Limitations
128
+
129
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
130
+ -->
131
+
132
+ <!--
133
+ ### Recommendations
134
+
135
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
136
+ -->
137
+
138
+ ## Training Details
139
+
140
+ ### Training Set Metrics
141
+ | Training set | Min | Median | Max |
142
+ |:-------------|:----|:--------|:----|
143
+ | Word count | 7 | 15.3769 | 28 |
144
+
145
+ | Label | Training Sample Count |
146
+ |:------|:----------------------|
147
+ | 0.0 | 70 |
148
+ | 1.0 | 70 |
149
+ | 2.0 | 70 |
150
+ | 3.0 | 70 |
151
+ | 4.0 | 70 |
152
+ | 5.0 | 70 |
153
+ | 6.0 | 70 |
154
+ | 7.0 | 70 |
155
+ | 8.0 | 70 |
156
+ | 9.0 | 70 |
157
+ | 10.0 | 70 |
158
+ | 11.0 | 70 |
159
+ | 12.0 | 70 |
160
+ | 13.0 | 70 |
161
+ | 14.0 | 70 |
162
+ | 15.0 | 70 |
163
+ | 16.0 | 20 |
164
+ | 17.0 | 70 |
165
+
166
+ ### Training Hyperparameters
167
+ - batch_size: (256, 256)
168
+ - num_epochs: (30, 30)
169
+ - max_steps: -1
170
+ - sampling_strategy: oversampling
171
+ - num_iterations: 50
172
+ - body_learning_rate: (2e-05, 1e-05)
173
+ - head_learning_rate: 0.01
174
+ - loss: CosineSimilarityLoss
175
+ - distance_metric: cosine_distance
176
+ - margin: 0.25
177
+ - end_to_end: False
178
+ - use_amp: False
179
+ - warmup_proportion: 0.1
180
+ - l2_weight: 0.01
181
+ - seed: 42
182
+ - eval_max_steps: -1
183
+ - load_best_model_at_end: False
184
+
185
+ ### Training Results
186
+ | Epoch | Step | Training Loss | Validation Loss |
187
+ |:-------:|:----:|:-------------:|:---------------:|
188
+ | 0.0042 | 1 | 0.4815 | - |
189
+ | 0.2110 | 50 | 0.5015 | - |
190
+ | 0.4219 | 100 | 0.425 | - |
191
+ | 0.6329 | 150 | 0.1055 | - |
192
+ | 0.8439 | 200 | 0.035 | - |
193
+ | 1.0549 | 250 | 0.0152 | - |
194
+ | 1.2658 | 300 | 0.0077 | - |
195
+ | 1.4768 | 350 | 0.0043 | - |
196
+ | 1.6878 | 400 | 0.0018 | - |
197
+ | 1.8987 | 450 | 0.0008 | - |
198
+ | 2.1097 | 500 | 0.0009 | - |
199
+ | 2.3207 | 550 | 0.0008 | - |
200
+ | 2.5316 | 600 | 0.0006 | - |
201
+ | 2.7426 | 650 | 0.0004 | - |
202
+ | 2.9536 | 700 | 0.0002 | - |
203
+ | 3.1646 | 750 | 0.0001 | - |
204
+ | 3.3755 | 800 | 0.0001 | - |
205
+ | 3.5865 | 850 | 0.0001 | - |
206
+ | 3.7975 | 900 | 0.0001 | - |
207
+ | 4.0084 | 950 | 0.0 | - |
208
+ | 4.2194 | 1000 | 0.0 | - |
209
+ | 4.4304 | 1050 | 0.0 | - |
210
+ | 4.6414 | 1100 | 0.0 | - |
211
+ | 4.8523 | 1150 | 0.0 | - |
212
+ | 5.0633 | 1200 | 0.0 | - |
213
+ | 5.2743 | 1250 | 0.0 | - |
214
+ | 5.4852 | 1300 | 0.0 | - |
215
+ | 5.6962 | 1350 | 0.0 | - |
216
+ | 5.9072 | 1400 | 0.0 | - |
217
+ | 6.1181 | 1450 | 0.0 | - |
218
+ | 6.3291 | 1500 | 0.0 | - |
219
+ | 6.5401 | 1550 | 0.0 | - |
220
+ | 6.7511 | 1600 | 0.0 | - |
221
+ | 6.9620 | 1650 | 0.0 | - |
222
+ | 7.1730 | 1700 | 0.0 | - |
223
+ | 7.3840 | 1750 | 0.0 | - |
224
+ | 7.5949 | 1800 | 0.0 | - |
225
+ | 7.8059 | 1850 | 0.0 | - |
226
+ | 8.0169 | 1900 | 0.0 | - |
227
+ | 8.2278 | 1950 | 0.0 | - |
228
+ | 8.4388 | 2000 | 0.0 | - |
229
+ | 8.6498 | 2050 | 0.0 | - |
230
+ | 8.8608 | 2100 | 0.0 | - |
231
+ | 9.0717 | 2150 | 0.0 | - |
232
+ | 9.2827 | 2200 | 0.0 | - |
233
+ | 9.4937 | 2250 | 0.0 | - |
234
+ | 9.7046 | 2300 | 0.0 | - |
235
+ | 9.9156 | 2350 | 0.0 | - |
236
+ | 10.1266 | 2400 | 0.0 | - |
237
+ | 10.3376 | 2450 | 0.0 | - |
238
+ | 10.5485 | 2500 | 0.0 | - |
239
+ | 10.7595 | 2550 | 0.0 | - |
240
+ | 10.9705 | 2600 | 0.0 | - |
241
+ | 11.1814 | 2650 | 0.0 | - |
242
+ | 11.3924 | 2700 | 0.0 | - |
243
+ | 11.6034 | 2750 | 0.0 | - |
244
+ | 11.8143 | 2800 | 0.0 | - |
245
+ | 12.0253 | 2850 | 0.0 | - |
246
+ | 12.2363 | 2900 | 0.0 | - |
247
+ | 12.4473 | 2950 | 0.0 | - |
248
+ | 12.6582 | 3000 | 0.0 | - |
249
+ | 12.8692 | 3050 | 0.0 | - |
250
+ | 13.0802 | 3100 | 0.0 | - |
251
+ | 13.2911 | 3150 | 0.0 | - |
252
+ | 13.5021 | 3200 | 0.0 | - |
253
+ | 13.7131 | 3250 | 0.0 | - |
254
+ | 13.9241 | 3300 | 0.0 | - |
255
+ | 14.1350 | 3350 | 0.0 | - |
256
+ | 14.3460 | 3400 | 0.0 | - |
257
+ | 14.5570 | 3450 | 0.0 | - |
258
+ | 14.7679 | 3500 | 0.0 | - |
259
+ | 14.9789 | 3550 | 0.0 | - |
260
+ | 15.1899 | 3600 | 0.0 | - |
261
+ | 15.4008 | 3650 | 0.0 | - |
262
+ | 15.6118 | 3700 | 0.0 | - |
263
+ | 15.8228 | 3750 | 0.0 | - |
264
+ | 16.0338 | 3800 | 0.0 | - |
265
+ | 16.2447 | 3850 | 0.0 | - |
266
+ | 16.4557 | 3900 | 0.0 | - |
267
+ | 16.6667 | 3950 | 0.0 | - |
268
+ | 16.8776 | 4000 | 0.0 | - |
269
+ | 17.0886 | 4050 | 0.0 | - |
270
+ | 17.2996 | 4100 | 0.0 | - |
271
+ | 17.5105 | 4150 | 0.0 | - |
272
+ | 17.7215 | 4200 | 0.0 | - |
273
+ | 17.9325 | 4250 | 0.0 | - |
274
+ | 18.1435 | 4300 | 0.0 | - |
275
+ | 18.3544 | 4350 | 0.0 | - |
276
+ | 18.5654 | 4400 | 0.0 | - |
277
+ | 18.7764 | 4450 | 0.0 | - |
278
+ | 18.9873 | 4500 | 0.0 | - |
279
+ | 19.1983 | 4550 | 0.0 | - |
280
+ | 19.4093 | 4600 | 0.0 | - |
281
+ | 19.6203 | 4650 | 0.0 | - |
282
+ | 19.8312 | 4700 | 0.0 | - |
283
+ | 20.0422 | 4750 | 0.0 | - |
284
+ | 20.2532 | 4800 | 0.0 | - |
285
+ | 20.4641 | 4850 | 0.0 | - |
286
+ | 20.6751 | 4900 | 0.0 | - |
287
+ | 20.8861 | 4950 | 0.0 | - |
288
+ | 21.0970 | 5000 | 0.0 | - |
289
+ | 21.3080 | 5050 | 0.0 | - |
290
+ | 21.5190 | 5100 | 0.0 | - |
291
+ | 21.7300 | 5150 | 0.0 | - |
292
+ | 21.9409 | 5200 | 0.0 | - |
293
+ | 22.1519 | 5250 | 0.0 | - |
294
+ | 22.3629 | 5300 | 0.0 | - |
295
+ | 22.5738 | 5350 | 0.0 | - |
296
+ | 22.7848 | 5400 | 0.0 | - |
297
+ | 22.9958 | 5450 | 0.0 | - |
298
+ | 23.2068 | 5500 | 0.0 | - |
299
+ | 23.4177 | 5550 | 0.0 | - |
300
+ | 23.6287 | 5600 | 0.0 | - |
301
+ | 23.8397 | 5650 | 0.0 | - |
302
+ | 24.0506 | 5700 | 0.0 | - |
303
+ | 24.2616 | 5750 | 0.0 | - |
304
+ | 24.4726 | 5800 | 0.0 | - |
305
+ | 24.6835 | 5850 | 0.0 | - |
306
+ | 24.8945 | 5900 | 0.0 | - |
307
+ | 25.1055 | 5950 | 0.0 | - |
308
+ | 25.3165 | 6000 | 0.0 | - |
309
+ | 25.5274 | 6050 | 0.0 | - |
310
+ | 25.7384 | 6100 | 0.0 | - |
311
+ | 25.9494 | 6150 | 0.0 | - |
312
+ | 26.1603 | 6200 | 0.0 | - |
313
+ | 26.3713 | 6250 | 0.0 | - |
314
+ | 26.5823 | 6300 | 0.0 | - |
315
+ | 26.7932 | 6350 | 0.0 | - |
316
+ | 27.0042 | 6400 | 0.0 | - |
317
+ | 27.2152 | 6450 | 0.0 | - |
318
+ | 27.4262 | 6500 | 0.0 | - |
319
+ | 27.6371 | 6550 | 0.0 | - |
320
+ | 27.8481 | 6600 | 0.0 | - |
321
+ | 28.0591 | 6650 | 0.0 | - |
322
+ | 28.2700 | 6700 | 0.0 | - |
323
+ | 28.4810 | 6750 | 0.0 | - |
324
+ | 28.6920 | 6800 | 0.0 | - |
325
+ | 28.9030 | 6850 | 0.0 | - |
326
+ | 29.1139 | 6900 | 0.0 | - |
327
+ | 29.3249 | 6950 | 0.0 | - |
328
+ | 29.5359 | 7000 | 0.0 | - |
329
+ | 29.7468 | 7050 | 0.0 | - |
330
+ | 29.9578 | 7100 | 0.0 | - |
331
+
332
+ ### Framework Versions
333
+ - Python: 3.10.12
334
+ - SetFit: 1.1.0
335
+ - Sentence Transformers: 3.3.1
336
+ - Transformers: 4.44.2
337
+ - PyTorch: 2.2.0a0+81ea7a4
338
+ - Datasets: 3.2.0
339
+ - Tokenizers: 0.19.1
340
+
341
+ ## Citation
342
+
343
+ ### BibTeX
344
+ ```bibtex
345
+ @article{https://doi.org/10.48550/arxiv.2209.11055,
346
+ doi = {10.48550/ARXIV.2209.11055},
347
+ url = {https://arxiv.org/abs/2209.11055},
348
+ author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
349
+ keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
350
+ title = {Efficient Few-Shot Learning Without Prompts},
351
+ publisher = {arXiv},
352
+ year = {2022},
353
+ copyright = {Creative Commons Attribution 4.0 International}
354
+ }
355
+ ```
356
+
357
+ <!--
358
+ ## Glossary
359
+
360
+ *Clearly define terms in order to be accessible across audiences.*
361
+ -->
362
+
363
+ <!--
364
+ ## Model Card Authors
365
+
366
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
367
+ -->
368
+
369
+ <!--
370
+ ## Model Card Contact
371
+
372
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
373
+ -->
config.json ADDED
@@ -0,0 +1,29 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "mini1013/master_item_bc",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "gradient_checkpointing": false,
11
+ "hidden_act": "gelu",
12
+ "hidden_dropout_prob": 0.1,
13
+ "hidden_size": 768,
14
+ "initializer_range": 0.02,
15
+ "intermediate_size": 3072,
16
+ "layer_norm_eps": 1e-05,
17
+ "max_position_embeddings": 514,
18
+ "model_type": "roberta",
19
+ "num_attention_heads": 12,
20
+ "num_hidden_layers": 12,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "tokenizer_class": "BertTokenizer",
24
+ "torch_dtype": "float32",
25
+ "transformers_version": "4.44.2",
26
+ "type_vocab_size": 1,
27
+ "use_cache": true,
28
+ "vocab_size": 32000
29
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.3.1",
4
+ "transformers": "4.44.2",
5
+ "pytorch": "2.2.0a0+81ea7a4"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
config_setfit.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "labels": null,
3
+ "normalize_embeddings": false
4
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:04f59aa9cfb6859d9dec8f7f0944441a9c36eeff0c79ef691fc84c0e3925b7f2
3
+ size 442494816
model_head.pkl ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:784b78b45a9a24bac8343f747246adb1d94b27e4a4ba5d50c6a718be052fa625
3
+ size 111687
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "[CLS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "[CLS]",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "[SEP]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "[MASK]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "[PAD]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "[SEP]",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "[UNK]",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,66 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "[CLS]",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "[PAD]",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "[SEP]",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "[UNK]",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "4": {
36
+ "content": "[MASK]",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "[CLS]",
45
+ "clean_up_tokenization_spaces": false,
46
+ "cls_token": "[CLS]",
47
+ "do_basic_tokenize": true,
48
+ "do_lower_case": false,
49
+ "eos_token": "[SEP]",
50
+ "mask_token": "[MASK]",
51
+ "max_length": 512,
52
+ "model_max_length": 512,
53
+ "never_split": null,
54
+ "pad_to_multiple_of": null,
55
+ "pad_token": "[PAD]",
56
+ "pad_token_type_id": 0,
57
+ "padding_side": "right",
58
+ "sep_token": "[SEP]",
59
+ "stride": 0,
60
+ "strip_accents": null,
61
+ "tokenize_chinese_chars": true,
62
+ "tokenizer_class": "BertTokenizer",
63
+ "truncation_side": "right",
64
+ "truncation_strategy": "longest_first",
65
+ "unk_token": "[UNK]"
66
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff