|
--- |
|
base_model: mini1013/master_domain |
|
library_name: setfit |
|
metrics: |
|
- accuracy |
|
pipeline_tag: text-classification |
|
tags: |
|
- setfit |
|
- sentence-transformers |
|
- text-classification |
|
- generated_from_setfit_trainer |
|
widget: |
|
- text: 아로마티카 퓨어 앤 소프트 여성청결제 170ml (폼타입) 옵션없음 포사도 |
|
- text: '[러쉬] 트루 그릿 100g -콜드 프레스드 솝/비누/파더스 옵션없음 주식회사 러쉬코리아' |
|
- text: (가성비대용량)온더바디 코튼풋 발을씻자 풋샴푸 510ml 쿨링 1+1+1개 [레몬]리필 1+1+1개 (주)엘지생활건강 |
|
- text: 트리헛 시어 슈가 스크럽 모로칸 로즈 510g 옵션없음 스루치로 유한책임회사 |
|
- text: 몸 냄새 잡는 시원한 모기 비누 1개 천연 여름 바디워시 시트로넬라 코코넛 모기 기피 옵션없음 마켓메이트 주식회사 |
|
inference: true |
|
model-index: |
|
- name: SetFit with mini1013/master_domain |
|
results: |
|
- task: |
|
type: text-classification |
|
name: Text Classification |
|
dataset: |
|
name: Unknown |
|
type: unknown |
|
split: test |
|
metrics: |
|
- type: accuracy |
|
value: 0.7189189189189189 |
|
name: Accuracy |
|
--- |
|
|
|
# SetFit with mini1013/master_domain |
|
|
|
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification. |
|
|
|
The model has been trained using an efficient few-shot learning technique that involves: |
|
|
|
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning. |
|
2. Training a classification head with features from the fine-tuned Sentence Transformer. |
|
|
|
## Model Details |
|
|
|
### Model Description |
|
- **Model Type:** SetFit |
|
- **Sentence Transformer body:** [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) |
|
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance |
|
- **Maximum Sequence Length:** 512 tokens |
|
- **Number of Classes:** 17 classes |
|
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) --> |
|
<!-- - **Language:** Unknown --> |
|
<!-- - **License:** Unknown --> |
|
|
|
### Model Sources |
|
|
|
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit) |
|
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055) |
|
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit) |
|
|
|
### Model Labels |
|
| Label | Examples | |
|
|:------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| |
|
| 5.0 | <ul><li>'에잇데이즈 셀룰라이트 괄사 크림 팔뚝 종아리 허벅지 부유방 붓기 살 제거 빼기 옵션없음 인지트레이더'</li><li>'약손명가 여리한 패치 일시적 셀룰라이트 뱃살 복부관리 바디라인 ★앵콜특가 3Box+5매입추가증정 주식회사 약손명가 헬스케어'</li><li>'질 전용 건조 윤활제 윤활재 부부 비건 촉촉젤 관계개선 옵션없음 다원월드'</li></ul> | |
|
| 13.0 | <ul><li>'스파토너 10kg 대용량입욕제 옵션없음 호른달'</li><li>'아카로아 로즈 미니 밤 옵션없음 (주)올스프링랜드'</li><li>'[현대백화점][사봉] 배쓰볼 파츌리라벤더바닐라 150g [00001] 단일상품 (주)현대홈쇼핑'</li></ul> | |
|
| 12.0 | <ul><li>'피에이치포 팬톡 파우더 올리브영 여성청결제 밸런스톡 뿌리는 Y존 이너케어 질 유래 유산균 뿌리는 질유산균파우더 팬톡6.6g(2개월분) 지비비 주식회사 (GBB CO. LTD)'</li><li>'비오텀 인팀 워시폼 여성청결제 (거품타입) 250ml 크랜베리 인팀 워시 폼 250ml 주식회사바이유럽'</li><li>'이너수 질세정기 2개입X2박스(4개입) 질내 보습 삽입형 의료기기 질세정제 주사기타입 여성청결제 옵션없음 알리코제약(주)'</li></ul> | |
|
| 8.0 | <ul><li>'씨큐라롬 젤 옵션없음 (주)에코앤네이쳐'</li><li>'넛세린 시즌3 슈퍼 넛 너리싱 밤 100ml 촉촉함(수분공급), 부드러운 발림 저자극, 각질케어, 윤기부여, 흡수력, 어린이겸용 옵션없음 나뭉'</li><li>'온열 스포츠 박찬호 크림_콜라보에디션 신태용 리커버리 크림 플러스 500ml+60ml(2mlx30ea) 옵션없음 주식회사 동지'</li></ul> | |
|
| 11.0 | <ul><li>'도테라 자몽15ml 도테라오일 doterra 옵션없음 베르데몰'</li><li>'나우푸드 유기농 오렌지 에센셜 오일 1온즈 옵션없음 CONNECTLAB INC'</li><li>'도테라 오레가노터치 10ml 도테라오일 롤온 옵션없음 베르데몰'</li></ul> | |
|
| 1.0 | <ul><li>'괌여행 사이판선물 괌기념품 민감성피부 플러스 노니비누 9+1세트 건성 복합성 옵션없음 킹피셔스노니'</li><li>'도브 센서티브바 미국 106g 14개입 옵션없음 옐로우브릭로드'</li><li>'웰바스 아이스크림솝 270g 옵션없음 (주)미르코스'</li></ul> | |
|
| 6.0 | <ul><li>'[눅스] 윌 프로디쥬스 멀티 네롤리 오일 100ml 옵션없음 주식회사케이엔유'</li><li>'[아베다] 쿨링 밸런싱 오일 50ml~한글택X 옵션없음 쉬즈 스토리'</li><li>'도테라 코코넛오일 옵션없음 공감브레인 상담센터'</li></ul> | |
|
| 14.0 | <ul><li>'셀프왁싱 대용량 제모하드왁스 크리스탈500g 옵션없음 주식회사 모컴퍼니'</li><li>'이탈왁스 하드 너바나 아로마틱스파 라벤더1kg 옵션없음 파인뷰티'</li><li>'생식기제모크림 엉덩이 가슴털 항문제모크림 옵션없음 다담꼬'</li></ul> | |
|
| 0.0 | <ul><li>'크리스탈 미네랄 데오드란트 롤온 무향 66ml 옵션없음 비래유통'</li><li>'[공식몰] 크리스탈 데오드란트 120g 무향 대용량 스틱 2EA 옵션없음 주식회사 미스코스'</li><li>'GBH 지비에이치 센티드 데오스틱 3종 택1 24g NEROLI MUSK 주식회사 지비에이치'</li></ul> | |
|
| 7.0 | <ul><li>'베르뷔 고보습 대용량 퍼퓸 바디로션 & 워시 베르뷔'</li><li>'[기획] 베스트셀러 3종 그린로즈 라지 세트 옵션없음 (주)비엔에프통상'</li><li>'nb도브여행용3종-B타입 1box50입 옵션없음 물빛나래상회'</li></ul> | |
|
| 3.0 | <ul><li>'W5250F5U7 134ml 그린 샤워코롱 옵션없음 성진몰'</li><li>'더프트앤도프트 바디 퍼퓸 미스트 80ml 베이비소피 주식회사 제너럴브랜즈'</li><li>'조러브스 조 바이 조 러브스 배스 코롱 200ml 옵션없음 포비티엘'</li></ul> | |
|
| 15.0 | <ul><li>'블루크로스 캘러스 32oz 946ml 발뒷꿈치 각질제거 각질연화 굳은살제거 32oz_비닐발커버 50매 백억언니'</li><li>'히말라야 풋 케어 크림 75ml 옵션없음 스루치로 유한책임회사'</li><li>'[1+1] 바렌 시어버터 슬리핑 뒤꿈치 보습 발각질 풋케어 힐 패치 1개 (10개입) (주)마르스랩스'</li></ul> | |
|
| 4.0 | <ul><li>'아몬드 샤워 스크럽 200ml 옵션없음 플래너'</li><li>'지오마 이몰리언트 바디스크럽 600g 1개 600g × 1개 600g x 1개 케이컴퍼니'</li><li>'엄마의목욕탕레시피 바디필링패드 1매입 스트롱 주워 담다'</li></ul> | |
|
| 2.0 | <ul><li>'쿤달 허니 앤 마카다미아 모이스처 퓨어 바디로션 베이비 파우더 500ml 옵션없음 굿우리'</li><li>'암웨이 GH 너리쉬 400ml (23년 new) 최신정품 옵션없음 포유어뷰티'</li><li>'LOCCITANE 록시땅 [버베나 포켓솝 정품 ]시트러스 버베나 프레쉬 밀크 250ml 15LC250VA23 259557 옵션없음 냥냥홀릭'</li></ul> | |
|
| 9.0 | <ul><li>'바이오가 등드름 바디워시 베타인살리실레이트 옵션없음 카프리'</li><li>'x 2개 바디워시 910g 베이비파우더 해피바스 1WDC1FFF7 옵션없음 플러스몰'</li><li>'더바디샵 모링가 샤워젤 750ml(신형) 1개 옵션없음 디제이커머스(DJ커머스)'</li></ul> | |
|
| 16.0 | <ul><li>'얼투아 PERFUME HAND CREAM WINTER ROSE 옵션없음 현대스타일'</li><li>'아이깨끗해 프리미엄 클린 비건 폼 핸드솝 피오니향 450ml 1개 옵션없음 둘레푸드'</li><li>'Oz 아이깨끗해 순2종세트 옵션없음 온집안(onziban)'</li></ul> | |
|
| 10.0 | <ul><li>'파우더/피부파우더/분칠/아기엉덩이 아기살접힌데 존슨즈 콘스타치 옵션없음 진소란총각네'</li><li>'영국 우즈오브윈저 화이트 자스민 바디 파우더 100g / Woods of windsor 옵션없음 Hong Joo Ra'</li><li>'파우더200g/ 존슨즈 땀띠 분칠 아기 엉덩이 콘스타치 존슨즈 콘스타치 파우더200g 후니후니003'</li></ul> | |
|
|
|
## Evaluation |
|
|
|
### Metrics |
|
| Label | Accuracy | |
|
|:--------|:---------| |
|
| **all** | 0.7189 | |
|
|
|
## Uses |
|
|
|
### Direct Use for Inference |
|
|
|
First install the SetFit library: |
|
|
|
```bash |
|
pip install setfit |
|
``` |
|
|
|
Then you can load this model and run inference. |
|
|
|
```python |
|
from setfit import SetFitModel |
|
|
|
# Download from the 🤗 Hub |
|
model = SetFitModel.from_pretrained("mini1013/master_cate_bt3_test") |
|
# Run inference |
|
preds = model("아로마티카 퓨어 앤 소프트 여성청결제 170ml (폼타입) 옵션없음 포사도") |
|
``` |
|
|
|
<!-- |
|
### Downstream Use |
|
|
|
*List how someone could finetune this model on their own dataset.* |
|
--> |
|
|
|
<!-- |
|
### Out-of-Scope Use |
|
|
|
*List how the model may foreseeably be misused and address what users ought not to do with the model.* |
|
--> |
|
|
|
<!-- |
|
## Bias, Risks and Limitations |
|
|
|
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.* |
|
--> |
|
|
|
<!-- |
|
### Recommendations |
|
|
|
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.* |
|
--> |
|
|
|
## Training Details |
|
|
|
### Training Set Metrics |
|
| Training set | Min | Median | Max | |
|
|:-------------|:----|:-------|:----| |
|
| Word count | 3 | 9.3333 | 20 | |
|
|
|
| Label | Training Sample Count | |
|
|:------|:----------------------| |
|
| 0.0 | 22 | |
|
| 1.0 | 20 | |
|
| 2.0 | 20 | |
|
| 3.0 | 12 | |
|
| 4.0 | 21 | |
|
| 5.0 | 18 | |
|
| 6.0 | 23 | |
|
| 7.0 | 15 | |
|
| 8.0 | 20 | |
|
| 9.0 | 20 | |
|
| 10.0 | 11 | |
|
| 11.0 | 15 | |
|
| 12.0 | 20 | |
|
| 13.0 | 23 | |
|
| 14.0 | 21 | |
|
| 15.0 | 22 | |
|
| 16.0 | 21 | |
|
|
|
### Training Hyperparameters |
|
- batch_size: (512, 512) |
|
- num_epochs: (50, 50) |
|
- max_steps: -1 |
|
- sampling_strategy: oversampling |
|
- num_iterations: 60 |
|
- body_learning_rate: (2e-05, 1e-05) |
|
- head_learning_rate: 0.01 |
|
- loss: CosineSimilarityLoss |
|
- distance_metric: cosine_distance |
|
- margin: 0.25 |
|
- end_to_end: False |
|
- use_amp: False |
|
- warmup_proportion: 0.1 |
|
- l2_weight: 0.01 |
|
- seed: 42 |
|
- eval_max_steps: -1 |
|
- load_best_model_at_end: False |
|
|
|
### Training Results |
|
| Epoch | Step | Training Loss | Validation Loss | |
|
|:-------:|:----:|:-------------:|:---------------:| |
|
| 0.0263 | 1 | 0.5057 | - | |
|
| 1.3158 | 50 | 0.423 | - | |
|
| 2.6316 | 100 | 0.1568 | - | |
|
| 3.9474 | 150 | 0.067 | - | |
|
| 5.2632 | 200 | 0.0479 | - | |
|
| 6.5789 | 250 | 0.0324 | - | |
|
| 7.8947 | 300 | 0.0196 | - | |
|
| 9.2105 | 350 | 0.0138 | - | |
|
| 10.5263 | 400 | 0.0111 | - | |
|
| 11.8421 | 450 | 0.0051 | - | |
|
| 13.1579 | 500 | 0.0041 | - | |
|
| 14.4737 | 550 | 0.0043 | - | |
|
| 15.7895 | 600 | 0.0026 | - | |
|
| 17.1053 | 650 | 0.0005 | - | |
|
| 18.4211 | 700 | 0.0003 | - | |
|
| 19.7368 | 750 | 0.0002 | - | |
|
| 21.0526 | 800 | 0.0002 | - | |
|
| 22.3684 | 850 | 0.0002 | - | |
|
| 23.6842 | 900 | 0.0002 | - | |
|
| 25.0 | 950 | 0.0002 | - | |
|
| 26.3158 | 1000 | 0.0001 | - | |
|
| 27.6316 | 1050 | 0.0001 | - | |
|
| 28.9474 | 1100 | 0.0001 | - | |
|
| 30.2632 | 1150 | 0.0001 | - | |
|
| 31.5789 | 1200 | 0.0001 | - | |
|
| 32.8947 | 1250 | 0.0001 | - | |
|
| 34.2105 | 1300 | 0.0001 | - | |
|
| 35.5263 | 1350 | 0.0001 | - | |
|
| 36.8421 | 1400 | 0.0001 | - | |
|
| 38.1579 | 1450 | 0.0001 | - | |
|
| 39.4737 | 1500 | 0.0001 | - | |
|
| 40.7895 | 1550 | 0.0001 | - | |
|
| 42.1053 | 1600 | 0.0001 | - | |
|
| 43.4211 | 1650 | 0.0001 | - | |
|
| 44.7368 | 1700 | 0.0001 | - | |
|
| 46.0526 | 1750 | 0.0001 | - | |
|
| 47.3684 | 1800 | 0.0001 | - | |
|
| 48.6842 | 1850 | 0.0001 | - | |
|
| 50.0 | 1900 | 0.0001 | - | |
|
|
|
### Framework Versions |
|
- Python: 3.10.12 |
|
- SetFit: 1.1.0 |
|
- Sentence Transformers: 3.3.1 |
|
- Transformers: 4.44.2 |
|
- PyTorch: 2.2.0a0+81ea7a4 |
|
- Datasets: 3.2.0 |
|
- Tokenizers: 0.19.1 |
|
|
|
## Citation |
|
|
|
### BibTeX |
|
```bibtex |
|
@article{https://doi.org/10.48550/arxiv.2209.11055, |
|
doi = {10.48550/ARXIV.2209.11055}, |
|
url = {https://arxiv.org/abs/2209.11055}, |
|
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren}, |
|
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences}, |
|
title = {Efficient Few-Shot Learning Without Prompts}, |
|
publisher = {arXiv}, |
|
year = {2022}, |
|
copyright = {Creative Commons Attribution 4.0 International} |
|
} |
|
``` |
|
|
|
<!-- |
|
## Glossary |
|
|
|
*Clearly define terms in order to be accessible across audiences.* |
|
--> |
|
|
|
<!-- |
|
## Model Card Authors |
|
|
|
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.* |
|
--> |
|
|
|
<!-- |
|
## Model Card Contact |
|
|
|
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.* |
|
--> |