--- base_model: sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 library_name: setfit metrics: - accuracy pipeline_tag: text-classification tags: - setfit - sentence-transformers - text-classification - generated_from_setfit_trainer widget: - text: 'Twitter-Übernahme durch Musk Sieben Tage der Zerstörung Schlimmer hätte die erste Woche nach der Übernahme für Twitter kaum laufen können. Und doch - es könnte noch wesentlich schlimmer kommen. Das zu verhindern, liege letztlich auch bei den Nutzern selbst. Wenn die Welt wirklich in einer Woche geschaffen wurde, könnte vermutlich nur Elon Musk sie in einer Woche auch wieder zerlegen. Wie er das anstellen würde, hat er bei Twitter gezeigt - vor allem mit Rücksichtslosigkeit. Er hat Personal entlassen, Werbekunden verloren, Vertrauen verspielt. Ex-Mitarbeitende wollen ihn verklagen, die übrigen sind offenbar eingeschüchtert. Die Einnahmen seien, das hat Musk selbst gewittert, massiv runtergegangen. Alles in einer Woche. Zu viel Macht für Musk Drei Dinge bereiten besonders große Sorgen: Verifizierte Accounts - das sind die mit den blauen Haken - kann sich offenbar künftig jeder kaufen. Wenn das wirklich so kommt, könnte es noch schwerer werden zu unterscheiden, was eine glaubwürdige In...' - text: 'Zwei Jahre lang musste das "Weiße Fest" wegen Corona pausieren – umso mehr Besucher kamen in diesem Jahr und erlebten genau das Fest mit "Lebensfreude pur", auf das sie so lange warten mussten. Pünktlich um 18 Uhr eröffnete Bürgermeister Martin Biber die "Partymeile". Er war sichtlich erfreut, so viele Gäste begrüßen zu können und lud sie alle ein "abzufeiern". Das musste er nicht zweimal sagen: Nach dem Bürgermeister ging das Mikrofon an Moderator Florian Jochum, der die Besucher durch den langen Abend begleitete. Eggenfelden Ganz in Weiß 31.07.2022 | Stand 31.07.2022, 14:24 Uhr' - text: 'Von reitschuster.de Paxlovid wurde insbesondere für Menschen mit Vorerkrankungen als Gamechanger gefeiert. Ende vergangenen Jahres erhielt das Medikament aus dem Hause Pfizer die Notfallzulassung in den USA und kurz darauf auch in Europa. Allen bisherigen Erkenntnissen zufolge kann Paxlovid tatsächlich dazu beitragen, das Sterberisiko bei den Vulnerablen nach einer Corona-Infektion um bis zu 90 Prozent zu reduzieren. Dies gilt offenbar aber nur, wenn das Mittel alleine eingenommen wird oder allenfalls zusammen mit vergleichsweise harmlosen Medikamenten wie etwa Aspirin. Das legen die Ergebnisse einer Studie nahe, die von Forschern mehrerer US-Institutionen durchgeführt wurde, unter anderem dem Lahey Hospital and Medical Center in Burlington und der Harvard Medical School in Boston. Die Autoren berichten in ihrer Arbeit von „gefährlichen Wechselwirkungen mit gängigen Medikamenten“. Das gelte insbesondere, wenn Paxlovid zusammen mit Statinen oder Blutverdünnern eingenommen werde. Nebe...' - text: 'Tödlicher baum-Crash | 19-Jähriger stirbt bei Überholversuch Welsleben – Furchtbarer Unfall am Donnerstagmittag in Sachsen-Anhalt: Ein 19-jähriger Fahrer ist bei einem Überholmanöver gegen einen Baum geschleudert und tödlich verunglückt. Nach Polizeiangaben war der junge Mann gegen 12 Uhr mit seinem VW zwischen Welsleben und Biere (Salzlandkreis) unterwegs. Auf der Welslebener Straße setze er zum Überholen an – und verlor die Kontrolle. Der Wagen kam von der Straße ab, krachte mit voller Wucht gegen einen Baum am Straßenrand. „Durch die Wucht des Aufpralls wurde der Mann in seinem Fahrzeug eingeklemmt und musste durch die Feuerwehr befreit werden. Wenig später verstarb der 19-Jährige an der Unfallstelle“, erklärte ein Polizeisprecher. Der andere Autofahrer erlitt einen Schock und musste mit einem Rettungswagen in ein Krankenhaus gebracht werden. Die Straße zwischen Welsleben und Biere wurde für mehrere Stunden gesperrt. Die Polizei ermittelt nun, wie es genau zu dem Unfall kommen ko...' - text: 'Im Jahr 2021 sind in Deutschland 2.562 Menschen bei Straßenverkehrsunfällen ums Leben gekommen - 5,8 Prozent oder 157 Menschen weniger als im Vorjahr. Die Zahl der Verletzten ging gegenüber dem Vorjahr um 1,3 Prozent auf 323.129 zurück, teilte das Statistische Bundesamt (Destatis) nach endgültigen Ergebnissen am Donnerstag mit. Damit sank die Zahl der Verkehrstoten und Verletzten erneut und erreichte den tiefsten Stand seit mehr als 60 Jahren. Im Durchschnitt wurden etwa 6.300 Verkehrsunfälle pro Tag polizeilich erfasst. Dabei wurden jeden Tag 885 Menschen verletzt und sieben Menschen getötet. Die Polizei zählte 2021 insgesamt 2,3 Millionen Verkehrsunfälle auf deutschen Straßen. Das waren 3,1 Prozent mehr als 2020. Die Zahl der Unfälle lag aber weiterhin deutlich unter dem Vor-Pandemie-Niveau (2019: 2,7 Millionen Unfälle insgesamt, darunter 300.000 Unfälle mit Personenschaden). Bei knapp 90 Prozent der Unfälle blieb es bei Sachschaden. Bei elf Prozent der Unfälle wurden Menschen get...' inference: true model-index: - name: SetFit with sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 results: - task: type: text-classification name: Text Classification dataset: name: Unknown type: unknown split: test metrics: - type: accuracy value: 0.826530612244898 name: Accuracy --- # SetFit with sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification. The model has been trained using an efficient few-shot learning technique that involves: 1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning. 2. Training a classification head with features from the fine-tuned Sentence Transformer. ## Model Details ### Model Description - **Model Type:** SetFit - **Sentence Transformer body:** [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2) - **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance - **Maximum Sequence Length:** 128 tokens - **Number of Classes:** 3 classes ### Model Sources - **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit) - **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055) - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit) ### Model Labels | Label | Examples | |:--------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | non-political | | | political | | | ? | | ## Evaluation ### Metrics | Label | Accuracy | |:--------|:---------| | **all** | 0.8265 | ## Uses ### Direct Use for Inference First install the SetFit library: ```bash pip install setfit ``` Then you can load this model and run inference. ```python from setfit import SetFitModel # Download from the 🤗 Hub model = SetFitModel.from_pretrained("cbpuschmann/MiniLM-ispolitical-zeroshot") # Run inference preds = model("Zwei Jahre lang musste das \"Weiße Fest\" wegen Corona pausieren – umso mehr Besucher kamen in diesem Jahr und erlebten genau das Fest mit \"Lebensfreude pur\", auf das sie so lange warten mussten. Pünktlich um 18 Uhr eröffnete Bürgermeister Martin Biber die \"Partymeile\". Er war sichtlich erfreut, so viele Gäste begrüßen zu können und lud sie alle ein \"abzufeiern\". Das musste er nicht zweimal sagen: Nach dem Bürgermeister ging das Mikrofon an Moderator Florian Jochum, der die Besucher durch den langen Abend begleitete. Eggenfelden Ganz in Weiß 31.07.2022 | Stand 31.07.2022, 14:24 Uhr") ``` ## Training Details ### Training Set Metrics | Training set | Min | Median | Max | |:-------------|:----|:---------|:----| | Word count | 40 | 124.0612 | 171 | | Label | Training Sample Count | |:--------------|:----------------------| | ? | 1 | | non-political | 115 | | political | 80 | ### Training Hyperparameters - batch_size: (32, 32) - num_epochs: (1, 1) - max_steps: -1 - sampling_strategy: oversampling - body_learning_rate: (2e-05, 1e-05) - head_learning_rate: 0.01 - loss: CosineSimilarityLoss - distance_metric: cosine_distance - margin: 0.25 - end_to_end: False - use_amp: False - warmup_proportion: 0.1 - seed: 42 - eval_max_steps: -1 - load_best_model_at_end: False ### Training Results | Epoch | Step | Training Loss | Validation Loss | |:------:|:----:|:-------------:|:---------------:| | 0.0016 | 1 | 0.3128 | - | | 0.0806 | 50 | 0.074 | - | | 0.1613 | 100 | 0.0042 | - | | 0.2419 | 150 | 0.0002 | - | | 0.3226 | 200 | 0.0001 | - | | 0.4032 | 250 | 0.0001 | - | | 0.4839 | 300 | 0.0 | - | | 0.5645 | 350 | 0.0001 | - | | 0.6452 | 400 | 0.0 | - | | 0.7258 | 450 | 0.0 | - | | 0.8065 | 500 | 0.0 | - | | 0.8871 | 550 | 0.0175 | - | | 0.9677 | 600 | 0.0 | - | ### Framework Versions - Python: 3.10.14 - SetFit: 1.0.3 - Sentence Transformers: 3.0.1 - Transformers: 4.40.2 - PyTorch: 2.0.0.post104 - Datasets: 2.20.0 - Tokenizers: 0.19.1 ## Citation ### BibTeX ```bibtex @article{https://doi.org/10.48550/arxiv.2209.11055, doi = {10.48550/ARXIV.2209.11055}, url = {https://arxiv.org/abs/2209.11055}, author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren}, keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences}, title = {Efficient Few-Shot Learning Without Prompts}, publisher = {arXiv}, year = {2022}, copyright = {Creative Commons Attribution 4.0 International} } ```