File size: 25,352 Bytes
558adfa
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
---
base_model: sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2
library_name: setfit
metrics:
- accuracy
pipeline_tag: text-classification
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: 'Twitter-Übernahme durch Musk Sieben Tage der Zerstörung

    Schlimmer hätte die erste Woche nach der Übernahme für Twitter kaum laufen können.
    Und doch - es könnte noch wesentlich schlimmer kommen. Das zu verhindern, liege
    letztlich auch bei den Nutzern selbst.

    Wenn die Welt wirklich in einer Woche geschaffen wurde, könnte vermutlich nur
    Elon Musk sie in einer Woche auch wieder zerlegen. Wie er das anstellen würde,
    hat er bei Twitter gezeigt - vor allem mit Rücksichtslosigkeit.

    Er hat Personal entlassen, Werbekunden verloren, Vertrauen verspielt. Ex-Mitarbeitende
    wollen ihn verklagen, die übrigen sind offenbar eingeschüchtert. Die Einnahmen
    seien, das hat Musk selbst gewittert, massiv runtergegangen. Alles in einer Woche.

    Zu viel Macht für Musk

    Drei Dinge bereiten besonders große Sorgen: Verifizierte Accounts - das sind die
    mit den blauen Haken - kann sich offenbar künftig jeder kaufen. Wenn das wirklich
    so kommt, könnte es noch schwerer werden zu unterscheiden, was eine glaubwürdige
    In...'
- text: 'Zwei Jahre lang musste das "Weiße Fest" wegen Corona pausieren – umso mehr
    Besucher kamen in diesem Jahr und erlebten genau das Fest mit "Lebensfreude pur",
    auf das sie so lange warten mussten. Pünktlich um 18 Uhr eröffnete Bürgermeister
    Martin Biber die "Partymeile". Er war sichtlich erfreut, so viele Gäste begrüßen
    zu können und lud sie alle ein "abzufeiern". Das musste er nicht zweimal sagen:
    Nach dem Bürgermeister ging das Mikrofon an Moderator Florian Jochum, der die
    Besucher durch den langen Abend begleitete.

    Eggenfelden

    Ganz in Weiß

    31.07.2022 | Stand 31.07.2022, 14:24 Uhr'
- text: 'Von reitschuster.de

    Paxlovid wurde insbesondere für Menschen mit Vorerkrankungen als Gamechanger gefeiert.
    Ende vergangenen Jahres erhielt das Medikament aus dem Hause Pfizer die Notfallzulassung
    in den USA und kurz darauf auch in Europa. Allen bisherigen Erkenntnissen zufolge
    kann Paxlovid tatsächlich dazu beitragen, das Sterberisiko bei den Vulnerablen
    nach einer Corona-Infektion um bis zu 90 Prozent zu reduzieren. Dies gilt offenbar
    aber nur, wenn das Mittel alleine eingenommen wird oder allenfalls zusammen mit
    vergleichsweise harmlosen Medikamenten wie etwa Aspirin. Das legen die Ergebnisse
    einer Studie nahe, die von Forschern mehrerer US-Institutionen durchgeführt wurde,
    unter anderem dem Lahey Hospital and Medical Center in Burlington und der Harvard
    Medical School in Boston.

    Die Autoren berichten in ihrer Arbeit von „gefährlichen Wechselwirkungen mit gängigen
    Medikamenten“. Das gelte insbesondere, wenn Paxlovid zusammen mit Statinen oder
    Blutverdünnern eingenommen werde. Nebe...'
- text: 'Tödlicher baum-Crash | 19-Jähriger stirbt bei Überholversuch

    Welsleben – Furchtbarer Unfall am Donnerstagmittag in Sachsen-Anhalt: Ein 19-jähriger
    Fahrer ist bei einem Überholmanöver gegen einen Baum geschleudert und tödlich
    verunglückt.

    Nach Polizeiangaben war der junge Mann gegen 12 Uhr mit seinem VW zwischen Welsleben
    und Biere (Salzlandkreis) unterwegs. Auf der Welslebener Straße setze er zum Überholen
    an – und verlor die Kontrolle. Der Wagen kam von der Straße ab, krachte mit voller
    Wucht gegen einen Baum am Straßenrand.

    „Durch die Wucht des Aufpralls wurde der Mann in seinem Fahrzeug eingeklemmt und
    musste durch die Feuerwehr befreit werden. Wenig später verstarb der 19-Jährige
    an der Unfallstelle“, erklärte ein Polizeisprecher.

    Der andere Autofahrer erlitt einen Schock und musste mit einem Rettungswagen in
    ein Krankenhaus gebracht werden.

    Die Straße zwischen Welsleben und Biere wurde für mehrere Stunden gesperrt. Die
    Polizei ermittelt nun, wie es genau zu dem Unfall kommen ko...'
- text: 'Im Jahr 2021 sind in Deutschland 2.562 Menschen bei Straßenverkehrsunfällen
    ums Leben gekommen - 5,8 Prozent oder 157 Menschen weniger als im Vorjahr. Die
    Zahl der Verletzten ging gegenüber dem Vorjahr um 1,3 Prozent auf 323.129 zurück,
    teilte das Statistische Bundesamt (Destatis) nach endgültigen Ergebnissen am Donnerstag
    mit. Damit sank die Zahl der Verkehrstoten und Verletzten erneut und erreichte
    den tiefsten Stand seit mehr als 60 Jahren.

    Im Durchschnitt wurden etwa 6.300 Verkehrsunfälle pro Tag polizeilich erfasst.
    Dabei wurden jeden Tag 885 Menschen verletzt und sieben Menschen getötet. Die
    Polizei zählte 2021 insgesamt 2,3 Millionen Verkehrsunfälle auf deutschen Straßen.

    Das waren 3,1 Prozent mehr als 2020. Die Zahl der Unfälle lag aber weiterhin deutlich
    unter dem Vor-Pandemie-Niveau (2019: 2,7 Millionen Unfälle insgesamt, darunter
    300.000 Unfälle mit Personenschaden). Bei knapp 90 Prozent der Unfälle blieb es
    bei Sachschaden.

    Bei elf Prozent der Unfälle wurden Menschen get...'
inference: true
model-index:
- name: SetFit with sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2
  results:
  - task:
      type: text-classification
      name: Text Classification
    dataset:
      name: Unknown
      type: unknown
      split: test
    metrics:
    - type: accuracy
      value: 0.826530612244898
      name: Accuracy
---

# SetFit with sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2

This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.

The model has been trained using an efficient few-shot learning technique that involves:

1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
2. Training a classification head with features from the fine-tuned Sentence Transformer.

## Model Details

### Model Description
- **Model Type:** SetFit
- **Sentence Transformer body:** [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2)
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
- **Maximum Sequence Length:** 128 tokens
- **Number of Classes:** 3 classes
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->

### Model Sources

- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)

### Model Labels
| Label         | Examples                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                               |
|:--------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| non-political | <ul><li>'Fahndung nach Überfall in Koblenz-Arenberg: Opfer ausgeraubt und in eigenen Kofferraum gesperrt\nWie die Polizei mitteilte befährt der betroffene Mann den Waldweg regelmäßig. An diesem Morgen zwang ihn ein auf dem Weg liegender Ast zum Aussteigen. Nachdem der Fahrer sein Fahrzeug verlassen hatte, überfiel ihn ein maskierter Mann, der das Opfer schlug und beraubte.\nIm Anschluss sperrte der Täter das Opfer in den Laderaum des eigenen Geländewagens und fuhr mit ihm im Bereich des Tatorts herum. Gegen 7.40 Uhr stellte der Täter das Fahrzeug auf dem Parkplatz gegenüber des Klosters, im Bereich der Immendorfer Straße, ab.\nZeugen fiel der verletzte Mann auf, worauf sie die Polizei riefen. Die Fahndung mit einem großen Aufgebot an Polizeikräften und einem Polizeihubschrauber verlief bisher allerdings ohne Erfolg.'</li><li>'Die Kaulitz-Zwillinge droppen in ihrem Podcast "Senf aus Hollywood" schonmal die eine oder andere persönliche Geschichte. Dass Bill und Tom dabei zumindest manchmal etwas übertreiben, ist den Podcast-Fans zumeist bewusst. Kürzlich ist aus den Erzählungen der beiden sogar eine reißerische Schlagzeile entstanden. Bills Worte waren es, die Tom diese bescherten. Nun räumt Tom mit den Spekulationen auf.\nIn der aktuellsten Folge ihres Podcasts vom 20. Dezember lassen die Zwillinge etwa ihr Jahr 2022 Revue passieren. Unter anderem Thema: ihre "Lows", also die Tiefpunkte des Jahres. Neben der politischen Lage samt Krieg und Krisen nennen die beiden im Zuge dessen auch persönliche negative Momente.\nGesundheitlich lief es bei Tom demnach nicht besonders rund. So verrät er: "Mein Low war auf jeden Fall die Clusterkopfschmerzphase, über die ich aber gar nicht gerne rede, weil ich mir denke, dass ich die damit sofort wieder anziehe." Kein Wunder: Cluster-Kopfschmerzen sind besonders heftige Kopf...'</li><li>'Eine neue in Osnabrück entwickelte App soll Leben in Restaurants bringen. Mit „NeoTaste“ können Gastronomen den Nutzern aktuelle Angebote unterbreiten und so freie Kapazitäten in ihren Gaststätten füllen. Am 6. November fällt der Startschuss.\nEine neue in Osnabrück entwickelte App soll Leben in Restaurants bringen. Mit „NeoTaste“ können Gastronomen den Nutzern aktuelle Angebote unterbreiten und so freie Kapazitäten in ihren Gaststätten füllen. Am 6. November fällt der Startschuss.'</li></ul>                                                                                                                                                                                                                                                                                                                                           |
| political     | <ul><li>'Angriffskrieg gegen die Ukraine Russlands Hilfstruppen haben offenbar Motivationsprobleme\nRussland kontrolliert die ukrainische Region Luhansk und einen Großteil des Oblast Donezk. Doch diese Erfolge schaden womöglich der weiteren Motivation der moskautreuen Separatisten in diesen Gebieten. So berichtet es das britische Verteidigungsministerium in London unter Berufung auf Geheimdiensterkenntnisse.\nDemnach kann Russland seine Hilfstruppen aus den Separatistengebieten immer schwerer für den andauernden Krieg gegen die Ukraine motivieren. Einige Kommandeure würden ihren Soldaten vermutlich finanzielle Anreize versprechen. Einige Einheiten würden als unzuverlässig gelten und daher nicht mit Angriffen betraut.\nDas Ministerium verwies als Beispiel auf ein Video von Mitte August, in dem sich Mitglieder einer Einheit der selbst ernannten »Volksrepublik Luhansk« geweigert haben sollen, an Offensivoperationen teilzunehmen. Die Kämpfer hätten betont, sie hätten mit der vollständigen Eroberung...'</li><li>'Cooler Ehrenbürger: Udo ist jetzt Hamburgs Panik-Botschafter – und die AfD ätzt\n„Ich begrüße ganz herzlich Udo Lindenberg in unserer Mitte!“, sprach Carola Veit um 18.38 und unter Applaus der Bürgerschaftsmitglieder tänzelte Udo Lindenberg mit Hut, Nadelstreifen-Jacket und schwarzer Hose auf seinen Ehrenplatz – und lauschte der emotionalen Rede des Bürgermeisters Peter Tschentscher (SPD) und den Freundlichkeiten der Fraktionsführer.\nMit Ausnahme der AfD-Abgeordneten stimmten anschließend alle Fraktionen der Bürgerschaft dem Antrag zu und ernannten den Panikrocker mit Standing Ovations zum vermutlich coolsten Ehrenbürger Hamburgs – der sich prompt mit einem kleinen Udo-Tänzchen bedankte.'</li><li>'Maskenpflicht in Sachsen fällt, aber nicht überall: Das gilt ab Montag in Bus und Bahn\nDresden – Ab Montag dürfen Fahrgäste in Sachsens Bussen und Bahnen erstmals nach zweieinhalb Jahren wieder ohne Mundschutz mitfahren. Doch das gilt nicht für alle Reisemöglichkeiten.\nFür Fernzüge und Fernbusse ist noch bis zum 2. Februar bundesweit eine FFP2-Maskenpflicht festgeschrieben.\nDas Ende der Maskenpflicht im öffentlichen Nahverkehr war vergangenen Dienstag nach einer Kabinettssitzung von Gesundheitsministerin Petra Köpping (64, SPD) verkündet worden.\nKöpping tritt weiterhin für das freiwillige Tragen einer Maske ein. „Wir haben viele Infektionskrankheiten und eine Maske schützt nicht nur vor Corona, sondern auch vor anderen Infektionskrankheiten“, sagte die SPD-Politikerin.\nSachsen war das erste Bundesland, das nach Ausbruch der Corona-Pandemie die Maskenpflicht in öffentlichen Verkehrsmitteln sowie beim Einkauf einführte.'</li></ul> |
| ?             | <ul><li>'Corvus Corax schrieb am 06.04.2022 13:44:\nUnd die Chinesen würden sich die Misere mit der abstürzenden ISS anschauen und sagen.\nDie Chinesen würden wohl eher sagen:\nKlar ziehen wir mit euch was auf, schließlich kann man sich auf Euch verlassen.\nViel lieber als mit den Amis, die aus fadenscheinigen Gründen langfristige Abkommen mal eben aufkündigen.'</li></ul>                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                 |

## Evaluation

### Metrics
| Label   | Accuracy |
|:--------|:---------|
| **all** | 0.8265   |

## Uses

### Direct Use for Inference

First install the SetFit library:

```bash
pip install setfit
```

Then you can load this model and run inference.

```python
from setfit import SetFitModel

# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("cbpuschmann/MiniLM-ispolitical-zeroshot")
# Run inference
preds = model("Zwei Jahre lang musste das \"Weiße Fest\" wegen Corona pausieren – umso mehr Besucher kamen in diesem Jahr und erlebten genau das Fest mit \"Lebensfreude pur\", auf das sie so lange warten mussten. Pünktlich um 18 Uhr eröffnete Bürgermeister Martin Biber die \"Partymeile\". Er war sichtlich erfreut, so viele Gäste begrüßen zu können und lud sie alle ein \"abzufeiern\". Das musste er nicht zweimal sagen: Nach dem Bürgermeister ging das Mikrofon an Moderator Florian Jochum, der die Besucher durch den langen Abend begleitete.
Eggenfelden
Ganz in Weiß
31.07.2022 | Stand 31.07.2022, 14:24 Uhr")
```

<!--
### Downstream Use

*List how someone could finetune this model on their own dataset.*
-->

<!--
### Out-of-Scope Use

*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->

<!--
## Bias, Risks and Limitations

*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->

<!--
### Recommendations

*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->

## Training Details

### Training Set Metrics
| Training set | Min | Median   | Max |
|:-------------|:----|:---------|:----|
| Word count   | 40  | 124.0612 | 171 |

| Label         | Training Sample Count |
|:--------------|:----------------------|
| ?             | 1                     |
| non-political | 115                   |
| political     | 80                    |

### Training Hyperparameters
- batch_size: (32, 32)
- num_epochs: (1, 1)
- max_steps: -1
- sampling_strategy: oversampling
- body_learning_rate: (2e-05, 1e-05)
- head_learning_rate: 0.01
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- seed: 42
- eval_max_steps: -1
- load_best_model_at_end: False

### Training Results
| Epoch  | Step | Training Loss | Validation Loss |
|:------:|:----:|:-------------:|:---------------:|
| 0.0016 | 1    | 0.3128        | -               |
| 0.0806 | 50   | 0.074         | -               |
| 0.1613 | 100  | 0.0042        | -               |
| 0.2419 | 150  | 0.0002        | -               |
| 0.3226 | 200  | 0.0001        | -               |
| 0.4032 | 250  | 0.0001        | -               |
| 0.4839 | 300  | 0.0           | -               |
| 0.5645 | 350  | 0.0001        | -               |
| 0.6452 | 400  | 0.0           | -               |
| 0.7258 | 450  | 0.0           | -               |
| 0.8065 | 500  | 0.0           | -               |
| 0.8871 | 550  | 0.0175        | -               |
| 0.9677 | 600  | 0.0           | -               |

### Framework Versions
- Python: 3.10.14
- SetFit: 1.0.3
- Sentence Transformers: 3.0.1
- Transformers: 4.40.2
- PyTorch: 2.0.0.post104
- Datasets: 2.20.0
- Tokenizers: 0.19.1

## Citation

### BibTeX
```bibtex
@article{https://doi.org/10.48550/arxiv.2209.11055,
    doi = {10.48550/ARXIV.2209.11055},
    url = {https://arxiv.org/abs/2209.11055},
    author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
    keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
    title = {Efficient Few-Shot Learning Without Prompts},
    publisher = {arXiv},
    year = {2022},
    copyright = {Creative Commons Attribution 4.0 International}
}
```

<!--
## Glossary

*Clearly define terms in order to be accessible across audiences.*
-->

<!--
## Model Card Authors

*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->

<!--
## Model Card Contact

*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->