cbpuschmann commited on
Commit
36b13a2
·
verified ·
1 Parent(s): 662623d

Add SetFit model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,5 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
37
+ unigram.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 384,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,276 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - setfit
4
+ - sentence-transformers
5
+ - text-classification
6
+ - generated_from_setfit_trainer
7
+ widget:
8
+ - text: Die Forderungen sind landesweit die gleichen. Es geht um die Wiedereinführung
9
+ eines 9-Euro-Tickets und ein Tempolimit von 100 km/h auf den Autobahnen. Außerdem
10
+ fordern wir die Einführung eines Gesellschaftsrats. Dieser soll Maßnahmen erarbeiten,
11
+ wie Deutschland bis 2030 emissionsfrei wird. Die Lösungsansätze sollen von der
12
+ Bundesregierung anerkannt und in der Politik umgesetzt werden.
13
+ - text: Die aktivist bezeichnen sich als ›DLG›. Sie fordern von Bundeswirtschaftsminister
14
+ Robert Habeck Grüne, auf fossile Energie zu verzichten. Zudem verlangen sie eine
15
+ Lebenserklärung der Rektorin der Leipziger Universität. Diese soll sich ›offiziell,
16
+ öffentlich und gerichtet an Robert Habeck gegen den Bau und die Finanzierung neuer
17
+ fossiler Infrastruktur aussprechen. Insbesondere gegen neue Ölbohrungen in der
18
+ Nordsee sowie neue Flüssiggas-Terminals›, hieß es in einer Mitteilung der Gruppe
19
+ am Donnerstag.
20
+ - text: Am Montag war es erneut das Amtsgericht Tiergarten, in dem ein Anwalt die
21
+ Aktionen der ›DLG› mit einem fragwürdigen historischen Vergleich rechtfertigte.
22
+ Verhandelt wurde an dem Tag gegen den 63-jährigen Winfried L. Wegen fünf Straßenblockaden,
23
+ bei denen er teilweise seine Hand auf der Straße angeklebt hatte, musste sich
24
+ L. wegen der Vorwürfe Nötigung und Widerstand gegen Vollstreckungsbeamte verantworten.
25
+ - text: 'In einer am Morgen verbreiteten Mitteilung begründete die Gruppe ihre Aktion.
26
+ Mit der Sitzblockade habe der "fossile Alltag" auf der Straße unterbrochen werden
27
+ sollen. Auf Transparenten seien Forderungen deutlich gemacht worden: ein 9-Euro-Ticket
28
+ für alle, ein Tempolimit von 100 Stundenkilometern auf Autobahnen und die Bildung
29
+ eines Gesellschaftsrats zum Thema Ende der fossilen Brennstoffe bis 2030.'
30
+ - text: 'aktivist feiern Festival für mehr Klimaschutz Xanten wer Die Ortsgruppe Xanten
31
+ von FFF hat am Freitagnachmittag wieder für mehr Klimaschutz protestiert – aber
32
+ anders als sonst. Die aktivist organisierten an der Kriemhildmühle im Kurpark
33
+ ein Festival mit Musik, Essen, Getränken und Vorträgen. Viele Menschen kamen,
34
+ genossen das schöne Wetter und die entspannte Atmosphäre, lauschten den Liedern
35
+ und sangen mit. Ansprachen gab es auch: Seit Jahrzehnten warne die Wissenschaft
36
+ vor den Folgen des Klimawandels, trotzdem unternehme die Politik zu wenig, und
37
+ die Bevölkerung müsse unter den Folgen wie Dürren, Überschwemmungen und Hitze
38
+ leiden, kritisierte Frederik Krohn von der Xantener Ortsgruppe der Klimaschutzbewegung.
39
+ Deshalb gehe FFF immer wieder auf die Straße, um der Politik zu sagen, dass es
40
+ so nicht weitergehe. Die große Teilnahme am Festival in Xanten und damit am Klimaschutz-Protest
41
+ sei ein ›starkes Zeichen›, sagte Krohn.'
42
+ metrics:
43
+ - accuracy
44
+ pipeline_tag: text-classification
45
+ library_name: setfit
46
+ inference: true
47
+ base_model: sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2
48
+ ---
49
+
50
+ # SetFit with sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2
51
+
52
+ This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
53
+
54
+ The model has been trained using an efficient few-shot learning technique that involves:
55
+
56
+ 1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
57
+ 2. Training a classification head with features from the fine-tuned Sentence Transformer.
58
+
59
+ ## Model Details
60
+
61
+ ### Model Description
62
+ - **Model Type:** SetFit
63
+ - **Sentence Transformer body:** [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2)
64
+ - **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
65
+ - **Maximum Sequence Length:** 128 tokens
66
+ - **Number of Classes:** 3 classes
67
+ <!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
68
+ <!-- - **Language:** Unknown -->
69
+ <!-- - **License:** Unknown -->
70
+
71
+ ### Model Sources
72
+
73
+ - **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
74
+ - **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
75
+ - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
76
+
77
+ ### Model Labels
78
+ | Label | Examples |
79
+ |:-----------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
80
+ | neutral | <ul><li>'Bundesverkehrsminister Volker Wissing (FDP) und Vertreterinnen der Klimagruppe Letzte Generation haben sich in Berlin getroffen, um über mögliche Lösungen für den Klimaschutz zu diskutieren. Während beide Seiten das Gespräch als konstruktiv bewerteten, bleibt die Gruppe Letzte Generation bei ihren Forderungen nach einem Tempolimit von 100 km/h auf Autobahnen und einem dauerhaften 9-Euro-Ticket, da sie der Meinung ist, dass die aktuelle Verkehrspolitik nicht ausreicht, um die Emissionen signifikant zu reduzieren.'</li><li>'In Deutschland bleibt die Einführung eines nationalen Tempolimits auf Autobahnen weiterhin strittig. Bundeskanzler Olaf Scholz (SPD) äußerte sich beim Bürgerdialog im Allgäu neutral zu dem Vorschlag und erklärte, dass derzeit keine Mehrheit in der Koalition dafür existiere. Die FDP lehnt ein solches Tempolimit ab, was die Verwirklichung einer einheitlichen Geschwindigkeitsbegrenzung erschwert.'</li><li>'Klimaaktivisten nutzen verschiedene Strategien, um auf ihre Forderungen aufmerksam zu machen. Während einige Gruppen wie Fridays for Future vor allem öffentliche Proteste und Kampagnen organisieren, wenden sich andere, wie die Letzte Generation, auch symbolische Aktionen wie das Einnahmen von Speisen bei Veranstaltungen an. Diese Methoden zielen darauf ab, die Aufmerksamkeit auf den Dringlichkeit des Klimaschutzes zu lenken.'</li></ul> |
81
+ | opposed | <ul><li>'"Skeptische Haltung gegenüber Tempolimit: Verkehrsminister Wissing betont Notwendigkeit von Lösungen auf Basis der Freiheit der Autofahrer"\n\nVerkehrsminister Volker Wissing (FDP) hat seine ablehnende Haltung gegenüber einem generellen Tempolimit auf deutschen Autobahnen bekräftigt. In Anbetracht der Klimaziele sei es effektiver, auf die Einhaltung bestehender Regeln und die Förderung umweltfreundlicherer Fahrzeuge zu setzen, anstatt die Mobilität der Bürger einzuschränken, so Wissing.'</li><li>'"Tempolimit auf Autobahnen? Skepsis gegenüber unzureichender Lösung"\n\nDer Vorschlag einer nationalen Geschwindigkeitsbegrenzung auf Autobahnen stößt auf Kritik. Der Journalist und Experte Herrmann betont, dass ein solches Tempolimit nur eine "Ablenkung von der eigentlichen Verantwortung" sei. Stattdessen solle sich die Bundesregierung auf die Sicherung der Energieversorgung konzentrieren, um die Abhängigkeit von Russland zu beenden, so seine Aussage.'</li><li>'"Klima-Aktivisten übertreiben es mit ihren Aktionen: Ist dieser Extremismus wirklich der richtige Weg, um die Umwelt zu retten?"\n\nWährend ihre Absichten lobenswert sind, fragen sich viele: Geht es Klimaschützern wie Fridays for Future und der Letzten Generation nicht zu weit mit ihren provokanten Protesten? Nach dem jüngsten Klebeprotest in der Elbphilharmonie, bei dem Aktivisten das Geländer überklebten, stellt sich die Frage, ob solche Aktionen mehr Schaden als Nutzen anrichten. Die Kunst und Architektur dieser Wahrzeichen könnten dadurch unnötig gefährdet werden.'</li></ul> |
82
+ | supportive | <ul><li>'Während die Einführung eines nationalen Tempolimits auf Autobahnen Kontroversen auslöst, befürworten viele Experten einen sorgfältigen Ansatz. Die Umweltministerkonferenz unterstreicht den Bedarf an Geschwindigkeitsbegrenzungen, insbesondere in Städten, um Lärm und Abgase zu reduzieren. Kritiker warnen jedoch vor möglichen wirtschaftlichen Auswirkungen und fordern eine umfassende Analyse der Effekte auf den Verkehr.'</li><li>'Die Forderung nach einem nationalen Tempolimit auf Autobahnen gewinnt an Dynamik, doch die Initiative stößt auf geteilte Meinungen. Während Umweltminister Christian Meyer (Grüne) auf der jüngsten Konferenz eine Begrenzung auf 130 Stundenkilometer befürwortete, argumentieren Kritiker, dass ein pauschales Limit die Effizienz des Verkehrs beeinträchtigen könnte. Dennoch scheint ein Kompromiss zwischen Umweltschutz und Wirtschaftlichkeit in Sicht, um die Sicherheit auf den Straßen zu erhöhen und den CO2-Ausstoß zu senken.'</li><li>'Klimaschutz mit Fragezeichen: Aktivisten blockieren Verkehr, Auswirkungen auf Autofahrer\n\nWährend Gruppen wie Fridays for Future und die Letzte Generation ihren Protest intensivieren, stoßen ihre Aktionen zunehmend auf Kritik. In München blockierten kürzlich drei Klimaaktivisten den Berufsverkehr, was zu aggressiven Reaktionen von Autofahrern führte. Die Polizei musste eingreifen und Anzeigen wegen Nötigung im Straßenverkehr aufnehmen. Solche Methoden werfen Fragen zur Balance zwischen zivilem Ungehorsam und der Belastung unbeteilter Bürger auf.'</li></ul> |
83
+
84
+ ## Uses
85
+
86
+ ### Direct Use for Inference
87
+
88
+ First install the SetFit library:
89
+
90
+ ```bash
91
+ pip install setfit
92
+ ```
93
+
94
+ Then you can load this model and run inference.
95
+
96
+ ```python
97
+ from setfit import SetFitModel
98
+
99
+ # Download from the 🤗 Hub
100
+ model = SetFitModel.from_pretrained("cbpuschmann/klimacoder2_v0.3")
101
+ # Run inference
102
+ preds = model("Die Forderungen sind landesweit die gleichen. Es geht um die Wiedereinführung eines 9-Euro-Tickets und ein Tempolimit von 100 km/h auf den Autobahnen. Außerdem fordern wir die Einführung eines Gesellschaftsrats. Dieser soll Maßnahmen erarbeiten, wie Deutschland bis 2030 emissionsfrei wird. Die Lösungsansätze sollen von der Bundesregierung anerkannt und in der Politik umgesetzt werden.")
103
+ ```
104
+
105
+ <!--
106
+ ### Downstream Use
107
+
108
+ *List how someone could finetune this model on their own dataset.*
109
+ -->
110
+
111
+ <!--
112
+ ### Out-of-Scope Use
113
+
114
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
115
+ -->
116
+
117
+ <!--
118
+ ## Bias, Risks and Limitations
119
+
120
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
121
+ -->
122
+
123
+ <!--
124
+ ### Recommendations
125
+
126
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
127
+ -->
128
+
129
+ ## Training Details
130
+
131
+ ### Training Set Metrics
132
+ | Training set | Min | Median | Max |
133
+ |:-------------|:----|:--------|:----|
134
+ | Word count | 29 | 67.5889 | 233 |
135
+
136
+ | Label | Training Sample Count |
137
+ |:-----------|:----------------------|
138
+ | supportive | 60 |
139
+ | opposed | 60 |
140
+ | neutral | 60 |
141
+
142
+ ### Training Hyperparameters
143
+ - batch_size: (32, 32)
144
+ - num_epochs: (5, 5)
145
+ - max_steps: -1
146
+ - sampling_strategy: oversampling
147
+ - body_learning_rate: (2e-05, 1e-05)
148
+ - head_learning_rate: 0.01
149
+ - loss: CosineSimilarityLoss
150
+ - distance_metric: cosine_distance
151
+ - margin: 0.25
152
+ - end_to_end: False
153
+ - use_amp: False
154
+ - warmup_proportion: 0.1
155
+ - l2_weight: 0.01
156
+ - seed: 42
157
+ - eval_max_steps: -1
158
+ - load_best_model_at_end: True
159
+
160
+ ### Training Results
161
+ | Epoch | Step | Training Loss | Validation Loss |
162
+ |:------:|:----:|:-------------:|:---------------:|
163
+ | 0.0015 | 1 | 0.2507 | - |
164
+ | 0.0741 | 50 | 0.2612 | - |
165
+ | 0.1481 | 100 | 0.2399 | - |
166
+ | 0.2222 | 150 | 0.1809 | - |
167
+ | 0.2963 | 200 | 0.1155 | - |
168
+ | 0.3704 | 250 | 0.034 | - |
169
+ | 0.4444 | 300 | 0.0045 | - |
170
+ | 0.5185 | 350 | 0.0019 | - |
171
+ | 0.5926 | 400 | 0.0011 | - |
172
+ | 0.6667 | 450 | 0.0005 | - |
173
+ | 0.7407 | 500 | 0.0003 | - |
174
+ | 0.8148 | 550 | 0.0003 | - |
175
+ | 0.8889 | 600 | 0.0002 | - |
176
+ | 0.9630 | 650 | 0.0002 | - |
177
+ | 1.0 | 675 | - | 0.3444 |
178
+ | 1.0370 | 700 | 0.0001 | - |
179
+ | 1.1111 | 750 | 0.0001 | - |
180
+ | 1.1852 | 800 | 0.0001 | - |
181
+ | 1.2593 | 850 | 0.0001 | - |
182
+ | 1.3333 | 900 | 0.0001 | - |
183
+ | 1.4074 | 950 | 0.0001 | - |
184
+ | 1.4815 | 1000 | 0.0002 | - |
185
+ | 1.5556 | 1050 | 0.0001 | - |
186
+ | 1.6296 | 1100 | 0.0001 | - |
187
+ | 1.7037 | 1150 | 0.0 | - |
188
+ | 1.7778 | 1200 | 0.0 | - |
189
+ | 1.8519 | 1250 | 0.0 | - |
190
+ | 1.9259 | 1300 | 0.0 | - |
191
+ | 2.0 | 1350 | 0.0 | 0.3538 |
192
+ | 2.0741 | 1400 | 0.0 | - |
193
+ | 2.1481 | 1450 | 0.0 | - |
194
+ | 2.2222 | 1500 | 0.0 | - |
195
+ | 2.2963 | 1550 | 0.0 | - |
196
+ | 2.3704 | 1600 | 0.0 | - |
197
+ | 2.4444 | 1650 | 0.0 | - |
198
+ | 2.5185 | 1700 | 0.0 | - |
199
+ | 2.5926 | 1750 | 0.0 | - |
200
+ | 2.6667 | 1800 | 0.0 | - |
201
+ | 2.7407 | 1850 | 0.0 | - |
202
+ | 2.8148 | 1900 | 0.0 | - |
203
+ | 2.8889 | 1950 | 0.0 | - |
204
+ | 2.9630 | 2000 | 0.0001 | - |
205
+ | 3.0 | 2025 | - | 0.3657 |
206
+ | 3.0370 | 2050 | 0.0012 | - |
207
+ | 3.1111 | 2100 | 0.0 | - |
208
+ | 3.1852 | 2150 | 0.0 | - |
209
+ | 3.2593 | 2200 | 0.0 | - |
210
+ | 3.3333 | 2250 | 0.0 | - |
211
+ | 3.4074 | 2300 | 0.0 | - |
212
+ | 3.4815 | 2350 | 0.0 | - |
213
+ | 3.5556 | 2400 | 0.0 | - |
214
+ | 3.6296 | 2450 | 0.0 | - |
215
+ | 3.7037 | 2500 | 0.0 | - |
216
+ | 3.7778 | 2550 | 0.0 | - |
217
+ | 3.8519 | 2600 | 0.0 | - |
218
+ | 3.9259 | 2650 | 0.0 | - |
219
+ | 4.0 | 2700 | 0.0 | 0.3644 |
220
+ | 4.0741 | 2750 | 0.0 | - |
221
+ | 4.1481 | 2800 | 0.0 | - |
222
+ | 4.2222 | 2850 | 0.0 | - |
223
+ | 4.2963 | 2900 | 0.0 | - |
224
+ | 4.3704 | 2950 | 0.0 | - |
225
+ | 4.4444 | 3000 | 0.0 | - |
226
+ | 4.5185 | 3050 | 0.0 | - |
227
+ | 4.5926 | 3100 | 0.0 | - |
228
+ | 4.6667 | 3150 | 0.0 | - |
229
+ | 4.7407 | 3200 | 0.0 | - |
230
+ | 4.8148 | 3250 | 0.0 | - |
231
+ | 4.8889 | 3300 | 0.0 | - |
232
+ | 4.9630 | 3350 | 0.0 | - |
233
+ | 5.0 | 3375 | - | 0.3656 |
234
+
235
+ ### Framework Versions
236
+ - Python: 3.11.10
237
+ - SetFit: 1.1.1
238
+ - Sentence Transformers: 3.4.1
239
+ - Transformers: 4.48.2
240
+ - PyTorch: 2.3.1.post300
241
+ - Datasets: 3.2.0
242
+ - Tokenizers: 0.21.0
243
+
244
+ ## Citation
245
+
246
+ ### BibTeX
247
+ ```bibtex
248
+ @article{https://doi.org/10.48550/arxiv.2209.11055,
249
+ doi = {10.48550/ARXIV.2209.11055},
250
+ url = {https://arxiv.org/abs/2209.11055},
251
+ author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
252
+ keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
253
+ title = {Efficient Few-Shot Learning Without Prompts},
254
+ publisher = {arXiv},
255
+ year = {2022},
256
+ copyright = {Creative Commons Attribution 4.0 International}
257
+ }
258
+ ```
259
+
260
+ <!--
261
+ ## Glossary
262
+
263
+ *Clearly define terms in order to be accessible across audiences.*
264
+ -->
265
+
266
+ <!--
267
+ ## Model Card Authors
268
+
269
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
270
+ -->
271
+
272
+ <!--
273
+ ## Model Card Contact
274
+
275
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
276
+ -->
config.json ADDED
@@ -0,0 +1,26 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2",
3
+ "architectures": [
4
+ "BertModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "classifier_dropout": null,
8
+ "gradient_checkpointing": false,
9
+ "hidden_act": "gelu",
10
+ "hidden_dropout_prob": 0.1,
11
+ "hidden_size": 384,
12
+ "initializer_range": 0.02,
13
+ "intermediate_size": 1536,
14
+ "layer_norm_eps": 1e-12,
15
+ "max_position_embeddings": 512,
16
+ "model_type": "bert",
17
+ "num_attention_heads": 12,
18
+ "num_hidden_layers": 12,
19
+ "pad_token_id": 0,
20
+ "position_embedding_type": "absolute",
21
+ "torch_dtype": "float32",
22
+ "transformers_version": "4.48.2",
23
+ "type_vocab_size": 2,
24
+ "use_cache": true,
25
+ "vocab_size": 250037
26
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.4.1",
4
+ "transformers": "4.48.2",
5
+ "pytorch": "2.3.1.post300"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
config_setfit.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "labels": [
3
+ "supportive",
4
+ "opposed",
5
+ "neutral"
6
+ ],
7
+ "normalize_embeddings": false
8
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:09a74a23fa480204d43c7d3ca01111f2252337c89fe6f57a9658e418a5d9f018
3
+ size 470637416
model_head.pkl ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:4cfe02e4f5cc1a62fda3e2f12c230a1abbfd4e7405d80c5d5a85311d5db01abf
3
+ size 10207
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 128,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cad551d5600a84242d0973327029452a1e3672ba6313c2a3c3d69c4310e12719
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,65 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": false,
46
+ "cls_token": "<s>",
47
+ "do_lower_case": true,
48
+ "eos_token": "</s>",
49
+ "extra_special_tokens": {},
50
+ "mask_token": "<mask>",
51
+ "max_length": 128,
52
+ "model_max_length": 128,
53
+ "pad_to_multiple_of": null,
54
+ "pad_token": "<pad>",
55
+ "pad_token_type_id": 0,
56
+ "padding_side": "right",
57
+ "sep_token": "</s>",
58
+ "stride": 0,
59
+ "strip_accents": null,
60
+ "tokenize_chinese_chars": true,
61
+ "tokenizer_class": "BertTokenizer",
62
+ "truncation_side": "right",
63
+ "truncation_strategy": "longest_first",
64
+ "unk_token": "<unk>"
65
+ }
unigram.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:da145b5e7700ae40f16691ec32a0b1fdc1ee3298db22a31ea55f57a966c4a65d
3
+ size 14763260