modelId
stringlengths
4
112
sha
stringlengths
40
40
lastModified
stringlengths
24
24
tags
sequence
pipeline_tag
stringclasses
29 values
private
bool
1 class
author
stringlengths
2
38
config
null
id
stringlengths
4
112
downloads
float64
0
36.8M
likes
float64
0
712
library_name
stringclasses
17 values
__index_level_0__
int64
0
38.5k
readme
stringlengths
0
186k
seduerr/pai_emotion
07cfba18cc3dce3fa8d6a08d0ea7632e19355fd1
2021-06-23T14:13:09.000Z
[ "pytorch", "jax", "t5", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
seduerr
null
seduerr/pai_emotion
0
null
transformers
36,000
Entry not found
seduerr/pai_exem
077394fe81b791fd2f00f4f0b61bcf64863a0842
2021-01-27T07:01:57.000Z
[ "pytorch", "t5", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
seduerr
null
seduerr/pai_exem
0
null
transformers
36,001
Entry not found
seduerr/pai_f2m
5d8c860c44387d76d107597cabca3266a06139c4
2021-06-23T14:13:46.000Z
[ "pytorch", "t5", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
seduerr
null
seduerr/pai_f2m
0
null
transformers
36,002
Entry not found
seduerr/pai_joke
ed7c3b06eb1b2516da76b93fa8fe40f37cbf9f00
2021-05-23T12:50:42.000Z
[ "pytorch", "jax", "gpt2", "text-generation", "transformers" ]
text-generation
false
seduerr
null
seduerr/pai_joke
0
null
transformers
36,003
Entry not found
seduerr/pai_pos2neg
7a39bb1cbded97f73b1caa4d69aaedfb5b5edaa9
2021-06-23T14:16:37.000Z
[ "pytorch", "jax", "t5", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
seduerr
null
seduerr/pai_pos2neg
0
null
transformers
36,004
Entry not found
seduerr/sentiment
4ca5ae72ae3c86159308b057ecae8fc04e4aaf3e
2021-01-12T10:50:07.000Z
[ "pytorch", "t5", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
seduerr
null
seduerr/sentiment
0
null
transformers
36,005
hello hello
sehandev/koelectra-long-qa
a8cf43cc9d290c8aa2b34de39f991a67d618c68e
2021-07-18T06:01:25.000Z
[ "pytorch", "electra", "question-answering", "transformers", "generated_from_trainer", "autotrain_compatible" ]
question-answering
false
sehandev
null
sehandev/koelectra-long-qa
0
null
transformers
36,006
--- tags: - generated_from_trainer model_index: - name: koelectra-long-qa results: - task: name: Question Answering type: question-answering --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # koelectra-long-qa This model is a fine-tuned version of [monologg/koelectra-base-v3-discriminator](https://huggingface.co/monologg/koelectra-base-v3-discriminator) on an unkown dataset. ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 64 - eval_batch_size: 256 - seed: 42 - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08 - lr_scheduler_type: linear - lr_scheduler_warmup_steps: 100 - num_epochs: 3 ### Training results ### Framework versions - Transformers 4.8.2 - Pytorch 1.8.1 - Datasets 1.9.0 - Tokenizers 0.10.3
seidel/plsum-base-ptt5
6d38e8aab290fc2dfd09e146e957accc70bc8a85
2022-04-28T16:59:49.000Z
[ "pytorch", "t5", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
seidel
null
seidel/plsum-base-ptt5
0
1
transformers
36,007
# Abstractive stage of PLSUM Abstractive stage of the Multi-document Extractive Summarization (MDAS) model for portuguese, PLSUM. To goal here is to create Wikipedia-like summaries from multiple sentences extracted in the previous stage of PLSUM (the extractive stage) from websites (input and output in portuguese). Project [github](https://github.com/aseidelo/wiki_generator/tree/cdd38918c2070200595b7cc64013d6d9ae4eddd0), and [paper](https://sol.sbc.org.br/index.php/eniac/article/view/18300). ## Usage ``` # query: summary title query = 'torta de limão' # sentences: list of relevant sentences extracted from multiple documents (i.e via TF-IDF or Textrank or anyother extractive summarization model) sentences = [ 'apostar na união do doce com o azedinho da torta de limão é quase certeza de acertar na sobremesa. E você pode escolher a forma mais tradicional com uma massa crocante de farinha de trigo, ou dar um toque de sofisticação servindo porções em taças individuais .', 'uma fruta no ponto e suculenta faz toda a diferença no preparo de qualquer receita . por isso , aqui vão algumas dicas para escolher o limão ideal para fazer a torta de limão perfeita . observe bem a casca. Uma casca lisa mostra que o limão está suculento . ela também precisa ser bem verde e brilhante ; preste atenção à maciez . aperte a fruta suavemente , se ele ceder ao toque é porque está macio e no ponto para ser consumido ; atenção para a firmeza . mesmo sendo macio , o limão precisa ser firme .', 'tudo indica que a torta de limão nasceu nos estados unidos , na cidade de Key West , no estado da Flórida , a fins do século xix. por isso , o nome original da receita em inglês – key lime pie – seria originário do nome da cidade e do limão usado naquela região , bem semelhante ao limão taiti consumido no brasil , mas com uma casca amarelada .', 'as tortas têm a massa como base que podem se estender pelas laterais da sobremesa e até por cima , parecida com uma crosta , mais crocante ou cremosa de acordo com os ingredientes utilizados . podem ser feitas com biscoitos doces com manteiga derretida , ou com uma mistura de farinha , sal , açúcar , manteiga derretida , gema e água . a massa da torta também pode ser feita com um bolo , e a partir daí se estrutura a torta . ', 'as tortas , geralmente precisam ficar no forno a 200 ° c , por cerca de 20 a 40 minutos . dependendo de cada tipo de forno , o tempo pode variar', 'para fazer uma massa de torta quase sempre é usada uma gordura como base , geralmente a manteiga . tem a gordura , a farinha , o trigo e às vezes , ovos na sua composição . durante o processo não pode incorporar calor e nem desenvolver o glúten em excesso , pois queremos como resultado uma massa que se dissolve na boca .' ] input_text = 'summarize: {}'.format(query) + sentences.join('</s>') # input_text = "summarize: torta de limão </s> apostar na união do doce com o azedinho da torta de limão é quase certeza de acertar na sobremesa. E você pode escolher a forma mais tradicional com uma massa crocante de farinha de trigo, ou dar um toque de sofisticação servindo porções em taças individuais. </s> uma fruta no ponto e suculenta faz toda a diferença no preparo de qualquer receita . por isso , aqui vão algumas dicas para escolher o limão ideal para fazer a torta de limão perfeita . observe bem a casca. Uma casca lisa mostra que o limão está suculento . ela também precisa ser bem verde e brilhante ; preste atenção à maciez . aperte a fruta suavemente , se ele ceder ao toque é porque está macio e no ponto para ser consumido ; atenção para a firmeza . mesmo sendo macio , o limão precisa ser firme . </s> tudo indica que a torta de limão nasceu nos estados unidos , na cidade de Key West , no estado da Flórida , a fins do século xix. por isso , o nome original da receita em inglês – key lime pie – seria originário do nome da cidade e do limão usado naquela região , bem semelhante ao limão taiti consumido no brasil , mas com uma casca amarelada . </s> as tortas têm a massa como base que podem se estender pelas laterais da sobremesa e até por cima , parecida com uma crosta , mais crocante ou cremosa de acordo com os ingredientes utilizados . podem ser feitas com biscoitos doces com manteiga derretida , ou com uma mistura de farinha , sal , açúcar , manteiga derretida , gema e água . a massa da torta também pode ser feita com um bolo , e a partir daí se estrutura a torta . </s> as tortas , geralmente precisam ficar no forno a 200 ° c , por cerca de 20 a 40 minutos . dependendo de cada tipo de forno , o tempo pode variar . </s> para fazer uma massa de torta quase sempre é usada uma gordura como base , geralmente a manteiga . tem a gordura , a farinha , o trigo e às vezes , ovos na sua composição . durante o processo não pode incorporar calor e nem desenvolver o glúten em excesso , pois queremos como resultado uma massa que se dissolve na boca ." tokenizer = T5TokenizerFast.from_pretrained("seidel/plsum-base-ptt5") model = T5ForConditionalGeneration.from_pretrained("seidel/plsum-base-ptt5", use_cache=False) x = tokenizer([input_text], padding="max_length", max_length=512, return_tensors="pt", truncation=True) y = model.generate(**x) print(tokenizer.batch_decode(y, skip_special_tokens=True)) # output: a torta de limão é um doce feito com a fruta limão , que é uma mistura de farinha de trigo , sal , açúcar , manteiga derretida , gema e água . a massa da torta pode ser feita com biscoitos doces , biscoitinhos ou bolos . é uma receita tradicional dos estados unidos , com a utilização de uma massa crocante , ou ainda com um bolo . ```
sello-ralethe/roberta-base-frozen-generics-mlm
0059ca2fc12c85337dbc0826af05af2c224e4876
2021-05-20T20:08:48.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
sello-ralethe
null
sello-ralethe/roberta-base-frozen-generics-mlm
0
null
transformers
36,008
Entry not found
sergiyvl/first_try_RuBERT_200_16_16_10ep
3dcb4a4172870ead5d2fbcb6264b482c0f7007ea
2021-05-20T05:34:45.000Z
[ "pytorch", "jax", "bert", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
sergiyvl
null
sergiyvl/first_try_RuBERT_200_16_16_10ep
0
null
transformers
36,009
Entry not found
sergiyvl/first_try_RuBERT_200_16_16_25ep
e6796aafb6527634e2806e9c71a91e35a47a7df6
2021-05-20T05:36:09.000Z
[ "pytorch", "jax", "bert", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
sergiyvl
null
sergiyvl/first_try_RuBERT_200_16_16_25ep
0
null
transformers
36,010
Entry not found
setiadia/DialogGPT-small-HPBot
39c89bfa8e1c84d493f9c15bdbe2bfe3ba6c478a
2021-10-28T09:48:50.000Z
[ "pytorch", "gpt2", "text-generation", "transformers", "conversational" ]
conversational
false
setiadia
null
setiadia/DialogGPT-small-HPBot
0
null
transformers
36,011
--- tags: - conversational --- # Harry Potter DialogGPT Model
seyonec/BPE_SELFIES_PubChem_shard00_166_5k
89fed69a1c6f3d833a8a2ef464521d4fc2a52c65
2021-05-20T20:46:50.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
seyonec
null
seyonec/BPE_SELFIES_PubChem_shard00_166_5k
0
null
transformers
36,012
Entry not found
seyonec/BPE_SELFIES_PubChem_shard00_70k
56e53d53b04926df17fbc6cbe165fee6cd77f175
2021-05-20T20:49:05.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
seyonec
null
seyonec/BPE_SELFIES_PubChem_shard00_70k
0
null
transformers
36,013
Entry not found
seyonec/ChemBERTA_PubChem1M_shard00_125k
fb6ab956c93c7fd53e81218a8024cc68f80ce786
2021-05-20T20:52:31.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
seyonec
null
seyonec/ChemBERTA_PubChem1M_shard00_125k
0
null
transformers
36,014
Entry not found
seyonec/ChemBERTa_masked_30_PubChem_shard00_1M_150k_steps
e2dc5a368e7b0e0036e77c8d6b4b7b43f39ad125
2021-05-20T20:56:58.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
seyonec
null
seyonec/ChemBERTa_masked_30_PubChem_shard00_1M_150k_steps
0
null
transformers
36,015
Entry not found
sgich/bert_case_uncased_KenyaHateSpeech
b446836722e0f0ef59662c34e8288cf31406be8f
2021-04-25T19:12:40.000Z
[ "pytorch", "text-classification" ]
text-classification
false
sgich
null
sgich/bert_case_uncased_KenyaHateSpeech
0
null
null
36,016
# HateSpeechDetection --- pipeline_tag: text-classification --- The model is used for classifying a text as Hatespeech or Normal. The model is trained using data from Twitter, specifically Kenyan related tweets. To maximize on the limited dataset, text augmentation was done. The dataset is available here: https://github.com/sgich/HateSpeechDetection Using a pre-trained "bert-base-uncased" transformer model, adding a dropout layer, a linear output layer and adding 10 common emojis that may be related to either Hate or Normal Speech. Then the model was tuned on a dataset of Kenyan/Kenyan-related scraped tweets with the purpose of performing text classification of "Normal Speech" or "Hate Speech" based on the text. This model was the result of realizing that majority of similar models did not cater for the African context where the target groups are not based on race and/or religious affiliation but mostly tribal differences which has proved fatal in the past. The model can be improved greatly by using a large and representative dataset and optimization of the model to a better degree.
shauryr/arqmath-roberta-base-1.5M
61b124433a65c2cf471d3b167665eb69f7f4e9ec
2021-05-20T21:13:26.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
shauryr
null
shauryr/arqmath-roberta-base-1.5M
0
null
transformers
36,017
Entry not found
shauryr/arqmath-roberta-base-2M
7e7c87e34113df7e6cab8b44607083ccb5bf1d2a
2021-05-20T21:15:07.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
shauryr
null
shauryr/arqmath-roberta-base-2M
0
null
transformers
36,018
Entry not found
shauryr/arqmath-roberta-base
5e9ce9a5abb24b0bcdbfac5e6ee591474c75958b
2021-05-20T21:16:05.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
shauryr
null
shauryr/arqmath-roberta-base
0
null
transformers
36,019
Entry not found
shields/repo_name
8d7fd97d00ffc0f399663a177ff15c889fd5f8ba
2022-01-28T02:09:21.000Z
[ "pytorch", "wav2vec2", "automatic-speech-recognition", "transformers" ]
automatic-speech-recognition
false
shields
null
shields/repo_name
0
null
transformers
36,020
Entry not found
shihab/HarryPotter
7f4386fd5236aff9f09c4bb0004853c676fd048d
2021-10-08T10:44:08.000Z
[ "pytorch", "gpt2", "text-generation", "transformers", "conversational" ]
conversational
false
shihab
null
shihab/HarryPotter
0
null
transformers
36,021
--- tags: - conversational --- # Harry Potter DialoGPT Model
shiqing/opus-mt-en-zh-finetuned-en-to-zh
6895591a237d7ed033db20d00d59b93b4a89cf91
2021-10-29T08:38:40.000Z
[ "pytorch", "tensorboard", "marian", "text2text-generation", "transformers", "generated_from_trainer", "license:apache-2.0", "model-index", "autotrain_compatible" ]
text2text-generation
false
shiqing
null
shiqing/opus-mt-en-zh-finetuned-en-to-zh
0
null
transformers
36,022
--- license: apache-2.0 tags: - generated_from_trainer model-index: - name: opus-mt-en-zh-finetuned-en-to-zh results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # opus-mt-en-zh-finetuned-en-to-zh This model is a fine-tuned version of [Helsinki-NLP/opus-mt-en-zh](https://huggingface.co/Helsinki-NLP/opus-mt-en-zh) on the None dataset. ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 16 - eval_batch_size: 16 - seed: 42 - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08 - lr_scheduler_type: linear - num_epochs: 1 ### Training results | Training Loss | Epoch | Step | Validation Loss | Bleu | Gen Len | |:-------------:|:-----:|:----:|:---------------:|:------:|:--------:| | No log | 1.0 | 10 | 4.0166 | 1.3628 | 416.6867 | ### Framework versions - Transformers 4.11.3 - Pytorch 1.10.0+cpu - Datasets 1.14.0 - Tokenizers 0.10.3
shmuelamar/REQA-RoBERTa
6e1bd8b2bf55f00d40bc359cf0fb03aa7c586050
2021-05-20T21:19:31.000Z
[ "pytorch", "jax", "roberta", "question-answering", "transformers", "autotrain_compatible" ]
question-answering
false
shmuelamar
null
shmuelamar/REQA-RoBERTa
0
null
transformers
36,023
# REQA-RoBERTa
shoarora/electra-small-owt
b47d5a55674d89b37b0193abada8bdef4db34da4
2021-05-20T05:54:08.000Z
[ "pytorch", "jax", "bert", "feature-extraction", "transformers" ]
feature-extraction
false
shoarora
null
shoarora/electra-small-owt
0
null
transformers
36,024
# ELECTRA-small-OWT This is an unnoficial implementation of an [ELECTRA](https://openreview.net/forum?id=r1xMH1BtvB) small model, trained on the [OpenWebText corpus](https://skylion007.github.io/OpenWebTextCorpus/). Differences from official ELECTRA models: - we use a `BertForMaskedLM` as the generator and `BertForTokenClassification` as the discriminator - they use an embedding projection layer, but Bert doesn't have one ## Pretraining ttask ![electra task diagram](https://github.com/shoarora/lmtuners/raw/master/assets/electra.png) (figure from [Clark et al. 2020](https://openreview.net/pdf?id=r1xMH1BtvB)) ELECTRA uses discriminative LM / replaced-token-detection for pretraining. This involves a generator (a Masked LM model) creating examples for a discriminator to classify as original or replaced for each token. ## Usage ```python from transformers import BertForSequenceClassification, BertTokenizer tokenizer = BertTokenizer.from_pretrained('bert-base-uncased') electra = BertForSequenceClassification.from_pretrained('shoarora/electra-small-owt') ``` ## Code The pytorch module that implements this task is available [here](https://github.com/shoarora/lmtuners/blob/master/lmtuners/lightning_modules/discriminative_lm.py). Further implementation information [here](https://github.com/shoarora/lmtuners/tree/master/experiments/disc_lm_small), and [here](https://github.com/shoarora/lmtuners/blob/master/experiments/disc_lm_small/train_electra_small.py) is the script that created this model. This specific model was trained with the following params: - `batch_size: 512` - `training_steps: 5e5` - `warmup_steps: 4e4` - `learning_rate: 2e-3` ## Downstream tasks #### GLUE Dev results | Model | # Params | CoLA | SST | MRPC | STS | QQP | MNLI | QNLI | RTE | | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | | ELECTRA-Small++ | 14M | 57.0 | 91. | 88.0 | 87.5 | 89.0 | 81.3 | 88.4 | 66.7| | ELECTRA-Small-OWT | 14M | 56.8 | 88.3| 87.4 | 86.8 | 88.3 | 78.9 | 87.9 | 68.5| | ELECTRA-Small-OWT (ours) | 17M | 56.3 | 88.4| 75.0 | 86.1 | 89.1 | 77.9 | 83.0 | 67.1| | ALECTRA-Small-OWT (ours) | 4M | 50.6 | 89.1| 86.3 | 87.2 | 89.1 | 78.2 | 85.9 | 69.6| - Table initialized from [ELECTRA github repo](https://github.com/google-research/electra) #### GLUE Test results | Model | # Params | CoLA | SST | MRPC | STS | QQP | MNLI | QNLI | RTE | | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | | BERT-Base | 110M | 52.1 | 93.5| 84.8 | 85.9 | 89.2 | 84.6 | 90.5 | 66.4| | GPT | 117M | 45.4 | 91.3| 75.7 | 80.0 | 88.5 | 82.1 | 88.1 | 56.0| | ELECTRA-Small++ | 14M | 57.0 | 91.2| 88.0 | 87.5 | 89.0 | 81.3 | 88.4 | 66.7| | ELECTRA-Small-OWT (ours) | 17M | 57.4 | 89.3| 76.2 | 81.9 | 87.5 | 78.1 | 82.4 | 68.1| | ALECTRA-Small-OWT (ours) | 4M | 43.9 | 87.9| 82.1 | 82.0 | 87.6 | 77.9 | 85.8 | 67.5|
shonenkov/rudalle-Malevich
75e4f71ff506fe28b2c44efca3d61bfb58a9295f
2021-11-01T11:09:30.000Z
[ "pytorch" ]
null
false
shonenkov
null
shonenkov/rudalle-Malevich
0
null
null
36,025
Entry not found
shoubhik/wav2vec2-lm-ch
a09f4387e5bface2f247b3e70810e4f5f68e73f2
2022-01-26T14:08:53.000Z
[ "pytorch", "wav2vec2", "automatic-speech-recognition", "transformers" ]
automatic-speech-recognition
false
shoubhik
null
shoubhik/wav2vec2-lm-ch
0
null
transformers
36,026
Entry not found
shoubhik/wav2vec2-xls-r-300m-hindi_V2
450f86b047c7816e2f584fde089529fdd20882b9
2022-02-05T18:48:37.000Z
[ "pytorch", "wav2vec2", "automatic-speech-recognition", "transformers" ]
automatic-speech-recognition
false
shoubhik
null
shoubhik/wav2vec2-xls-r-300m-hindi_V2
0
null
transformers
36,027
Entry not found
sibckukgvaxsepbkyb/IndoBARTv2-SQuAD-AQG
51eb8c4a8483ea43d4932d452535e2b4c80b9b84
2022-02-17T19:37:54.000Z
[ "pytorch", "mbart", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sibckukgvaxsepbkyb
null
sibckukgvaxsepbkyb/IndoBARTv2-SQuAD-AQG
0
null
transformers
36,028
Entry not found
sibckukgvaxsepbkyb/IndoBARTv2-TyDiQA-AQG
524ed16c472eb31ed544a473472ac3db954844b0
2022-02-17T08:22:40.000Z
[ "pytorch", "mbart", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sibckukgvaxsepbkyb
null
sibckukgvaxsepbkyb/IndoBARTv2-TyDiQA-AQG
0
null
transformers
36,029
Entry not found
sibckukgvaxsepbkyb/IndoGPT-SQuAD-5
8e14b90eb1fce842295c7549f9c6087d9965e571
2022-02-19T14:57:18.000Z
[ "pytorch", "gpt2", "text-generation", "transformers" ]
text-generation
false
sibckukgvaxsepbkyb
null
sibckukgvaxsepbkyb/IndoGPT-SQuAD-5
0
null
transformers
36,030
Entry not found
sibckukgvaxsepbkyb/mT5IndoQG
9223d67e1032065d156c5afcba67f25e4541889d
2022-01-26T20:31:06.000Z
[ "pytorch", "mt5", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sibckukgvaxsepbkyb
null
sibckukgvaxsepbkyb/mT5IndoQG
0
null
transformers
36,031
Entry not found
sibckukgvaxsepbkyb/mT5IndoQGSQuAD
dbef3d9c95a7ed8c4c586674676be9ca6a665441
2022-01-28T23:32:58.000Z
[ "pytorch", "mt5", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sibckukgvaxsepbkyb
null
sibckukgvaxsepbkyb/mT5IndoQGSQuAD
0
null
transformers
36,032
Entry not found
sigmoid/mt5-en-ja
4985ea8a2f0bf7e6430b63177ed7f4bbd04cb996
2021-05-11T08:15:37.000Z
[ "pytorch", "mt5", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sigmoid
null
sigmoid/mt5-en-ja
0
null
transformers
36,033
Entry not found
simonlevine/biomed_roberta_base-4096-speedfix
f631bb27824f9744a096576ba7336f27a6205a04
2021-05-20T21:27:26.000Z
[ "pytorch", "jax", "roberta", "feature-extraction", "transformers" ]
feature-extraction
false
simonlevine
null
simonlevine/biomed_roberta_base-4096-speedfix
0
null
transformers
36,034
Entry not found
simonmun/COHA1810to1850
5d62189b958cd228254377488c72d32d9d3cd42b
2021-05-20T21:30:27.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
simonmun
null
simonmun/COHA1810to1850
0
null
transformers
36,035
Entry not found
simonmun/COHA1820s
6607c4c8322deab69f0c58aedd12627d364a2eb5
2021-05-20T21:31:16.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
simonmun
null
simonmun/COHA1820s
0
null
transformers
36,036
Entry not found
simonmun/COHA1920s
445f8b63802fabedde6223568d73212e138082eb
2021-05-20T21:41:36.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
simonmun
null
simonmun/COHA1920s
0
null
transformers
36,037
Entry not found
simonsr/wav2vec2-large-xlsr-dutch
9c650d4c99350af089b86f9afbb12e5b656c5b97
2021-03-26T13:53:35.000Z
[ "pytorch", "wav2vec2", "automatic-speech-recognition", "nl", "dataset:common_voice", "transformers", "audio", "speech", "xlsr-fine-tuning-week", "license:apache-2.0", "model-index" ]
automatic-speech-recognition
false
simonsr
null
simonsr/wav2vec2-large-xlsr-dutch
0
null
transformers
36,038
--- language: nl datasets: - common_voice metrics: - wer tags: - audio - automatic-speech-recognition - speech - xlsr-fine-tuning-week license: apache-2.0 model-index: - name: simonsr wav2vec2-large-xlsr-dutch results: - task: name: Speech Recognition type: automatic-speech-recognition dataset: name: Common Voice nl type: common_voice args: nl metrics: - name: Test WER type: wer value: 38.74 --- # Wav2Vec2-Large-XLSR-53-Dutch Fine-tuned [facebook/wav2vec2-large-xlsr-53](https://huggingface.co/facebook/wav2vec2-large-xlsr-53) on Dutch using the [Common Voice](https://huggingface.co/datasets/common_voice) When using this model, make sure that your speech input is sampled at 16kHz. ## Usage The model can be used directly (without a language model) as follows: ```python import torch import torchaudio from datasets import load_dataset from transformers import Wav2Vec2ForCTC, Wav2Vec2Processor test_dataset = load_dataset("common_voice", "nl", split="test[:2%]") processor = Wav2Vec2Processor.from_pretrained("simonsr/wav2vec2-large-xlsr-dutch") model = Wav2Vec2ForCTC.from_pretrained("simonsr/wav2vec2-large-xlsr-dutch") resampler = torchaudio.transforms.Resample(48_000, 16_000) # Preprocessing the datasets. # We need to read the audio files as arrays def speech_file_to_array_fn(batch): speech_array, sampling_rate = torchaudio.load(batch["path"]) batch["speech"] = resampler(speech_array).squeeze().numpy() return batch test_dataset = test_dataset.map(speech_file_to_array_fn) inputs = processor(test_dataset["speech"][:2], sampling_rate=16_000, return_tensors="pt", padding=True) with torch.no_grad(): logits = model(inputs.input_values, attention_mask=inputs.attention_mask).logits predicted_ids = torch.argmax(logits, dim=-1) print("Prediction:", processor.batch_decode(predicted_ids)) print("Reference:", test_dataset["sentence"][:2]) ``` ## Evaluation The model can be evaluated as follows on the Dutch test data of Common Voice. ```python import torch import torchaudio from datasets import load_dataset, load_metric from transformers import Wav2Vec2ForCTC, Wav2Vec2Processor import unidecode import re test_dataset = load_dataset("common_voice", "nl", split="test") wer = load_metric("wer") processor = Wav2Vec2Processor.from_pretrained("{model_id}") #TODO: replace {model_id} with your model id. The model id consists of {your_username}/{your_modelname}, *e.g.* `elgeish/wav2vec2-large-xlsr-53-arabic` model = Wav2Vec2ForCTC.from_pretrained("{model_id}") #TODO: replace {model_id} with your model id. The model id consists of {your_username}/{your_modelname}, *e.g.* `elgeish/wav2vec2-large-xlsr-53-arabic` model.to("cuda") chars_to_ignore_regex = '[\,\?\.\!\-\;\:\"\“\%\‘\”\�\(\)\=\´\–\&\…\—\’]' resampler = torchaudio.transforms.Resample(48_000, 16_000) # Preprocessing the datasets. # We need to read the aduio files as arrays def speech_file_to_array_fn(batch): batch["sentence"] = unidecode.unidecode(batch["sentence"]) batch["sentence"] = re.sub(chars_to_ignore_regex, '', batch["sentence"]).lower() speech_array, sampling_rate = torchaudio.load(batch["path"]) batch["speech"] = resampler(speech_array).squeeze().numpy() return batch test_dataset = test_dataset.map(speech_file_to_array_fn) # Preprocessing the datasets. # We need to read the aduio files as arrays def evaluate(batch): inputs = processor(batch["speech"], sampling_rate=16_000, return_tensors="pt", padding=True) with torch.no_grad(): logits = model(inputs.input_values.to("cuda"), attention_mask=inputs.attention_mask.to("cuda")).logits pred_ids = torch.argmax(logits, dim=-1) batch["pred_strings"] = processor.batch_decode(pred_ids) return batch result = test_dataset.map(evaluate, batched=True, batch_size=8) print("WER: {:2f}".format(100 * wer.compute(predictions=result["pred_strings"], references=result["sentence"]))) ``` **Test Result**: 38.74 % ## Training The Common Voice `train`, `validation`, and ... datasets were used for training. The script used for training can be found [here](...) # TODO: fill in a link to your training script here. If you trained your model in a colab, simply fill in the link here. If you trained the model locally, it would be great if you could upload the training script on github and paste the link here.
simrana5/RickBotExample
25890573347714be5fb7d977891d0a471375184c
2021-08-09T10:57:40.000Z
[ "pytorch", "gpt2", "text-generation", "transformers", "conversational" ]
conversational
false
simrana5
null
simrana5/RickBotExample
0
null
transformers
36,039
--- tags: - conversational --- # RickBot built for [Chai](https://chai.ml/) Make your own [here](https://colab.research.google.com/drive/1LtVm-VHvDnfNy7SsbZAqhh49ikBwh1un?usp=sharing)
sin-survivor/re-errors
e8c7d828a81e220870df4a5350bfbb10a97355c1
2022-02-13T19:06:53.000Z
[ "pytorch", "mbart", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sin-survivor
null
sin-survivor/re-errors
0
null
transformers
36,040
Entry not found
sivavee-train/iac-v1
725fd7ab451194cc0205f95a95d4a50f79c2a620
2021-09-19T07:56:33.000Z
[ "pytorch", "gpt2", "text-generation", "transformers" ]
text-generation
false
sivavee-train
null
sivavee-train/iac-v1
0
null
transformers
36,041
Entry not found
sivavee-train/iac-v2
4dcd4f51c18b2b6603b3f31a619e096f97b12fcc
2021-09-20T07:04:28.000Z
[ "pytorch", "gpt_neo", "text-generation", "transformers" ]
text-generation
false
sivavee-train
null
sivavee-train/iac-v2
0
null
transformers
36,042
Entry not found
skhurana/test_model
a8c256e9609a6104713b2c3460da51d9cb28452d
2022-02-10T16:28:36.000Z
[ "pytorch", "List of ISO 639-1 code for your language", "lang1", "lang2", "dataset:dataset1", "dataset:dataset2", "PyTorch", "license:apache-2.0" ]
null
false
skhurana
null
skhurana/test_model
0
null
null
36,043
# Hugging-face testing --- language: - "List of ISO 639-1 code for your language" - lang1 - lang2 thumbnail: "url to a thumbnail used in social sharing" tags: - PyTorch license: apache-2.0 datasets: - dataset1 - dataset2 metrics: - metric1 ---
skillzzzzzy/telberto
b378a055fbbb44f624d1ac64129c52cb31000251
2021-11-14T13:15:15.000Z
[ "pytorch", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
skillzzzzzy
null
skillzzzzzy/telberto
0
null
transformers
36,044
Entry not found
skynex/DialoGPT-small-finalbatman
d7c79e6e6413aa987efa34ba23c2258fcabb7c61
2021-08-30T19:23:36.000Z
[ "pytorch", "gpt2", "text-generation", "transformers", "conversational" ]
conversational
false
skynex
null
skynex/DialoGPT-small-finalbatman
0
null
transformers
36,045
--- tags: - conversational --- #batman DialoGPT Model
slider/mirror-bert
8c1124f598fa53b2cd2e62c8d9fb611db349eb46
2021-12-10T01:48:40.000Z
[ "pytorch", "bert", "feature-extraction", "transformers" ]
feature-extraction
false
slider
null
slider/mirror-bert
0
null
transformers
36,046
Entry not found
sm6342/Health101
dca7c5567ed0ab6ded29632d552d4928905109ac
2021-05-20T21:55:29.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
sm6342
null
sm6342/Health101
0
null
transformers
36,047
Entry not found
snoop2head/kogpt-conditional-2
5a06ebaa426ef9a9425e4911b680217d51b28cfb
2021-12-25T04:42:13.000Z
[ "pytorch", "gpt2", "text-generation", "transformers" ]
text-generation
false
snoop2head
null
snoop2head/kogpt-conditional-2
0
null
transformers
36,048
# KoGPT-Conditional-2 ### Condition format ```python # create condition sentence random_main_logit = np.random.normal( loc=3.368, scale=1.015, size=1 )[0].round(1) random_sub_logit = np.random.normal( loc=1.333, scale=0.790, size=1 )[0].round(1) condition_sentence = f"{random_main_logit}만큼 행복감정인 문장이다. {random_sub_logit}만큼 놀람감정인 문장이다. " ``` ### Input Format ```python # make input sentence input_sentence = "수상한 밤들이 계속되던 날, 언젠가부터 나는" condition_plus_input = condition_sentence + input_sentence print(condition_plus_input) ``` ``` 3.9만큼 행복감정인 문장이다. 1.2만큼 놀람감정인 문장이다. 수상한 밤들이 계속되던 날, 언젠가부터 나는 ``` ### How to infer ``` inferred_sentence = infer_sentence(condition_plus_input, k=10, output_token_length=max_token_length) inferred_sentence ``` ``` ['3.9만큼 행복감정인 문장이다. 1.2만큼 놀람감정인 문장이다. 수상한 밤들이 계속되던 날, 언젠가부터 나는 서서히 제정신을 차리고 일어날 수 있었다', '3.9만큼 행복감정인 문장이다. 1.2만큼 놀람감정인 문장이다. 수상한 밤들이 계속되던 날, 언젠가부터 나는 달 보는 걸 좋아하게 되었다', '3.9만큼 행복감정인 문장이다. 1.2만큼 놀람감정인 문장이다. 수상한 밤들이 계속되던 날, 언젠가부터 나는 수상한 사람들의 입을 들여다 볼 수 있었다', '3.9만큼 행복감정인 문장이다. 1.2만큼 놀람감정인 문장이다. 수상한 밤들이 계속되던 날, 언젠가부터 나는 이상한 나라의 앨리스가 되어 있었다', '3.9만큼 행복감정인 문장이다. 1.2만큼 놀람감정인 문장이다. 수상한 밤들이 계속되던 날, 언젠가부터 나는 기이한 경험을 했다', '3.9만큼 행복감정인 문장이다. 1.2만큼 놀람감정인 문장이다. 수상한 밤들이 계속되던 날, 언젠가부터 나는 이상하게도 평화가 찾아온다는 사실을 깨달았다', '3.9만큼 행복감정인 문장이다. 1.2만큼 놀람감정인 문장이다. 수상한 밤들이 계속되던 날, 언젠가부터 나는 어둠을 뚫는 무언가가 있다는 걸 알았다', '3.9만큼 행복감정인 문장이다. 1.2만큼 놀람감정인 문장이다. 수상한 밤들이 계속되던 날, 언젠가부터 나는 달빛의 의미를 이해하기 시작했다', '3.9만큼 행복감정인 문장이다. 1.2만큼 놀람감정인 문장이다. 수상한 밤들이 계속되던 날, 언젠가부터 나는 안방에서 잘 때 내 손을 꼭 잡았다', '3.9만큼 행복감정인 문장이다. 1.2만큼 놀람감정인 문장이다. 수상한 밤들이 계속되던 날, 언젠가부터 나는 이상한 나라의 앨리스처럼 눈을 반짝이며 주위를 탐구하기 시작했다'] ```
soeque1/kosimcse
411062d82408faf6ae07a2380b08cd5ffe087b7f
2021-10-14T15:09:06.000Z
[ "pytorch", "bert", "feature-extraction", "transformers" ]
feature-extraction
false
soeque1
null
soeque1/kosimcse
0
null
transformers
36,049
Entry not found
songhee/i-manual-mbert
11b0c7d95b6128691cd5ca32d11a77ff262c3cd2
2021-11-02T15:19:11.000Z
[ "pytorch", "bert", "question-answering", "transformers", "autotrain_compatible" ]
question-answering
false
songhee
null
songhee/i-manual-mbert
0
null
transformers
36,050
Entry not found
sourabharsh/wav2vec2
bada09ca174d14be965a23c34bcec951264c679f
2021-07-21T04:47:20.000Z
[ "pytorch", "wav2vec2", "automatic-speech-recognition", "transformers" ]
automatic-speech-recognition
false
sourabharsh
null
sourabharsh/wav2vec2
0
null
transformers
36,051
Entry not found
sourabharsh/wav2vec2_10july
fb636f08ce142146bf85bac6b319d903e6bbf0f2
2021-07-10T08:25:13.000Z
[ "pytorch", "wav2vec2", "automatic-speech-recognition", "de", "dataset:common_voice", "transformers", "audio", "speech", "xlsr-fine-tuning-week", "license:apache-2.0", "model-index" ]
automatic-speech-recognition
false
sourabharsh
null
sourabharsh/wav2vec2_10july
0
null
transformers
36,052
--- language: de datasets: - common_voice metrics: - wer - cer tags: - audio - automatic-speech-recognition - speech - xlsr-fine-tuning-week license: apache-2.0 model-index: - name: XLSR Wav2Vec2 German by Jonatas Grosman results: - task: name: Speech Recognition type: automatic-speech-recognition dataset: name: Common Voice de type: common_voice args: de metrics: - name: Test WER type: wer value: 10.55 - name: Test CER type: cer value: 2.81 ---
sravn/e2e-qg-bert
d3d1dc7858249ab71184f0e1b2c0438674278930
2021-07-02T11:25:58.000Z
[ "pytorch", "encoder-decoder", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sravn
null
sravn/e2e-qg-bert
0
null
transformers
36,053
Entry not found
sripadhstudy/100_SDB_TAxxL_truncate_768
44337d70e82218e219d04cf37fb47f188ef7df7f
2021-06-05T15:36:46.000Z
[ "pytorch", "distilbert", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
sripadhstudy
null
sripadhstudy/100_SDB_TAxxL_truncate_768
0
null
transformers
36,054
Entry not found
sripadhstudy/100_SDB_TBB
fc9953109771b4f2dba9347a9752646bdae551fb
2021-06-03T13:05:44.000Z
[ "pytorch", "distilbert", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
sripadhstudy
null
sripadhstudy/100_SDB_TBB
0
null
transformers
36,055
Entry not found
sripadhstudy/500_SAB_TAxxL_truncate_12_layers
a80f4d10f7341165d39ec5a2ddd697957c1736a6
2021-06-14T15:40:49.000Z
[ "pytorch", "albert", "transformers" ]
null
false
sripadhstudy
null
sripadhstudy/500_SAB_TAxxL_truncate_12_layers
0
null
transformers
36,056
Entry not found
sripadhstudy/500_SDB_TAxxL_average_768
8268518c8fffaee32bbe84345e6acfaa4ff5d3d0
2021-06-05T11:05:26.000Z
[ "pytorch", "distilbert", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
sripadhstudy
null
sripadhstudy/500_SDB_TAxxL_average_768
0
null
transformers
36,057
Entry not found
sripadhstudy/500_SDB_TBB
0e321595cc3918f93c2187d0aa015a23d436372a
2021-06-03T21:37:32.000Z
[ "pytorch", "distilbert", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
sripadhstudy
null
sripadhstudy/500_SDB_TBB
0
null
transformers
36,058
Entry not found
sripadhstudy/50_SDB_TBB
24f893e2d12b7420d9dabef81d9c4cd60f0a5906
2021-06-03T12:22:46.000Z
[ "pytorch", "distilbert", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
sripadhstudy
null
sripadhstudy/50_SDB_TBB
0
null
transformers
36,059
Entry not found
srirachasenpai/DialoGPT-medium-harrypotter
581c86190253c91c193bb012ea6d5387b574728c
2021-10-09T06:23:58.000Z
[ "pytorch", "gpt2", "text-generation", "transformers", "conversational" ]
conversational
false
srirachasenpai
null
srirachasenpai/DialoGPT-medium-harrypotter
0
null
transformers
36,060
--- tags: - conversational --- # Harry Potter DialoGPT Model
srv/DialoGPT-medium-Breaking_Bad
0f4d1ee658a7dbc46be9064e4af9a9641d1177cc
2022-02-01T13:01:59.000Z
[ "pytorch", "gpt2", "text-generation", "transformers", "conversational" ]
conversational
false
srv
null
srv/DialoGPT-medium-Breaking_Bad
0
null
transformers
36,061
--- tags: - conversational --- # Breaking Bad DialoGPT Model
ssam/DialoGPT-small-RickmfSanchez
2a8790a867a7385b16ebf04d9a27443e457e2423
2021-08-22T18:11:38.000Z
[ "pytorch", "gpt2", "text-generation", "transformers", "conversational" ]
conversational
false
ssam
null
ssam/DialoGPT-small-RickmfSanchez
0
null
transformers
36,062
--- tags : - conversational --- #Rick Sanchez DialoGPT Model
sshasnain/wav2vec2-xls-r-300m-bangla-command-word-combination-synthetic
9db9b3a38b1cff5b11e52a4e8f8ac9b3fcc2d5c2
2022-02-11T13:25:09.000Z
[ "pytorch", "tensorboard", "wav2vec2", "automatic-speech-recognition", "transformers", "generated_from_trainer", "license:apache-2.0", "model-index" ]
automatic-speech-recognition
false
sshasnain
null
sshasnain/wav2vec2-xls-r-300m-bangla-command-word-combination-synthetic
0
null
transformers
36,063
--- license: apache-2.0 tags: - generated_from_trainer model-index: - name: wav2vec2-xls-r-300m-bangla-command-word-combination-synthetic results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # wav2vec2-xls-r-300m-bangla-command-word-combination-synthetic This model is a fine-tuned version of [facebook/wav2vec2-xls-r-300m](https://huggingface.co/facebook/wav2vec2-xls-r-300m) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.0068 - Wer: 0.4111 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 32 - eval_batch_size: 8 - seed: 42 - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08 - lr_scheduler_type: linear - lr_scheduler_warmup_steps: 1000 - num_epochs: 100 - mixed_precision_training: Native AMP ### Training results | Training Loss | Epoch | Step | Validation Loss | Wer | |:-------------:|:-----:|:----:|:---------------:|:------:| | 5.2982 | 17.86 | 500 | 2.4580 | 1.1089 | | 0.9644 | 35.71 | 1000 | 0.1250 | 0.5156 | | 0.1767 | 53.57 | 1500 | 0.0310 | 0.4267 | | 0.0912 | 71.43 | 2000 | 0.0149 | 0.4178 | | 0.0505 | 89.29 | 2500 | 0.0068 | 0.4111 | ### Framework versions - Transformers 4.16.2 - Pytorch 1.10.0+cu111 - Datasets 1.18.3 - Tokenizers 0.11.0
sshleifer/student_cnn_12_1
8e16591a3f636bceb0fbfc94d76c42095c5f7932
2021-06-14T08:29:25.000Z
[ "pytorch", "jax", "bart", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sshleifer
null
sshleifer/student_cnn_12_1
0
null
transformers
36,064
Entry not found
sshleifer/student_cnn_12_2
b64a7c3ca4338dae92baffc9b56b9cfead8af63b
2021-06-14T08:31:55.000Z
[ "pytorch", "jax", "bart", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sshleifer
null
sshleifer/student_cnn_12_2
0
null
transformers
36,065
Entry not found
sshleifer/student_cnn_12_3
ffe2a88d7f32122288b0ad4ca7d900f8f8ae7a9f
2021-06-14T08:34:05.000Z
[ "pytorch", "jax", "bart", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sshleifer
null
sshleifer/student_cnn_12_3
0
null
transformers
36,066
Entry not found
sshleifer/student_enro_avg_12_3
19beec88ca76e9c0d6d617f71d4c612d2c201b67
2020-07-18T20:16:27.000Z
[ "pytorch", "bart", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sshleifer
null
sshleifer/student_enro_avg_12_3
0
null
transformers
36,067
Entry not found
sshleifer/student_enro_sum_12_6
151f360c57773cedd2f92d12726883c6e7093829
2020-07-18T20:25:05.000Z
[ "pytorch", "bart", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sshleifer
null
sshleifer/student_enro_sum_12_6
0
null
transformers
36,068
Entry not found
sshleifer/student_marian_en_ro_6_2
7691d4cf700a5a3e1c326b0db2c7321bf4ac341d
2020-08-26T02:18:56.000Z
[ "pytorch", "marian", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sshleifer
null
sshleifer/student_marian_en_ro_6_2
0
1
transformers
36,069
Entry not found
sshleifer/student_marian_en_ro_6_3
204b91850ec0f96eab4a35d57f6e95000b4fad6f
2020-08-26T02:17:44.000Z
[ "pytorch", "marian", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sshleifer
null
sshleifer/student_marian_en_ro_6_3
0
null
transformers
36,070
Entry not found
sshleifer/student_mbart_en_ro_12_3
947b4160a7bf606c30921638ca9728fedb8bd071
2020-07-15T15:14:51.000Z
[ "pytorch", "bart", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sshleifer
null
sshleifer/student_mbart_en_ro_12_3
0
null
transformers
36,071
Entry not found
sshleifer/student_pegasus-xsum-12-4
9d2773e4f0d2745cd97fc604073bd9335b620c08
2020-09-11T04:03:12.000Z
[ "pytorch", "pegasus", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sshleifer
null
sshleifer/student_pegasus-xsum-12-4
0
null
transformers
36,072
Entry not found
sshleifer/student_xsum_12_2
63b4fef4aff97f1c7b70c43043f5db238f6faf31
2021-06-14T09:42:48.000Z
[ "pytorch", "jax", "bart", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
sshleifer
null
sshleifer/student_xsum_12_2
0
null
transformers
36,073
Entry not found
stanford-crfm/darkmatter-gpt2-small-x343
70736a88c7d9f4dda06af14d375706c0ec3d61e0
2022-06-20T09:40:32.000Z
[ "pytorch", "gpt2", "text-generation", "transformers" ]
text-generation
false
stanford-crfm
null
stanford-crfm/darkmatter-gpt2-small-x343
0
null
transformers
36,074
Entry not found
stanleychu2/t5_user_simulator
15ba77de65cbb2ad15dcc34a2c413f88b920f469
2021-09-13T09:37:03.000Z
[ "pytorch", "t5", "text2text-generation", "transformers", "autotrain_compatible" ]
text2text-generation
false
stanleychu2
null
stanleychu2/t5_user_simulator
0
null
transformers
36,075
Entry not found
stasvmk/honeymad_gpt_ru_v0_1
da3534d71a67277d9539f546d27d79925bfc2c18
2022-01-10T13:05:50.000Z
[ "pytorch", "gpt2", "text-generation", "transformers" ]
text-generation
false
stasvmk
null
stasvmk/honeymad_gpt_ru_v0_1
0
null
transformers
36,076
Entry not found
stefan-it/electra-base-gc4-64k-0-cased-discriminator
3e9408f135e7b09f5554cb4739194f784e289659
2021-04-30T22:16:19.000Z
[ "pytorch", "tf", "electra", "pretraining", "de", "dataset:german-nlp-group/german_common_crawl", "transformers", "license:mit" ]
null
false
stefan-it
null
stefan-it/electra-base-gc4-64k-0-cased-discriminator
0
null
transformers
36,077
--- language: de license: mit datasets: - german-nlp-group/german_common_crawl --- # GC4LM: A Colossal (Biased) language model for German This repository presents a colossal (and biased) language model for German trained on the recently released ["German colossal, clean Common Crawl corpus"](https://german-nlp-group.github.io/projects/gc4-corpus.html) (GC4), with a total dataset size of ~844GB. --- **Disclaimer**: the presented and trained language models in this repository are for **research only** purposes. The GC4 corpus - that was used for training - contains crawled texts from the internet. Thus, the language models can be considered as highly biased, resulting in a model that encodes stereotypical associations along gender, race, ethnicity and disability status. Before using and working with the released checkpoints, it is highly recommended to read: [On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?](https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf) from Emily M. Bender, Timnit Gebru, Angelina McMillan-Major and Shmargaret Shmitchell. The aim of the released checkpoints is to boost research on large pre-trained language models for German, especially for identifying biases and how to prevent them, as most research is currently done only for English. --- Please use the new GitHub Discussions feature in order to discuss or present further research questions. Feel free to use `#gc4lm` on Twitter 🐦.
stefan-it/electra-base-gc4-64k-200000-cased-discriminator
1eb0fca25b970d81c558e80c05afdf3754520f89
2021-04-30T22:36:06.000Z
[ "pytorch", "tf", "electra", "pretraining", "de", "dataset:german-nlp-group/german_common_crawl", "transformers", "license:mit" ]
null
false
stefan-it
null
stefan-it/electra-base-gc4-64k-200000-cased-discriminator
0
null
transformers
36,078
--- language: de license: mit datasets: - german-nlp-group/german_common_crawl --- # GC4LM: A Colossal (Biased) language model for German This repository presents a colossal (and biased) language model for German trained on the recently released ["German colossal, clean Common Crawl corpus"](https://german-nlp-group.github.io/projects/gc4-corpus.html) (GC4), with a total dataset size of ~844GB. --- **Disclaimer**: the presented and trained language models in this repository are for **research only** purposes. The GC4 corpus - that was used for training - contains crawled texts from the internet. Thus, the language models can be considered as highly biased, resulting in a model that encodes stereotypical associations along gender, race, ethnicity and disability status. Before using and working with the released checkpoints, it is highly recommended to read: [On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?](https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf) from Emily M. Bender, Timnit Gebru, Angelina McMillan-Major and Shmargaret Shmitchell. The aim of the released checkpoints is to boost research on large pre-trained language models for German, especially for identifying biases and how to prevent them, as most research is currently done only for English. --- Please use the new GitHub Discussions feature in order to discuss or present further research questions. Feel free to use `#gc4lm` on Twitter 🐦.
stefan-it/electra-base-gc4-64k-400000-cased-discriminator
bb84cbbc4e912341c856a5749b4293d3a91cff6d
2021-04-30T22:41:07.000Z
[ "pytorch", "tf", "electra", "pretraining", "de", "dataset:german-nlp-group/german_common_crawl", "transformers", "license:mit" ]
null
false
stefan-it
null
stefan-it/electra-base-gc4-64k-400000-cased-discriminator
0
null
transformers
36,079
--- language: de license: mit datasets: - german-nlp-group/german_common_crawl --- # GC4LM: A Colossal (Biased) language model for German This repository presents a colossal (and biased) language model for German trained on the recently released ["German colossal, clean Common Crawl corpus"](https://german-nlp-group.github.io/projects/gc4-corpus.html) (GC4), with a total dataset size of ~844GB. --- **Disclaimer**: the presented and trained language models in this repository are for **research only** purposes. The GC4 corpus - that was used for training - contains crawled texts from the internet. Thus, the language models can be considered as highly biased, resulting in a model that encodes stereotypical associations along gender, race, ethnicity and disability status. Before using and working with the released checkpoints, it is highly recommended to read: [On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?](https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf) from Emily M. Bender, Timnit Gebru, Angelina McMillan-Major and Shmargaret Shmitchell. The aim of the released checkpoints is to boost research on large pre-trained language models for German, especially for identifying biases and how to prevent them, as most research is currently done only for English. --- Please use the new GitHub Discussions feature in order to discuss or present further research questions. Feel free to use `#gc4lm` on Twitter 🐦.
stefan-it/electra-base-gc4-64k-500000-cased-discriminator
9904ddc55c6668423b3cbfdb84f126f444861757
2021-05-01T07:47:50.000Z
[ "pytorch", "tf", "electra", "pretraining", "de", "dataset:german-nlp-group/german_common_crawl", "transformers", "license:mit" ]
null
false
stefan-it
null
stefan-it/electra-base-gc4-64k-500000-cased-discriminator
0
null
transformers
36,080
--- language: de license: mit datasets: - german-nlp-group/german_common_crawl --- # GC4LM: A Colossal (Biased) language model for German This repository presents a colossal (and biased) language model for German trained on the recently released ["German colossal, clean Common Crawl corpus"](https://german-nlp-group.github.io/projects/gc4-corpus.html) (GC4), with a total dataset size of ~844GB. --- **Disclaimer**: the presented and trained language models in this repository are for **research only** purposes. The GC4 corpus - that was used for training - contains crawled texts from the internet. Thus, the language models can be considered as highly biased, resulting in a model that encodes stereotypical associations along gender, race, ethnicity and disability status. Before using and working with the released checkpoints, it is highly recommended to read: [On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?](https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf) from Emily M. Bender, Timnit Gebru, Angelina McMillan-Major and Shmargaret Shmitchell. The aim of the released checkpoints is to boost research on large pre-trained language models for German, especially for identifying biases and how to prevent them, as most research is currently done only for English. --- Please use the new GitHub Discussions feature in order to discuss or present further research questions. Feel free to use `#gc4lm` on Twitter 🐦.
stefan-it/electra-base-gc4-64k-500000-cased-generator
2d84481f78c9fe7b7c02120df649d0566b776220
2021-05-01T11:20:11.000Z
[ "pytorch", "tf", "electra", "fill-mask", "de", "dataset:german-nlp-group/german_common_crawl", "transformers", "license:mit", "autotrain_compatible" ]
fill-mask
false
stefan-it
null
stefan-it/electra-base-gc4-64k-500000-cased-generator
0
null
transformers
36,081
--- language: de license: mit datasets: - german-nlp-group/german_common_crawl widget: - text: "Heute ist ein [MASK] Tag" --- # GC4LM: A Colossal (Biased) language model for German This repository presents a colossal (and biased) language model for German trained on the recently released ["German colossal, clean Common Crawl corpus"](https://german-nlp-group.github.io/projects/gc4-corpus.html) (GC4), with a total dataset size of ~844GB. --- **Disclaimer**: the presented and trained language models in this repository are for **research only** purposes. The GC4 corpus - that was used for training - contains crawled texts from the internet. Thus, the language models can be considered as highly biased, resulting in a model that encodes stereotypical associations along gender, race, ethnicity and disability status. Before using and working with the released checkpoints, it is highly recommended to read: [On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?](https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf) from Emily M. Bender, Timnit Gebru, Angelina McMillan-Major and Shmargaret Shmitchell. The aim of the released checkpoints is to boost research on large pre-trained language models for German, especially for identifying biases and how to prevent them, as most research is currently done only for English. --- Please use the new GitHub Discussions feature in order to discuss or present further research questions. Feel free to use `#gc4lm` on Twitter 🐦.
stefan-it/electra-base-gc4-64k-600000-cased-discriminator
e85fe42ea6308054ddbb35ef07e5d598019e7cbf
2021-05-01T07:52:54.000Z
[ "pytorch", "tf", "electra", "pretraining", "de", "dataset:german-nlp-group/german_common_crawl", "transformers", "license:mit" ]
null
false
stefan-it
null
stefan-it/electra-base-gc4-64k-600000-cased-discriminator
0
null
transformers
36,082
--- language: de license: mit datasets: - german-nlp-group/german_common_crawl --- # GC4LM: A Colossal (Biased) language model for German This repository presents a colossal (and biased) language model for German trained on the recently released ["German colossal, clean Common Crawl corpus"](https://german-nlp-group.github.io/projects/gc4-corpus.html) (GC4), with a total dataset size of ~844GB. --- **Disclaimer**: the presented and trained language models in this repository are for **research only** purposes. The GC4 corpus - that was used for training - contains crawled texts from the internet. Thus, the language models can be considered as highly biased, resulting in a model that encodes stereotypical associations along gender, race, ethnicity and disability status. Before using and working with the released checkpoints, it is highly recommended to read: [On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?](https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf) from Emily M. Bender, Timnit Gebru, Angelina McMillan-Major and Shmargaret Shmitchell. The aim of the released checkpoints is to boost research on large pre-trained language models for German, especially for identifying biases and how to prevent them, as most research is currently done only for English. --- Please use the new GitHub Discussions feature in order to discuss or present further research questions. Feel free to use `#gc4lm` on Twitter 🐦.
stefan-it/electra-base-gc4-64k-700000-cased-discriminator
726e453c8dc24793f326d53430f017001637d312
2021-05-01T09:41:36.000Z
[ "pytorch", "tf", "electra", "pretraining", "de", "dataset:german-nlp-group/german_common_crawl", "transformers", "license:mit" ]
null
false
stefan-it
null
stefan-it/electra-base-gc4-64k-700000-cased-discriminator
0
null
transformers
36,083
--- language: de license: mit datasets: - german-nlp-group/german_common_crawl --- # GC4LM: A Colossal (Biased) language model for German This repository presents a colossal (and biased) language model for German trained on the recently released ["German colossal, clean Common Crawl corpus"](https://german-nlp-group.github.io/projects/gc4-corpus.html) (GC4), with a total dataset size of ~844GB. --- **Disclaimer**: the presented and trained language models in this repository are for **research only** purposes. The GC4 corpus - that was used for training - contains crawled texts from the internet. Thus, the language models can be considered as highly biased, resulting in a model that encodes stereotypical associations along gender, race, ethnicity and disability status. Before using and working with the released checkpoints, it is highly recommended to read: [On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?](https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf) from Emily M. Bender, Timnit Gebru, Angelina McMillan-Major and Shmargaret Shmitchell. The aim of the released checkpoints is to boost research on large pre-trained language models for German, especially for identifying biases and how to prevent them, as most research is currently done only for English. --- Please use the new GitHub Discussions feature in order to discuss or present further research questions. Feel free to use `#gc4lm` on Twitter 🐦.
stefan-it/electra-base-gc4-64k-700000-cased-generator
3b67c236e99ecb328d6290be80ff0dc3ecf92fc2
2021-05-01T11:21:51.000Z
[ "pytorch", "tf", "electra", "fill-mask", "de", "dataset:german-nlp-group/german_common_crawl", "transformers", "license:mit", "autotrain_compatible" ]
fill-mask
false
stefan-it
null
stefan-it/electra-base-gc4-64k-700000-cased-generator
0
null
transformers
36,084
--- language: de license: mit datasets: - german-nlp-group/german_common_crawl widget: - text: "Heute ist ein [MASK] Tag" --- # GC4LM: A Colossal (Biased) language model for German This repository presents a colossal (and biased) language model for German trained on the recently released ["German colossal, clean Common Crawl corpus"](https://german-nlp-group.github.io/projects/gc4-corpus.html) (GC4), with a total dataset size of ~844GB. --- **Disclaimer**: the presented and trained language models in this repository are for **research only** purposes. The GC4 corpus - that was used for training - contains crawled texts from the internet. Thus, the language models can be considered as highly biased, resulting in a model that encodes stereotypical associations along gender, race, ethnicity and disability status. Before using and working with the released checkpoints, it is highly recommended to read: [On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?](https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf) from Emily M. Bender, Timnit Gebru, Angelina McMillan-Major and Shmargaret Shmitchell. The aim of the released checkpoints is to boost research on large pre-trained language models for German, especially for identifying biases and how to prevent them, as most research is currently done only for English. --- Please use the new GitHub Discussions feature in order to discuss or present further research questions. Feel free to use `#gc4lm` on Twitter 🐦.
stefan-it/electra-base-gc4-64k-800000-cased-discriminator
7f7d712194b55df6949ce3a57ef0bd82de7e6420
2021-05-01T09:46:59.000Z
[ "pytorch", "tf", "electra", "pretraining", "de", "dataset:german-nlp-group/german_common_crawl", "transformers", "license:mit" ]
null
false
stefan-it
null
stefan-it/electra-base-gc4-64k-800000-cased-discriminator
0
null
transformers
36,085
--- language: de license: mit datasets: - german-nlp-group/german_common_crawl --- # GC4LM: A Colossal (Biased) language model for German This repository presents a colossal (and biased) language model for German trained on the recently released ["German colossal, clean Common Crawl corpus"](https://german-nlp-group.github.io/projects/gc4-corpus.html) (GC4), with a total dataset size of ~844GB. --- **Disclaimer**: the presented and trained language models in this repository are for **research only** purposes. The GC4 corpus - that was used for training - contains crawled texts from the internet. Thus, the language models can be considered as highly biased, resulting in a model that encodes stereotypical associations along gender, race, ethnicity and disability status. Before using and working with the released checkpoints, it is highly recommended to read: [On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?](https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf) from Emily M. Bender, Timnit Gebru, Angelina McMillan-Major and Shmargaret Shmitchell. The aim of the released checkpoints is to boost research on large pre-trained language models for German, especially for identifying biases and how to prevent them, as most research is currently done only for English. --- Please use the new GitHub Discussions feature in order to discuss or present further research questions. Feel free to use `#gc4lm` on Twitter 🐦.
stevenshoemaker/horrors
a285c088852c3570c1df461f4655daa7891a983c
2021-05-23T12:57:05.000Z
[ "pytorch", "jax", "gpt2", "text-generation", "transformers" ]
text-generation
false
stevenshoemaker
null
stevenshoemaker/horrors
0
null
transformers
36,086
Entry not found
stevenshoemaker/pitchfork
11269816cc938d5cfd738ea555c80e8623f8c22b
2021-05-23T12:58:02.000Z
[ "pytorch", "jax", "gpt2", "text-generation", "transformers" ]
text-generation
false
stevenshoemaker
null
stevenshoemaker/pitchfork
0
null
transformers
36,087
Entry not found
stfuowned/rick-small
b642eba85f276e374736fbb23d5a48189b1f511a
2021-06-08T06:09:39.000Z
[ "pytorch", "gpt2", "text-generation", "transformers" ]
text-generation
false
stfuowned
null
stfuowned/rick-small
0
null
transformers
36,088
Entry not found
stfuowned/rick
21af8542f99ddb25cdebe41e71e085ef9d05da8c
2021-06-08T05:50:30.000Z
[ "pytorch", "gpt2", "text-generation", "transformers", "conversational" ]
conversational
false
stfuowned
null
stfuowned/rick
0
null
transformers
36,089
--- tags: - conversational --- # My Awesome Model
sthom/DialoGPT-small-tin
154c88d95d10b029650ba14823dc86cb0271c76b
2021-12-05T07:21:54.000Z
[ "pytorch", "gpt2", "text-generation", "transformers", "conversational" ]
conversational
false
sthom
null
sthom/DialoGPT-small-tin
0
null
transformers
36,090
--- tags: - conversational --- # tin bot
stolenpyjak/testing_model
61322099e0e01cba0ec635ecf046af937704b127
2021-05-20T21:56:30.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
stolenpyjak
null
stolenpyjak/testing_model
0
null
transformers
36,091
Entry not found
stonkgs/stonkgs-300k
b04454eb1909f998c5226a7c48e746457e363a3d
2021-07-26T12:17:38.000Z
[ "pytorch", "bert", "transformers" ]
null
false
stonkgs
null
stonkgs/stonkgs-300k
0
null
transformers
36,092
Entry not found
subbareddyiiit/BERT-NLP
84a467e784ea2ec1028171f163fc9327b0a77651
2021-05-20T07:15:46.000Z
[ "pytorch", "jax", "bert", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
subbareddyiiit
null
subbareddyiiit/BERT-NLP
0
null
transformers
36,093
hello
subbareddyiiit/GPT2NLP
14b57df6157367e172270f24dfea67dbb13b21db
2021-05-23T13:00:32.000Z
[ "pytorch", "jax", "gpt2", "text-generation", "transformers" ]
text-generation
false
subbareddyiiit
null
subbareddyiiit/GPT2NLP
0
null
transformers
36,094
hello
subbareddyiiit/TeAlbert
80c9da543be945f7b3c9331b2542276c72e39fae
2020-06-19T22:39:46.000Z
[ "pytorch", "transformers" ]
null
false
subbareddyiiit
null
subbareddyiiit/TeAlbert
0
null
transformers
36,095
Entry not found
subbareddyiiit/gpt2_csl_gold8k
3c0092acdf22cf3fb7b6c6c35c79ac41ae78a183
2021-05-23T13:01:39.000Z
[ "pytorch", "jax", "gpt2", "text-generation", "transformers" ]
text-generation
false
subbareddyiiit
null
subbareddyiiit/gpt2_csl_gold8k
0
null
transformers
36,096
hello
subbareddyiiit/inria_roberta
2a671dc9c316b02bb12e999c563274e7c1cc1800
2021-05-20T22:00:14.000Z
[ "pytorch", "jax", "roberta", "fill-mask", "transformers", "autotrain_compatible" ]
fill-mask
false
subbareddyiiit
null
subbareddyiiit/inria_roberta
0
null
transformers
36,097
hello
suhruth/test_model_2
1ca7ca78bb8b8dcd09b4508235c6662aa892d33a
2021-12-15T04:10:23.000Z
[ "pytorch" ]
null
false
suhruth
null
suhruth/test_model_2
0
null
null
36,098
Entry not found
sultan/ArabicTransformer-intermediate-encoder
dea46eaa819be6a17f6330b8562633ab59b5a2d4
2021-10-08T06:30:32.000Z
[ "pytorch", "funnel", "feature-extraction", "transformers" ]
feature-extraction
false
sultan
null
sultan/ArabicTransformer-intermediate-encoder
0
null
transformers
36,099
Entry not found