事前学習済みのTransformerを微調整して歌詞を生成 |
GPT-2モデルを微調整してお気に入りのアーティストのスタイルで歌詞を生成する方法 |
Aleksey Korshuk |
 |
Tensorflow 2でT5をトレーニング |
Tensorflow 2を使用して任意のタスクに対してT5をトレーニングする方法。このノートブックはTensorflow 2を使用してSQUADで実装された質問と回答タスクを示しています。 |
Muhammad Harris |
 |
TPUでT5をトレーニング |
TransformersとNlpを使用してSQUADでT5をトレーニングする方法 |
Suraj Patil |
 |
分類と多肢選択のためにT5を微調整 |
PyTorch Lightningを使用してテキスト対テキスト形式でT5を分類と多肢選択タスクに微調整する方法 |
Suraj Patil |
 |
新しいデータセットと言語でDialoGPTを微調整 |
DialoGPTモデルを新しいデータセットでオープンダイアログ会話用の微調整する方法 |
Nathan Cooper |
 |
Reformerを使用した長いシーケンスモデリング |
Reformerを使用して500,000トークンまでのシーケンスをトレーニングする方法 |
Patrick von Platen |
 |
要約のためにBARTを微調整 |
Blurrを使用して要約のためにBARTを微調整する方法 |
Wayde Gilliam |
 |
事前学習済みのTransformerを微調整して誰かのツイートを生成 |
GPT-2モデルを微調整してお気に入りのTwitterアカウントのスタイルでツイートを生成する方法 |
Boris Dayma |
 |
🤗 Hugging FaceモデルをWeights & Biasesで最適化 |
Hugging FaceとWeights & Biasesの統合を示す完全なチュートリアル |
Boris Dayma |
 |
Longformerの事前学習 |
既存の事前学習済みモデルの「長い」バージョンを構築する方法 |
Iz Beltagy |
 |
QAタスクのためにLongformerを微調整 |
QAタスクのためにLongformerモデルを微調整する方法 |
Suraj Patil |
 |
🤗nlpを使用したモデルの評価 |
nlp を使用してTriviaQAでLongformerを評価する方法 |
Patrick von Platen |
 |
感情スパン抽出のためにT5を微調整 |
PyTorch Lightningを使用して感情スパン抽出のためにT5を微調整する方法 |
Lorenzo Ampil |
 |
DistilBertをマルチクラス分類にファインチューニング |
PyTorchを使用してDistilBertをマルチクラス分類にファインチューニングする方法 |
Abhishek Kumar Mishra |
 |
BERTをマルチラベル分類にファインチューニング |
PyTorchを使用してBERTをマルチラベル分類にファインチューニングする方法 |
Abhishek Kumar Mishra |
 |
T5を要約にファインチューニング |
PyTorchを使用してT5を要約にファインチューニングし、WandBで実験をトラッキングする方法 |
Abhishek Kumar Mishra |
 |
ダイナミックパディング/バケッティングを使用してTransformersのファインチューニングを高速化 |
ダイナミックパディング/バケッティングを使用してファインチューニングを2倍高速化する方法 |
Michael Benesty |
 |
マスク言語モデリングのためのReformerの事前学習 |
双方向セルフアテンションレイヤーを備えたReformerモデルのトレーニング方法 |
Patrick von Platen |
 |
Sci-BERTを拡張してファインチューニング |
AllenAIのCORDデータセットで事前学習済みのSciBERTモデルの語彙を拡張し、パイプライン化する方法 |
Tanmay Thakur |
 |
Trainer APIを使用してBlenderBotSmallを要約のためにファインチューニング |
カスタムデータセットでBlenderBotSmallを要約のためにファインチューニングする方法、Trainer APIを使用 |
Tanmay Thakur |
 |
ElectraをファインチューニングしてCaptum Integrated Gradientsで解釈 |
Electraを感情分析のためにファインチューニングし、Captum Integrated Gradientsで予測を解釈する方法 |
Eliza Szczechla |
 |
Trainerクラスを使用して非英語のGPT-2モデルをファインチューニング |
Trainerクラスを使用して非英語のGPT-2モデルをファインチューニングする方法 |
Philipp Schmid |
 |
DistilBERTモデルをマルチラベル分類タスクのためにファインチューニング |
DistilBERTモデルをマルチラベル分類タスクのためにファインチューニングする方法 |
Dhaval Taunk |
 |
ALBERTを文ペア分類タスクのためにファインチューニング |
ALBERTモデルまたは他のBERTベースのモデルを文ペア分類タスクのためにファインチューニングする方法 |
Nadir El Manouzi |
 |
RoBERTaを感情分析のためにファインチューニング |
RoBERTaモデルを感情分析のためにファインチューニングする方法 |
Dhaval Taunk |
 |
質問生成モデルの評価 |
seq2seqトランスフォーマーモデルによって生成された質問の回答の正確さを評価する方法 |
Pascal Zoleko |
 |
DistilBERTとTensorflowを使用してテキストを分類 |
TensorFlowでテキスト分類のためにDistilBERTをファインチューニングする方法 |
Peter Bayerle |
 |
CNN/Dailymailでのエンコーダーデコーダー要約にBERTを活用 |
google-bert/bert-base-uncased チェックポイントを使用してCNN/Dailymailの要約のために EncoderDecoderModel をウォームスタートする方法 |
Patrick von Platen |
 |
BBC XSumでのエンコーダーデコーダー要約にRoBERTaを活用 |
FacebookAI/roberta-base チェックポイントを使用してBBC/XSumの要約のための共有 EncoderDecoderModel をウォームスタートする方法 |
Patrick von Platen |
 |
TAPASをシーケンシャル質問応答(SQA)でファインチューニング |
シーケンシャル質問応答(SQA)データセットで tapas-base チェックポイントを使用して TapasForQuestionAnswering をファインチューニングする方法 |
Niels Rogge |
 |
TabFactでTAPASを評価 |
tapas-base-finetuned-tabfact チェックポイントを使用してファインチューニングされた TapasForSequenceClassification を評価する方法、🤗 datasets と 🤗 transformers ライブラリを組み合わせて使用 |
Niels Rogge |
 |
翻訳のためのmBARTをファインチューニング |
Seq2SeqTrainerを使用してHindiからEnglishへの翻訳のためにmBARTをファインチューニングする方法 |
Vasudev Gupta |
 |
FUNSD(フォーム理解データセット)でLayoutLMをファインチューニング |
スキャンされたドキュメントからの情報抽出のためにFUNSDデータセットで LayoutLMForTokenClassification をファインチューニングする方法 |
Niels Rogge |
 |
DistilGPT2のファインチューニングとテキスト生成 |
DistilGPT2のファインチューニングとテキスト生成方法 |
Aakash Tripathi |
 |
最大8KトークンでのLEDのファインチューニング |
ロングレンジ要約のためのpubmedでLEDをファインチューニングする方法 |
Patrick von Platen |
 |
ArxivでのLEDの評価 |
ロングレンジ要約のためのLEDの効果的な評価方法 |
Patrick von Platen |
 |
RVL-CDIP(文書画像分類データセット)でのLayoutLMのファインチューニング |
スキャンされた文書の分類のためのRVL-CDIPデータセットでLayoutLMForSequenceClassificationをファインチューニングする方法 |
Niels Rogge |
 |
Wav2Vec2 CTCデコーディングとGPT2の調整 |
言語モデルの調整を伴うCTCシーケンスのデコーディング方法 |
Eric Lam |
 |
Trainerクラスを使用した2言語の要約用にBARTをファインチューニング |
トレーナークラスを使用して2つの言語での要約用にBARTをファインチューニングする方法 |
Eliza Szczechla |
 |
PubMedデータセットでBigBirdの評価 |
Trivia QAの長いドキュメント質問応答でBigBirdの評価方法 |
Patrick von Platen |
 |
Wav2Vec2を使用してビデオの字幕を作成する |
Wav2Vecでオーディオを転記して任意のビデオからYouTubeの字幕を作成する方法 |
Niklas Muennighoff |
 |
PyTorch Lightningを使用したCIFAR-10でのVision Transformerのファインチューニング |
HuggingFace Transformers、Datasets、およびPyTorch Lightningを使用してCIFAR-10でVision Transformer(ViT)をファインチューニングする方法 |
Niels Rogge |
 |
🤗 Trainerを使用したCIFAR-10でのVision Transformerのファインチューニング |
HuggingFace Transformers、Datasets、および🤗 Trainerを使用してCIFAR-10でVision Transformer(ViT)をファインチューニングする方法 |
Niels Rogge |
 |
Open Entity、エンティティタイピングデータセットでLUKEの評価 |
Open EntityデータセットでLukeForEntityClassificationの評価方法 |
Ikuya Yamada |
 |
TACRED、関係抽出データセットでLUKEの評価 |
TACREDデータセットでLukeForEntityPairClassificationの評価方法 |
Ikuya Yamada |
 |
CoNLL-2003、重要なNERベンチマークでLUKEの評価 |
CoNLL-2003データセットでLukeForEntitySpanClassificationの評価方法 |
Ikuya Yamada |
 |
PubMedデータセットでBigBird-Pegasusの評価 |
PubMedデータセットでBigBirdPegasusForConditionalGenerationの評価方法 |
Vasudev Gupta |
 |
Wav2Vec2を使用したスピーチエモーション分類 |
MEGAデータセットでの感情分類のための事前学習済みWav2Vec2モデルの利用方法 |
Mehrdad Farahani |
 |
DETRを使用して画像内のオブジェクトを検出する |
トレーニング済みDetrForObjectDetectionモデルを使用して画像内のオブジェクトを検出し、注意を可視化する方法 |
Niels Rogge |
 |
カスタムオブジェクト検出データセットでDETRをファインチューニングする |
カスタムオブジェクト検出データセットでDetrForObjectDetectionをファインチューニングする方法 |
Niels Rogge |
 |
Named Entity RecognitionのためにT5をファインチューニング |
Named Entity RecognitionタスクでT5をファインチューニングする方法 |
Ogundepo Odunayo |
 |