| 微调预训练的Transformer以生成歌词 | 如何通过微调GPT-2模型生成你最喜欢的艺术家风格的歌词 | Aleksey Korshuk |  |
| Train T5 in Tensorflow 2 | 如何使用Tensorflow 2训练T5进行任何任务。此笔记本展示了使用SQUAD在Tensorflow 2中实现的问答任务 | Muhammad Harris |  |
| 在TPU上训练T5 | 如何使用Transformers和Nlp在SQUAD上训练T5 | Suraj Patil |  |
| Fine-tune T5 for Classification and Multiple Choice | 如何使用PyTorch Lightning以文本到文本格式微调T5进行分类和多项选择任务 | Suraj Patil |  |
| Fine-tune DialoGPT on New Datasets and Languages | 如何在新数据集上微调DialoGPT模型以用于开放对话聊天机器人 | Nathan Cooper |  |
| Long Sequence Modeling with Reformer | 如何使用Reformer训练长达500,000个标记的序列 | Patrick von Platen |  |
| Fine-tune BART for Summarization | 如何使用blurr和fastai微调BART进行摘要生成 | Wayde Gilliam |  |
| 微调预训练的Transformer以生成任何人的推文 | 如何通过微调GPT-2模型生成你最喜欢的Twitter账户风格的推文 | Boris Dayma |  |
| 使用Weights & Biases优化🤗 Hugging Face模型 | 展示W&B与Hugging Face集成的完整教程 | Boris Dayma |  |
| Pretrain Longformer | 如何构建现有预训练模型的“长”版本 | Iz Beltagy |  |
| Fine-tune Longformer for QA | 如何微调长格式模型用于问答任务 | Suraj Patil |  |
| 使用🤗nlp评估模型 | 如何在TriviaQA上使用nlp评估longformer | Patrick von Platen |  |
| Fine-tune T5 for Sentiment Span Extraction | 如何使用PyTorch Lightning以文本到文本格式微调T5进行情感跨度提取 | Lorenzo Ampil |  |
| 微调DistilBert进行多类分类 | 如何使用PyTorch微调DistilBert进行多类分类 | Abhishek Kumar Mishra |  |
| Fine-tune BERT for Multi-label Classification | 如何使用PyTorch微调BERT进行多标签分类 | Abhishek Kumar Mishra |  |
| Fine-tune T5 for Summarization | 如何在PyTorch中微调T5进行摘要生成并使用WandB跟踪实验 | Abhishek Kumar Mishra |  |
| Speed up Fine-Tuning in Transformers with Dynamic Padding / Bucketing | 如何使用动态填充/分桶将微调速度提高2倍 | Michael Benesty |  |
| Pretrain Reformer for Masked Language Modeling | 如何使用双向自注意力层训练Reformer模型 | Patrick von Platen |  |
| Expand and Fine Tune Sci-BERT | 如何在CORD数据集上增加AllenAI预训练的SciBERT模型的词汇量并进行管道处理。 | Tanmay Thakur |  |
| Fine Tune BlenderBotSmall for Summarization using the Trainer API | 如何使用Trainer API在自定义数据集上微调BlenderBotSmall进行摘要生成。 | Tanmay Thakur |  |
| 微调Electra并使用集成梯度进行解释 | 如何微调Electra进行情感分析并使用Captum集成梯度解释预测 | Eliza Szczechla |  |
| 使用Trainer类微调非英语GPT-2模型 | 如何使用Trainer类微调非英语GPT-2模型 | Philipp Schmid |  |
| 微调DistilBERT模型用于多标签分类任务 | 如何微调DistilBERT模型用于多标签分类任务 | Dhaval Taunk |  |
| 微调ALBERT用于句子对分类 | 如何微调ALBERT模型或其他基于BERT的模型用于句子对分类任务 | Nadir El Manouzi |  |
| Fine-tune Roberta for sentiment analysis | 如何微调Roberta模型进行情感分析 | Dhaval Taunk |  |
| Evaluating Question Generation Models | 你的seq2seq transformer模型生成的问题的答案有多准确? | Pascal Zoleko |  |
| Classify text with DistilBERT and Tensorflow | 如何在TensorFlow中微调DistilBERT进行文本分类 | Peter Bayerle |  |
| Leverage BERT for Encoder-Decoder Summarization on CNN/Dailymail | 如何在CNN/Dailymail上使用google-bert/bert-base-uncased检查点来预热EncoderDecoderModel以进行摘要生成 | Patrick von Platen |  |
| Leverage RoBERTa for Encoder-Decoder Summarization on BBC XSum | 如何在BBC/XSum上使用FacebookAI/roberta-base检查点来预热共享的EncoderDecoderModel进行摘要生成 | Patrick von Platen |  |
| 在顺序问答(SQA)上微调TAPAS | 如何在顺序问答(SQA)数据集上使用tapas-base检查点微调TapasForQuestionAnswering | Niels Rogge |  |
| Evaluate TAPAS on Table Fact Checking (TabFact) | 如何使用🤗数据集和🤗 transformers库的组合来评估一个微调的TapasForSequenceClassification模型,该模型使用了tapas-base-finetuned-tabfact检查点 | Niels Rogge |  |
| Fine-tuning mBART for translation | 如何使用Seq2SeqTrainer微调mBART进行印地语到英语的翻译 | Vasudev Gupta |  |
| 在FUNSD(一个表单理解数据集)上微调LayoutLM | 如何在FUNSD数据集上微调LayoutLMForTokenClassification以从扫描文档中提取信息 | Niels Rogge |  |
| 微调DistilGPT2并生成文本 | 如何微调DistilGPT2并生成文本 | Aakash Tripathi |  |
| Fine-Tune LED on up to 8K tokens | 如何在pubmed上微调LED以进行长距离摘要 | Patrick von Platen |  |
| Evaluate LED on Arxiv | 如何有效地评估LED在长距离摘要中的表现 | Patrick von Platen |  |
| 在RVL-CDIP上微调LayoutLM(一个文档图像分类数据集) | 如何在RVL-CDIP数据集上微调LayoutLMForSequenceClassification以进行扫描文档分类 | Niels Rogge |  |
| Wav2Vec2 CTC decoding with GPT2 adjustment | 如何使用语言模型调整解码CTC序列 | Eric Lam |  |
| 使用Trainer类微调BART进行两种语言的摘要生成 | 如何使用Trainer类微调BART进行两种语言的摘要生成 | Eliza Szczechla |  |
| Evaluate Big Bird on Trivia QA | 如何在Trivia QA上评估BigBird的长文档问答 | Patrick von Platen |  |
| 使用Wav2Vec2创建视频字幕 | 如何通过使用Wav2Vec转录音频从任何视频创建YouTube字幕 | Niklas Muennighoff |  |
| 使用PyTorch Lightning在CIFAR-10上微调Vision Transformer | 如何使用HuggingFace Transformers、Datasets和PyTorch Lightning在CIFAR-10上微调Vision Transformer (ViT) | Niels Rogge |  |
| 使用🤗 Trainer在CIFAR-10上微调Vision Transformer | 如何使用HuggingFace Transformers、Datasets和🤗 Trainer在CIFAR-10上微调Vision Transformer (ViT) | Niels Rogge |  |
| 在Open Entity数据集上评估LUKE | 如何在Open Entity数据集上评估LukeForEntityClassification | Ikuya Yamada |  |
| 在TACRED上评估LUKE,一个关系抽取数据集 | 如何在TACRED数据集上评估LukeForEntityPairClassification | Ikuya Yamada |  |
| 在CoNLL-2003上评估LUKE,这是一个重要的NER基准 | 如何在CoNLL-2003数据集上评估LukeForEntitySpanClassification | Ikuya Yamada |  |
| 在PubMed数据集上评估BigBird-Pegasus | 如何在PubMed数据集上评估BigBirdPegasusForConditionalGeneration | Vasudev Gupta |  |
| Speech Emotion Classification with Wav2Vec2 | 如何利用预训练的Wav2Vec2模型在MEGA数据集上进行情感分类 | Mehrdad Farahani |  |
| 使用DETR检测图像中的对象 | 如何使用训练好的DetrForObjectDetection模型检测图像中的对象并可视化注意力 | Niels Rogge |  |
| Fine-tune DETR on a custom object detection dataset | 如何在自定义目标检测数据集上微调DetrForObjectDetection | Niels Rogge |  |
| Finetune T5 for Named Entity Recognition | 如何在命名实体识别任务上微调T5 | Ogundepo Odunayo |  |
| 使用QLoRA和MLflow与PEFT微调开源LLM | 如何使用QLoRA和PEFT以内存高效的方式微调LLM,同时使用MLflow管理实验跟踪 | Yuki Watanabe |  |