Transformers 文档

社区

社区

本页面汇集了社区开发的🤗 Transformers相关资源。

社区资源:

资源 描述 作者
Hugging Face Transformers Glossary Flashcards 一套基于Transformers Docs Glossary的闪卡,已被制作成一种形式,可以使用Anki轻松学习/复习,Anki是一个专门设计用于长期知识保留的开源跨平台应用程序。请参阅此介绍视频,了解如何使用闪卡 Darigov Research

社区笔记本:

笔记本 描述 作者
微调预训练的Transformer以生成歌词 如何通过微调GPT-2模型生成你最喜欢的艺术家风格的歌词 Aleksey Korshuk Open In Colab
Train T5 in Tensorflow 2 如何使用Tensorflow 2训练T5进行任何任务。此笔记本展示了使用SQUAD在Tensorflow 2中实现的问答任务 Muhammad Harris Open In Colab
在TPU上训练T5 如何使用Transformers和Nlp在SQUAD上训练T5 Suraj Patil Open In Colab
Fine-tune T5 for Classification and Multiple Choice 如何使用PyTorch Lightning以文本到文本格式微调T5进行分类和多项选择任务 Suraj Patil Open In Colab
Fine-tune DialoGPT on New Datasets and Languages 如何在新数据集上微调DialoGPT模型以用于开放对话聊天机器人 Nathan Cooper Open In Colab
Long Sequence Modeling with Reformer 如何使用Reformer训练长达500,000个标记的序列 Patrick von Platen Open In Colab
Fine-tune BART for Summarization 如何使用blurr和fastai微调BART进行摘要生成 Wayde Gilliam Open In Colab
微调预训练的Transformer以生成任何人的推文 如何通过微调GPT-2模型生成你最喜欢的Twitter账户风格的推文 Boris Dayma Open In Colab
使用Weights & Biases优化🤗 Hugging Face模型 展示W&B与Hugging Face集成的完整教程 Boris Dayma Open In Colab
Pretrain Longformer 如何构建现有预训练模型的“长”版本 Iz Beltagy Open In Colab
Fine-tune Longformer for QA 如何微调长格式模型用于问答任务 Suraj Patil Open In Colab
使用🤗nlp评估模型 如何在TriviaQA上使用nlp评估longformer Patrick von Platen Open In Colab
Fine-tune T5 for Sentiment Span Extraction 如何使用PyTorch Lightning以文本到文本格式微调T5进行情感跨度提取 Lorenzo Ampil Open In Colab
微调DistilBert进行多类分类 如何使用PyTorch微调DistilBert进行多类分类 Abhishek Kumar Mishra Open In Colab
Fine-tune BERT for Multi-label Classification 如何使用PyTorch微调BERT进行多标签分类 Abhishek Kumar Mishra Open In Colab
Fine-tune T5 for Summarization 如何在PyTorch中微调T5进行摘要生成并使用WandB跟踪实验 Abhishek Kumar Mishra Open In Colab
Speed up Fine-Tuning in Transformers with Dynamic Padding / Bucketing 如何使用动态填充/分桶将微调速度提高2倍 Michael Benesty Open In Colab
Pretrain Reformer for Masked Language Modeling 如何使用双向自注意力层训练Reformer模型 Patrick von Platen Open In Colab
Expand and Fine Tune Sci-BERT 如何在CORD数据集上增加AllenAI预训练的SciBERT模型的词汇量并进行管道处理。 Tanmay Thakur Open In Colab
Fine Tune BlenderBotSmall for Summarization using the Trainer API 如何使用Trainer API在自定义数据集上微调BlenderBotSmall进行摘要生成。 Tanmay Thakur Open In Colab
微调Electra并使用集成梯度进行解释 如何微调Electra进行情感分析并使用Captum集成梯度解释预测 Eliza Szczechla Open In Colab
使用Trainer类微调非英语GPT-2模型 如何使用Trainer类微调非英语GPT-2模型 Philipp Schmid Open In Colab
微调DistilBERT模型用于多标签分类任务 如何微调DistilBERT模型用于多标签分类任务 Dhaval Taunk Open In Colab
微调ALBERT用于句子对分类 如何微调ALBERT模型或其他基于BERT的模型用于句子对分类任务 Nadir El Manouzi Open In Colab
Fine-tune Roberta for sentiment analysis 如何微调Roberta模型进行情感分析 Dhaval Taunk Open In Colab
Evaluating Question Generation Models 你的seq2seq transformer模型生成的问题的答案有多准确? Pascal Zoleko Open In Colab
Classify text with DistilBERT and Tensorflow 如何在TensorFlow中微调DistilBERT进行文本分类 Peter Bayerle Open In Colab
Leverage BERT for Encoder-Decoder Summarization on CNN/Dailymail 如何在CNN/Dailymail上使用google-bert/bert-base-uncased检查点来预热EncoderDecoderModel以进行摘要生成 Patrick von Platen Open In Colab
Leverage RoBERTa for Encoder-Decoder Summarization on BBC XSum 如何在BBC/XSum上使用FacebookAI/roberta-base检查点来预热共享的EncoderDecoderModel进行摘要生成 Patrick von Platen Open In Colab
在顺序问答(SQA)上微调TAPAS 如何在顺序问答(SQA)数据集上使用tapas-base检查点微调TapasForQuestionAnswering Niels Rogge Open In Colab
Evaluate TAPAS on Table Fact Checking (TabFact) 如何使用🤗数据集和🤗 transformers库的组合来评估一个微调的TapasForSequenceClassification模型,该模型使用了tapas-base-finetuned-tabfact检查点 Niels Rogge Open In Colab
Fine-tuning mBART for translation 如何使用Seq2SeqTrainer微调mBART进行印地语到英语的翻译 Vasudev Gupta Open In Colab
在FUNSD(一个表单理解数据集)上微调LayoutLM 如何在FUNSD数据集上微调LayoutLMForTokenClassification以从扫描文档中提取信息 Niels Rogge Open In Colab
微调DistilGPT2并生成文本 如何微调DistilGPT2并生成文本 Aakash Tripathi Open In Colab
Fine-Tune LED on up to 8K tokens 如何在pubmed上微调LED以进行长距离摘要 Patrick von Platen Open In Colab
Evaluate LED on Arxiv 如何有效地评估LED在长距离摘要中的表现 Patrick von Platen Open In Colab
在RVL-CDIP上微调LayoutLM(一个文档图像分类数据集) 如何在RVL-CDIP数据集上微调LayoutLMForSequenceClassification以进行扫描文档分类 Niels Rogge Open In Colab
Wav2Vec2 CTC decoding with GPT2 adjustment 如何使用语言模型调整解码CTC序列 Eric Lam Open In Colab
使用Trainer类微调BART进行两种语言的摘要生成 如何使用Trainer类微调BART进行两种语言的摘要生成 Eliza Szczechla Open In Colab
Evaluate Big Bird on Trivia QA 如何在Trivia QA上评估BigBird的长文档问答 Patrick von Platen Open In Colab
使用Wav2Vec2创建视频字幕 如何通过使用Wav2Vec转录音频从任何视频创建YouTube字幕 Niklas Muennighoff Open In Colab
使用PyTorch Lightning在CIFAR-10上微调Vision Transformer 如何使用HuggingFace Transformers、Datasets和PyTorch Lightning在CIFAR-10上微调Vision Transformer (ViT) Niels Rogge Open In Colab
使用🤗 Trainer在CIFAR-10上微调Vision Transformer 如何使用HuggingFace Transformers、Datasets和🤗 Trainer在CIFAR-10上微调Vision Transformer (ViT) Niels Rogge Open In Colab
在Open Entity数据集上评估LUKE 如何在Open Entity数据集上评估LukeForEntityClassification Ikuya Yamada Open In Colab
在TACRED上评估LUKE,一个关系抽取数据集 如何在TACRED数据集上评估LukeForEntityPairClassification Ikuya Yamada Open In Colab
在CoNLL-2003上评估LUKE,这是一个重要的NER基准 如何在CoNLL-2003数据集上评估LukeForEntitySpanClassification Ikuya Yamada Open In Colab
在PubMed数据集上评估BigBird-Pegasus 如何在PubMed数据集上评估BigBirdPegasusForConditionalGeneration Vasudev Gupta Open In Colab
Speech Emotion Classification with Wav2Vec2 如何利用预训练的Wav2Vec2模型在MEGA数据集上进行情感分类 Mehrdad Farahani Open In Colab
使用DETR检测图像中的对象 如何使用训练好的DetrForObjectDetection模型检测图像中的对象并可视化注意力 Niels Rogge Open In Colab
Fine-tune DETR on a custom object detection dataset 如何在自定义目标检测数据集上微调DetrForObjectDetection Niels Rogge Open In Colab
Finetune T5 for Named Entity Recognition 如何在命名实体识别任务上微调T5 Ogundepo Odunayo Open In Colab
使用QLoRA和MLflow与PEFT微调开源LLM 如何使用QLoRAPEFT以内存高效的方式微调LLM,同时使用MLflow管理实验跟踪 Yuki Watanabe Open In Colab
< > Update on GitHub