关于Keras 入门指南 开发者指南 Keras 3 API 文档 模型 API 层 API 回调API 操作API 优化器 度量标准 损失函数 数据加载 内置小型数据集 Keras 应用程序 混合精度 多设备分布 RNG API 实用工具 Keras调优器 KerasCV Keras自然语言处理(KerasNLP) 预训练模型 模型API 分词器 预处理层 模型层 采样器 指标 Keras 2 API 文档 代码示例 KerasTuner:超参数调优 KerasCV:计算机视觉工作流 KerasNLP:自然语言工作流程
► Keras 3 API 文档 / Keras自然语言处理(KerasNLP) / 预训练模型 / BERT

BERT

用于BERT的模型、分词器和预处理层,如"BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding"中所述。

有关可用预设的完整列表,请参见 模型页面。

BertTokenizer是一种词汇表生成工具,用于对文本进行分词和标记化处理,特别适用于BERT模型的预处理。

  • BertTokenizer class
  • from_preset method

BertPreprocessor 层

  • BertPreprocessor class
  • from_preset method
  • tokenizer property

BertBackbone 模型

  • BertBackbone class
  • from_preset method
  • token_embedding property

Bert分类器模型

  • BertClassifier class
  • from_preset method
  • backbone property
  • preprocessor property

BertMaskedLM 模型

  • BertMaskedLM class
  • from_preset method
  • backbone property
  • preprocessor property

BertMaskedLMPreprocessor 层

  • BertMaskedLMPreprocessor class
  • from_preset method
  • tokenizer property
BERT
BertTokenizer是一种词汇表生成工具,用于对文本进行分词和标记化处理,特别适用于BERT模型的预处理。
BertPreprocessor 层
BertBackbone 模型
Bert分类器模型
BertMaskedLM 模型
BertMaskedLMPreprocessor 层
Terms | Privacy