关于Keras
入门指南
开发者指南
Keras 3 API 文档
Keras 2 API 文档
模型 API
层API
回调 API
优化器
度量标准
损失函数
数据加载
内置小型数据集
Keras 应用程序
混合精度
实用工具
代码示例
KerasTuner:超参数调优
KerasCV:计算机视觉工作流
KerasNLP:自然语言工作流程
search
►
Keras 2 API 文档
Keras 2 API 文档
模型 API
模型类
Sequential 类
模型训练 API
保存与序列化
层API
基础层类
层激活函数
层权重初始化器
层权重正则化器
层权重约束
核心层
卷积层
池化层
循环层
预处理层
归一化层
正则化层
注意力层
重塑层
合并层
激活层
回调 API
基础回调类
模型检查点
备份和恢复
TensorBoard
提前停止
学习率调度器
ReduceLROnPlateau(基于验证指标调整学习率的回调函数)
远程监视器
Lambda回调函数
在NaN时终止
CSV日志记录器
进度条记录器
优化器
随机梯度下降(SGD)
RMSprop
亚当优化器
AdamW是一种优化算法,其结合了Adam优化器与权重衰减(Weight Decay)的技巧。这一方法有助于防止模型过拟合,从而提升模型的泛化能力。AdamW在Adam优化器的基础上引入了权重衰减,使得权重更新公式中包含了一个逐步减少权重值的项,从而有效地控制模型的复杂度。
Adadelta
Adagrad
Adamax优化器
Adafactor
Nadam
Ftrl(遵循正则化领导者)
度量标准
准确性度量标准
概率度量
回归指标
基于真/假阳性和阴性的分类指标
图像分割指标
Hinge metrics for "maximum-margin" classification
损失函数
概率损失
回归损失
Hinge losses for "maximum-margin" classification
数据加载
图像数据加载
时间序列数据加载
文本数据加载
音频数据加载
内置小型数据集
MNIST数字分类数据集
CIFAR10 小图像分类数据集
CIFAR100小图像分类数据集
IMDB电影评论情感分类数据集
路透社新闻分类数据集
Fashion MNIST数据集,MNIST的替代品
波士顿房价回归数据集
Keras 应用程序
Xception
EfficientNet B0到B7
EfficientNetV2 B0到B3及S、M、L
ConvNeXt小型、ConvNeXt中小型、ConvNeXt基础型、ConvNeXt大型、ConvNeXt超大型
VGG16和VGG19
ResNet和ResNetV2
MobileNet、MobileNetV2 和 MobileNetV3
稠密网络
NasNetLarge 和 NasNetMobile
InceptionV3
InceptionResNetV2
混合精度
混合精度策略 API
损失缩放优化器
实用工具
模型绘图工具
结构化数据预处理工具
Python & NumPy 实用工具
后端工具
Keras 2 API 文档
模型 API
层API
回调 API
优化器
度量标准
损失函数
数据加载
内置小型数据集
Keras 应用程序
混合精度
实用工具