关于Keras
入门指南
开发者指南
Keras 3 API 文档
Keras 2 API 文档
模型 API
层API
回调 API
优化器
随机梯度下降(SGD)
RMSprop
亚当优化器
AdamW是一种优化算法,其结合了Adam优化器与权重衰减(Weight Decay)的技巧。这一方法有助于防止模型过拟合,从而提升模型的泛化能力。AdamW在Adam优化器的基础上引入了权重衰减,使得权重更新公式中包含了一个逐步减少权重值的项,从而有效地控制模型的复杂度。
Adadelta
Adagrad
Adamax优化器
Adafactor
Nadam
Ftrl(遵循正则化领导者)
学习率调度API
度量标准
损失函数
数据加载
内置小型数据集
Keras 应用程序
混合精度
实用工具
代码示例
KerasTuner:超参数调优
KerasCV:计算机视觉工作流
KerasNLP:自然语言工作流程
search
►
Keras 2 API 文档
/
优化器
/ 学习率调度API
学习率调度API
指数衰减
分段常数衰减
多项式衰减
逆时间衰减
余弦衰减
余弦衰减重启