jax.nn
模块#
神经网络库的常用功能。
激活函数#
修正线性单元激活函数。 |
|
校正线性单元6激活函数。 |
|
|
Sigmoid 激活函数。 |
|
Softplus 激活函数。 |
|
稀疏加函数。 |
稀疏的Sigmoid激活函数。 |
|
|
软符号激活函数。 |
|
SiLU(又称 swish)激活函数。 |
|
SiLU(又称 swish)激活函数。 |
|
Log-sigmoid 激活函数。 |
|
泄漏整流线性单元激活函数。 |
|
硬Sigmoid激活函数。 |
|
硬 SiLU(swish)激活函数 |
|
硬 SiLU(swish)激活函数 |
|
硬 \(\mathrm{tanh}\) 激活函数。 |
|
指数线性单元激活函数。 |
|
连续可微的指数线性单元激活函数。 |
|
缩放指数线性单元激活。 |
|
高斯误差线性单元激活函数。 |
|
门控线性单元激活函数。 |
|
Squareplus 激活函数。 |
|
Mish 激活函数。 |
其他功能#
|
Softmax 函数。 |
|
Log-Softmax 函数。 |
对数-和-指数缩减。 |
|
|
通过减去 |
|
对给定的索引进行独热编码。 |
|
缩放点积注意力函数。 |