zl程序教程

您现在的位置是:首页 >  系统

当前栏目

keras模块学习之-激活函数(activations)--笔记

模块笔记学习 函数 -- 激活 Keras
2023-09-14 08:57:35 时间

本笔记由博客园-圆柱模板 博主整理笔记发布,转载需注明,谢谢合作!

   每一个神经网络层都需要一个激活函数,例如一下样例代码:

           

from keras.layers.core import Activation, Dense

model.add(Dense(64))
model.add(Activation('tanh'))


或把上面两行合并为:
model.add(Dense(64, activation='tanh'))

  可以选择的激活函数有: 
linear、sigmoid、hard_sigmoid、tanh、softplus、relu、 softplus,softmax、softsign 
还有一些高级激活函数,比如如PReLU,LeakyReLU等