为避免隐层神经元的作用完全一样,我们可以随机初始化参数,例如:把𝑊[1] 设为np.random.randn(2,2)(生成高斯分布),通常再乘上一个小的数,比如 0.01,这样把它初始化为很小的随机数。之所以乘以0.01,是为了避免wx+b落在tanh/sigmoid函数两端的平坦位置,导致梯度下降很慢。
参数初始化
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 我们已经知道,神经网络的参数主要是权重(weights):W, 和偏置项(bias):b。训练神经网络的时候需先给...
- 改进神经网络的学习方法(下) 权重初始化 创建了神经网络后,我们需要进行权重和偏差的初始化。到现在,我们一直是根据...
- 初始化为常量tf中使用tf.constant_initializer(value)类生成一个初始值为常量value...