240 发简信
IP属地:江西
  • 全概率公式和贝叶斯公式

    (1)条件概率公式 设A,B是两个事件,且P(B)>0,则在事件B发生的条件下,事件A发生的条件概率(conditional proba...

  • Resize,w 360,h 240
    优化算法

    Mini-batch 梯度下降 如果训练集较小,直接使用 batch 梯度下降法,样本集较小就没必要使用 mini-batch 梯度下降法,你可...

  • 训练集、验证集和测试集

    大数据时代,我们现在的数据量可能是百万级别,那么验证集和测试集占数据总量的比例会趋向于变得更小。因为验证集的目的就是验证不同的算法,检验哪种算法...

  • 参数初始化

    为避免隐层神经元的作用完全一样,我们可以随机初始化参数,例如:把𝑊[1] 设为np.random.randn(2,2)(生成高斯分布),通常再乘...

  • ReLU的线性与非线性

    为什么relu这种“看似线性”(分段线性)的激活函数所形成的网络,居然能够增加非线性的表达能力。 1、首先什么是线性的网络,如果把线性网络看成一...

  • VS Code、notebook和Code Runner

    VS Code中开启笔记本模式,代码前加一行#%%就可以了。 Code Runner中打开Run in terminal设置即可支持conda虚...

  • Resize,w 360,h 240
    TensorFlow 1.*基础

    计算图:TODO Session Where we launch the graph. A Session object is the part...

  • Resize,w 360,h 240
    名词解释

    泛化(generalization) 正则化(regularization): 归一化(normalization):