240 发简信
IP属地:湖南
  • 请问下画楼主的框架图用什么软件画的哈

    小波学习笔记Ⅱ:Haar小波分析

    参考文献:《小波的理论与应用》,作者:成礼智、王红霞、罗永 用了一个上午看完了Haar小波分析,作者第一个引入的就是Haar小波的目的是让读者对于小波分析建立一个直观的印象,...

  • 意群阅读感觉对我来说有点难度,很难做到一目十行。

    如何快速高效阅读英文

    无论你是正在死磕四六级雅思托福的烤鸭党,还是又被professor扔了几张书单的留学党,亦或是正在office看Kevin给你的report的工作党。英文的阅读能力都是你的生...

  • @洗净铅华_d131 神经网络中回归问题常用的损失函数为均方误差,分类问题常用的损失函数是交叉熵,能否更加深入的解释下为什么?

    深入浅出--梯度下降法及其实现

    梯度下降的场景假设梯度梯度下降算法的数学解释梯度下降算法的实例梯度下降算法的实现Further reading 本文将从一个下山的场景开始,先提出梯度下降算法的基本思想,进而...

  • 这个问题问的很好,非常到位。

    深入浅出--梯度下降法及其实现

    梯度下降的场景假设梯度梯度下降算法的数学解释梯度下降算法的实例梯度下降算法的实现Further reading 本文将从一个下山的场景开始,先提出梯度下降算法的基本思想,进而...

  • 文章中有“首先,我们需要定义一个代价函数,在此我们选用均方误差代价函数

    为什么要选用均方误差代价函数,选其他的函数可以吗?

  • 我是说代价函数怎么那么大,还拟合的那么好

    深入浅出--梯度下降法及其实现

    梯度下降的场景假设梯度梯度下降算法的数学解释梯度下降算法的实例梯度下降算法的实现Further reading 本文将从一个下山的场景开始,先提出梯度下降算法的基本思想,进而...

  • 120
    Sigmoid函数的求导证明

    前文提到了神经网络中的Sigmoid函数,实际上在反向传播中还会用到Sigmoid的导数,形式很简单: s(x)*(1-s(x)),但是我想把这个过程自己推导一次,顺便复习一...

  • 楼主深入浅出的道出sigmoid函数求导的过程,值得学习。随便请问下楼主是用什么软件画的图?

    Sigmoid函数的求导证明

    前文提到了神经网络中的Sigmoid函数,实际上在反向传播中还会用到Sigmoid的导数,形式很简单: s(x)*(1-s(x)),但是我想把这个过程自己推导一次,顺便复习一...