张量 也叫Tensor这里只写出输出格式众所周知,张量里面保存的3个属性 名字 维度 类型类型和名字好说,一个描述的是处理的数据类型,一个描述的是这个张量来源的操作以及来自哪...
张量 也叫Tensor这里只写出输出格式众所周知,张量里面保存的3个属性 名字 维度 类型类型和名字好说,一个描述的是处理的数据类型,一个描述的是这个张量来源的操作以及来自哪...
tf.clip_by_value函数可以限制log运算时不会出现log0这类的数出现 矩阵乘法tf.matmul,直接使用*是元素间相乘 根据交叉熵的公式,应该将每行中的 m...
深度学习中经常不提及方差和偏差的均衡一般通过对验证集和测试集的误差多少来判断方差和偏差例如,如果训练集是1%二测试集是11%很明显这是过拟合了,属于高方差。如果训练15% 测...
现在的虚拟化技术日新月异,加之后面要搭建神经网络,一搜集tensofflow都说讲docker配置的,原来计算机网络课老师还专门布置过作业,就是来了解docker的,只不过都...
转眼间2018年已经来到了11月,回头看看3月份开始春招找实习,到现在拿到了自己还满意的offer真的是收获颇多,特此总结一下,以纪念不怎么优秀的自己。 春招 春招一开始由于...
我们知道,CPU 资源是有限的,任务的处理速度与线程个数并不是线性正相关。相反,过多的线程反而会导致 CPU 频繁切换,处理性能下降。所以,线程池的大小一般都是综合考虑要处理...
后进者先出,先进者后出,这就是典型的“栈”结构。 从栈的操作特性上来看,栈是一种“操作受限”的线性表,只允许在一端插入和删除数据。与数组和链表来比,这两者暴露了太多的操作接口...
矩阵的乘法来源于,对单位向量的空间变换 行列式相当于对原来向量围成的面积进行了缩放,如果为0,那么就是两个向量变换后共线,或者成为一个点了,如果为负数,说明两个向量的相对位置...
一阶方法:梯度下降、随机梯度下降、mini 随机梯度下降降法。 随机梯度下降不但速度上比原始梯度下降要快,局部最优化问题时可以一定程度上抑制局部最优解的发生。首先要明确一个事...
决策树问题 1)各种熵的计算熵、联合熵、条件熵、交叉熵、KL散度(相对熵) 熵用于衡量不确定性,所以均分的时候熵最大 熵的理解:熵其实定义了一个函数(概率分布函数)到一个值(...
dot 同线性代数中矩阵乘法的定义: np.dot()np.dot(A, B):对于二维矩阵,计算真正意义上的矩阵乘积,同线性代数中矩阵乘法的定义。对于一维矩阵,计算两者的内...
asix =1 是按照行计算(也就是列间计算,最后剩下一个n1的矩阵)asix =0 是按照列计算 (行间计算,最后剩下一个1n的矩阵)
如果你使用一个简单的逻辑回归,那么进行随机初始化,或者直接吧所有的权重矩阵置为0那是没有问题的。但是对于神经网络来说,如果都置为0那么将是不能接受的。这是因为,如果你的w全是...
为什么要使用激活函数?目前只介绍了sigmoid函数。下面多介绍几个激活函数。 sigmoid 现在已经不使用,除非在输出层进行0~1的概率输出时使用 tanh 几乎在任何场...
本来可以用tab来进行补全,但是这个东西跟在vim环境下编程一样,得用快捷键很麻烦。没有pycharm那么补全的方便。下面放上方法主要是用conda来安装(我觉得直接安装一个...
对于神经网络的计算我们通常使用向量化计算。一般来说,把input层当作第0层,隐层和输出层作为真正的层。对于纵向排列的神经元,我们把它看作为一个列向量,一般4*3的矩阵,4就...
向量化是消除代码中显示的for循环语句的艺术两种写法的代码 正向传播 一些小的建议 使用numpy的时候,不要使用np.random.rand(5)这种生成秩为1 的数组,因...
任何神经网络都有一个向前计算和向后计算的过程。简而言之,利用一般的编程角度其实就是计算的过程,精简到每一次加法减法。 罗辑回归的梯度下降 首先回顾一下逻辑回归的基本公式 m个...
回顾成本函数J和预测的y hat 注意这里的J被定义为1/m的损失函数之和 目前的任务是找到w和b最小化J(w,b) 使用一个一纬的w可以比较容易的画出上图主要分为2个部分,...