240 发简信
IP属地:上海
  • Batch Normalization

    协变量偏移 协变量可以看作是输入变量。训练过程中,层间的权重会不断改变和调整,而前面层权重参数的改变会影响后面层的输入,当网络的深度很大时,层间...

  • Pytorch笔记

    对backward的理解还不到位 torch.backward() backward(gradient=None, retain_variabl...