240 发简信
IP属地:英格兰
  • 谷歌翻译接口使用记录

    需要翻墙 安装: demo: 报错: 更改下载 google_trans_new 包中的代码文件 google_trans_new.py 151...

  • label smooth

    标签平滑:Label Smoothing(标签平滑)是一个经典的正则化方法,机器学习的样本中通常会存在少量错误标签,这些错误标签会影响到预测的效...

  • Resize,w 360,h 240
    linux下anaconda目录迁移

    1.移动到新的目录 mv /old_path/anaconda3 /new_path/ # 很久之后 2. 修改新路径下 a...

  • 特征稳定性

    part1:特征稳定性 特征稳定性,就是关注该特征的取值随着时间的推移会不会发生大的波动, 对特征稳定性的关注,一定要在建模之前完成,从一开始就...

  • linux服务器免密登录

    linux 免密登录: windows 机器:首先查看自己电脑的私钥: C:\Users\用户名.ssh 记事本打开 id_rsa.pub ,复...

  • focal loss

    先验知识:交叉熵 - 简书 (jianshu.com)[//www.greatytc.com/p/bebd799f1c73] 理解: ...

  • BCEWithLogitsLoss参数weight

    1. weight: a manual rescaling weight given to the loss of each batch ele...

  • Resize,w 360,h 240
    BCEWithLogitsLoss参数pos_weight样本不均衡问题

    下面是具体的参数: 1. pos_weight: 处理样本不均衡问题torch.nn.BCEWithLogitsLoss(weight=None...

  • Resize,w 360,h 240
    BCELoss和BCEWithLogitsLoss

    计算多标签分类时候的损失函数一般选择BCELoss和BCEWithLogitsLoss,这两者的区别在于: BCELoss 是处理经过Sigmo...