240 发简信
IP属地:河北
  • Resize,w 360,h 240
    注意力机制(Attention)

    2017年,Google研究人员提出了划时代的模型Transformer,它完全基于注意力机制,抛弃了之前深度学习领域CNN和RNN结构,成为C...

  • Seq2Seq

    Seq2Seq属于典型的Encoder-Decoder结构. Encoder(编码器)和Decoder(解码器)分别代表两个子模型,Encode...

  • RNN

    循环神经网络 HMM 时间序列模型RNN(原生循环神经网络)反向传播:时序反向传播 BPTT(Back Propagation...

  • Resize,w 360,h 240
    NLP

    命名实体识别 (NER) 主题建模 (提取主题) 免费论文检索网站 TF-IDF 词频-逆文档频率 词频的倒数 度量词语语义贡献度大小...

  • 自学部分

    SimOTA :优化正负样本分布 yolo数据集网站:

  • Resize,w 360,h 240
    OCR部分

    OCR (光学字符识别) 属于 目标检测+分类问题ICDAR(2017年)场景文本检测的和识别的数据集RCTW 中文CTW (腾讯和清华...

  • RepVGG

    卷积运算和BN运算合并 重参数化11的卷积周围填充一圈0 变成33的卷积只有BN运算变成 11的卷积核 然后11的卷积核再填充0 转换成3*3...

  • 第二十一天

    解耦头:各自做各自的任务,提高收敛速度,模型泛化能力 图像分割:像素级别的分类问题像素精度 === 召回率 FCN 第一个图像分割模型 U-N...

  • Resize,w 360,h 240
    1*1卷积可以降维的理解图

    每个通道卷积计算后 最后根据卷积核的数量 生成对应数量的通道 一个卷积核生成一个通道多个通道计算后 对应位置相加 合并成一个通道