240 发简信
IP属地:湖北
  • Resize,w 360,h 240
    (十)语音情感识别项目实战(上)

    写这篇博客的时候正好在和某公司做一个语音情感识别相关的项目,所以距离上次更新微博也有好久了,但还是按照之前设定的计划把这块内容梳理下。主要是Fo...

  • (八)sequence to sequence —6

    最后一关: Encoder:多层双向lstm Attention机制 decoder:动态实现bi-directional_dynamic_rn...

  • (八)sequence to sequence —5

    实现多层双向的dynamic_lstm+beam_search 基于tensorflow1.4 Seq2seq的实现 encoder使用的两层双...

  • (八)sequence to sequence —3

    实现beam_search部分 基于tensorflow1.4 Seq2seq的实现 1.使用seq2seq库实现seq2seq模型 1. 计算...

  • Resize,w 360,h 240
    (八)sequence to sequence —4

    实现双向的dynamic_lstm+beam_search 基于tensorflow1.4 Seq2seq的实现 encoder使用的是双向的L...

  • Resize,w 360,h 240
    (八)sequence to sequence —2

    实现softmax_loss_function部分 基于tensorflow1.4 Seq2seq的实现 1.使用seq2seq库实现seq2s...

  • (八)sequence to sequence —1

    这个系列网上的教程实在太多,所以我准备采用代码和理论相结合的方式,详细代码请点击我的github,基于python3.6和tensorflow1...

  • Resize,w 360,h 240
    (九)再谈embedding——bert详解(实战)下

    前面两篇分别梳理了下BERT的原理和BERT的训练,接着前面的内容,梳理下BERT是如何在下游任务上运用的。 原理就是上面这个图了。四种任务...

  • Resize,w 360,h 240
    (九)再谈embedding——bert详解(实战)中

    Google开源的BERT的确很良心,代码写得非常好,是一个不错的学习案例,这里我从实战的角度从预训练到下游任务实战做一个全面的梳理。原理部分的...