240 发简信
IP属地:湖北
  • 120
    概率图模型(2)——马尔科夫随机场

    1. MarKov随机场的直观理解 2. 一些基本概念 2.1 无向图 在无向图中,A、B、C、D为顶点,各顶点之间的连接线称为边。 2.2 概率图: 用图表达概率分布的方式...

  • items()和iteritems()区别

    items()和iteritems()区别: 一、两个函数的作用 字典的items方法作用:是可以将字典中的所有项,以列表方式返回。因为字典是无序的,所以用items方法返回...

  • [tf]tf.gather_nd的用法

    函数原型,nd的意思是可以收集n dimension的tensor 意思是要收集[params[0][0],params[1][1]] 意思是要收集[params[1],pa...

  • 谈一谈 python 中 del 的用法

    del涉及到python中的内存管理机制,从c/c++转过来的同学可能会踩一些语法坑,下面上一些代码及运行结果,谈谈今天要讲的问题,后面再解释具体原理机制。 结果 111 这...

  • 博主,为什么我的是k80?

    撸羊毛-免费使用谷歌T4 GPU - Colab使用

    截止到目前2019.6.12 可免费使用的gpu显存为15g,内存空间为12g,gpu型号为Tesla T4 进入谷歌硬盘,新建应用-》更多-》Colaboratoryima...

  • 120
    TensorFlow 使用 tf.estimator 训练模型(预训练 ResNet-50)

    看过 TensorFlow-slim 训练 CNN 分类模型(续) 及其相关系列文章的读者应该已经感受到了 tf.contrib.slim 在训练卷积神经网络方面的极其方便之...

  • 楼主,看了一下代码,label的从1开始映射,标记为0的是代表,padding的部分么?

    (四)序列标注——实体识别BERT-BLSTM-CRF(下)

    前面说的是ner的经典算法以及今年的一些比较好的工作,最近bert模型刷新了NLP的绝大部分任务,可谓是一夜之间火爆了整个NLP界,这里我简单记录下bert在NER上的使用,...

  • 120
    (四)序列标注——实体识别LSTM-CRF(上)

    在做这个任务的时候是17年的9月份,当时是在一家金融公司实习做基于大量金融数据(年报,研报)的中文实体识别任务,用的模型就是LSTM-CRF模型,这是一个比较简单经典...

  • 理解tf.squeeze()

    该函数返回一个张量,这个张量是将原始input中所有维度为1的那些维都删掉的结果axis可以用来指定要删掉的为1的维度,此处要注意指定的维度必须确保其是1,否则会报错 例子:

  • 谈谈Tensorflow的dropout

    Dropout这个概念已经推出4年了,它的详细描述见论文。可是呢,它仿佛是个犹抱琵琶半遮面的美女,难以捉摸!!许多文献都对dropout有过描述,但解释的含糊不清,这里呢,我...

  • 问一下,每一步依照概率分布采样,是选概率最高的行为?

    Policy Gradient

    一、介绍 回顾以下以前 value-based的方法:在value-based方法中,他们都是去学习一个动作的价值函数,然后根据这个动作的价值函数作出下一步选择。以至于这个方...

  • 怎么感觉更像隐马尔科夫。。。

    BiLSTM模型中CRF层的运行原理-2

    上节回顾: 在上一节中,我们知道CRF层可以从训练数据集中自动学习到一些约束规则来保证预测标签的合法性。 这些约束包括: I:句子中第一个词总是以标签“B-“ 或 “O”开始...