240 发简信
IP属地:北京
  • Resize,w 360,h 240
    RNN

    最近真是心态炸了,标题都写错了. 前言 在之前已经复习过了CNN的主要内容, CNN在处理图像与文本的任务上有非常好的表现, 可以认为CNN侧重...

  • Resize,w 360,h 240
    CNN, 从图像到NLP

    CNN研究的历史 私以为,神经网络这一大类的算法,是仿生学与数学结合的一次突破,不管是最原始的神经网络还是现在非常常见各种变种,都是在参考人类大...

  • Word2Vec原理(二)-Negative Sampling与工具包参数

    上文提到了word2vec的核心原理,本质上是对bengio的NNLM模型进行的改进, 介绍了cbow与skipgram以及Hierarchic...

  • Resize,w 360,h 240
    Word2Vec原理(一)-Cbow与SkipGram

    词嵌入 什么是EmbeddingEmbedding在数学上表示一个maping, , 也就是一个映射函数。通俗的翻译可以认为是向量嵌入,就是把X...

  • 挖坑

    做NLP也有一年半了,也占据了我工作近两年主要的工作内容,挖个坑回顾一下主要的算法相关内容把. 机器学习算法 word2vec原理: cbow与...

  • Resize,w 360,h 240
    XGBoost与GBDT(二)-算法推导

    前言 XGBoost跟GBDT是两种应用非常广泛的树模型,之前在几种最优化方法对比中,简单回顾了一下几种常见的最优化方法,算是对这篇内容的简单铺...

  • Resize,w 360,h 240
    XGBoost与GBDT(一)-几种最优化方法对比

    前言 发现了作者的一个pptGBDT算法原理与系统设计简介,从头复习了一波相关的内容,写两篇记录下来.从根本上来说, GBDT 与XGBoost...

  • 最大似然估计+最大后验估计+LR

    前言 现代机器学习的终极问题都会转化为解目标函数的优化问题,MLE和MAP是生成这个函数的很基本的思想,因此我们对二者的认知是非常重要的。最近有...

  • 最大熵模型+最大似然估计

    前言 最近在回顾李航的统计学习方法[1], 看到这一章, 准备好好梳理一下, 更加深入地理解原理以及背后的思想. 作者在这一章介绍了最大熵模型并...