NLP 学习3

Task3 基于机器学习的文本分类

文本表示方式

  1. one-hot
  2. Bags of Words 词袋模型
    1.若采用只记录是否出现,即0/1的形式。只能表现出词是否出现的差异,并没有刻画词出现次数多少的差异。
    2.若采用记录频数的方式,那么长文本的比短文本的出现次数可能更多。
    3.若采取记录频率的方式,但并没有刻画出,独特词汇对文章的信息,有时低频率的词更能反映特定行业的文章。
  3. N-gram
    加入相邻单词组合成新的单词,加入滑窗,保留一定上下文信息。
  4. TF-IDF
    TF-IDF由两部分组成,词语频率TF(Term Frequency)和逆文档频率IDF(Inverse Document Frequency)。在词袋模型(3)的基础上,加入了逆文档频率,刻画特定词汇的信息。
    TF_d(w)=\frac{c_d(w)}{|d|}\\ IDF_d(w)=\log(\frac{N}{\sum_i I_{w\in D_i}})
    其中TF_d(w)是词w在文章d中出现的频率,分子为w在文章d中出现的频数,分母为文章d词的总数。IDF_d(w)的分子N为总文章数目,分母为出现词语w的文章数目。

TF-IDF的推导

TF-IDF通过TF刻画了某一个词汇在文章中出现的频率,代表这个词对于文章的贡献,通过IDF刻画某一个词在文章集中的独特性。

1.2.3的想法都是比较直观的,TF-IDF的修正也比较直观,但是形式上值得我们思考,为什么IDF不采用TF一样的格式,而是采用log的方式?

从信息熵的角度出发:
I(w)=-p(w)logp(w)
其中I(w)是词语w在语料库中的信息熵,我们可以使用信息熵来判断词语的重要性,但是可能存在这样子的情况:两个词的出现总数相同,但是一个是集中于几篇,另外一个词语是均匀分散。尽管信息量相同,但是两者的区分效果是天差地别的。在这基础上,我们基于如下假设,做分析:

  1. 所有文本的长度均一致,为M
  2. 某一个词语,要么不出现在文章中,若出现,则次数一定为k(w)

记文章总数为N,词语w出现的文章数为N(w)

推导

  1. 对于文章d中的词语w,有
    \begin{align} p(w)&=\frac{N(w)k(w)}{NM}\\ TF_d(w)&=\frac{c_d(w)}{|d|}=\frac{k(w)}{M}\\ p(w)& = \frac{N(w)}{N}TF_d(w)\\ 那么 I(w)&= \frac{N(w)}{N}TF_d(w)log\frac{NM}{N(w)k(w)}\\ 在文本确定后,&\frac{N(w)}{N}为常数,略去\\ 化简I(w)&=TF_d(w)*IDF_d(w)+TF_d(w)log\frac{M}{k(w)} \end{align}
    观察上式,M,k(w)为定值,因此TF-IDF可以视为在一定条件下对词语w的信息熵的刻画。

参考《数学之美》

作业1, TF-IDF的参数

max_feature数目

分类器使用Ridge分类器的OvR

train_loss = []
val_loss = []
feature_num_arr = [1000, 1500, 2000, 2500, 3000, 3500, 4000, 4500, 5000, 5500, 6000, 6500, 7000, 7500, 8000]
for feature_num in feature_num_arr:
    tfidf = TfidfVectorizer(ngram_range=(1,3), max_features=feature_num)
    train_test = tfidf.fit_transform(train_df['text'])
    
    clf = RidgeClassifier()
    clf.fit(train_test[:10000], train_df['label'].values[:10000])
    
    train_pred = clf.predict(train_test[:10000])
    train_loss.append(f1_score(train_df['label'].values[:10000], train_pred, average='macro'))
    val_pred = clf.predict(train_test[10000:])
    val_loss.append(f1_score(train_df['label'].values[10000:], val_pred, average='macro'))

结果图如下:


结果.png

从结果我们可以看出,提取的tf-idf词越多,在一定范围内是会增加效果。但是,当继续增加时,效果并不会增加,这是因为数据稀疏。我们采取的模型还能有效得解决数据稀疏问题,如果选用深度模型,这可能会导致难以训练得问题。(下一步改进的方向)

N-gram数目
train_loss = []
val_loss = []
feature_num_arr = range(1, 10)
for feature_num in feature_num_arr:
    tfidf = TfidfVectorizer(ngram_range=(1,feature_num), max_features=5500)
    train_test = tfidf.fit_transform(train_df['text'])
    
    clf = RidgeClassifier()
    clf.fit(train_test[:10000], train_df['label'].values[:10000])
    
    train_pred = clf.predict(train_test[:10000])
    train_loss.append(f1_score(train_df['label'].values[:10000], train_pred, average='macro'))
    val_pred = clf.predict(train_test[10000:])
    val_loss.append(f1_score(train_df['label'].values[10000:], val_pred, average='macro'))

通过实验,我发现n>=2的时候效果均挺好,虽然这仅仅是在ridge分类下的结果,但我们也可以得到,我们的文本,应该是单个的字。因为当n=2,就可以获得前后文信息,由单字组成词语,效果有着显著的提升。


ngram.png

作业2:不同模型

为了比较不同模型,采用了Ridge分类,Logistic分类,随机森林,SVM。在n=3,特征词数目5500下,进行训练。

结果.png

可以发现,随机森林过拟合现象很严重,有可能是tf-idf过于稀疏导致的。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,393评论 5 467
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,790评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,391评论 0 330
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,703评论 1 270
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,613评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,003评论 1 275
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,507评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,158评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,300评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,256评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,274评论 1 328
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,984评论 3 316
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,569评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,662评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,899评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,268评论 2 345
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,840评论 2 339