大概在一两年前在网上看过一篇文章,文章标题是《我分析42万字的歌词,为搞清楚民谣歌手们在唱些什么》,看完当时我就震惊了,居然还有这样的操作,同时也希望自己有朝一日,能够模仿他写出同样的一篇文章。
机缘巧合,自己断断续续也学习了python一年,今天也终于在半copy,半baidu的情况下,依葫芦画瓢,参照邓老师的方法,大概实现了文本情感分析。(用python实现简单的文本情感分析)
大致过程如下:爬虫抓取了药检院网站2007年-2017年共1062条,提取其中的标题、内容、发表时间以及url网址,对新闻内容通过jieba进行分词,通过邓老师的算法对词汇情感值进行统计分析,通过wordcloud生成词云,通过matplotlib绘图。本来还打算用pandas进行数据分析,无奈功夫不深,pandas和numpy都只学了皮毛,于是还是直接导出到excel中进行分析。
抓取内容的存入excel表格。
对各条新闻内容进行情感值分析,新闻的内容越积极向上,分值则越高。
图1是不同分值新闻的频数分布情况图,图2是历年新闻的情感值均值,可见2012年,我院的新闻报导更加偏积极。
对新闻的内容进行分词后,对各个词汇出现的频数进行了统计,并分析具有代表意义的关键词。
出现最多的是“工作”二字,看来以后可以更加有理有据的吐槽工作忙的像狗了,排名第二第三的则是“检验”和“检测”,这也确实反映了大家的工作重点是围绕检验展开。
进而对新闻的关键词进行了分析,该分析方法采用IDF-TF算法,比简单的比较词汇出现频数更能说明问题。排名第一的毋庸置疑是“食品药品”,而我对其余几个主要的词汇进行了分析,频数分布是药品>食品>化妆品>保健品>药包材,这与我们业务处平时的收样量也确实吻合orz
最后出于娱乐,利用wordcloud绘制了一张我们院的10年来的新闻词云。
———————————————————————————————————————————
python代码什么的就不放了,只能说写的及其糟心...