Python文献爬虫①

为什么要批量爬取

虽然很少用到知网,但是还是会时不时看看知网的文献。当需要了解某个领域的,看中文的文章还是来得更快些。但是呢通常并不需要把每一篇都下载了看,只需要看看标题,看看摘要,再看看关键词就行了。检索某个关键词,一篇一篇打开看,真的是太麻烦了。就像下图这样:

图片来自中国知网

那能不能批量处理呢?最好是把标题作者日期关键词摘要都整理在一个Excel表里面,再筛选就方便多了。不知道是哪个计算机大佬说过“重复的工作应该交给电脑,人类更擅长的是浪费时间 ”。嚯嚯嚯,这时候就该Python出场了。

写代码前的工作

先是试了试直接在知网进行爬取,但是技术不到家,死活找不到可用的URL,而且,知网分分钟识别到爬虫恶意爬取,分分钟封禁IP。找啊找,终于找到一个可代替的网站:远见搜索。同样的检索“根系分泌物”:

图片来自远见搜索

比在知网检索到的还多!!!!!!
简单分析一下网页结构,在页数不同的时候只有这个地方会改变:
图片来自远见搜索

等等,分析了网页代码结构,无法get到文献的摘要部分!!!只能get到标题、作者、日期、关键词、下载次数、被引次数等信息!!!最重要的摘要部分无法get到!!!(灬ꈍ ꈍ灬)哈哈,还好有CNKI官网的链接,那把这个链接抓取下来,然后再批量访问这些链接就能get到文献的摘要了。那就先get到除摘要之外的信息吧!

Talk is cheap. Show me the code!

import os
import random
import openpyxl
import time
import requests
from bs4 import BeautifulSoup
import re

time_start = time.time()
url = 'http://yuanjian.cnki.net/Search/ListResult'
user_agent = {
    'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36'
}

results = []

title_link_result = openpyxl.Workbook()
sheet = title_link_result.active
sheet.title = '根系分泌物CNKI文献链接爬取'
col_name = ['title','link']
sheet.append(col_name)

for i in range(2,450,10):
    for j in range(i-1,i + 9):
        try:
            paramas = {
            'searchType': 'MulityTermsSearch',
            'ArticleType': '1',
            'ParamIsNullOrEmpty': 'true',
            'Islegal': 'false',
            'Content': '根系分泌物',
            'Type': '1',
            'Order': '1',
            'Page': str(j)
            }

            res = requests.get(url,params=paramas)
            print(res.status_code)
            soup = BeautifulSoup(res.text, 'html.parser')
            items = soup.find_all('div',class_='list-item')

            for item in items:
                title = item.find('a')['title']
                try:
                    try:
                        keywords = item.find('div',class_='info').find('p',class_='info_left left').find_all('a')[0]['data-key']
                        article_info = item.find('p',class_='source').text.replace('\n','')
                        download_num = re.findall('\d{1,10}',item.find('div',class_='info').find('span', class_='time1').text)[0]
                        cited_num = re.findall('\d{1,10}',item.find('div',class_='info').find('span', class_='time2').text)[0]
                        CNKI_link = item.find('a')['href']
                    except IndexError: 
                        keywords = 'None'
                        article_info = 'None'
                        download_num = 'None'
                        cited_num = 'None'
                        CNKI_link = 'None'
                except AttributeError:
                    keywords = 'None'
                    article_info = 'None'
                    download_num = 'None'
                    cited_num = 'None'
                    CNKI_link = 'None'

                results.append([title,keywords,article_info,download_num,cited_num,CNKI_link])
                sheet.append([title,keywords,article_info,download_num,cited_num,CNKI_link])

            print(j)
            print(results[-1])
            print('成功爬取:%s条'%len(results))

            time_end = time.time()
            print('耗时:%s秒'%str(time_end-time_start))

            time.sleep(0)
        except TimeoutError:
            title_link_result.save('根系分泌物CNKI文献链接_all.xlsx')
            break
    time.sleep(0)

title_link_result.save('根系分泌物CNKI文献链接_break.xlsx')

结果

先上图:


图片来自小蓝哥

大概是一分钟1200条。


最终Excel表(来自小蓝哥)

最后得到的Excel就能用于后续的阅读分析了(R语言搞个词云什么的)。再把摘要爬取 下来就差不多完整了。这个下篇简书介绍,敬请期待。

PS:
①恶意爬取隐私信息会触犯相关法规,请合理使用爬虫。
②遇到IP被临时封禁的情况,修改单次爬取的数量即可。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,565评论 6 479
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,021评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,003评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,015评论 1 278
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,020评论 5 370
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,856评论 1 283
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,178评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,824评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,264评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,788评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,913评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,535评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,130评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,102评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,334评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,298评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,622评论 2 343

推荐阅读更多精彩内容

  • 随着html5的发展,媒体播放用的 标签已经很少用了,已经被 标签 标签替代了。和在兼容ie的时候还是会用到 标...
    MenChem阅读 821评论 0 0
  • 20180402 今日要事: 【常】拜访客户两家,电话覆盖客户 【项】整理意向客户,完成本月业绩 【临】无 【人】...
    金一鹤阅读 126评论 0 0
  • 秋天到了,五谷丰登,果实累累,果园里的柿子也成熟了! 黄澄澄的柿子像一盏盏小灯笼高高挂在树上,也像一个个可爱的小精...
    徐渲博阅读 372评论 0 0
  • 第三节:爬取小猪短租租房信息要求:1. 爬取详情页面内的:标题,地址,租金,第一张房源图片链接,房东图片链接,房东...
    4ffde5305e8f阅读 337评论 0 1