Python爬虫樱花动漫多线程下载附源码(超详细适合新手练习)

前言

别瞅了!看完你肯定行


一、打开动漫详细页面

image.png

二、查看网页源码


查看网页源码搜索关词能够找到相关内容,我们可以看见详情页地址并不完整,所以我们需要出拼接出完整url

def url_parse():
    new_url = input("请粘贴你想下载的动漫链接")
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36'}
    response = requests.get(url=new_url, headers=headers).text
    tree = etree.HTML(response)
    li_list = tree.xpath("//div[@id='play_0']/ul/li")
    dic ={}
    for li in li_list:
        url = "http://www.imomoe.ai" + li.xpath("a/@href")[0]
        name = li.xpath("a/@title")[0]
        dic[name]=url
    return dic

三、进入详情页查看

打开开发者工具(F12)点击视频我们可以看到video标签中src属性为视频地址


查看网页源码发现并没有找到我们想要video标签中的属性,我们用selenum获取网页源码

def data(url):
    bro = webdriver.Chrome(executable_path="./chromedriver")
    r = bro.get(url)
    page_data = bro.page_source
    bro.quit()
    tree1 = etree.HTML(page_data)
    video= tree1.xpath('//div[@class="player"]/iframe/@src')[0]
    name = "第"+video.split(".")[-2].split("-")[-1]+"集.mp4"
    x = threading.Thread(target=videos, args=(name, video,))
    x.start()
    print(name + "解析成功")

四、线程创建

通过selenum提取url需要依次提取,这简直太费时间了,所以我们创建线程进行同步提取来节省时间

def data_parse(dic):
    tasks=[]
    urls=list(dic.values())
    for url in urls:
        x=threading.Thread(target=data,args=(url,))
        tasks.append(x)
    for task in tasks:
        task.start()
        sleep(1)

通过selenum提取的url跟我们刚才所看到视频url并不相同,不过跳转到我们selenum抓取的url在重复抓取一下就能找到视频url

def videos(name,url):
    bro= webdriver.Chrome(executable_path="./chromedriver.exe")
    bro.get(url)
    mp4_data = bro.page_source
    bro.quit()
    tree2 = etree.HTML(mp4_data)
    video= tree2.xpath("//*[@id='a1']/div[2]/video/@src")[0]
    x = threading.Thread(target=download, args=(name, video,))
    x.start()
    print(name+"正在下载")
    # print(video)

五、视频下载

def download(name,url):
    headers={"User-Agent":UserAgent().random}
    response=requests.get(url=url,headers=headers).content
    with open(name,"wb")as fp:
        fp.write(response)
        print(name+"下载完成")

代码

import requests
import threading
from fake_useragent import UserAgent
from selenium import webdriver
from  lxml import etree
from time import sleep
# from selenium.webdriver.chrome.options import Options
# chrome_options = Options()
# chrome_options.add_argument('--headless')
# chrome_options.add_argument('--disable-gpu')

def url_parse():
    new_url = input("请粘贴你想下载的动漫链接")
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36'}
    response = requests.get(url=new_url, headers=headers).text
    tree = etree.HTML(response)
    li_list = tree.xpath("//div[@id='play_0']/ul/li")
    dic ={}
    for li in li_list:
        url = "http://www.imomoe.ai" + li.xpath("a/@href")[0]
        name = li.xpath("a/@title")[0]
        dic[name]=url
    return dic

def data_parse(dic):
    tasks=[]
    urls=list(dic.values())
    for url in urls:
        x=threading.Thread(target=data,args=(url,))
        tasks.append(x)
    for task in tasks:
        task.start()
        sleep(1)



def data(url):
    bro = webdriver.Chrome(executable_path="./chromedriver")
    r = bro.get(url)
    page_data = bro.page_source
    bro.quit()
    tree1 = etree.HTML(page_data)
    video= tree1.xpath('//div[@class="player"]/iframe/@src')[0]
    name = "第"+video.split(".")[-2].split("-")[-1]+"集.mp4"
    x = threading.Thread(target=videos, args=(name, video,))
    x.start()
    print(name + "解析成功")
    # print(video)




def videos(name,url):
    bro= webdriver.Chrome(executable_path="./chromedriver.exe")
    bro.get(url)
    mp4_data = bro.page_source
    bro.quit()
    tree2 = etree.HTML(mp4_data)
    video= tree2.xpath("//*[@id='a1']/div[2]/video/@src")[0]
    x = threading.Thread(target=download, args=(name, video,))
    x.start()
    print(name+"正在下载")
    # print(video)


def download(name,url):
    headers={"User-Agent":UserAgent().random}
    response=requests.get(url=url,headers=headers).content
    with open(name,"wb")as fp:
        fp.write(response)
        print(name+"下载完成")

def main():
    dic = url_parse()
    data_parse(dic)


if __name__ == '__main__':
    main()

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,734评论 6 505
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,931评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,133评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,532评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,585评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,462评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,262评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,153评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,587评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,792评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,919评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,635评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,237评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,855评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,983评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,048评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,864评论 2 354

推荐阅读更多精彩内容