Python Week 1 - 爬取网页信息

Week 1

第一节练习项目:动手做自己的网页
<!DOCTYPE html>
<head>
    <meta charset="UTF-8">
    <title>Homework</title>
    <link rel="stylesheet" type="text/css" href="homework.css">
</head>
<body>
    <div class="header">
        <img src="images/blah.png">
        <ul class="nav">
            <li><a href="#">Home</a></li>
            <li><a href="#">Site</a></li>
            <li><a href="#">Other</a></li>
        </ul>
    </div>
    <div class="main-content">
        <h2>The blah</h2>
        <hr>
        <ul class="photos">
            <li><img src="images/0001.jpg" width="150" height="150"></li>
            <li><img src="images/0003.jpg" width="150" height="150"></li>
            <li><img src="images/0004.jpg" width="150" height="150"></li>
        </ul>
        <p>
            Wa! Wa! Wa! Wa! Wa!
        </p>
        <p>Wow!</p>
    </div>
    <div class="footer">
        <p>©MUGGLECODING</p>
    </div>
</body>
</html>

笔记:CSS 写得好就是省事,HTML 和 CSS 互相促进结构化……之前对其有大致了解,在此不深究

第二节练习项目:爬取商品信息
from bs4 import BeautifulSoup

with open('/Users/arischow/Downloads/Plan-for-combating-master/week1/1_2/1_2answer_of_homework/1_2_homework_required/index.html', 'r', encoding='utf-8') as wb_data:
    Soup = BeautifulSoup(wb_data, 'lxml')
    titles = Soup.select('div.caption > h4 > a')
    prices = Soup.select('div.caption > h4.pull-right')
    descs = Soup.select('div.caption > p')
    reviews = Soup.select('div.ratings > p.pull-right')
    rates = Soup.select('div.ratings > p:nth-of-type(2)')
    for title, price, desc, review, rate in zip(titles, prices, descs, reviews, rates):
        data = {
            'title': title.get_text(),
            'price': price.get_text(),
            'desc': desc.get_text(),
            'review': review.get_text(),
            'rate': len(rate.find_all('span', 'glyphicon glyphicon-star'))
        }
        print(data)

笔记:看手册,find_all 返回的会是一个 list,len 的值就代表有多少颗星星……

第三节练习项目:爬取租房信息
from bs4 import BeautifulSoup
import requests
import re

searchPage = ['http://bj.xiaozhu.com/search-duanzufang-p1-0/']
searchPages = ['http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(str(i)) for i in range(1,14)]
homePages = []


def get300():
    for url in searchPages:
        wb_data = requests.get(url)
        soup = BeautifulSoup(wb_data.text, 'lxml')
        links = soup.select('ul > li')
        for link in links:
            link = link.find_all(href=re.compile('fangzi'))
            for l in link:
                homePages.append(l.get('href'))
    return homePages

def get300info():
    for url in homePages:
        wb_data = requests.get(url)
        soup = BeautifulSoup(wb_data.text, 'lxml')
        titles = soup.select('body > div.wrap.clearfix.con_bg > div.con_l > div.pho_info > h4 > em')
        addrs = soup.select('body > div.wrap.clearfix.con_bg > div.con_l > div.pho_info > p > span.pr5')
        firstImgs = soup.select('#curBigImage')
        prices = soup.select('#pricePart > div.day_l')
        ownerImgs = soup.select('#floatRightBox > div.js_box.clearfix > div.member_pic > a > img')
        ownerNames = soup.select('#floatRightBox > div.js_box.clearfix > div.w_240 > h6 > a')
        genders = soup.select('#floatRightBox > div.js_box.clearfix > div.member_pic')

        for title, addr, firstImg, price, ownerImg, ownerName, gender in zip(titles, addrs, firstImgs, prices, ownerImgs, ownerNames, genders):
            data = {
                'title': title.get_text(),
                'addr': addr.get_text().strip(),
                'firstImg': firstImg.get('src'),
                'price': price.get_text(),
                'ownerImg': ownerImg.get('src'),
                'ownerName': ownerName.get_text(),
            }
            if gender.find_all(class_='member_ico1') != []:
                data['gender'] = 'female'
            else:
                data['gender'] = 'male'
            print(data)


get300()
get300info()

笔记:这个也是很久前就写好了,现在回想起来,感觉直接跑就可以了,根本不需要用 def 封装,房东性别不同,div.member_pic 所对应的 class 也不同,所以写个简单的 if 判断就可以搞定。

第一周实战作业:爬取一页商品数据
from bs4 import BeautifulSoup
import requests, time

url = 'http://bj.58.com/pbdn/0/'
header = {
    'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.94 Safari/537.36'
}
wb_data = requests.get(url, headers=header)
soup = BeautifulSoup(wb_data.text, 'lxml')
titles = soup.select('tr > td.t > a.t')  # 未过滤推广/转转商品
filters = []

for title in titles:
    if title.get('data-addtype') == None and title.get('onclick') == None:
        filters.append(title)
titles = filters[:]  # 过滤完毕, 复制列表

itemlinks = []
counter_base = 'http://jst1.58.com/counter?infoid='

for title in titles:
    itemlinks.append(title.get('href')[:title.get('href').find('?psid')])

for link in itemlinks:
    item_url = link
    item_url_digits_only = item_url[item_url.rfind('/') + 1 : -7]  # counter infoid 需要
    counter_url = counter_base + item_url_digits_only
    counter_header = {'Referer': item_url}
    item_data = requests.get(item_url, headers=header)
    item_soup = BeautifulSoup(item_data.text, 'lxml')

    # 爬取内容
    item_categories = item_soup.select('#header > div.breadCrumb.f12 > span:nth-of-type(3) > a')
    item_titles = item_soup.select('div.per_ad_left > div.col_sub.mainTitle > h1')
    item_published_dates = item_soup.select('ul.mtit_con_left.fl > li.time')
    item_prices = item_soup.select('div.col_sub.sumary > ul > li > div.su_con > span.price.c_f50')
    item_purities = item_soup.select('div.col_sub.sumary > ul > li:nth-of-type(2) > div.su_con > span')
    item_zones = item_soup.select('div.col_sub.sumary > ul > li:nth-of-type(3) > div.su_con > span')
    item_views = str(requests.get(counter_url, headers=counter_header).content)  #  将 byte 转化为 str 作字符串处理
    item_views = item_views[item_views.find('total=') + 6 : -1]  # 提取浏览量

    for c, t, pd, pr, pu, z in zip(item_categories, item_titles, item_published_dates, item_prices, item_purities, item_zones):
        zones = list(z.stripped_strings)  # print 一下就知道, 连那个 '-' 都在 list 里面, 没用的东西自然要去掉
        zones = [x for x in zones if x != '-']  # 不是 '-' 的加进 list, 换而言之就是 带 '-' 的去掉了
        data = {
            'Category': c.get_text(),
            'Title': t.get_text(),
            'Published Date': pd.get_text(),
            'Price': pr.get_text(),
            'Purity': pu.get_text().strip(),
            'Zone': list(z.stripped_strings),
            'Views': item_views,
            #'URL': item_url
        }
        print(data)

笔记:推广商品在 <a> 里面会带 'data-addtype=level2' 这个属性,而转转商品则会有 'onclick=xxxxxxxxx' 属性,而正常商品是不会有这两个属性的,所以写个判断把它们排除。item_views 返回的这堆字符串是要经过自己处理的,合理利用 find / lfind / rfind 处理起来会非常方便,另外header带着Referer 去爬 counter 是必须的,否则 js 返回的值始终为 0。多个地区的问题参考 1-2 时的代码,用stripped_strings,这里解决是解决了,不过感觉代码还可以精简。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,029评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,395评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,570评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,535评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,650评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,850评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,006评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,747评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,207评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,536评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,683评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,342评论 4 330
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,964评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,772评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,004评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,401评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,566评论 2 349

推荐阅读更多精彩内容

  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 171,800评论 25 707
  • 问答题47 /72 常见浏览器兼容性问题与解决方案? 参考答案 (1)浏览器兼容问题一:不同浏览器的标签默认的外补...
    _Yfling阅读 13,737评论 1 92
  • 坚强,独立,是唯一的选择, 寂寞的时候放首歌给自己听、伤心的时候找个角落擦擦眼泪,告诉自己这都不是事儿,时刻提醒自...
    雪莲_b675阅读 635评论 0 0
  • 文/袁速珍 擦亮心情, 有暗香盈绕; 心上开花。 日子天天过, 不是背负, 如踩在脚下升腾的祥云。 日日童音伴和,...
    春江水满阅读 184评论 0 4
  • 《自私的基因》,[英] 理查德 · 道金斯 The Selfish Gene, Richard Dawkins 大...
    风不停留ken阅读 470评论 0 2