前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >爬虫篇(2)——爬取博客内容页面分析代码分析

爬虫篇(2)——爬取博客内容页面分析代码分析

作者头像
DC童生
发布2018-04-28 11:42:26
6770
发布2018-04-28 11:42:26
举报
文章被收录于专栏:机器学习原理机器学习原理
  • 对博客网站博客园首页的200页网站进行内容爬取
  • 用lxml和xpath进行爬取数据

页面分析

  • 主页面

image.png

主页面数据页面

image.png

  • 副页面

image.png

代码分析

1.获取200个主页面的网站

2.每个主页面的20个副页面的网站

3.每个副页面的内容

4.保存起来

  • 对比实战1多了一个主页面的下拉框 类似的网站也有淘宝等等

代码实现

  • 获取200个主页面的网站
代码语言:javascript
复制
from lxml import etree
import requests
url = "https://www.cnblogs.com/"
url01=url[:-1]
url_List = []
while True:
    r = requests.get(url).text

    re = etree.HTML(r)
    content=re.xpath("//div[@class='pager']/a[last()]/text()")[0]
    s_url=re.xpath("//div[@class='pager']/a[last()]/@href")[0]
    if content == "Next >":
        url = url01 + s_url
        url_List.append(url)
    else:
        break
  • 每个主页面的20个副页面的网站
代码语言:javascript
复制
r = requests.get(url,head).content.decode("utf-8")
#解析
html = etree.HTML(r)
#获取数据(每一篇帖子的url)
list_url = html.xpath('//h3/a/@href')# list_url = html.xpath('//div[@class="post_item_body"]/h3/a/@href')
  • 每个副页面的内容
代码语言:javascript
复制
    for x in list_url:
        r01 = requests.get(x, head).content.decode("utf-8")
        html01 = etree.HTML(r01)
        title = html01.xpath('//a[@id="cb_post_title_url"]/text()')
        content = html01.xpath("string(//div[@id='cnblogs_post_body'])")
  • 保存
代码语言:javascript
复制
    with open("cn-blog.csv", "a+", encoding="utf-8") as file:
            file.write(title[0] + "\n")
            file.write(content + "\n")
            file.write("*" * 50 + "\n")
  • 完整代码如下:
代码语言:javascript
复制
from lxml import etree
import requests
url = "https://www.cnblogs.com/"
head ={
    'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.119 Safari/537.36'
}
url01=url[:-1]
for x in range(199):
    r = requests.get(url).text
    re = etree.HTML(r)
    s_url=re.xpath("//div[@class='pager']/a[last()]/@href")[0]
    url=url01+s_url
    list_url = re.xpath('//h3/a/@href')
    for x in list_url:
        r01 = requests.get(x, head).content.decode("utf-8")
        html01 = etree.HTML(r01)
        title = html01.xpath('//a[@id="cb_post_title_url"]/text()')
        content = html01.xpath("string(//div[@id='cnblogs_post_body'])")
        # 保存内容
        with open("cn-blog.csv", "a+", encoding="utf-8") as file:
            file.write(title[0] + "\n")
            file.write(content + "\n")
            file.write("*" * 50 + "\n")

爬虫篇(4)——qq音乐爬取

爬虫篇(3)——招聘信息爬取

爬虫篇(1)——从爬取练习题开始

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.02.06 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 页面分析
  • 代码分析
相关产品与服务
腾讯云代码分析
腾讯云代码分析(内部代号CodeDog)是集众多代码分析工具的云原生、分布式、高性能的代码综合分析跟踪管理平台,其主要功能是持续跟踪分析代码,观测项目代码质量,支撑团队传承代码文化。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档