前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python-数据挖掘-贴吧案例-上

Python-数据挖掘-贴吧案例-上

作者头像
小团子
发布2019-07-18 15:10:19
9360
发布2019-07-18 15:10:19
举报
文章被收录于专栏:数据云团数据云团

Python-数据挖掘-请求与响应

代码语言:javascript
复制
https://tieba.baidu.com/f?kw=爬虫&ie=utf-8&pn=200

https://tieba.baidu.com/f? 是基础部分,问号后面的 “kw=爬虫&ie=utf-8&pn=200”是参数部分。参数部分的“爬虫”是搜索的关键字,pn 值与贴吧的页码有关。如果 n 表示第几页,那么 pn 参数的值是按照 (n-1) * 50 的规律进行赋值。

百度贴吧中的爬虫吧,前三页对应的 URL 地址:

代码语言:javascript
复制
https://tieba.baidu.com/f?kw=爬虫&ie=utf-8&pn=0
https://tieba.baidu.com/f?kw=爬虫&ie=utf-8&pn=50
https://tieba.baidu.com/f?kw=爬虫&ie=utf-8&pn=100

使用 urllib 库来爬取爬虫贴吧第1~3页的内容,并将爬取到的内容保存到文件中。

① 提示用户输入要爬取的爬取名,以及要查询的起始页和结束页。然后,使用 urllib.parse.urlencode() 对 url 参数进行转码,组合成一个完整的可访问的 URL。

代码语言:javascript
复制
if __name__== "__main__":
  kw = input("请输入要爬取的贴吧名:")
  begin_page = int(input("请输入起始页:"))
  end_page = int(input("请输入结束页:"))
  url = "https://tieba.baidu.com/f?"
  key = urllib.parse.urlencode({"kw": kw})
  url = url + key
  tieba_spider(url, begin_page, end_page)

② 用于爬取百度贴吧的函数,该函数需要传递3个参数,分别是 URL 地址,表示爬取页码范围的起始页码和终止页码。

代码语言:javascript
复制
def tieba_spider(url, begin_page, end_page):
  for page in range(begin_page, end_page + 1):
    pn = (page - 1) * 50
    file_name = "第" + str(page) + "页.html"
    full_url = url + "&pn=" + str(pn)
    html = load_page(full_url, file_name)
    write_page(html, file_name)

待续~

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-03-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数据云团 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档