前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >基于bs4+requests爬取世界赛艇男运动员信息

基于bs4+requests爬取世界赛艇男运动员信息

作者头像
潇洒坤
发布2018-09-10 09:48:15
7290
发布2018-09-10 09:48:15
举报
文章被收录于专栏:简书专栏简书专栏

2018年8月22日笔记

新手学习如何编写爬虫,可以注册1个网易账号,在网易云课堂上学习《Python网络爬虫实战》,链接:http://study.163.com/course/courseMain.htm?courseId=1003285002

0.制定需求

爬取每个运动员的姓名name、位置position、图片链接img_url、性别sex、生日birthday、国家country这6个字段。

该网站未设置反爬策略,网页中的字段为静态信息,容易爬取。

目录页面有姓名name、位置position、图片链接img_url这3个字段;

详情页面有性别sex、生日birthday、国家country这3个字段。

1.观察数据

2018年23岁以下世界赛艇锦标赛链接:http://www.worldrowing.com/events/2018-world-rowing-under-23-championships/u23-mens-eight/

网站页面如下图所示:

image.png

点击上图红色箭头所示位置,会出现运动员列表,如下图所示:

image.png

2.查看标签

在chrome浏览器中点击F12键,可以弹出程序员调试工具。

360浏览器使用了一部分的chrome浏览器内核,也可以点击F12键弹出程序员调试工具。

调试工具中有一个按钮可以直接找出网页内容在网页源代码中的位置

点击下面红色箭头标注的按钮,如下图所示:

image.png

点击上图所示按钮后,再选中下图红色方框所示位置:

image.png

此时在程序员调试工具中可以看到已经准确定位第1位运动员名字在源代码中的位置,如下图所示:

image.png

通过观察网页html文件查看字段对应标签和标签的层次结构,我们就可以开始编写代码实现我们的爬虫。

其他字段的观察方法相同。

3.编写爬虫代码

编写代码的编程环境为jupyter notebook,如何打开jupyter notebook查看此链接:https://cloud.tencent.com/developer/article/1331843

requests库用于发送网页请求,并获得网页响应。

bs4库是BeautifulSoup工具的第4个版本,用于解析网页。

下面2行代码导入2个库,如果不导入则无法使用此库的方法。

第1行代码从bs4库中导入BeautifulSoup方法,取个别名bs,可以少编写代码。

代码语言:javascript
复制
from bs4 import BeautifulSoup as bs
import requests

requests库的get方法是模拟浏览器发送请求,需要1个参数,参数为请求链接,参数的数据类型为字符串。

bs4库的BeautifulSoup方法是实例化对象,需要2个参数。第1个参数为网页源代码,参数的数据类型为字符串;第2个参数为解析网页方法,参数的数据类型为字符串。

代码语言:javascript
复制
response = requests.get('http://www.worldrowing.com/events/2018-world-rowing-under-23-championships/u23-mens-eight/')
soup = bs(response.text, 'html.parser')

从目录页面获取100个运动员的姓名name、位置position、图片链接img_url这3个字段,并打印,代码如下:

因为图片展示效果,取运动员的前5个打印,athlete_list:5即选前5个。

代码语言:javascript
复制
athlete_list = soup.select('tr.resultsDetails li')
for athlete in athlete_list[:5]:
    name = athlete.select('h4 a')[0].text
    position = athlete.select('p.yPadding')[0].text.strip()
    img_url = 'http://www.worldrowing.com' + athlete.select('img')[0]['src']
    print(name, position, img_url)

上面一段代码的运行结果如下图所示:

image.png

爬取详情页面时,需要使用requests库的get方法重新发起请求,再使用bs4库的方法进行解析。

4.完整代码

第8行代码循环遍历每个运动员。

第9行代码定义变量item为字典,每抓取1个字段信息,则保存为字典的1个键值对。

第19行代码item_list.append(item)将变量item加入列表item_list中。

第21、22行代码将抓取的信息保存为athleteRecord.xlsx文件。

代码如下:

代码语言:javascript
复制
from bs4 import BeautifulSoup as bs
import requests

response = requests.get('http://www.worldrowing.com/events/2018-world-rowing-under-23-championships/u23-mens-eight/')
soup = bs(response.text, 'html.parser')
athlete_list = soup.select('tr.resultsDetails li')
item_list = []
for athlete in athlete_list:
    item = {}
    item['name'] = athlete.select('h4 a')[0].text
    item['position'] = athlete.select('p.yPadding')[0].text.strip()
    item['img_url'] = 'http://www.worldrowing.com' + athlete.select('img')[0]['src']
    detail_url = 'http://www.worldrowing.com' + athlete.select('h4 a')[0]['href']
    response = requests.get(detail_url)
    soup = bs(response.text, 'html.parser')
    item['sex'] = soup.select('div.dd')[0].text
    item['birthdday'] = soup.select('div.dd')[1].text
    item['country'] = soup.select('h1.athleteInfoTitle span')[0].text
    item_list.append(item)
    
import pandas as pd
df = pd.DataFrame(item_list, columns=item_list[0].keys())
df.to_excel('athleteRecord.xlsx')
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.08.22 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 0.制定需求
  • 1.观察数据
  • 2.查看标签
  • 3.编写爬虫代码
  • 4.完整代码
相关产品与服务
云课堂
云课堂聚焦教培机构 OMO 转型,为机构提供在线及混合式课堂解决方案,极速开课、多向互动、智能沉淀、一键分发,是教培课堂便捷、稳定的教学助手。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档