首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

使用requests+BeautifulSoup的简单爬虫练习

这是日常学python的第17篇原创文章

上篇文章说了BeautifulSoup库之后,今篇文章就是利用上篇的知识来爬取我们今天的主题网站:猫眼电影top100。这个网站也挺容易的,所以大家可以先自己爬取下,遇到问题再来看下这篇文章哈。

这篇文章主要是练习而已,别无用处,大佬请绕道哈!

1、本文用到的库及网站

requests

BeautifulSoup

目标网站:http://maoyan.com/board/4

2、分析目标网站

很容易找到我们想要的信息,上面的5的箭头都是我们想要的信息,分别是电影图片地址、电影名字、主演、上演时间和评分。内容有了,接下来就是获取下一页的链接。

这里有两种方法,第一种就是在首页获取所有页的链接,第二种方法就是获取每个页面的下一页的链接。在这里由于只是给了部分页面的链接出来,所以我们获取的是下一页的链接,这样子方便点。

好了,分析完毕,接下来代码撸起。

3.敲代码

什么都不管,立即来个get请求

输出结果:

惊不惊喜,意不意外?如果你经常玩爬虫的,这个就见怪不怪了,我们被反爬了。我们试下加个请求头试试。

这样就可以正常返回了,因为一般的网站都会在请求头上加个反爬的,所以遇到了反爬也不要着急,加个请求头试试?

接下来用BeautifulSoupL来获取内容

这里每个获取的语句都包含了每个不同电影的信息,这样就不能和正则那样一次把每个电影的信息都在同一个字符里面了。就比如我获取的图片,一个语句获取的是这个页面的所有电影图片的链接,我们存储的时候就要分别取出来了。这里我用到的是for循环0到9把相同的坐标的信息存进同一个字典里面。

接下来就是获取每一页的链接

后面的就简单了,就是利用循环把所有页面的内容都去取出来就可以了,代码就不贴出来了。

写在最后

这个就是BeautifulSoup库的小练习,用到昨天的内容不多,只是用到了选择器部分和获取文本内容和属性部分,感觉还是正则比较好用点哈,我一个正则就可以获取每个电影的详细内容了,如下:

还需要用到个匹配模式哈:re.S就可以了。所以本人推荐使用正则表达式哈。

需要完整代码的请查看我的github哈!

github:https://github.com/SergioJune/gongzhonghao_code/blob/master/python3_spider/index.py

如果这篇文章对你有用,点个赞,转个发如何?

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180406A1B8UN00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券