首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

即不充值影视Vip,也不去电影院,为何Python爬虫师是这种人?

Python多线程爬取电资源的迅雷下载地址,可以再写一个迅雷下载程序进去,不过不建议这样,因为这样所占的内存太大了。

也许有些对Python爬虫并不是很了解的朋友,来此看小编的博文得不到收获,那么我先介绍一下爬虫的原理。

无数的网页地址(url)编织成一张网,称之为网络。爬虫工作时会精心选取一些URL作为起点,从这些起点出发,抓取并解析所抓取到的页面,将页面中所需要的信息提取出来,同时获得的新的URL插入到队列中作为下一次爬取的起点。这样不断地循环,直到获取你想得到的所有的信息。

此Python爬虫程序实现第一步,分析电影天堂网站的首页结构。

解析首页地址 提取分类信息

在此函数中,第一步就是把网页的html源码下载下来,由XPath解析出其中的菜单分类信息,并创建相应的文件目录。

解析每个分类的主页

打开所有分类的首页可以看到全部有一个相同的结构,首先解析出包含资源URL的节点,然后将名称和URL提取出来。

解析资源地址保存到文件中

把提取出来的信息保存到一个文件夹中即可,为了能够提高爬虫程序的运行效率,利用了Python多线程进行抓取,在此为所有的分类主页各开辟了一个线程,极大地提升爬虫的效率。

爬取的结果

文件夹分类

文本地址与对应的电影名称

打开后得到文本地址

Python全部代码

但是我还是得说一声,爬虫的核心为爬取所能看到的东西,就是说别人没有公布的是不能看到的。要充值影视VIP才可以爬取VIP电影,这点是没法改变的,我们能做的只有借一个账号,一次性爬取完保存。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180710A1FB4B00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券