首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

python爬虫常用模块!python控制浏览器的三种方法!

第一种:selenium导入浏览器驱动,用get方法打开浏览器

写爬虫大家可能会用到selenium,它是一个web的自动化测试工具可以让浏览器自动去加载或者运行一些操作,而chromedriver是一个能够被selenium驱动的浏览器(是有界面的,PhantomJS是无界面的浏览器),所以大家在结合selenium和chromedriver的使用,特别是做一些验证码和自动登陆获取cookie这类的操作很方便。

第二种:通过导入python的标准库webbrowser打开浏览器

webbrowser 是 Python 自带的包,可以自动打开浏览器。

其中,get() 函数中是浏览器的名字,可以是 chrome 也可以是 safari。

第三种:使用Splinter模块

Splinter的使用必修依靠Cython、lxml、selenium这三个软件

splinter是基于selenium的上层应用API,它可以模拟浏览器的操作,比如说填充、选择、点击等,使用时甚至可以像看电影一般看到浏览器一步一步的自动操作。当时,速度较慢,毕竟是模拟鼠标键盘操作。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20210930A0985700?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券