腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
杂七杂八
专栏作者
举报
129
文章
155539
阅读量
39
订阅数
订阅专栏
申请加入专栏
全部文章(129)
其他(35)
python(17)
java(13)
https(12)
网络安全(11)
数据库(9)
spring(9)
编程算法(9)
sql(6)
numpy(6)
html(5)
http(5)
NLP 服务(4)
git(4)
api(4)
linux(4)
存储(4)
爬虫(4)
scrapy(4)
云数据库 SQL Server(3)
matlab(3)
神经网络(3)
腾讯云测试服务(3)
人工智能(3)
jdk(3)
windows(3)
数据挖掘(2)
机器学习(2)
php(2)
xml(2)
css(2)
json(2)
android(2)
ide(2)
eclipse(2)
github(2)
maven(2)
知识图谱(2)
网站(2)
图像识别(2)
卷积神经网络(2)
mybatis(2)
spring boot(2)
tcp/ip(2)
markdown(2)
anaconda(2)
tensorflow(1)
jquery(1)
sqlite(1)
django(1)
打包(1)
windows server(1)
容器镜像服务(1)
深度学习(1)
数据加密服务(1)
出行(1)
容器(1)
开源(1)
缓存(1)
ssh(1)
强化学习(1)
正则表达式(1)
yum(1)
面向对象编程(1)
opencv(1)
jdbc(1)
监督学习(1)
决策树(1)
ftp(1)
自动化测试(1)
pytorch(1)
selenium(1)
小程序(1)
数据处理(1)
数据结构(1)
ascii(1)
app(1)
count(1)
image(1)
ip(1)
list(1)
ode(1)
paste(1)
png(1)
search(1)
service(1)
set(1)
size(1)
代理(1)
分页(1)
配置(1)
手机(1)
主机(1)
搜索文章
搜索
搜索
关闭
selenium使用
selenium
自动化测试
爬虫
java
pip insatll selenium 由于如果需要使用selenium的话,需要为本机配置对应浏览器的驱动,下面以chomedriver为例,首先安装chromedriver,chrome版本可以在标签页输入chrome://version/看到。chromedriver下载地址,其版本与支持对应的chrome版本如下: v2.41 v67-69 v2.40 v66-68 v2.39 v66-68 v2.38 v65-67 v2.37 v64-66 v2.36 v63-65 v2.35 v62-64 v2.34 v61-63 v2.33 v60-62 v2.32 v59-61 v2.31 v58-60 v2.30 v58-60 v2.29 v56-58 v2.28 v55-57 v2.27 v54-56 v2.26 v53-55 v2.25 v53-55 v2.24 v52-54 v2.23 v51-53 v2.22 v49-52 v2.21 v46-50 v2.20 v43-48 chromedriver解压后放到Python或者其他配置了环境变量的目录下。
听城
2018-08-30
936
0
爬虫简单应用之爬取京东手机图片
爬虫
手机
import re import urllib.request #只能爬取非延时加载的图片,匹配方式为正则匹配 def craw(url,page): #decode之后html字符串将以页面形式展现 # 正则匹配时需要加上re.S来匹配换行符,因为.默认不匹配换行符 #也可以不加re.S,这时就不要decode,html中中文以unicode字符展现, # 此时html为bytes,需要强转为str进行匹配 html = urllib.request.urlope
听城
2018-04-27
549
0
Scrapy爬取妹子图
爬虫
scrapy
本来呢,一开始想爬取的是这个网站,http://www.mzitu.com/,但是呢?问题发现比较多,所以先爬取了http://www.meizitu.com/这个网站,下一步再去爬取第一个。 Gi
听城
2018-04-27
1.5K
0
Scrapy爬取伯乐在线
scrapy
爬虫
python
云数据库 SQL Server
Scrapy爬取伯乐在线文章 准备工作: python环境,我是用Anaconda Scrapy环境,上一篇文章提到过 MySQL,我们准备将爬取的数据保存到MySQL数据库中 创建项目 首先通过scrapy命令创建项目 爬取数据整体逻辑 分析一下整个流程,可以分为两个部分。一,分析列表页面结构,获取每一篇文章的链接和图片地址以及下一个列表页地址。二,进入文章单页获取想要的内容数据。因此代码如果都写在一起显得非常臃肿,难以阅读。因此可以在parse函数处理第一部分逻辑,然后通过Request函数发送请求进行
听城
2018-04-27
790
0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档