python3爬取淘宝美食

利用python3来爬取淘宝美食商品列表.

爬取流程:

搜索关键字: 用selenium打开浏览器,模拟输入关键字,并搜索对应的商品列表.

分析页码并翻页,模拟翻页,查看到所有页面的商品列表.

分析并提取商品,利用Pyquery分析源码,解析得到商品列表.

存储到MONGODB数据库,将商品列表信息存储到mongoDB数据库.

环境:

ubuntu16.04

python3.5

python库: selenium ,pyquery, pymongo,re

分析过程如下:

1.找到搜索框: 复制元素

2.找出搜索按钮元素,并复制

3.查找美食的总页数

4.查看 "到第几页的输入框" 的元素.

5.确定按钮的元素

6.判断翻页的数字是否和当前页码一致,一致则表明该数字是高亮显示.表示当前页的页码.

7.找到商品列表的元素:

mongodb安装:

#wget --no-cookie --no-check-certificate https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-ubuntu1604-4.0.2.tgz

#tar -zxvf mongodb-linux-x86_64-ubuntu1604-4.0.2.tgz

#mv mongodb-linux-x86_64-ubuntu1604-4.0.2 mongodb4

#mkdir mongodb4/dbdata

#export PATH=$PATH:mongodb4/bin

启动mongodb:

# nohup mongod --dbpath=/data/services/nosql/mongodb4/dbdata &

具体使用请查看:

菜鸟教程: http://www.runoob.com/mongodb/mongodb-tutorial.html

本篇文章采用:

python3.5调取无界面火狐浏览器访问.并将打印出的数据存入mongoDB数据库.

代码如下:

taobaomeishi.py

#!/usr/bin/env python

# -*- coding:utf-8 -*-

#设置mongodb客户端访问

client = pymongo.MongoClient(MONGO_URL)

db = client[MONGO_DB]

#设置无界面访问

opt = webdriver.FirefoxOptions()

opt.set_headless()

browser = webdriver.Firefox(options=opt)

#等待浏览器加载页面成功.

wait = WebDriverWait(browser,10)

#打开浏览器,搜索美食,查看所有页数

defsearch():

try:

#后台打开浏览器

browser.get('https://www.taobao.com')

#用CSS选择器复制搜索框

input = wait.until(

EC.presence_of_element_located((By.CSS_SELECTOR,'#q'))

)

#找到搜索按钮.

submit = wait.until(

# EC.element_to_be_clickable((By.CSS_SELECTOR,'#J_TSearchForm .search-button')))

EC.element_to_be_clickable((By.CSS_SELECTOR,'#J_TSearchForm > div.search-button > button')))

#输入关键字

input.send_keys('美食')

#点击搜索按钮.

submit.click()

#输出总共的页数.

total=wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,'.total')))

#调取商品列表的函数.

get_products()

returntotal.text

exceptTimeoutException:#超时错误.

returnsearch()

#翻页

defnext_page(page_number):

try:

#注意在firefox和chrome浏览器复制出来的元素不太一样.

#要传入的页码:到第几页

input = wait.until(

EC.presence_of_element_located((By.CSS_SELECTOR,'input.input:nth-child(2)'))

)

#复制确定按钮的元素:

submit = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR,'span.btn:nth-child(4)')))

#清除页码

input.clear()

#输入当前页码

input.send_keys(page_number)

#点击确定按钮.

submit.click()

#判断当前页码是否是当前数字:复制高亮页码数.

wait.until(EC.text_to_be_present_in_element((By.CSS_SELECTOR,'span.num'),str(page_number)))

get_products()

exceptTimeoutException:

next_page(page_number)

#解析jquery源码

defget_products():

#商品列表:

wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,'#mainsrp-itemlist .items .item')))

#获取网页源码

html = browser.page_source

doc = pq(html)

items = doc('#mainsrp-itemlist .items .item').items()

foriteminitems:

#定义商品列表详细信息的字典

product = {

'title': item.find('.title').text(),

'price': item.find('.price').text(),

'image': item.find('.pic .img').attr('src'),

'shop': item.find('.shop').text(),

'deal': item.find('.deal-cnt').text()[:-3],

'location': item.find('.location').text()

}

print(product)

#将商品列表信息保存到mongoDB数据库.

save_to_mongo(product)

#保存到mongoDB的函数:

defsave_to_mongo(result):

try:

ifdb[MONGO_TABLE].insert(result):

print('存储到mongodb成功',result)

exceptException:

print('存储到mongodb失败',result)

#执行相关操作:

defmain():

total = search()

#用正则表达式只匹配出数字,并打印数字.

total =int(re.compile('(\d+)').search(total).group(1))

print(total)

foriinrange(2,total +1):

next_page(i)

if__name__=='__main__':

main()

#关闭无界面浏览器.

browser.quit()

#mongoDB.py配置:

#!/usr/bin/env python

# -*- coding:utf-8 -*-

MONGO_URL ='localhost'

MONGO_DB ='taobao'

MONGO_TABLE ='meishi'

效果如下:

网页技术更新比较快.但是爬虫技术万变不离其宗.本人也在学习中. 编程的世界,到处充满着惊喜.不过还需要你脚踏实地的去研究,去探索. 更多的惊喜还等着你去挖掘,还在等什么呢?

chrome驱动和firefox驱动请参考本人博客:

http://blog.51cto.com/liyuanjie/2128660

写的比较详细,本人文笔不是很好,不喜勿喷.谢谢各位支持.

  • 发表于:
  • 原文链接:https://kuaibao.qq.com/s/20180909G0XSJB00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券