前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >爬点重口味的 。

爬点重口味的 。

作者头像
小小詹同学
发布2018-11-23 13:49:59
1.3K0
发布2018-11-23 13:49:59
举报
文章被收录于专栏:小詹同学小詹同学

读者来稿 。BTW ,加星标不迷路噢 !

小弟最近在学校无聊的很哪,浏览网页突然看到一张图片,对面的女孩看过来(邪恶的一笑),让人想入非非啊,一看卧槽,左边这妹子彻底赢了,这(**)这么大,还这么漂亮,谁受的了啊,都快流鼻血。。。

然后小弟冥思苦想,得干一点有趣的事情,想了想,python 这么叼,来个Python爬取奶罩信息的案例试试。于是乎,小弟迫不及待了,想要撸一把(当然是代码啦)

大家随我去逛逛淘宝商城吧,驾驾驾,快马加鞭,当当当,一搜,好多啊,好漂亮啊,好大啊,上图上图,小心你的鼻子哦(嘻嘻)

好,今天我们就来好好的撸一把吧,爽他一吧。准备给大家来一波午夜福利 。我们来看看我们今天需要用到什么利器,

神器准备

代码语言:javascript
复制
import requests
import json
import csv
  1. requests 库:就想象成你搜索美图链接,
  2. json 库:就是数据加载了,你看到了大奶妞那张图
  3. csv 库:你想想,这样不过瘾啊,必须把它保存下来啊,每天看她个几百遍

经过我的使尽吃奶的力气,分析了一遍,闻到了阵阵奶香的味道。我们把它的请求链接拿出来研究一下

代码语言:javascript
复制
https://s.taobao.com/api?_ksTS=1540176287763_226&callback=jsonp227&ajax=true&m=customized&sourceId=tb.index&_input_charset=utf-8&bcoffset=-1&commend=all&suggest=history_1&source=suggest&search_type=item&ssid=s5-e&suggest_query=&spm=a21bo.2017.201856-taobao-item.2&q=内衣女&s=36&initiative_id=tbindexz_20170306&imgfile=&wq=&ie=utf8&rn=9e6055e3af9ce03b743aa131279aacfd

经过各种奇淫技巧,原来她。。。

代码语言:javascript
复制
https://s.taobao.com/api?callback=jsonp227&m=customized&q=内衣女&s=36

行了,开撸吧。老铁们,稳住,上车了

功能实现

根据我们的火眼金睛,对奶罩各种信息的分析,看穿秋水啊,鼻血就差一点流出来了,还好忍住了,代码应该这样撸:

代码语言:javascript
复制
import requests
import json
url = "https://s.taobao.com/api?callback=jsonp227&m=customized&q=内衣女&s=36"
r = requests.get(url)
response = r.text
# 截取成标准的JSON格式
# 由于Ajax返回的数据是字符串格式的饿,在返回的值jsonp227(XXX)中
# XXX部分是JSON格式数据,因此先用字符串split()截取XXX部分,
#然后将XXX部分由字符串格式转成JSON格式的数据读取
response = response.split('(')[1].split(')')[0]
# 读取JSON
response_dict = json.loads(response)
# 定位到商品信息列表
response_auctions_info = response_dict['API.CustomizedApi']['itemlist']['auctions']

想了又想,时间过的太快了,不行啊,只看一遍不行,来他个88遍循环,爽个够吧,兄弟们,(脑壳不疼?):

代码语言:javascript
复制
for p in range(88):
    url = "https://s.taobao.com/api?callback=jsonp227&m=customized&q=内衣女&s=%s" % (p)
    r = requests.get(url)
    # 获取响应信息字符串
    response = r.text
    # 转换成JSON格式
    response = response.split('(')[1].split(')')[0]
    # 加载数据
    response_dict = json.loads(response)
    # 商品信息
    response_auctions_info = response_dict['API.CustomizedApi']['itemlist']['auctions']

还是看的不爽啊,再加一层,:

代码语言:javascript
复制
for k in ['内衣女','内衣']:
for p in range(88):
    url = "https://s.taobao.com/api?callback=jsonp227&m=customized&q=%s&s=%s" % (k,p)
    r = requests.get(url)
    response = r.text
    response = response.split('(')[1].split(')')[0]
    response_dict = json.loads(response)
    # 商品信息
    response_auctions_info = response_dict['API.CustomizedApi']['itemlist']['auctions']

数据存储

你想了又想,要是今天看爽了,那明天要是想再看看呢,怎么办啊,小弟告诉你个好方法,偷偷的点击收藏啊,保存下来啊,小弟现在就教你如何储存奶罩信息:

代码语言:javascript
复制
def get_auctions_info(response_auctions_info,file_name):
    with open(file_name,'a',newline='') as csvfile:
        # 生成CSV对象,用于写入CSV文件
        writer = csv.writer(csvfile)
        for i in response_auctions_info:
            # 判断是否数据已经记录
            if str(i['raw_title']) not in auctions_distinct:
                # 写入数据
                # 分别是商品信息列表和CSV文件路径。
                # 但该文件并没有对CSV设置表头,所以在开始获取数据之前。
                # 应该生成对应CSV文件,并设定其表头
                writer.writerrow([i['raw_title'],i['view_price'],i['view_sales'],i['nick'],i['item_loc']])

                auctions_distinct.append(str(i['raw_title']))
        csvfile.close()

哇,好辛苦啊,撸的这么辛苦,希望各位尽情享受吧 。最后贴出爬取内容信息如下:

内衣信息

总结

  1. 祝大家泡妞成功
  2. 给老婆买这个,记得回来看这篇文章哦
  3. 去除无用的链接的参数,简化链接
  4. 分析URL的请求参数含义以及响应内容的数据规律
  5. 数据储存的去重判断
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-10-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 小詹学Python 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 神器准备
  • 功能实现
  • 数据存储
  • 总结
相关产品与服务
数据保险箱
数据保险箱(Cloud Data Coffer Service,CDCS)为您提供更高安全系数的企业核心数据存储服务。您可以通过自定义过期天数的方法删除数据,避免误删带来的损害,还可以将数据跨地域存储,防止一些不可抗因素导致的数据丢失。数据保险箱支持通过控制台、API 等多样化方式快速简单接入,实现海量数据的存储管理。您可以使用数据保险箱对文件数据进行上传、下载,最终实现数据的安全存储和提取。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档