前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python爬虫获取基金信息

Python爬虫获取基金信息

原创
作者头像
小白学大数据
发布2022-06-07 16:44:14
3740
发布2022-06-07 16:44:14
举报
文章被收录于专栏:python进阶学习python进阶学习

经常在爬虫群里面看到大家讨论各种购买基金经验,前几天还有粉丝找我获取基金信息,这里拿出来分享一下,感兴趣的小伙伴们,也可以积极尝试。

这里我们的数据来源是某基金官网,需要抓取的数据重点过程如下:

通过对网站的详细分析可以看出有不同的数字,随机点击一个,可以进入到基金详情页,链接也非常有规律,都以基金代码作为标志的。

其实这个网站倒是不难,数据什么的,都没有加密,网页上的信息,在源码中都可以直接看到,这样就降低了抓取难度了。难度不大不代表就很简单,在分析过程中发现还是有反爬机制的。在爬虫程序里面的使用过程也很简单,以下就是代理的实现过程:

代码语言:javascript
复制
#! -*- encoding:utf-8 -*-

    import requests
    import random

    # 要访问的目标页面
    targetUrl = "http://httpbin.org/ip"

    # 要访问的目标HTTPS页面
    # targetUrl = "https://httpbin.org/ip"

    # 代理服务器(产品官网 www.16yun.cn)
    proxyHost = "t.16yun.cn"
    proxyPort = "31111"

    # 代理验证信息
    proxyUser = "username"
    proxyPass = "password"

    proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {
        "host" : proxyHost,
        "port" : proxyPort,
        "user" : proxyUser,
        "pass" : proxyPass,
    }

    # 设置 http和https访问都是用HTTP代理
    proxies = {
        "http"  : proxyMeta,
        "https" : proxyMeta,
    }


    #  设置IP切换头
    tunnel = random.randint(1,10000)
    headers = {"Proxy-Tunnel": str(tunnel)}



    resp = requests.get(targetUrl, proxies=proxies, headers=headers)

    print resp.status_code
    print resp.text

将获取到的数据信息做相应的字符串处理,

有了这个,我们就可以做进一步的统计和数据分析了。本文分享的都是最基础的爬虫知识,下次跟大家分享两个更简单的方式,但是实现门槛会高些。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档