首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

使用scrapy抓取股票代码

源码地址:https://github.com/geeeeeeeek/scrapy_stock 抓取工具:scrapyscrapy介绍Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架...其最初是为了 页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。...选择一个网站这里我们选择的是东方财富网的股票代码页面:http://quote.eastmoney.com/stocklist.html定义要抓取的数据我们需要抓取股票的代码id,因此只需要定义stock_idclass...stock_ids_sh201000s_sh201001s_sh201002s_sh201003s_sh201004s_sh201005s_sh201008s_sh201009s_sh201010s_sh202001s_sh202003s_sh202007s_sh203007s_sh203008s_sh203009…如果要查询单个股票股票行情...,可以使用新浪的股票接口:http://hq.sinajs.cn例如http://hq.sinajs.cn/list=s_sh600756即可得到浪潮软件的股票行情var hq_str_s_sh600756

20000

使用scrapy抓取股票代码

个人博客:https://mypython.me 源码地址:https://github.com/geeeeeeeek/scrapy_stock 抓取工具:scrapy scrapy介绍 Scrapy...其最初是为了 页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。...选择一个网站 这里我们选择的是东方财富网的股票代码页面:http://quote.eastmoney.com/stocklist.html 定义要抓取的数据 我们需要抓取股票的代码id,因此只需要定义...s_sh201008 s_sh201009 s_sh201010 s_sh202001 s_sh202003 s_sh202007 s_sh203007 s_sh203008 s_sh203009 … 如果要查询单个股票股票行情...,可以使用新浪的股票接口: http://hq.sinajs.cn 例如 http://hq.sinajs.cn/list=s_sh600756 即可得到浪潮软件的股票行情 var hq_str_s_sh600756

91100
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    股票分析神器-零代码自动抓取分析股票数据?

    如果你是一个股民:想要批量抓取对应股票的交易价格、交易数据进行选股?如果你是财务/商业分析/理财从业人员:需要每天定时更新的股票数据?...不用复制粘贴,也不用写python,今天教你一个零代码可以自动抓取股票交易数据的好办法。来看看我自动化的效果吧!...(目前调取股票信息的接口需要Tushare账户达到120积分,一般注册后修改个人信息即可免费调取;调取限制:120积分每分钟内最多调取500次,每次5000条数据,相当于单次提取23年历史,该接口只能查询沪深股票...操作条件:选择“查询股票日线行情“,添加账号把Tushare里的接口token复制粘贴过来。配置这里,股票代码目前支持沪深股票,规范输入需要查询的股票代码,用英文逗号分隔。...【点击测试预览】,我们就可以获得比如一个样本数据,看到我们可以抓取的数据样本:第三步:写入腾讯文档。执行应用我们选择比如添加“腾讯文档”或者“维格表”,在这里用腾讯文档做案例。

    1.8K40

    Tkinter制作股票数据抓取小程序,有点秀!

    在前面的文章中,我们一起学习了如何通过 Python 抓取东方财富网的实时股票数据,链接如下 用 Python 爬取股票实时数据 今天我们就在这个基础上,实现一个 Tkinter GUI 程序,完成无代码股票抓取...,可以查询1天或者多天数据 批量查询:查询某个交易所所有股票的数据 日志区域:打印抓取信息 下面我们就来看看该如何从头完成这个 GUI 程序 程序布局 首先就是程序布局,这里我们使用了 ttkbootstrap...__init__("股票抓取工具", themename="solar", resizable=(False, False)) self.configure_frame = ttk.Frame...总体上来说,我们所有的组件都是从 ttk 当中实例化的,也就是直接复用了库 ttkbootstrap 的相关美化功能,使得我们的程序看起来更加高级美观 抓取与保存功能 下面我们编写股票抓取代码和对应的保存代码...股票抓取 def get_A_mins(code): if code.startswith("3") or code.startswith("0"): url = shang_A_url.replace

    72220

    Node.js股票模拟交易后台

    我曾经花了一周时间开发了一个股票模拟交易后台程序,使用Node.js。代码量很少,能完成基本功能。下面给大家介绍一下其实现步骤。...这个后台程序一共就两个js文件,一个用于处理成交,即判断成交条件,写数据库。另一个处理其他逻辑。...当然这里面没有提到获取股票实时价格的问题,这是另一个系统完成,我们通过消息队列实时获取我们所关心的股票的价格,这是另一个话题了。...,不过即便是简洁的js代码,也差不多写了80行代码。...所有订单缓存策略 如果每隔10秒钟从数据库读取所有订单的话,效率会很低,而且过多占用数据库IO资源。所以订单数据都缓存在成交判断的进程内存中。将来也可以升级为使用redis等内存数据库来存储。

    2.9K30

    Node.js 抓取数据过程的进度保持

    最近自己有个批量调用 API 抓取数据的需求,类似爬虫抓数据的感觉。...实际上,只需要围绕着 抓取->格式转换处理->保存 这简单三步,然后用合适的工具或编程语言实现就好了。 驱动整个批量抓取过程的核心在于一个循环,把所有要访问的 URL 放在一个数组,循环遍历一下。...对于我这样搞前端的来说,结合现代 JS 的 async/await 很容易就可以写出类似下方的代码(这里我用了 Axios 库处理 HTTP 请求)。...这个变量存在于内存,而内存中的状态随着程序的中止而消失,所以关键在于如何把这个状态固定到磁盘或数据库等地方。这里能想到的思路是,在程序启动时把状态加载进来,在状态更新的同时把它固定下来。...想到了 Vue.js 的 MVVM 模型,它可以通过监视一个 Object 的变化而驱动视图的变化,或许我们可以实现类似的一些监听和触发机制,在变化的时候实现保存呢?

    1.4K10

    码农技术炒股之路——数据源选择

    但是我还是希望所有数据都是掌握在我自己手里,特别是在做大量数据测试时,每次都要通过网络去取数据,其效率当然不如我直接在本地数据库和内存里来的快。 自己抓取并保存到数据库。...而其他接口都是以股票代码为参数,所以在抓取个数数据之前,我们先要获取当前市面上所有股票的基本信息——代码和名称。...抓取的URL是:         http://nufm.dfcfw.com/EM_Finance2014NumericApplication/JS.aspx/JS.aspx?...由于目前A股股票不足3500支,所以我就将URL中ps参数设置为3500,即抓取全部股票数据。对于数据抓取参数的设置,我的一个原则是——最安全的最大化一次性拉取。...第一位如果是0,代表股票为沪市的;如果是1,则代表是深市的。之后跟着的6位则是股票代码。         start字段是数据抓取的起始时间,end是数据抓取的结束时间。

    1.5K20

    码农技术炒股之路——抓取股票基本信息、实时交易信息、主力动向信息

    (转载请指明出于breaksoftware的csdn博客)         因为我们数据库很多,数据库中表也很多,所以我们需要一个自动检测并创建数据库和表的功能。...在《码农技术炒股之路——数据库管理器、正则表达式管理器》一文中,我们介绍了数据库管理器帮我们自动创建数据库,但是没有自动创建表的功能。于是我们需要实现一个。...(self): url = r"http://nufm.dfcfw.com/EM_Finance2014NumericApplication/JS.aspx/JS.aspx?...股票实时交易信息         股票实时交易信息是保存在一个叫做daily_temp的数据库中 class update_today_trade_info(job_base): def __init...一个不错的消息是,该接口支持三千多支股票同时抓取,于是避免了之前要做切片的问题 def _get_data(self): date_info = time.strftime('%

    1.1K30

    node.js写爬虫程序抓取维基百科(wikiSpider)

    任务说明 抓取维基百科中文站某几个分类到本地,包括图片资源,能在单机直接浏览。...思路二(origin:cat):按分类进行抓取。注意到,维基百科上,分类都以Category:开头,由于维基百科有很好的文档结构,很容易从任一个分类,开始,一直把其下的所有分类全都抓取下来。...这个算法对分类页面,提取子分类,且并行抓取其下所有页面,速度快,可以把分类结构保存下来,但其实有很多的重复页面,不过这个可以后期写个脚本就能很容易的处理。...源代码 https://github.com/zhoutk/wikiSpider 小结 到昨晚基本完成任务,思路一能够抓取内容比较准确的页面,而且页面不重复,但抓取效率不高,分类信息无法准确获得;思路二能够按维基百科的分类...,自动抓取并分门别类的把文件存储到本地,效率高(实测,抓取【军舰】类,共抓取页面近六千个,费时五十来分钟,每分钟能抓取超过一百个页面),能准确的保存分类信息。

    65320
    领券