首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

Zipline 3.0 中文文档(三)

文档、交易日历和基准 Zipline 现在默认使用quandl捆绑包,您需要一个 API 密钥,可以在数据捆绑包文档中找到相关信息。...(1539) 连续期货添加了调整后的历史记录(1548) 添加考虑期货合约成交量的滚动风格,特别适用于连续期货(1556) 在调用 Zipline API 函数,当不在运行模拟中...文档、交易日历和基准 Zipline 现在默认使用quandl捆绑包,您需要一个 API 密钥,可以在数据捆绑包文档中找到相关信息。...文档、交易日历和基准 现在 Zipline 默认使用quandl数据包,这需要一个 API 密钥,你可以在数据包文档中找到相关信息。...sid 下的任何持仓设置绝对量级限制,单位股份或美元价值。

39820

实战:基于技术分析的Python算法交易

这个函数用来设置回测的起始时间,因为我希望所有策略开始实施的时间保持一致,设置2016年的第一天。不过,有些基于技术指标的策略需要一定数量的历史数据,也就是所谓的 warm-up 阶段。...from zipline.api import order_percent, symbol, record from zipline.finance import commission...该策略的逻辑可以归纳以下几步: 当20天的 SMA 价格上升,买入股份 当20天的 SMA 价格下降,卖掉全部股份 用前19天和当天的数据计算移动平均数,次日执行交易决策 这是我们第一次调用预设辅助函数的地方...# imports from zipline.api import order_percent, record, symbol, order_target from zipline.finance...zipline --start 2015-11-12 --end 2017-12-31 --capital-base 10000.0 -o macd.pkl # imports ---- from zipline.api

1.5K22

ChatGPT 和 Elasticsearch的结合:在私域数据上使用ChatGPT

技术设置技术要求相当低,但需要一些步骤才能将所有部分组合在一起。对于此示例,我们将配置Elasticsearch 网络爬虫以摄取 Elastic 文档并在摄取title生成向量。...图片将变量 hf_model_id 设置模型名称。...同时,我们可以设置 OpenAI API 凭证和 Python 后端。与 OpenAI API 连接要向 ChatGPT 发送文档和问题,我们需要一个 OpenAI API 帐户和密钥。...创建帐户后,您需要创建一个 API 密钥:单击API Key。单击创建新密钥。复制新密钥并将其保存在安全的地方,因为您将无法再次查看该密钥。...如果您在笔记本电脑或 VM 上运行它,最佳做法是 python 设置一个VENV。

6K164

基于Apache Parquet™的更细粒度的加密方法

特别是,通过 KMS(密钥管理服务)进行的密钥管理维护这一关键和核心服务的可靠性带来了挑战。 历史数据:通常,大量的历史数据存储在生产系统中。...当一个密钥被删除,由该密钥加密的数据就变成了垃圾。这种方式可以避免直接对列数据进行操作,这通常是一个繁琐的操作。 系统架构 加密系统包括 3 层:元数据和标记、数据和加密以及密钥和策略。...摄取元存储具有所有元数据,包括摄取管道作业中所需的标记信息。当作业从上游摄取数据集,相关元数据会从摄取元存储中提取到作业中。 数据集被写入文件存储系统。...写入开销 5.7%,读取开销 3.7%。...当需要加入大量表,自动加入很重要。它不仅节省了人工,而且可以很容易地构建一个监控数据的系统。 数据湖通常有大量数据。加密需要大规模转换数据,这需要高吞吐量的加密工具。

1.8K30

使用 LlamaIndex、Elasticsearch 和 Mistral 进行检索增强生成(RAG)

LlamaIndex构建RAG(检索增强生成)应用的各个阶段提供了抽象。像LlamaIndex和LangChain这样的框架提供了抽象层,使得应用程序不会紧密绑定到任何特定LLM的API上。...如果你不想在本地运行模型,你也可以选择使用他们的云版本,这种情况下你需要修改本文中的代码以使用正确的API密钥和包。 Ollama 帮助在本地笔记本电脑上运行LLM。...首先,在.env文件中添加你在安装Elasticsearch部分获得的Elasticsearch CloudID和API密钥。...ELASTIC_CLOUD_ID= ELASTIC_API_KEY= LlamaIndex的摄取管道允许你使用多个组件来构建一个管道。...我们摄取管道提供了OllamaEmbedding("mistral")。

91951

在云端优化复杂的媒体处理工作流

广播与 VOD 处理流水线 流程与管道 在处理高度复杂的视频工作流程,我们倾向于将这些管道分为三个桶。首先是一个摄取组件,一些类型的验证,一些转码和包装以及许多其他处理要求,然后当然是交付。...id3 标签;然后通过严格的 QC 循环,验证许多音频和视频检查,检查 ABR 格式清单是否正确格式化;最后在各种 DRM 框架中对输出内容进行加密,并在不同的密钥管理服务器上注册这些密钥。...API 与引擎 引擎周期表 API 驱动的微服务:为了支持所有这些要求并克服在云端管理的挑战,我们建立了一个复杂的工作协调平台,驱动 50 多个引擎,越来越多的微服务提供动力,所有这些功能都可以通过...速度可以定义一个文件被摄取、提及、处理和交付所需的时间,或者是能摄取和并行处理多少个文件。我们平台的速度从第一天开始就一直是我们的关键优先事项,因为我们觉得这是一个竞争优势。...几年前,我们与尼尔森合作,在我们的能力设置中实施了尼尔森的严格认证过程;就像苹果一样,在我们部署或开始与尼尔森合作,他们仍然有一个加密狗的要求,所以并没有真正做好云准备。

42920

ApacheHudi使用问题汇总(二)

如果以繁进行摄取,或者查询提供更多运行时间,可增加 hoodie.cleaner.commits.retained配置项的值。 2....即便是UUID密钥,也可以按照以下技巧来获得有序的密钥另请参阅调优指南以获取有关JVM和其他配置的更多提示。 5....执行插入更新/插入操作,Hudi可以配置文件大小。(注意:bulk_insert操作不提供此功能,其设计用来替代 spark.write.parquet。)...对于写复制,可以配置基本/parquet文件的最大大小和软限制,小于限制的小文件。Hudi将在写入时会尝试将足够的记录添加到一个小文件中,以使其达到配置的最大限制。...保持parquet文件读取性能的优势,我们将 HoodieROTablePathFilter设置路径过滤器,并在Spark 的Hadoop Configuration中指定,确保始终选择Hudi相关文件的文件夹

1.7K40

Edge2AI之NiFi 和流处理

您将使用 NiFi 将这些数据摄取到 Kafka,然后使用来自 Kafka 的数据并将其写入 Kudu 表。 准备 该实验以Edge Workshop中开发的内容基础。...实验 4 - 使用 NiFi 调用 CDSW 模型端点并保存到 Kudu 在本实验中,您将使用 NiFi 消费包含我们在上一个实验中摄取的 IoT 数据的 Kafka 消息,调用 CDSW 模型 API...CDSW 模型 API 和访问密钥 在您将在本实验中构建的流程中,您将使用一些处理器/控制器服务将引用的变量: Predict 机器运行状况处理器的request.body属性引用了一个名为cdsw.access.key...按照以下步骤从 CDSW 检索密钥并在 NiFi 中设置变量及其值。...单击画布的空白区域并将其拖到一边,以便您提供更多空间来添加新处理器。

2.5K30

这不比千篇一律的商城系统香,大型分布式微服务聚合支付项目

全面助力企业业务生态 功能架构图: 技术架构图: 系统界面: 商户后台 系统后台 涵盖的业务解决方案: Druid 实时分析型数据库 主流应用场景:Druid 最常被当做数据库来用以支持实时摄取...核心技术优势: 使用列式存储,极大提高了部分列查询场景的性能 部署在数十到数百台服务器的集群中,并且可以提供每秒数百万条记录的接收速率,数万亿条记录的保留存储以及亚秒级到几秒的查询延迟 可以实时(已经被摄取的数据可立即用于查询...)或批量摄取数据 Sentinel 熔断限流 主流应用场景:服务出现问题,会导致进入该服务的线程阻塞,解决和规避此问题,业- 界提出熔断器模型 企业技术难题: 解决流量控制:流量控制在网络传输中是一个常用的概念...并且支持级联表以及笛卡尔积的表查询 独立使用读写分离支持SQL透传 统一的分布式基于时间序列的ID生成器 XXL-JOB分布式任务调度平台 主流应用场景:任何需要分布式任务调度平台 企业技术难题: 调用API

40910

数据治理实践:元数据管理架构的演变

事实上,有很多公司都提供了开源的解决方案来解决上述问题,这也就是数据发现与元数据管理工具, 在这篇文章中,我将描述行业迄今为止元数据管理的三代架构, 希望本文能帮助您在选择自己的数据治理解决方案做出最佳决策...该服务提供了一个 API,允许使用推送机制将元数据写入系统,需要以编程方式读取元数据的程序可以使用此 API 读取元数据。 优点 提供基于推送的模式,可以立即在元数据生产者和元数据服务之间建立联系。...当出现问题,很难可靠地引导(重新创建)或修复您的搜索和图形索引。 第二代元数据系统通常可以成为公司数据资产的可靠搜索和发现门户,它们确实满足了数据工作者的需求,Marquez拥有第二代元数据架构。...第三代架构:基于事件的元数据 第 1 步:面向日志的元数据架构 元数据提供者可以实时推送或基于 API推送元数据变化日志。...例如,您必须摄取元数据并将其存储在 Atlas 的图形和搜索索引中,完全绕过 Amundsen 的数据摄取、存储和索引模块。

81530

数据治理实践:元数据管理架构的演变

事实上,有很多公司都提供了开源的解决方案来解决上述问题,这也就是数据发现与元数据管理工具, 在这篇文章中,我将描述行业迄今为止元数据管理的三代架构, 希望本文能帮助您在选择自己的数据治理解决方案做出最佳决策...该服务提供了一个 API,允许使用推送机制将元数据写入系统,需要以编程方式读取元数据的程序可以使用此 API 读取元数据。 ?...当出现问题,很难可靠地引导(重新创建)或修复您的搜索和图形索引。 第二代元数据系统通常可以成为公司数据资产的可靠搜索和发现门户,它们确实满足了数据工作者的需求,Marquez拥有第二代元数据架构。...第三代架构:基于事件的元数据 第 1 步:面向日志的元数据架构 元数据提供者可以实时推送或基于 API推送元数据变化日志。...例如,您必须摄取元数据并将其存储在 Atlas 的图形和搜索索引中,完全绕过 Amundsen 的数据摄取、存储和索引模块。

88211

Adobe CDP里的File Ingestion

File Ingestion还可以进一步分为流式摄取和批量摄取,两者之间的区别在于,流式摄取的实时性比较强的数据,你可以理解是实时数据,批量摄取是非实时数据,已经存在某个文件类型里的数据。...批量摄取有如下限制: 建议的批处理大小介于256 MB和100 GB之间。 每个批应最多包含1500个文件。 批量摄取分为两种方式,普通批量处理和批量处理API。...通过API实现:其实就是通过批量处理API了。 批量处理API 通过批量处理API的方式,还可以将特定系统的文件倒入到CDP中,如CRM系统中的平面文件Parke。...批处理API存在一些限制: 每批文件的最大数量:1500 最大批大小:100 GB 每行的属性或字段的最大数:10000 每位用户每分钟的最大批数:138 批量处理的API流程如下: ?...,如果对时间要求不高的,用批量摄取,批量里面,如数据已经在数据湖里面,可以直接设置,如果是在外部的,格式是csv格式,可以用Workflow,其他格式的,那就只能用API

37820

Elasticsearch 6.6 官方文档 之「节点」

摄取节点:Ingest node,将node.ingest设置true(默认)的节点,摄取节点能够将「摄取管道(ingest pipeline)」应用于文档,以便在索引前转换和丰富文档。...当minimum_master_nodes设置默认值 1 ,这就足以形成集群。...特别地,这些设置仅在未安装 X-Pack 适用。要在安装 X-pack 创建专用的摄取节点,请参见「X-Pack」节点设置。...X-Pack 节点设置 如果安装了 X-pack,则有一个附加的节点类型: 机器学习节点:xpack.ml.enabled和node.ml设置true的节点,这是安装 X-pack 的默认行为。...如果xpack.ml.enabled设置true,node.ml设置false,则节点可以服务 API 请求,但不能运行作业。

2.6K31

写入 Hudi 数据集

SQL query template to be passed as a transformation function) 该工具采用层次结构组成的属性文件,并具有可插拔的接口,用于提取数据、生成密钥和提供模式...Datasource Writer hudi-spark模块提供了DataSource API,可以将任何数据帧写入(也可以读取)到Hudi数据集中。...Soft Deletes(软删除) :使用软删除,用户希望保留键,但仅使所有其他字段的值都为空。...通过确保适当的字段在数据集模式中可以为空,并在将这些字段设置null之后直接向数据集插入更新这些记录,即可轻松实现这一点。...对于具有大量更新的工作负载,读取合并存储提供了一种很好的机制, 可以快速将其摄取到较小的文件中,之后通过压缩将它们合并为较大的基础文件。

1.4K40

使用Celery构建生产级工作流编排器

此案例中的业务之旅始于将原始数据输入的数据摄取 API,从而生成不同的 ML/NLP 数据集,获取分析结果,并触发回调 API 进入下一行系统。...Orchestration worker:这是整个工作流的中央协调器,它决定如何顺序执行任务、如何控制消息流并建立从摄取到分析再到消费的数据管道。...步骤 4:添加警报和监控设置 现在我们有了分布式计算架构,下一步最好的事情是添加用于警报、监控和日志记录的机制。...ELK 上的日志监控 Sentry:在处理可能让你感到意外的不同类型数据,错误可能是不可预料的,尤其是当流量很大,Sentry 可能是你的好帮手,它会在出现问题提醒你,在 Celery 工作进程启动设置...我们现在已准备好将此设置投入生产环境。我们通过将应用程序容器化并在 K8s 集群的不同 Pod 上启动每个工作进程来实现此目的。

12710

大数据繁荣生态圈组件之实时大数据Druid小传(三)Druid入门实操

Druid中 2.1 打开postman,请求地址设置 http://node01:8090/druid/indexer/v1/task 2.2 请求方式选择POST 2.3 body > raw...) “queryGranularity”: “hour”, // 2.4.3 加载原始数据的时间范围,批量数据导入需要设置/流式导入无需设置 “intervals”: [ “2018-12-01...1、JSON API方式 2、SQL方式(重点) 1.JSON API方式(了解) 1.1.JSON查询语法结构 Druid最早提供JSON API地方式查询数据,通过JSON格式来定义各种查询组件实现数据查询...pretty 2.SQL 方式 使用Druid SQL查询,可以使用SQL查询来代替Druid原生基于JSON的查询方式,Druid SQL将SQL语句解析原生JSON API方式,再执行查询。...JSON API查询的,SELECT语句并没有真正地执行。

81720
领券