腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1001)
视频
沙龙
1
回答
Apache
Nifi
-
将
大型
Json
文件
拆
分成
具有
指定
记录
数
的
多个
文件
我是
Nifi
的
新手,想要一些指导。我们想要将一个大
的
Json
文件
分成
多个
具有
指定
记录
数量
的
文件
。我可以使用SplitJson
将
一个
文件
拆分为单独
的
记录
,并将
Json
路径表达式设置为$..*。我还添加了一个UpdateAttribute处理器,
将
文件
名设置为$
浏览 17
提问于2019-11-28
得票数 0
回答已采纳
1
回答
如何使用
apache
nifi
将
多个
json
文件
加载到
具有
正确映射
的
多个
hive表中?
、
、
、
我需要使用
apache
nifi
将
基于表名
的
多个
csv
文件
摄取到它们各自
的
配置单元表中。源
json
文件
中
的
table_address数据应该转到配置单元中
的
table_address,其他表也是如此。简而言之,需要将源
json
文件
中
的
记录
分离到
多个
tablename.csv格式
的
csv
浏览 6
提问于2019-04-10
得票数 0
2
回答
如何在Snowflake connector for KAFKA中使用连续流数据
任何人都可以帮助我消耗连续数据中
的
数据,这些数据正在被流式传输。在snowflake连接器中应该为主题提供什么? 因为我能够使用所需
的
主题名称通过单个表数据填充数据。但我有捕获连续数据流到表中
的
要求。
浏览 0
提问于2021-10-07
得票数 5
2
回答
.net中特定大小
的
多个
csv
文件
的
大数据表
、
、
、
我有一个包含数百万条
记录
的
大型
数据表。我需要将其导出为
多个
特定大小
的
CSV
文件
。例如,我选择5MB
的
文件
大小,当我说导出时,Datatable
将
导出为4个CSV
文件
,每个
文件
的
大小为5MB,最后一个
文件
的
大小可能会因其余
记录
而异。我在这里通过了许多解决方案,也查看了csvhelper库,但所有处理大
文件
浏览 12
提问于2017-01-15
得票数 0
回答已采纳
1
回答
如何在
NiFi
ValidateRecord processor / JsonRecordSetWriter中将时间戳序列化为
Json
字段
、
、
在输入时,我有一个CSV
文件
,其中包含一个格式为yyyy-MM-dd HH:mm:ss.SSS
的
时间戳列。当有像2016-10-08 07:51:00.000这样
的
字段值
的
记录
通过时,我在
NiFi
日志中得到一个异常:
浏览 143
提问于2018-10-19
得票数 1
回答已采纳
1
回答
为Hadoop
将
大型
XML
文件
拆分为可管理
的
部分
、
在Hadoop中,是否有一个输入类可以根据树形结构处理
多个
大型
XML
文件
?我有一组
具有
相同模式
的
XML
文件
,但我需要将它们拆
分成
数据部分,而不是
将
这些部分拆分。例如,XML
文件
将为: <parent> data </parent> <parent> even mo
浏览 0
提问于2010-03-04
得票数 5
回答已采纳
1
回答
微服务体系结构
、
、
、
我们有用Java、C#、nodeJS和python编写
的
多个
单独
的
应用程序。所有这些应用程序都有一个共同
的
属性--它们使用REST根据每个客户
的
计划从某个源提取数据,并将其存储在CSV
文件
中,然后使用存储
的
过程
将
数据从CSV
文件
导入到不同
的
SQL数据库。我正在考虑通过编写一个多租户、单个应用程序来替换这些
多个
单独
的
应用程序,该应用程序可以处理来自不同来源
的
数据。所
浏览 4
提问于2017-07-20
得票数 0
回答已采纳
3
回答
使用mlcp导入时出现MarkLogic - java堆空间错误
、
、
Marklogic版本:9.0-6.2mlcp版本: 9.0.6#!output_collections testcol \-transform_module /ext/ingesttransform.sjs 该代码使用一个小
文件
成功运行,但在使用大
文件
(450 MB)运行时出现'java堆空间‘错误。
浏览 0
提问于2019-02-13
得票数 1
回答已采纳
1
回答
Apache
NiFi
:如何为特定处理器添加日志
记录
、
我使用以下代码
将
日志添加到ValidateRecord处理器
的
conf/logback.xml中: </encoder> <logger name="or
浏览 1
提问于2020-02-02
得票数 1
1
回答
在
nifi
groovy脚本中,提供异常已经被标记为传输。
我使用了下面的脚本来创建
多个
流
文件
,它运行得很好。但是相同
的
代码不适用于传输一个流
文件
。在下面的代码中,基于我想要
的
if代码,脚本要么
将
流传输到下一个处理器,要么直接
记录
信息并删除该流
文件
。GroovyScriptEngineImpl.eval(GroovyScriptEngineImpl.java:321)与我用于生成一个
具有
多个
输出
的</
浏览 0
提问于2019-10-06
得票数 0
1
回答
Camel LoadBalancing和故障转移处理
、
、
我在一个项目中工作,我们需要解析一个大小大于2 2GB
的
文件
,并将数据加载到DB中。我计划使用Camel拆分器
将
文件
拆
分成
50个不同
的
文件
,然后使用
Apache
camel处理每个
文件
。我
的
问题是: 如果在处理其中一个
文件
时,camel路由失败,那么我如何停止camel路由并使用
文件
名在DB中对其进行审计。可能会发生这样
的
情况:一些
记录
被处理并上
浏览 4
提问于2014-12-05
得票数 0
1
回答
NodeJS存储基于
文件
的
JSON
数据库
的
最佳方法?
、
、
、
我曾见过许多类似的问题,但诺伊肯回答了我
的
特别问题: 我希望有自己
的
基于
JSON
的
数据库,类似于MongoDB和firebase拥有BSON数据库
的
方式,我认为最简单
的
方法就是:
将
一些
JSON
数据存储在一个
文件
中,在node.js应用程序启动时加载
文件
(在node.js服务器
的
内存中),每当我搜索某种类型
的
JSON
对象时,只需使用.find (如果它在大数组中sa
浏览 1
提问于2019-04-01
得票数 4
1
回答
创建单
文件
和多
文件
程序集
的
步骤?
、
我知道单个
文件
程序集由Manifest + IL + Resources组成。还有一种程序集类型,它将其元素分组在
多个
文件
中,称为多
文件
程序集。Visual .NET IDE只能用于创建单个
文件
程序集,但多
文件
程序集可以使用命令行编译器创建。 什么是多<
浏览 0
提问于2012-09-03
得票数 1
回答已采纳
1
回答
如何
将
FlowFile属性写入FlowFile内容中
的
Avro元数据?
、
我正在创建由FlowFiles处理器发出
的
下游操作和拆分
的
ExecuteSql。我已经用数据填充了FlowFiles
的
属性,我想将这些数据放入每个FlowFile内容中包含
的
Avro元数据中。我尝试使用配置了UpdateRecord处理器
的
AvroReader和AvroRecordSetWriter,以及一个带有/canary键
的
属性,该属性应该在Avro文档中
的
某个地方为该键写入FlowFile不过,它在输出
的
任何地方都不会出现。
浏览 1
提问于2018-01-29
得票数 1
回答已采纳
3
回答
FFMpeg在命令行中工作,而不是在PHP中使用exec();
、
、
、
我在PHP中使用了以下内容:$output返回一个'0‘成功
的
代码。谢谢。
浏览 0
提问于2011-02-25
得票数 4
回答已采纳
2
回答
Apache
:
将
NiFi
行合并到
Json
中
我有一个SQL数据库,我提取了一些行,将它们转换成
Json
来提供一个MongoDB。我被转换步骤卡住了。我尝试过这个流程: ? 进程在MergeRecord处理器上停止了,我不知道为什么。其目的是转换这种(简化
的
) SQL查询结果: ID ROUTE_CODE STATUS SITE_ID SITE_CODE 379620 1801300002 10 219454 014075 379620 1801300002 10 220429
浏览 67
提问于2019-03-21
得票数 0
回答已采纳
1
回答
单个输入
文件
中
多个
输出数据库表
的
记录
、
我正在获取一个
文件
,其中包含
具有
不同列
数
的
多个
输出表
的
数据。tab2|one|two|threetab3|one|two|three|fourtab1
指定
表1,它有5列。因此,所有以tab1开头
的
<
浏览 0
提问于2012-01-10
得票数 0
回答已采纳
1
回答
使用Hadoop/HDFS对100万个生物测量(小)
文件
进行比较
、
、
、
、
我是hadoop
的
初学者,阅读hadoop中
的
小
文件
问题,现在我有一个问题要解决,帮我开始。问题:结果分组:源结果被分组为1000个
文件
。需要任务: 组中
的
文件
将以一对一
的
方式进行比较,
文件
是遵循特定标准结构(头、content...etc)
的
二进制细节
文件
浏览 4
提问于2014-12-26
得票数 0
1
回答
高开销
Apache
梁
的
批处理
、
、
、
我目前正在使用Python开发一个更大
的
Apache
管道,该管道从BigQuery读取数据,并最终将其写回另一个BigQuery任务。其中一个转换需要使用二进制程序来转换数据,为此,它需要加载一个
具有
二进制查找数据
的
23 it
文件
。二进制
文件
的
工作流程是: 读取二进制<em
浏览 3
提问于2017-07-06
得票数 0
回答已采纳
1
回答
从string - regex中删除空格
、
、
、
、
我有一个csv
文件
,其字符串字段包含由空格(千分隔符)分隔
的
数字,例如"1025000“而不是”1025000“。我想删除那些空格,只为数字字段,以便我可以做一个转换为双jolt转换,以获得一个
json
文件
的
输出,我正在使用replaceText处理器
的
apache
nifi
上使用正则表达式。这是我
的
csv
的
一个示例: Client1;Client2;Client3;price1;price2;price3
浏览 1
提问于2018-06-11
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
大数据流处理:Flume、Kafka和NiFi对比
Apache NiFi介绍及使用体验
Apache Spark 2.4 内置的 Avro 数据源实战
10分钟了解Apache Nifi在物联网的使用
Shodan API使用指南
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券