腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
读取
结构化
数据流
并
写入
Hive
表
、
、
需要从Kafka流中
读取
结构化
数据流
,并将其
写入
已经存在的
Hive
表
。我这里的问题是-是否可以直接
写入
Hive
表
?或者,对于这种用例,是否有可以遵循的变通方法?batchDs.write.mode(SaveMode.Append).insertInto("default.6columns");}).option("quote", "\u0000").start()
浏览 43
提问于2019-05-22
得票数 1
回答已采纳
4
回答
Hive
是
如何
存储数据的,SerDe是什么?
、
当查询一个
表
时,SerDe会将一行数据从文件中的字节反序列化到
Hive
内部用于对该行数据进行操作的对象。当执行INSERT或CTAS (请参阅第441页上的“导入数据”)时,
表
的SerDe将序列化
Hive
对一行数据的内部表示形式,这些字节被
写入
输出文件。 请有人把这些粗体句子解释清楚吗?我是新来的!!
浏览 9
提问于2013-01-30
得票数 12
回答已采纳
1
回答
spark.sql()和spark.read.format("jdbc").option("query“、"")之间有什么区别?
、
、
、
我假设spark.sql(查询)是在使用spark.sql时使用的,而spark.read.format("jdbc").option("query“、"")则是在使用oracle语法时使用的。我这样假设是对的吗?
浏览 3
提问于2021-08-16
得票数 3
回答已采纳
1
回答
我需要一个健壮、高效的Python序列化程序
、
、
、
我正在尝试序列化一个混合了数据类型的Python对象--原生Python、numpy、内置Python的子类。Pickle和cPickle足够健壮,可以处理所有数据类型,但我达到了大小限制(>300MB);我之所以知道这一点,是因为在加载Pickle对象时,我看不到整个对象被序列化了。为了寻找比cPickle更有效的替代品,我尝试了以下方法,但对数据类型都不起作用: json,simplejson,用于将numpy类型转换为原生Python的json的自定义子类,marshal (不处理内置类型的子类,如defaultdict),MessagePack。你有什么意见建议?提前感谢!
浏览 2
提问于2016-04-07
得票数 0
2
回答
如何
将数据从蜂箱导出到卡夫卡
、
、
我需要将数据从
Hive
导出到Kafka主题,基于另一个Kafka主题中的一些事件。我知道我可以用HQL从火星之工中
读取
蜂巢的数据,并将它从星火中
写入
卡夫卡,但是有更好的方法吗?
浏览 0
提问于2019-01-15
得票数 0
回答已采纳
1
回答
hadoop中时序数据库与
结构化
RDBMS数据的交互机制
、
、
、
我也有一些RDBMS数据库,可以存储在分布式系统中,
并
使用
hive
。我们计划使用timeseries数据库和
结构化
RDBMS数据(通过
HIVE
读取
和
写入
),然后将时间序列数据与这些
结构化
数据连接起来。以这样的方式存储输出,这样它就可以通过
HIVE
像SQL一样读写。
浏览 6
提问于2018-12-06
得票数 0
1
回答
要在C#中使用的C++类,有哪些选项?
、
、
、
、
我还使用提供的头文件创建了几个prototype C++库,以便通过C#进行访问,但我不能完全理解
如何
在C#本身中实际创建和使用类的实际实例(每次查看时,我看到的都是外部函数调用,而不是外部类型的使用)
浏览 14
提问于2017-09-05
得票数 0
1
回答
如何
将流数据集
写入
蜂巢?
、
、
、
使用ApacheSpark2.2:
结构化
流,我正在创建一个程序,它从Kafka
读取
数据并将其
写入
Hive
。我正在寻找写大量数据进入卡夫卡主题@ 100记录/秒。创建的蜂巢
表
:通过手动蜂巢查询插入: INSERT INTO TABLE demo_user (15141331
浏览 2
提问于2018-01-15
得票数 8
2
回答
实时的蜂窝数据转换?
、
、
、
、
我有以下数据管道: A进程将消息
写入
Spark
结构化
流应用程序正在侦听新的消息,并将它们
写入
HDFS ,批处理
Hive
作业每小时运行一次,
并
通过某些中介复杂插入语句
读取
来自HDFS的最新消息,填充一些
表
编辑:本质上,在我的
Hive
工作之后,Table1存储了原始数据,然后是另一个
表
Table2 = fun1(Table1),然后是Table3 = fun2(Table2),然后是Table4 = join
浏览 1
提问于2020-02-13
得票数 1
回答已采纳
1
回答
Spark与
Hive
的区别
、
、
你能帮我理解星火SQl和蜂巢的区别吗?
浏览 2
提问于2017-06-04
得票数 1
3
回答
在Java中生成和解析文本文件
、
我正在寻找一个能够从Java对象中生成TXT文件或将其解析为Java对象的库/框架。我认为在Castor或JAXB中,文件和对象之间的映射可以通过编程方式定义,也可以使用XML/注解定义。TXT文件不是同构的,并且没有分隔符(固定位置)。文件的大小不大,因此允许类似DOM的处理,不需要流。TextWriter.write(Collection objects) -> FileOutputStream
浏览 2
提问于2012-06-18
得票数 1
回答已采纳
1
回答
在Azure Synapse中向delta
表
添加列
、
、
我使用映射
数据流
在Azure Synapse中创建了一个delta
表
。
数据流
从Dataverse
读取
仅附加的更改,查找最新值,并将其向上插入
表
。我尝试创建一个记事本
并
执行以下SQL,但是我得到了一个错误。 ALTER TABLE delta.`https://xxxx.dfs.core.window
浏览 11
提问于2022-08-17
得票数 0
3
回答
将数据帧存储到spark中的配置单元分区
表
、
、
我正在尝试将来自kafka主题的
数据流
存储到一个
hive
分区
表
中。我能够将
数据流
转换为数据帧,
并
创建了一个配置单元上下文。我的代码如下所示hiveContext.setConf("
hive
.exec.dynamic.partition", "true") hiveContext.setConf("
hive
.exec.dynamic.partit
浏览 0
提问于2016-10-19
得票数 2
1
回答
火花
结构化
流检查点在生产中的使用
、
、
、
、
当使用Spark
结构化
流时,我难以理解检查点是
如何
工作的。 writeDataToHBa
浏览 7
提问于2020-07-08
得票数 3
2
回答
无模式的Apache波束
数据流
大查询IO
、
、
是否有任何方法使用apache
数据流
大查询io将非
结构化
数据
写入
大型查询
表
(即不预先提供模式)
浏览 8
提问于2022-05-06
得票数 1
1
回答
读取
Hive
表
并
写入
Cassandra
表
、
、
、
、
我在Cloudera集群中的
Hive
中有一些按daily_date列分区的外部
表
。 我还有DataStax Enterprise Cassandra集群,我在其中创建了与
Hive
表
结构相同的
表
。问:我想将表格数据从
Hive
表格导出/
写入
相应的Cassandra表格。 有没有
Hive
到Cassandra的连接器?或者我需要在Spark中做这件事,如果是的话,怎么做?
浏览 35
提问于2020-06-17
得票数 0
回答已采纳
1
回答
我可以将我的共享首选项存储到Android应用程序的缓存目录中吗?
、
我
如何
才能在最佳实践中做到这一点?谢谢。
浏览 0
提问于2020-09-04
得票数 0
2
回答
大数据存储和查询与传统的关系/非关系数据库相比
、
我很难理解这些数据是
如何
构造和查询的。我确信Hadoop中的所有数据都来自运行其平台的Oracle Relational产品。--我想我的核心问题是,为什么需要Hadoop和分布式处理从已经采用
结构化
格式的数据库中收集分析?存储在Hadoop中的数据是什么样子的?有没有像MySQL这样的
表
,或者像MongoDB这样的JSON文档?--我将通过Druid查询Hadoop,但是我不知道这个数据库中有什么。
浏览 0
提问于2019-06-01
得票数 1
1
回答
设计
、
我们需要您对以下场景的
数据流
设计提供指导。 需求:我们需要构建一个
数据流
作业来
读取
数据流
MS数据库
并
写入
Bigquery。我们需要
数据流
作业作为输入“
表
名列表”(源
表
和目标
表
名称)来
读取
和
写入
数据。问题:在每天的日程安排中,
数据流
是否可以将表列表(即50个
表
名)作为输入,并将数据从源复制到目标,还是将其设计为50个独立的
数据流
作
浏览 4
提问于2021-12-13
得票数 -1
1
回答
如何
将Spark
结构化
流数据
写入
Hive
?
、
、
如何
将Spark
结构化
流数据
写入
Hive
?有df.write().saveAsTable(tablename),但是我不确定这是否
写入
流数据 我通常使用df.writeStream().trigger(new ProcessingTime(1000)).foreach(new KafkaSink()).start()将流数据
写入
Kafka,但我没有看到任何类似于将流数据
写入
Hive
数据仓库的操作。
浏览 4
提问于2017-08-21
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Flink on Hive构建流批一体数仓
Hive 3的ACID表
教程:Apache Spark SQL入门及实践指南!
作业帮湖仓一体最佳实践
数据仓库调研
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券