腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
hadoop在哪里存储
hbase
数据
?是否有
hbase
数据
的物理路径?
hadoop在哪里存储
hbase
数据
?是否有
hbase
数据
的物理路径?我想使用sqoop将
hbase
数据
导出到MS。我需要指定参数export。但我找不到
hbase
数据
的
数据
。有人能帮忙吗? 谢谢
浏览 1
提问于2015-02-17
得票数 0
回答已采纳
2
回答
Hbase
如何
写入
数据
以及
写入
位置
、
我是
Hbase
的新手,我只想了解
Hbase
的写操作。如果多个客户端在同一个表中
写入
,那么
Hbase
如何保持对物理文件的顺序
写入
。
Hbase
将
数据
存储在哪里(我认为是在HDFS中)?我们可以在HDFS之外存储
Hbase
数据
吗?
浏览 2
提问于2013-04-12
得票数 0
回答已采纳
1
回答
在HDFS中本地化HFile块
、
、
我们使用Mapreduce批量创建HFiles,然后以增量方式/批量加载到
HBase
中。我注意到,load只是一个HDFS移动命令(它不会物理上移动文件的块)。由于我们进行了大量的
HBase
表扫描,并且启用了短路读取,因此将这些HFiles本地化到其各自区域的节点将是有益的。
浏览 3
提问于2015-08-09
得票数 2
2
回答
如何使用scala使用spark streaming从
HBASE
表中获取
数据
、
、
、
我正在尝试确定一种解决方案,使用火花流从
HBASE
表中读取
数据
,并将
数据
写入
另一个
HBASE
表。例如,如果我有一个
HBASE
表'SAMPLE‘,它的列是'name’和'activeStatus‘。如何使用spark streaming从基于activeSta
浏览 0
提问于2018-12-11
得票数 0
2
回答
将HDFS
数据
导入到Opentsdb
、
、
我想知道是否有可能直接将
数据
从HDFS导入到Opentsdb。你能给我举一些例子/提示吗?
浏览 0
提问于2015-04-17
得票数 1
1
回答
Hive to
Hbase
:星火的错误用例?
、
、
、
最近,在将
数据
从Hive迁移到
Hbase
方面,我遇到了一个问题。作为初学者,我认为使用Spark从Hive加载表
数据
是个好主意。我使用正确的Hive列/
HBase
ColumnFamily和列映射在
Hbase
中插入
数据
。我找到了一些关于如何将
数据
批量插入到
Hbase
中的解决方案,例如我们可以使用hbaseContext.bulkPut或rdd.saveAsHadoopDataset (我测试了这两种方法的相似结果)。在一次又一次地修改reg
浏览 0
提问于2016-06-02
得票数 1
1
回答
在
写入
记录时,
hbase
是否读取任何内容?
我正在为我们的应用程序做
HBase
分析。我正在尝试插入从Spark到
HBase
的行。我每批插入700万条记录,并观察每个指标。在查看Clouera Manager的
HBase
UI时,有一件有趣的事情给我留下了深刻的印象:即使我正在向
HBase
写入
数据
,我仍然可以看到读取和
写入
的峰值。我可以在
HBase
主UI中看到读写的请求。
HBase
在写记录的时候会读任何东西吗?
浏览 0
提问于2016-08-13
得票数 0
1
回答
1个Hadoop和
Hbase
大簇与1个Hadoop簇+1个
Hbase
簇
、
Hadoop将通过从
Hbase
读取
数据
并将
数据
写入
Hbase
来运行许多作业。假设我有100个节点,那么有两种方法可以构建Hadoop/
Hbase
集群: 哪种
浏览 4
提问于2014-04-19
得票数 1
回答已采纳
2
回答
Hbase
性能
、
、
、
我的应用程序运行多个线程来插入到
数据
库中。我观察到,一旦并发
写入
的数量超过20个左右,插入就会开始花费大量时间(有些甚至需要1000秒)。当这种情况发生时,读取也开始失败,并且我的webapp无法从
数据
库中提取任何
数据
(我的webapp挂起)。我不是一个喜欢NoSQL
数据
库的人,因此不知道从哪里开始寻找性能。我的主要配置是: Zookeeper仲裁大小:1
HBase
区域服务器:2个
数据
节点:2个
hbase
.zookeeper.property.maxC
浏览 4
提问于2011-08-30
得票数 3
回答已采纳
1
回答
来自远程
hbase
服务器的猪读/写
数据
、
、
、
我想从
hbase
远程服务器上读取/
写入
来自pig脚本的
数据
。我们正在使用Hortonworks HDP 2.5我们有两个星系团,一个用于蜂巢,另一个用于
Hbase
。作为需求的一部分,我们还必须从
Hbase
表中读取/
写入
数据
。该解决方案建议在我们的猪脚本中注册
hbase
服务器的动物园管理员仲裁。但是语法不起作用。:8020/
hbase
>
浏览 0
提问于2017-05-15
得票数 1
1
回答
HBase
: MasterNotRunningException:节点/
hbase
不在动物园管理员中
、
、
、
、
我正在构建一个带有流集的管道,用于从kafka主题读取
数据
并将其
写入
HBase
表。我能够将它
写入
HDFS文件,但是当我尝试使用
HBase
目的地时,我会得到以下错误:我使用cloudera管理服务,并在
HBase
目标上配置了以下属性:Zookeeper client port: 2181我在<em
浏览 1
提问于2017-12-22
得票数 2
回答已采纳
1
回答
将
HBase
表
数据
保存在特定的HDFS位置
、
在Hive表上,我可以创建外部表来保存特定HDFS位置上的
数据
。我想在
HBase
上做类似的事情,这样就可以将
HBase
表
数据
保存在外部HDFS位置上。在类似于Hive的
HBase
上可以这样做吗?我想知道HDFS上保存
HBase
表
数据
的默认路径是什么? 谢谢
浏览 4
提问于2020-12-18
得票数 0
回答已采纳
1
回答
Zookeeper是否为
Hbase
存储持久
数据
、
3个节点运行Zookeeper,其余7个节点运行HDFS和
Hbase
。而且
Hbase
已经存储了很多
数据
。我想知道这3个Zookeeper节点是否丢失了可能是
Hbase
mata
数据
的持久
数据
。或者说,
Hbase
将元
数据
存储在Hmaster中,而Zookeeper只存储一些内存
数据
。
浏览 4
提问于2016-07-09
得票数 1
2
回答
HBase
单行事务支持中的行锁定
、
、
、
在
HBase
中,为了提供单行事务支持,它使用了行锁定概念。例如,假设 p1 put不应该工作,因为该行已经被锁定,但在
HBase
0.94中,当我尝试时,它正在工作。
浏览 4
提问于2013-02-16
得票数 2
1
回答
Flink检查点状态始终在进行中。
、
我使用datastream连接器KafkaSource和HbaseSinkFunction,使用kafka提供的
数据
并将其
写入
hbase
。我启用检查点如下:env.enableCheckpointing(3000,CheckpointingMode.EXACTLY_ONCE); kafka中的
数据
已经成功地
写入
了
hbase
,但是ui页面上的检查点状态仍在Flink版本:1.13.3,
Hbase
版本:1.3.1,Kafka版本:0.10.2
浏览 14
提问于2021-12-22
得票数 0
1
回答
"Insert“只允许在
Hbase
中使用
、
、
在
Hbase
中是否可以只给表/列族“只插入”权限? 我查看了Apache上的
Hbase
文档,但没有发现任何相关内容,当前的ACL具有“写”权限,其中将包括"insert+update“。
浏览 0
提问于2016-01-12
得票数 2
1
回答
使用python
写入
hbase
2.0
、
、
我目前正在使用pybase库通过python将
数据
写入
hbase
。我一直都可以写
hbase
1.0,但是最近迁移到
hbase
2.0带来了一些问题。我现在看到的主要错误发生在我试图
写入
我的
Hbase
2.0表时。 org.apache.hadoop.
hbase
.exceptions.UnknownProtocolException.Remote traceback: org.apache.hadoop.
hbase
.except
浏览 162
提问于2020-10-05
得票数 0
1
回答
用saveAsNewAPIHadoopDataset阻塞python向
Hbase
写入
数据
的火花流
、
、
我正在使用火花流python阅读卡夫卡并写到
hbase
,我发现在saveAsNewAPIHadoopDataset舞台上的工作很容易被屏蔽。如下图所示:你会发现这一阶段的持续时间是8小时。请通过
Hbase
api
写入
数据
,还是直接通过HDFS
写入
数据
?
浏览 3
提问于2015-04-24
得票数 0
2
回答
Flink时间缓冲接收器
、
我正在尝试编写一个Flink应用程序,它从Kafka中读取事件,从MySQL中丰富这些事件,并将这些
数据
写入
HBase
。我正在RichFlatMapFunction中进行MySQL丰富,现在我正在尝试找出如何最好地
写入
HBase
。我想批量
写入
HBase
,所以我目前正在考虑使用WindowAll,然后使用identity apply (只是为了返回DataStream),然后编写一个HBaseSink,它获取一个记录列表并对
HBase
浏览 0
提问于2019-09-27
得票数 0
2
回答
集成Kafka和
HBase
的最佳实践
、
、
、
、
将Kafka中的流
数据
“导入”到
HBase
中的最佳实践是什么? 使用案例如下:将车辆传感器
数据
流式传输到Kafka。然后,必须对这些传感器
数据
进行转换(即,将protobuf反序列化为人类可读的
数据
),并将其存储在
HBase
中。1)您推荐哪个工具集(如Kafka --> Flume -->
HBase
、Kafka --> Storm -->
HBase
、Kafka --> Spark Streaming --> <e
浏览 1
提问于2015-08-18
得票数 6
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
走进大数据 Hbase
python 数据读取 写入总结
Python写入数据到MySQL
误删HBase数据如何抢救?
Python爬虫数据写入mySQL案例
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券