腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(219)
视频
沙龙
2
回答
如何使用scala使用
spark
streaming从
HBASE
表
中获取
数据
、
、
、
我正在尝试确定一种解决方案,使用火花流从
HBASE
表
中读取
数据
,并将
数据
写入另一个
HBASE
表
。例如,如果我有一个
HBASE
表
'SAMPLE‘,它的列是'name’和'activeSta
浏览 0
提问于2018-12-11
得票数 0
1
回答
Spark
Hbase
连接器
(
SHC
)
未从
HBase
表
返回
任何
数据
、
、
我正在遵循
spark
hbase
连接器
基本示例来读取
spark
2 shell版本2.2.0中的
HBase
表
。看起来代码正在工作,但是当我运行df.show()命令时,我看不到
任何
结果,而且它似乎永远都在运行。import org.apache.
spark
.sql.{ DataFrame, Row, SQLContext } import org.apache.
spark
.sql.execution.datasources.
hb
浏览 25
提问于2019-04-25
得票数 1
2
回答
我应该使用哪个用于
Spark
2.0的
HBase
连接器
?
、
、
、
、
我们的堆栈是由Google (
Spark
2.0)和Google BigTable (
HBase
1.2.0)组成的,我正在寻找一个与这些版本一起工作的
连接器
。
Spark
2.0和新的DataSet API支持对于我发现的
连接器
还不清楚: hortonworks-
spark
/
shc
:
浏览 4
提问于2016-12-01
得票数 12
回答已采纳
1
回答
使用
Spark
将
数据
存储到
HBase
中
、
、
在此CDP7中,我将
数据
存储到CDP7中的pyspark的
hbase
表
中,在此之后,使用的组件如下:
spark
3-submit --packages com.hortonworks:
shc
-core:1.1.1-2.1-s_2.11 --repositories http://repo.hortonworks.com/
浏览 0
提问于2021-08-02
得票数 0
1
回答
如何将电火花
数据
存储到
HBase
中
、
、
、
、
我有一个代码,它可以将Pyspark流
数据
转换为dataframe。我需要把这些
数据
存储到
Hbase
中。另外,帮助我编写代码。===" % str(time)) words = rdd.map(lambda line :line.split(" ")).collect() linesDataFrame =
spa
浏览 0
提问于2018-11-29
得票数 0
回答已采纳
1
回答
我是否可以使用memoization来缓存从
spark
作业读写的
hbase
中的
数据
?
、
、
、
、
在一个有
Spark
任务的Scala项目中,我使用了
Spark
-
Hbase
连接器
(
SHC
)来连接从
Hbase
数据
读取。请求的数量非常大,我正在尝试使用缓存的
数据
一段时间。我想知道我是否能做到这一点。
浏览 17
提问于2019-09-28
得票数 0
2
回答
用python将火花2与
HBase
集成连接起来的jars
、
、
、
我在
Spark
2中使用pyspark,是否有
任何
jars将
HBase
与可用的pyspark连接。 请帮我拿一下样本代码。
浏览 2
提问于2018-01-12
得票数 1
回答已采纳
1
回答
使用
Spark
连接到
Hbase
时出现异常
、
、
、
、
我正在使用
Spark
连接到
Hbase
。我已经添加了所有的依赖项,但是我仍然得到了这个异常。请帮助我,我需要添加哪个JAR来解决这个问题。
Spark
session available as '
spark
'.{SQLContext, _} import org.apache.
spark
.{SparkConf, SparkContext
浏览 2
提问于2018-09-17
得票数 0
1
回答
在
Spark
中使用Get命令从
Hbase
读取
数据
、
我想从一个
Hbase
表
读取
数据
使用get命令,同时我也有行的关键字。我想在我的星火流应用程序中做到这一点,有没有
任何
源代码可以分享?
浏览 1
提问于2016-11-17
得票数 0
2
回答
如何使用pyspark和
shc
(
spark
hbase
连接器
)从
hbase
读取一个
表
的部分
数据
,而不是整个
数据
集?
、
、
我正在使用pyspark通过
shc
访问
hbase
的
表
。这个
表
有大量的记录,但是我的
spark
集群只有三台服务器,性能很差。我认为从
hbase
表
中读取全部
数据
,然后用
spark
的过滤器处理它是不合理的,那么我如何使用pyspark和
shc
从
hbase
中读取部分
数据
呢?('localhost').appName('test_1').getOrCr
浏览 1
提问于2019-07-20
得票数 0
1
回答
错误:将pyspark dataframe写入Habse时
、
、
、
我正在尝试将pyspark
数据
帧写入
Hbase
。面对下面的错误。我的集群上的
Spark
和
Hbase
版本是:
Spark
提交
spark
-submit --jars /tmp/
hbase
-
spark
-1.0.0.jar --packages com.hortonworks:
shc
-core:1.1.1-2.1-s_2
浏览 1
提问于2020-03-30
得票数 0
1
回答
使用
Spark
读取where子句的
HBase
表
、
、
、
、
我正在尝试使用读取
HBase
表
。示例代码:conf.set("
hbase
.zookeeper.quorum", "localhost")我看到了下面的
Spark
连接器
,但是
浏览 0
提问于2016-10-17
得票数 1
回答已采纳
4
回答
如何使用火花从
hbase
中读取
、
、
下面的代码将从
hbase
中读取,然后将其转换为json结构并转换为schemaRDD,但问题是,我是using List来存储json字符串,然后传递给javaRDD,对于大约100 GB的
数据
,主服务器将装载内存中的
数据
从
hbase
加载
数据
的正确方法是什么,然后执行操作,然后转换为JavaRDD。;import org.apache.
sp
浏览 9
提问于2014-07-30
得票数 47
回答已采纳
1
回答
将
数据
从NoSQL迁移到关系型
数据
库管理系统
、
、
、
我们有
数据
存在于
HBase
中,我们想要转移到AWS Aurora (MySQL),我们需要使用现有的
数据
,所以必须以某种方式将NoSQL
数据
加载到Aurora中。 它不是一个非常大的
数据
库。有没有将
数据
从NoSQL迁移到关系
数据
库的最佳实践/工具?我在互联网上看到了很多反向问题(DB -> NoSQL),但我的要求有点不同,我找不到
任何
有用的信息。 有人能帮帮忙吗?我该从哪里开始呢?
浏览 71
提问于2020-03-31
得票数 0
0
回答
spark
怎么利用
shc
读取
hbase
的高
表
?
、
、
、
、
spark
通过hortonworks的开源框架
shc
读取
hbase
的时候,需要定义schema,当
HBase
中的
表
是高
表
,只有一列
数据
,上千万行,如何定义schema??
浏览 298
提问于2019-11-11
1
回答
巨大的插入到
HBase
、
、
、
、
当我试图向
HBase
插入
数据
时,我遇到了一个问题。我有一个1200万行星火DataFrame,有两个字段:* MATCH, a boolean ("1" or "0")df.write .format(
浏览 1
提问于2016-06-22
得票数 1
回答已采纳
2
回答
hbase
-火花
连接器
能用于按性能良好的列对
hbase
行进行排序吗?
、
因此,我需要按照所需的列值对
hbase
行进行排序。我不明白我该怎么做,甚至是做不到。看来
hbase
并不能很好地满足这一需求。此外,它也不允许
任何
这样的功能开箱即用。Q2.还有更好的方法吗?,Q3,,它在
hbase
中是可撤销的吗?我应该选择完全不同的框架/技术吗?
浏览 0
提问于2018-04-27
得票数 2
回答已采纳
1
回答
因
hbase
-
spark
对ClassNotFoundException的依赖而导致的
Spark
phoenix读取中断: org.apache.hadoop.
hbase
.client.HConnectionManager
、
、
我正在写一个简单的火花程序从Phoenix读取和写入
Hbase
使用
spark
-
Hbase
-
连接器
。我成功地分别从Phoenix读取和使用
SHC
写入
Hbase
。但是,当我将所有东西放在一起(具体添加
hbase
-
spark
依赖项)时,管道在Phoenix read语句处中断。代码:import org.apache.
spark
.sql.
浏览 136
提问于2020-05-19
得票数 0
1
回答
Phoenix不
返回
任何
行
、
、
我在
hbase
有一张桌子。我和phoenix一起创建的df.write().options(options).format("org.apache.
spark
.sql.execution.datasources.
hbase
").save(); 在
hbase
shell模式下,我可以看到我的
浏览 20
提问于2018-01-23
得票数 0
1
回答
什么是与
Hbase
交互的最佳方式?
、
、
、
、
我使用的是火花火花2.3.1和
Hbase
1.2.1,我想知道怎样才能最好地使用pyspark访问
Hbase
?def main(): sqlc = SQLContext(sc) data_source_format = 'org.apache.
spark
.sql.execution.datasources.
hbase
--master yarn-client --files /opt/
hbase
-1.1.2
浏览 1
提问于2019-02-22
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
云直播
活动推荐
运营活动
广告
关闭
领券