我指的是,写一个程序,创建和放置数据在Hbase。我在独立模式下运行。
然而,在执行程序时,我得到了未知主机异常。
java.net.UnknownHostException: unknown host: � 13846@yzdlocalhost
at org.apache.hadoop.hbase.ipc.HBaseClient$Connection.<init>(HBaseClient.java:224)
at org.apache.hadoop.hbase.ipc.HBaseClient.getConnection(HBaseClient.java:954)
at org.
我们正在使用Spark 2.3.0创建一个基于Spark的应用程序。我们的Spark作业与HBase交互。在创建JAR时,我们得到以下编译时异常异常: ERROR class file for org.apache.spark.Logging not found此异常发生在代码中,即从HBase表中读取数据。
使用下面的jar配置/版本,我们能够成功地将数据写入HBase表。
我们在pom.xml中使用以下配置
<property>
<org.apache.spark.version>2.3.0</org.apache.spark.version>
<
编辑:我将顶层pom文件中定义的hbase依赖项添加到项目级pom中,现在它可以找到包了。
我有一个scala对象,用于从Spark (1.0.1)中的HBase (0.98.4-hadoop2)表中读取数据。但是,当我尝试导入org.apache.hadoop.hbase.mapreduce.TableInputFormat.时,使用maven编译会导致错误
error: object mapreduce is not a member of package org.apache.hadoop.hbase
代码和相关的pom如下:
import org.apache.hadoop.hbase
Hbase版本是2.2.0,它运行在Ubuntu 16.04 LTS中。 当我在独立模式下使用Hbase时,实际上还有什么模式,我得到了一些“连接被拒绝”的错误,如下所示 2019-06-22 00:28:12,804 INFO [main-SendThread(127.0.0.1:2181)] zookeeper.ClientCnxn: Opening socket connection to server 127.0.0.1/127.0.0.1:2181. Will not attempt to authenticate using SASL (unknown error)
2019-
我正在尝试将Spark数据帧写入Hbase,但当我在同一数据帧上执行任何操作或写入/保存方法时,它会给出以下异常: {
java.lang.AbstractMethodError
at org.apache.spark.Logging$class.log(Logging.scala:50)
at org.apache.spark.sql.execution.datasources.hbase.HBaseFilter$.log(HBaseFilter.scala:121)
at org.apache.spark.sql.execution.dat
怎么样了?
抱歉,如果我在这里听起来很愚蠢。
我正在尝试创建一个基本的play2.0 - HBase应用程序。当我尝试从play连接HBase时,ZooKeeper返回HBase服务器地址的垃圾字符。
def main(args : Array[String]) : Unit = {
val conf = HBaseConfiguration create
val admin = new HBaseAdmin(conf)
// list the tables
val listtables = admin.listTables()
listtables.foreach(printl
我在我的ubuntu 64位系统上安装了hbase。我可以运行hbase启动脚本没有任何问题,下面是结果。
hduser@vignesh-ubuntu:/usr/local/hbase$ ./bin/start-hbase.sh
starting master, logging to /usr/local/hbase/bin/../logs/hbase-hduser-master-vignesh-ubuntu.out
Java HotSpot(TM) 64-Bit Server VM warning: ignoring option PermSize=128m; support was rem
我正在使用put在hbase中创建一行,如下所示:
Put put = new Put(Bytes.toBytes(rowKey));
put.add(Bytes.toBytes(columnFamily), Bytes.toBytes(qualifier), cellTimestamp, value);
这些放置得到批处理,然后添加到hbase,如下所示:
table.setAutoFlushTo(true);
table.put(batch);
table.flushCommits();
这适用于新行。如果然后尝试更新列值并指定一个新的cellTimestamp,则不会更新数据。这个是可能
我尝试在独立的HBase安装上运行本书中的示例::。启动HBase运行良好,并且可以访问外壳程序,但是当我尝试运行示例时,我得到了以下错误:
Exception in thread "main" java.io.IOException: Call to /127.0.0.1:55958 failed on local exception: java.io.EOFException
at org.apache.hadoop.hbase.ipc.HBaseClient.wrapException(HBaseClient.java:872)
at or
我是一个初学者,我正在尝试使用sbt导入phoenix库来读取spark中的hbase表,但我的build.sbt总是给我错误。 导入sbt项目时出错: [error] stack trace is suppressed; run 'last update' for the full output
[error] stack trace is suppressed; run 'last ssExtractDependencies' for the full output
[error] (update) sbt.librarymanagement.Resolv