我的安装在一个小型沙箱HDP 3.1集群中使用Kerberos和SSL运行YARN。YARN ATS正在嵌入式模式下运行。如果我删除基本的Z节点,资源管理器就能够出现;但是,Z节点最终是由嵌入式HBase主节点创建的,并且时间线读取器v2在尝试读取它时被卡住。同样的情况也会发生在节点管理器中。configuration at file:///usr/hdp/current/hadoop-yarn-resourc
我是hadoop和hbase的新手,并且在windows8中安装了hadoop。我启动了hadoop Like image和test map-reduce by word count程序并开始工作。(在eclipse中)
但是我不能使用hbase!我使用的是一个用于eclipse的hbase插件。(来自eclipse marketplace站点)我有一个用于连接和创建表的类,...org.apache.zookeeper.KeeperException$ConnectionLossException
我提交了一个工作给纱线(在spark 2.1.1 + kafka 0.10.2.1),它连接到一个安全的hbase集群。javax.security.auth.login.LoginException: Unable to obtain password from userUserGroupInformation.setConfiguration(hbaseConf)
val keyTab = "keytab-location")
我有一个分析vcf文件并将数据插入hbase的应用程序。该应用程序在使用主本地时运行,使用apache spark没有问题,但是当我使用apache spark集群运行它时,会出现以下失败: at org.apache.spark.deploy.yarn.Client$.main(Client.scala:1213)
at org.apache.
Ambari UI报告了一些错误,当我通过它们重启必要的服务时,我遇到了使用YARN的麻烦。/cache/stacks/HDP/3.0/services/YARN/package/scripts/hbase_service.py", line 80, in hbase File "/var/lib/ambari-agent
同样的代码可以在Spark独立上运行,但当我在Yarn上运行same时,它在Yarn上失败了。java.lang.NoClassDefFoundError: Could not initialize class org.elasticsearch.common.xcontent.json.JsonXContent,它被抛入Executor(Yarn但是,当我使用maven程序集时,我确实在应用程序程序集jar中包含了elasticSearch jar。命令如下:
spark-submit --executor-memory