前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >org/apache/hadoop/hbase/CompatibilityFactory(scan)没有找到类的解决办法

org/apache/hadoop/hbase/CompatibilityFactory(scan)没有找到类的解决办法

作者头像
sparkexpert
发布2018-01-09 15:58:20
1.7K0
发布2018-01-09 15:58:20
举报

在做spark连接Hbase的时候,总会蹦出一些问题。总结起来就是各种类的找不到。

如:org/apache/hadoop/hbase/CompatibilityFactory没有找到类,

代码语言:javascript
复制
E      xception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/client/Scan

如此等等。

这些问题的核心还是没有正确加载Hbase所需要的库。

而Hbase中的一些库存在的会与spark中有一些版本区别,因此可以通过测试来进行添加。

正常需要引用的包如下:

代码语言:javascript
复制
<dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.10</artifactId>
            <version>1.4.1</version>
            <scope>provided</scope>
        </dependency>

        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-common</artifactId>
            <version>1.1.2</version>
        </dependency>

        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-client</artifactId>
            <version>1.1.2</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-server</artifactId>
            <version>1.1.2</version>
        </dependency>
    </dependencies>

除此之外,会需要hbase-hadoop-compact.jar等几个库,把这些库加载后,就不会出现这样的错误

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2016年06月28日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档