Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >geotrellis使用(二十五)将Geotrellis移植到spark2.0

geotrellis使用(二十五)将Geotrellis移植到spark2.0

作者头像
魏守峰
发布于 2018-04-28 09:01:36
发布于 2018-04-28 09:01:36
8410
举报
文章被收录于专栏:点滴积累点滴积累

目录

  1. 前言
  2. 升级spark到2.0
  3. 将geotrellis最新版部署到spark2.0(CDH
  4. 总结

一、前言

       事情总是变化这么快,前面刚写了一篇博客介绍如何将geotrellis移植导CDH中(见geotrellis使用(二十四)将Geotrellis移植到CDH中必须要填的若干个坑),刚各种折腾几天,就又跑不起来了,查找一番,发现是由于将geotrellis升级到最新版造成的,所以不得不赶紧再救火。原来是最新版以及以后的版本geotrellis都不再支持spark2.0以下版本,没办法只能升级了。本文为大家简单介绍如何在cloudera中将spark版本升级到2.0,以及在部署到spark2.0(CDH)中的一些问题及解决方案。

二、升级spark到2.0

2.1 将集群的JDK版本升级到1.8

       最新版的geotrellis不再支持jdk1.8以下版本,所以需要将集群的运行jdk升级到1.8,就是要将cloudera的集群jdk升级到1.8。详情见http://bigdatafan.blogspot.jp/2016/05/upgrade-java-to-jdk-8-on-cloudera-cdh.html,文章里面写的很清楚,不再赘述。

2.2 将集群的spark版本升级到2.0

       这里与其说是升级倒不如说是重新安装一套,cdh5.9以上版本可能才会支持spark2.0,目前只能是在cloudera中添加一个2.0的beta版。详情参考https://blog.cloudera.com/blog/2016/09/apache-spark-2-0-beta-now-available-for-cdh/,同样本文不再赘述。需要强调的是安装完后提交spark2.0的程序就需要改用spark2-submit。

三、将geotrellis最新版部署到spark2.0(CDH)

       目前geotrellis最新版为1.0.0-40a2f7a,该版本相较以前有了较大的变化,并且使用了spark2.0之后性能确实有所提高。在升级过程中发现如下问题:

3.1 整体sbt依赖

       依赖基本不变,需要变的地方为:geotrellis版本变为1.0.0-40a2f7a,spark的版本需要改为2.0.0,添加akka依赖,scalaVersion变为2.11.8(2.11以上版本)。

3.2 akka版本问题

       在上一篇文章中讲到通过测试发现akka版本对程序运行没有影响,但是在2.0版需要将akka的版本降到2.4以下,否则启动会报错。

3.3 spray版本问题

       上一篇文章中测试发现spray版本必须降到1.2.3,否则会报错,但是在2.0版这个问题又不存在了,直接使用最新版即可。

四、总结

       本文简单为大家介绍了将geotrellis程序部署到spark2.0中遇到的几个问题及解决方案,其他不多说,如果有遇到相关问题的,欢迎交流、共同学习。

Geotrellis系列文章链接地址http://www.cnblogs.com/shoufengwei/p/5619419.html

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2016-10-19 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
geotrellis使用(二十四)将Geotrellis移植到CDH中必须要填的若干个坑
目录 前言 若干坑 总结 一、前言        近期干了一件事情,将geotrellis程序移植到CDH中(关于CDH,可以参考安装ClouderaManager以及使用ClouderaManager安装分布式集群的若干细节),本以为这是件很简单的事情,没想到跟安装CDH一样却碰到了许多的坑,很多事情真的就是这样,我们不去亲自实践觉得都是简单的,当我们真正甩开膀子去干的时候却发现会遇到各种各样的问题,但是当我们将这些一个个解决的时候,你收获的将不仅是美好的结果,更是很多通过学习无法得到的东西,这应该就是古
魏守峰
2018/04/28
9240
geotrellis使用(二十九)迁移geotrellis至1.1.1版
目录 前言 升级过程 总结 一、前言        由于忙着安装OpenStack等等各种事情,有半年的时间没有再亲密的接触geotrellis,甚至有半年的时间没能畅快的写代码。近来OpenStack折腾的稍见成效,历经九九八十一Failure后成功的在16台服务器上搭建了云平台,于是干了一件疯狂的事情——在OpenStack上创建建立几台虚拟机,并用他们搭建了Hadoop集群,完事将之前的geotrellis代码运行在集群上。一切看似很顺利,但是我是个有强迫症的人,一看geotrellis已经升级到了1
魏守峰
2018/04/28
9160
如何使用Cloudera Manager升级Spark2.1版本至Spark2.2
在CDH集群中spark1和Spark2版本可以共存,为了更好的体验及使用Spark新版本的API或修改已知旧版本的bug,现需要将CDH集群中Spark2的版本升级至Spark2.2最新,本篇文章主要介绍如何通过Cloudera Manager将Spark2.1版本升级至Spark2.2。
Fayson
2018/03/29
2.2K0
geotrellis使用(二十)geotrellis1.0版本新功能及变化介绍
目录 前言 变化情况介绍 总结 一、前言        之前版本是0.9或者0.10.1、0.10.2,最近发现更新成为1.0.0-2077839。1.0应该也能称之为正式版了吧。发现其中有很多变化,在这里为大家简单介绍。 二、变化情况介绍 2.1 数据导入变化        之前数据导入参数基本都要写在命令行,刚查看之前写的博客发现没有介绍数据导入的,只有一个老版的调用本地数据的,本文就在这里简单介绍Geotrellis的数据导入。        Geotrellis可以将数据(Tiff)从本地、HDFS
魏守峰
2018/04/28
1.2K0
Cloudera Enterprise 6 Beta发布
盼星星盼月亮,C6终于来了,虽然是Beta,但没关系,至少可以玩起来了,对吧,哈哈。Cloudera在北京时间5月16日的半夜,在其社区(community.cloudera.com)对外宣布发布Cloudera Enterprise 6,Beta。咱们在5月没有等到CDH5.15,等到C6 beta也是不错的嘛。 C6相较于C5是一次各个组件的大版本升级,可以说是翻天覆地的,简单说你以前期待的Hadoop3的一些激动人心的新功能,C6统统都有了。这次更新是一次革命性的,举世无双的,前无古人后无来者的,是对
Fayson
2018/07/12
7170
geotrellis使用(二十一)自动导入数据
目录 前言 整体介绍 前台界面 后台控制 总结 一、前言        之前Geotrellis数据导入集群采用的是命令行的方式,即通过命令行提交spark任务来ingest数据,待数据导入完毕再启动主程序进行数据的调用。这样造成的一个问题就是数据导入与数据处理不能无缝对接,并且只能由管理员导入数据导入数据流程也很麻烦,用户想要导入自己的数据几乎不可能。本文为大家介绍一种自动数据导入方式——通过浏览器前端界面实现交互式数据导入。 二、整体介绍        通过浏览器方式导入,摆脱了SHELL的限制并且可交
魏守峰
2018/04/28
9140
geotrellis使用(二十一)自动导入数据
如何通过CM升级Kafka0.11及Spark2.2
在前面的文章《CDH5.13和CM5.13的新功能》中Fayson介绍过Cloudera发布CDH5.13时,同时也发布了Kafka3.0版本(即社区0.11版),目前社区最新版本为1.0。由于Kafka3.0和Spark2.2需要JDK8的支持,所以在升级Kafka3.0和Spark2.2版本时必须先升级JDK版本,可以参考《如何将CDH集群JAVA升级至JDK8》和《如何将Kerberos环境下CDH集群JAVA升级至JDK8》,本文Fayson主要介绍在CDH集群中如何升级Kakfa3.0和Spark2.2。
Fayson
2018/03/29
1.8K0
如何通过CM升级Kafka0.11及Spark2.2
0593-CDH5与CDH6对比
Cloudera于2018年8月30日正式发布CDH6.0.0,至2019年2月19日,最新的迭代版本为CDH6.1.1,可能马上就会发布CDH6.2。CDH6是基于Hadoop3同时包含大量其他组件的大版本更新的发布版本,许多用户考虑到未来CDH的版本主要是基于C6,而CDH5会慢慢的停止更新,所以考虑新搭集群使用CDH6,或者想把已有的CDH5集群升级到CDH6。第一个问题就是需要考虑CDH5和CDH6的差别,通过分析一些差异看能否将已有的应用迁移或者直接部署到CDH6,兼容性稳定性是否存在问题等。出于这个目的,本文会从各个方面详细比较CDH5和CDH6的差别,从而让用户能够进行正确的判断并进行相应的选择。以下内容主要基于最新的CDH5.16.1和CDH6.1.1进行比较。最后再次强调,没有最好的技术,也没有最新的技术就是最好的,永远只有最合适的技术。
Fayson
2019/04/28
7.7K1
0593-CDH5与CDH6对比
Cloudera Enterprise 6正式发布
2.针对CDH各个组件以及Cloudera Manager本身的自动化的TLS设置安装。
Fayson
2018/09/29
1.9K0
0594-6.1.0-如何从CDH6.1.0升级到CDH6.2.0
Fayson在前面的文章中详细介绍过CDH的升级,参考《如何升级Cloudera Manager和CDH》,对于小版本的滚动升级,也有专门的一篇文章介绍,参考《0284-CDH集群跨多版本滚动升级》。但以前的版本都是基于CDH5,本文主要是描述如何从CDH6.1升级到CDH6.2。
Fayson
2019/04/29
2K0
0594-6.1.0-如何从CDH6.1.0升级到CDH6.2.0
如何在CDH集群外配置Kerberos环境的Spark2和Kafka客户端环境
温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。 Fayson的github: https://github.com/fayson/cdhproject 提示:代码块部分可以左右滑动查看噢 1.文档编写目的 ---- 在前面的文章Fayson介绍了《如何在CDH集群外配置非Kerberos环境的Gateway节点》、《如何在CDH集群外配置Kerberos环境的GateWay节点》和《如何在CDH集群外配置非Kerberos环境的Spark2和Kafka客户端环境》,配置Gateway中并未提
Fayson
2018/07/12
1.8K0
如何在CDH集群外配置非Kerberos环境的Spark2和Kafka客户端环境
温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。 Fayson的github: https://github.com/fayson/cdhproject 提示:代码块部分可以左右滑动查看噢 1.文档编写目的 ---- 前面的文章《如何在CDH集群外配置Kerberos环境的GateWay节点》和《如何在CDH集群外配置非Kerberos环境的GateWay节点》中Fayson介绍了在不将集群外节点添加到CM管理中实现各组件客户端访问CDH集群功能,本篇文章Fayson主要在前文章实现的基础上配
Fayson
2018/07/12
1.4K0
如何将Kerberos环境下CDH集群JAVA升级至JDK8
大家都知道在安装CDH时默认安装的JDK版本为jdk1.7.0_67,部分企业开发环境为JDK8版本,这个时候可能会出现在本地开发的应用在集群中无法正常运行。前面Fayson也讲过《如何将CDH集群JAVA升级至JDK8》。本篇文章主要讲述如何将Kerberos环境下CDH集群的JAVA版本升级至JDK8。
Fayson
2018/03/29
1.4K0
如何将Kerberos环境下CDH集群JAVA升级至JDK8
如何将CDH集群JAVA升级至JDK8
大家都知道在安装CDH时默认安装的JDK版本为jdk1.7.0_67,部分企业开发环境为JDK8版本,这个时候可能会出现在本地开发的应用在集群中无法正常运行。那么如何将CDH集群中的JAVA版本升级至jdk8呢?本篇文章主要讲述如何将CDH集群的JAVA版本升级至JDK8。
Fayson
2018/03/29
3K0
如何将CDH集群JAVA升级至JDK8
0540-5.15.0-Spark2使用HBase-Spark访问HBase
越来越多的用户使用Spark对接HBase,对接HBase的方式有多种,通过HBase-client API实现,也有直接Spark On HBase的方式实现,比较常见的有华为的Spark-SQL-on-HBase,Hortonworks的Apache HBase Connector和Cloudera提供的SparkOnHBase,目前Cloudera的SparkOnHBase已提交的HBase的主干版本。本篇文章Fayson主要在Spark2环境下使用Cloudera的SparkOnHBase访问HBase。
Fayson
2019/03/07
3.3K1
如何通过Cloudera Manager配置Spark1和Spark2的运行环境
大部分用户在使用CDH集群做Spark开发的时候,由于开发环境的JDK版本比CDH集群默认使用的JDK1.7.0_67-cloudera版本新,可能会出现Spark代码依赖的Java API不兼容问题,解决这个问题方法有两个:一是升级CDH集群的JDK版本;二是指定Spark运行环境JDK版本。本文章主要讲述如何通过Cloudera Manager来指定Spark1和Spark2的运行环境(包含JDK环境、Spark Local Dir等的配置)。
Fayson
2018/03/29
3.2K0
如何通过Cloudera Manager配置Spark1和Spark2的运行环境
CDP私有云基础版7.1.6的新功能是什么?
根据IDG的说法,当客户考虑更新到产品的最新版本时,他们期望新功能、增强的安全性和更好的性能,但越来越希望拥有更简化的升级过程。伴随着CDP私有云的每个新版本,我们正在努力提供这些内容。伴随着许多新功能,我们正在尽可能简化升级过程。在此博客中,我们将介绍7.1.6版本中的新功能以及从HDP进行的新的就地升级,从而完全消除了替换基础架构和数据迁移的麻烦。
大数据杂货铺
2021/04/30
2.5K0
CDH5.11 离线安装或者升级spark2.x详细步骤
在我CDH5.11集群中,默认安装的spark是1.6版本,这里需要将其升级为spark2.x版本。经查阅官方文档,发现spark1.6和2.x是可以并行安装的,也就是说可以不用删除默认的1.6版本,可以直接安装2.x版本,它们各自用的端口也是不一样的。我尝试了安装spark2.0版本和spark2.1版本,均告成功。这里做一下安装spark2.1版本的步骤记录。
大数据真好玩
2020/08/28
5350
CDH5.11 离线安装或者升级spark2.x详细步骤
Note_Spark_Day01:Spark 框架概述和Spark 快速入门
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4yHXs6Sp-1627098349792)(/img/image-20210419160056620.png)]
Maynor
2021/12/07
8390
Note_Spark_Day01:Spark 框架概述和Spark 快速入门
0538-5.15.0-Spark2 KuduContext访问Kudu
在集群中访问Kudu的方式有多种,可以通过Impala使用JDBC的方式,也可以通过Kudu提供的Client API方式,参考Fayson前面的文章《如何使用Java API访问CDH的<em>Kudu</em>》和《如何使用Java代码访问Kerberos环境下的Kudu》。在做Spark开发时也有访问Kudu的需求,Kudu API访问是一种方式,这里Fayson使用KuduContext实现对Kudu的读写操作。
Fayson
2019/03/07
1.9K0
推荐阅读
相关推荐
geotrellis使用(二十四)将Geotrellis移植到CDH中必须要填的若干个坑
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档