前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >如何使用Intellij搭建Spark开发环境

如何使用Intellij搭建Spark开发环境

作者头像
Fayson
修改2018-04-01 19:10:18
1.6K0
修改2018-04-01 19:10:18
举报
文章被收录于专栏:Hadoop实操Hadoop实操

温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。

1.文档编写目的


在开始Spark学习之前,首先需要搭建Spark的开发环境,可以基于Eclipse或者Intellij等IDE,本文档主要讲述如何使用Intellij搭建Spark开发环境。

  • 文档概述

1.安装Intellij

2.安装Scala插件

3.测试Scala环境

4.集成Spark开发环境

  • 测试环境

1.Jdk1.8.0_20

2.Scala2.10.5

3.Spark1.6.3 on Hadoop2.6.5

  • 前置条件

1.Java环境变量

2.Scala环境变量

3.spark-assembly jar包

2.安装Intellij工具


1.下载Intellij开发工具

下载地址:

代码语言:txt
复制
http://www.jetbrains.com/idea/download

Intellij版本分为Ultimate和Community,根据自己的需要选择下载

下载完成后双击打开,下一步下一步完成,到此就完成Intellij的安装。

2.获取注册码

如果下载的Ultimate版,需要注册码,注册码可以如下方式获取

注册码地址:http://idea.lanyus.com/

3.安装Scala插件


Scala插件安装分为在线和离线两种方式,网络不稳定时在线安装经常失败,可以选择在官网下载离线安装包,使用离线方式安装。

1.打开Intellij->preferneces->plugins

2.在线安装Scala插件

选择Install JetBrains Plugin安装

3.离线安装

  • 下载离线安装包

通过在线安装的方式可以获取到插件版本及插件下载地址

离线包下载地址:https://plugins.jetbrains.com/plugin/1347-scala

注意:离线包与插件源里面的版本必须一致,否则会安装失败。

  • 选择Install plugin from disk..

安装成功

安装成功后重启Intellij。

4.测试Scala环境


  1. 创建一个scala工程

2.点击“Next”,输入工程名称并选择ScalaSDK版本

注:Scala SDK需要到Scala官网下载相应的版,此处使用的版本为2.10.5

SDK下载地址:http://www.scala-lang.org/download/all.html

3.工程创建完成,测试Scala代码

5.集成Spark开发环境


1.首先在spark官网下载spark的jar包,根据自己集群环境下载相应的spark版本,这里我下载的是spark1.6.3与hadoop2.6.5版本

2.将下载下来的spark-1.6.3-bin-hadoop2.6.tgz解压到本地磁盘目录下,在目录中找到spark-assembly-1.6.3-hadoop2.6.0.jar加到myscala工程依赖中

3.添加依赖后,编写spark编码测试,spark环境是否正常

到此Intellij 的Spark Scala开发环境搭建完成。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-10-01,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Hadoop实操 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档