Spark2.x学习笔记:6、在Windows平台下搭建Spark开发环境(Intellij IDEA)

Spark2.x学习笔记

6、 在Windows平台下搭建Spark开发环境(Intellij IDEA+Maven)

6.1 集成开发环境IDE

为了方便应用程序开发与测试,提高开发效率,一般使用集成开发工具IDE。同样,为了方便Spark应用程序编写和测试,可以选择集成开发工具Intellij IDEA或Eclipse。由于Intellij IDEA对Scala更好的支持,大多Spark开发团队选择了Intellij IDEA作为开发环境。

6.2 安装JDK

在Linux下安装配置JDK8,请参见http://blog.csdn.net/chengyuqiang/article/details/77671748。 在实际生产环境下,首先是在Windows平台进行应用程序编写和调试,然后,程序编译后发布到服务器端运行。所以,这里需要介绍的是Windows平台下JDK8的安装与配置。 (1)下载 登录Oracle官网http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html,接受协议,选择对应版本。因为我的本机是64位Windows,所以需要下载64位(Windows x64)JDK安装包。

(2)安装JDK Windows下安装JDK非常方便,双击安装程序后,直接单击下一步即可,默认安装到C:\Program Files\Java目录下。其间会安装JRE,默认一下步即可。 (3)设置环境变量 右键单击桌面上的“计算机”图标(在Windows10下是“此电脑”),在弹出的右键快捷菜单中选择最后一个“属性”选项;在弹出的系统窗口中,单击左侧“高级系统设置”选项,弹出“系统属性”对话框,如下图。

然后单击中间的“高级”选项卡,再单击下方的“环境变量(N)…”按钮。在弹出的环境变量对话框中,首先单击下方的“新建(W)…”按钮,然后在弹出的新建环境变量中输入对应的值。

6.3 安装Scala

(1)下载 通过Spark官网下载页面http://spark.apache.org/downloads.html 可知“Note: Starting version 2.0, Spark is built with Scala 2.11 by default.”,建议下载Spark2.2对应的 Scala 2.11。

登录Scala官网http://www.scala-lang.org/,单击download按钮,然后再“Other Releases”标题下找到“Last 2.11.x maintenance release - Scala 2.11.11”链接

进入http://www.scala-lang.org/download/2.11.11.html页面,下拉找到如下图内容,下载msi格式的安装包即可。

(2)安装 默认安装到C:\Program Files (x86)\scala目录下

(3)环境变量 与设置Java环境变量类型, SCALA_HOME=C:\Program Files (x86)\scala Path环境变量在最后追加;%SCALA_HOME%\bin

6.4 安装Maven

Maven的安装与配置请参考: http://blog.csdn.net/chengyuqiang/article/details/72082149

6.5 Intellij IDEA下载与配置

(1)下载与安装 登录官网https://www.jetbrains.com/idea/download/,按照自己的需求下载(ultimate,旗舰版)或者(Community,社区版)。比如这里直接下载ultimate

下载得到ideaIU-2017.2.3.exe可执行文件,双击即可安装。 (2)启动 安装完成后,单击周末IntelliJ IDEA图标即可启动IntelliJ IDEA. (3)导入设置 由于是第一次安装,所以不需要导入配置。默认选项即可。

(4)接受协议

(5)激活IntelliJ IDEA 2017.2.3(重要) 对于旗舰版的IntelliJ IDEA需要激活。如下图所示,首先选中“License server”,然后再输入框中输入http://idea.imsxm.com(注意,输入是这个地址,不是图中地址),最后单击“Activate”按钮激活即可。

(6)选中风格 为了保护眼睛,我倾向于选中Darcula风格。

(7)单击“Next:Default plugins”–>Featured plugins,单击“Install”下载Scala插件

6.6 设置

(1)单击“Create New Project”

6.7 创建Maven项目

选中scala–>右键快捷菜单–>Mark Directory as –>Sources root

File–>Project Structure–>Global Libaries

单击“Browse”按钮,选中Scala安装目录

6.8 编辑代码

(1)pom.xml

Spark2.2 Maven库请参见 http://mvnrepository.com/artifact/org.apache.spark/spark-core_2.10/2.2.0

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/maven-v4_0_0.xsd">
  <modelVersion>4.0.0</modelVersion>
  <groupId>cn.hadron</groupId>
  <artifactId>simpleSpark</artifactId>
  <packaging>jar</packaging>
  <version>1.0-SNAPSHOT</version>
  <properties>
    <spark.version>2.2.0</spark.version>
  </properties>

  <repositories>
    <repository>
      <id>nexus-aliyun</id>
      <name>Nexus aliyun</name>
      <url>http://maven.aliyun.com/nexus/content/groups/public</url>
    </repository>
  </repositories>

  <dependencies>
    <!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.10 -->
    <dependency>
      <groupId>org.apache.spark</groupId>
      <artifactId>spark-core_2.10</artifactId>
      <version>${spark.version}</version>
    </dependency>
  </dependencies>

  <build>
    <plugins>
      <plugin>
        <artifactId>maven-assembly-plugin</artifactId>
        <version>2.3</version>
        <configuration>
          <classifier>dist</classifier>
          <appendAssemblyId>true</appendAssemblyId>
          <descriptorRefs>
            <descriptor>jar-with-dependencies</descriptor>
          </descriptorRefs>
        </configuration>
        <executions>
          <execution>
            <id>make-assembly</id>
            <phase>package</phase>
            <goals>
              <goal>single</goal>
            </goals>
          </execution>
        </executions>
      </plugin>
    </plugins>
  </build>
</project>

保存pom.xml文件后,如果Intellij IDEA右下角出现如下提示,请单击“Enable Auto-Import”

(2)WordCount.scala 新建Scala Class类WordCount.scala,Scala源文件后缀名是.scala。

package cn.hadron

import org.apache.spark._

object WordCount {
  def main(args: Array[String]) {
    var masterUrl = "local[1]"
    var inputPath = "D:\\data\\Hamlet.txt"
    var outputPath = "D:\\output"

    if (args.length == 1) {
      masterUrl = args(0)
    } else if (args.length == 3) {
      masterUrl = args(0)
      inputPath = args(1)
      outputPath = args(2)
    }

    println(s"masterUrl:${masterUrl}, inputPath: ${inputPath}, outputPath: ${outputPath}")

    val sparkConf = new SparkConf().setMaster(masterUrl).setAppName("WordCount")
    val sc = new SparkContext(sparkConf)

    val rowRdd = sc.textFile(inputPath)
    val resultRdd = rowRdd.flatMap(line => line.split("\\s+"))
        .map(word => (word, 1)).reduceByKey(_ + _)

    resultRdd.saveAsTextFile(outputPath)
  }
}

6.9 数据文件

从网络上下载一部文本格式的小说,比如Hamlet.txt,存放到D:\data目录。

6.10 运行

在源文件代码中右键单击–>Run “WordCount”

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏nimomeng的自我进阶

基于Jenkins的CocoaPods化iOS项目构建+蒲公英/FIR系统发布

本文以本地和Git为例,结合CocoaPods,简单介绍了如何用jenkins来进行CI编译并上传蒲公英和Fir生成相应二维码的流程。

663
来自专栏菩提树下的杨过

hadoop 2.6全分布安装

这一步完成后,最好重启一次系统,以便生效。然后可以用ping master(或slave01、slave02)试下,正常的话,应该能ping通

571
来自专栏电光石火

使用jenkins实现tomcat自动化部署

1313
来自专栏从零开始学自动化测试

appium+python自动化36-android7.0连不上的问题

前言 由于最近很多android手机升级到7.0系统了,有些小伙伴的appium版本用的还是1.4版本,在运行android7.0的app自动化时候遇到无法启动...

3898
来自专栏魏艾斯博客www.vpsss.net

军哥 LNMP 1.5 测试版发布

1623
来自专栏Spark学习技巧

Hadoop伪分布式集群安装部署

一、 准备环境 1, 安装简介 Java-- jdk-8u121-linux-x64.tar.gz Hadoop--hadoop-2.7.4.tar.gz (...

2095
来自专栏北京马哥教育

CentOS 6.5上搭建Hadoop环境详解

本文详细记录在开发服务器CentOS 6.5上搭建Hadoop的详细过程。 ssh连接免密码配置 由于配置过程中需要频繁的进行ssh连接到开发服务器执行命令以及...

3005
来自专栏翻译

在Ubuntu 14.04/14.10上搭建Minecraft Spigot服务器

本文介绍了如何在Ubuntu 14.04 / 14.10上搭建自己的Minecraft服务器,搭建一个让我们可以与朋友远程开黑的私服,甚至是搭建一个几百人的公共...

532
来自专栏lestat's blog

使用cloudflare加持你的网站

简单地说,CloudFlare就是通过基于反向代理的内容分发网络(Content Delivery Network,CDN)及分布式域名解析服务(Distrib...

1042
来自专栏difcareer的技术笔记

最新版MacOS(10.13.2)编译Android 4.4.4源码

网上搜一下Mac编译Android源码,能搜到很多,但最新版的MacOS(10.13.2)编译Android4.4.4的却没有,本文记录我的编译过程。

1054

扫码关注云+社区