首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Windows安装Spark2.2.0&Hadoop2.7.5

1、目的

配置环境,使能在Windows系统中安装Spark,并能够使用Python语言编程。

2、平台环境

1) Windows 10(1709)

2) Java 1.8.0(151)

3) Python 3.4.4

4) Hadoop 2.7.5

5) Spark 2.2.0

3、安装

3.1、Java

1)下载

从http://www.oracle.com/technetwork/java/javase/downloads/

jdk8-downloads-2133151.html下载Java8,并且建议不要使用Java9,因为并不能够很好的兼容9,包括Cassandra,在使用的过程中会出现一些问题。安装的过程就一路Next就行了。

2)环境变量

事实上,在安装的时候会添加Java的环境变量(如图2-1蓝色中的部分),但是这并足够,还需要新建变量JAVA_HOME、CLASSPATH,尤其是CLASSPATH。

a) JAVA_HOME:C:\Program Files\Java\jdk1.8.0_151

b) CLASSPATH:.;%JAVA_HOME%\lib;%JAVA_HOME%\lib\tools.jar

c) Path:%JAVA_HOME%\bin;%JAVA_HOME%\jre\bin;

关于Path的添加,如果界面如图2-1,则将其分成“%JAVA_HOME%\bin”和“%JAVA_HOME%\jre\bin”两部分;如果如图2-2,则直接复制“%JAVA_HOME%\bin;%JAVA_HOME%\jre\bin;”添加进去即可(以上部分的值均不包括引号)。

(a)

(b)

图2-1

正确配置完环境变量,能够响应java、javac等命令。

3.2、Python

1)下载

从https://www.python.org/downloads/下载Python的安装包,目前的最高版本为3.6.5(截止至2018-04-26),这里使用的是3.4的版本。安装时注意不要使用带有空格的路径,如“C:\Program Files”等,也最好不要使用中文路径,避免出现什么问题。

2)环境变量

如果装完Python环境变量中仍然不存在Python的路径,则如图2-1(a)中的最后两行所示,将“C:\Python\Python34\”与“C:\Python\Python34\Scripts”添加到环境变量中。

正确配置完环境变量,能够响应python命令。

3.3、Hadoop 2.7.5

1)下载

从https://archive.apache.org/dist/hadoop/core/hadoop-2.7.5/下载Hadoop编译好的安装包。Hadoop下载下来后使用WinRAR或者7z等解压缩(需要以管理员身份运行,否则有两个文件会显示没有权限)。Hadoop解压缩完毕后放到最好不带有空格的路径中,本文路径为E:\ProgramFiles\hadoop\2.7.5。

2)环境变量

新建环境变量HADOOP_HOME,值:E:\ProgramFiles\hadoop\2.7.5,并将E:\ProgramFiles\hadoop\2.7.5\bin(或者%HADOOP_HOME%\bin)放到Path中去。

3)配置

以下所说的路径均是基于Hadoop的根目录E:\ProgramFiles\hadoop\2.7.5

a)在Hadoop的根目录下,新建workplace目录,并在workplace中新建子文件夹temp、data、name,在E:\ProgramFiles\hadoop下新建文件夹E:\ProgramFiles\hadoop\workplace\2.7.5\data

b)编辑etc\hadoop\core-site.xml

/E:/ProgramFiles/hadoop/2.7.5/workplace/temp

/E:/ProgramFiles/hadoop/2.7.5/workplace/name

hdfs://localhost:9000

fs.defaultFS

hdfs://localhost:9000

c)编辑etc\hadoop\mapred-site.xml

yarn

hdfs://localhost:9001

d)编辑etc\hadoop\hdfs-site.xml

dfs.replication

1

/E:/ProgramFiles/hadoop/workplace/2.7.5/data

/E:/ProgramFiles/hadoop/2.7.5/workplace/name

/E:/ProgramFiles/hadoop/2.7.5/workplace/data

e)编辑etc\hadoop\yarn-site.xml

mapreduce_shuffle

f)编辑etc\hadoop\hadoop-env.cmd,将set JAVA_HOME=%JAVA_HOME%中的%JAVA_HOME%替换为JDK的安装路径。

g) Windows的特殊配置

从https://github.com/steveloughran/winutils下载与安装的Hadoop版本对应的winutils(本文理解对应的版本为低于或等于Hadoop的最大版本,事实上高版本的应该向下兼容,本文此处使用的是2.8.1),解压并将其中bin文件夹中的内容添加或替换到根目录下的bin文件夹中。然后运行命令:

E:\ProgramFiles\hadoop\2.7.5\bin\winutils.exe chmod 777 /tmp/hive

必须以绝对路径运行winutils.exe,否测会报/tmp/hive没有写入权限的错。

4)运行环境

a)运行cmd窗口,执行“hdfs namenode -format”;

b)运行cmd窗口,切换到hadoop的sbin目录,执行“start-all.cmd”,它将会启动4个进程。

5)其他

a)资源管理GUI:http://localhost:8088/

b)节点管理GUI:http://localhost:50070/

3.4、Spark

1)下载

2)环境变量

新建环境变量SPARK_HOME,值:E:\ProgramFiles\spark-2.2.0-bin-hadoop2.7,并将E:\ProgramFiles\spark-2.2.0-bin-hadoop2.7\bin(或者%SPARK_HOME%\bin)放到Path中去。

3) PySpark

将将安装目录下的python\pyspark文件件拷贝到Python安装路径下的Lib\site-packages文件夹中,以文本为例对应的路径为C:\Python\Python34\Lib\site-packages。或者使用pip install pyspark进行安装(第一次使用pip命令会提示升级)(本文不建议这样安装pyspark包,因为出现一些问题,本文使用pip安装后,在IDE中使用时报错“int不是迭代对象”)。

4)其他

对于日志信息的输出,则可以更改conf\log4j.properties文件(或者conf\log4j.properties.template拷贝一个副本,并重命名为log4j.properties),将里面的log4j.rootCategory=INFO, console更改为log4j.rootCategory=WARN, console或者log4j.rootCategory=ERROR, console,以便降低日志级别,使之只显示警告及更要的信息(WARN)或者是只显示错误信息(ERROR)。

参考:

《Spark快速大数据分析》

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180818G1HOOO00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券