前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布

spark

作者头像
平凡的学生族
发布2019-05-25 09:26:53
6360
发布2019-05-25 09:26:53
举报
文章被收录于专栏:后端技术

搭建spark集群

https://www.cnblogs.com/freeweb/p/5773619.html

idea 创建maven项目

配置scala环境: https://www.cnblogs.com/luguoyuanf/p/19c1e4d88a094c07331e912f40ed46c7.html 然后右键,run 'xx'即可运行(要保证有main函数): https://www.cnblogs.com/kevinlogs/p/9175602.html maven导入spark、hadoop组件 https://blog.csdn.net/yu0_zhang0/article/details/80112846 另外参考: https://www.cnblogs.com/wangjianwei/articles/9722234.html cannot resolve symbol: https://blog.csdn.net/qq_23876393/article/details/78851061 确认spark与scala对应版本关系: https://mvnrepository.com/artifact/org.apache.spark/spark-core

此处有2.12和2.11标签,如果是spark2.4且scala2.11,要点进2.11标签

试图运行wordcount

NoClassDefFoundError: scala/Product$class

Java SparkSql 2.4.0 ArrayIndexOutOfBoundsException error

https://stackoverflow.com/questions/53260980/java-sparksql-2-4-0-arrayindexoutofboundsexception-error

读取文件时连接错误java.net.ConnectException

url本来是

代码语言:javascript
复制
val textFile=sc.textFile("hdfs://127.0.0.1:9000/wc/temp")

改成以下后就好了,其中hadoop01会被映射到192.168.xx.xx(本地的私有ip)

代码语言:javascript
复制
val textFile=sc.textFile("hdfs://hadoop01:9000/wc/temp")

版本问题

scala与spark版本要对应,maven导入的sdk也要版本对应

运行方式

在本地测试则master设为本地运行 在集群测试则master设为集群运行

参考资源

  1. 《Spark快速大数据分析》
  2. 《Spark和核心技术与高级应用》
  3. 北风网相关视频
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019.03.08 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 搭建spark集群
  • idea 创建maven项目
    • 试图运行wordcount
      • Java SparkSql 2.4.0 ArrayIndexOutOfBoundsException error
        • 读取文件时连接错误java.net.ConnectException
          • 版本问题
            • 运行方式
              • 参考资源
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档