首页
学习
活动
专区
工具
TVP
发布

别先生

爱生活,爱工作。
专栏作者
588
文章
1131797
阅读量
64
订阅数
error: not found: value sqlContext/import sqlContext.implicits._/error: not found: value sqlContext
1、今天启动启动spark的spark-shell命令的时候报下面的错误,百度了很多,也没解决问题,最后想着是不是没有启动hadoop集群的问题
别先生
2018-07-31
1.6K0
使用shell脚本定时采集日志数据到hdfs分布式文件系统
1、首先对linux操作系统的crontab命令进行熟悉和了解: 1、crond是linux下用来周期性的执行某种任务或等待处理某些事件的一个守护进程,与windows下的计划任务类似,当安装完成操作系统后,默认会安装此服务工具,并且会自动启动crond进程,crond进程每分钟会定期检查是否有要执行的任务,如果有要执行的任务,则自动执行该任务。 2、Linux下的任务调度分为两类,系统任务调度和用户任务调度。   a、系统任务调度:系统周期性所要执行的工作,比如写缓存数据到硬盘、日志清理等。在/etc目录
别先生
2018-05-16
1.9K0
Caused by: java.net.ConnectException: Connection refused: master/192.168.3.129:7077
1:启动Spark Shell,spark-shell是Spark自带的交互式Shell程序,方便用户进行交互式编程,用户可以在该命令行下用scala编写spark程序。 启动Spark Shell,出现的错误如下所示: 1 [root@master spark-1.6.1-bin-hadoop2.6]# bin/spark-shell --master spark://master:7077 --executor-memory 512M --total-executor-cores 2 2 18/
别先生
2018-04-02
2.8K0
一脸懵逼学习Linux的Shell编程
别先生
2018-01-02
7180
Hadoop Shell命令(基于linux操作系统上传下载文件到hdfs文件系统基本命令学习)
别先生
2018-01-02
2.9K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档