腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
YG小书屋
专栏作者
举报
64
文章
123679
阅读量
28
订阅数
订阅专栏
申请加入专栏
全部文章(64)
其他(19)
es 2(18)
系统架构(7)
数据库(6)
云数据库 SQL Server(4)
hive(4)
java(3)
python(3)
编程算法(3)
sql(2)
nginx(2)
mapreduce(2)
缓存(2)
spark(2)
hadoop(2)
lua(1)
神经网络(1)
深度学习(1)
批量计算(1)
http(1)
hashmap(1)
线性回归(1)
单元测试(1)
腾讯云开发者社区(1)
es(1)
filter(1)
io(1)
ip(1)
zk(1)
工作流(1)
搜索文章
搜索
搜索
关闭
脚本提交spark任务会自动重试
spark
1)如果spark任务执行成功,不会自动重试 2)如果spark任务执行失败,手动提交时不会重试 3)如果spark任务执行失败,脚本自动调教时会重试一次 配置参数--conf spark.yarn.maxAppAttempts=0即可。 想不明白,为什么手动提交没有问题,脚本提交会自动重试。。看配置文件也没看到该配置,网上说默认是4。应该是yarn配置的是1。 spark.yarn.maxAppAttempts The maximum number of attempts that will b
YG
2018-05-23
1.9K
0
ES-Spark连接ES后,ES Client节点流量打满分析
es 2
spark
问题描述 前段时间用es-spark读取es数遇到了client节点流量打满的现象。es-spark配置的es.nodes是es的域名。由于其中一个client是master节点,然后普通查询变得特别慢,运行20多分钟后,主节点崩溃。 解决方法 临时解决方案:降低es-spark的并发,并重启主节点。 最终解决方案:设置es.nodes.wan.only为false,即不用域名访问。将es.nodes配置为client节点的IP。 原因分析 域名访问时必须配置参数es.nodes.wan.only为true
YG
2018-05-23
3.1K
3
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档