腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
LuckQI
专栏成员
举报
80
文章
57645
阅读量
26
订阅数
订阅专栏
申请加入专栏
全部文章(80)
其他(22)
java(20)
云数据库 Redis(8)
linux(8)
容器镜像服务(7)
区块链(6)
容器(6)
数据库(5)
存储(5)
安全(5)
数据结构(5)
比特币(4)
ubuntu(4)
编程算法(4)
分布式(4)
spark(4)
go(3)
node.js(3)
hadoop(3)
大数据(3)
云数据库 SQL Server(2)
mvc(2)
api(2)
lucene/solr(2)
spring(2)
人工智能(2)
http(2)
缓存(2)
jvm(2)
zookeeper(2)
https(2)
hbase(2)
数字货币(1)
python(1)
bash(1)
nosql(1)
sql(1)
github(1)
apache(1)
bash 指令(1)
mapreduce(1)
mongodb(1)
yarn(1)
游戏(1)
开源(1)
shell(1)
面向对象编程(1)
hashmap(1)
aop(1)
socket编程(1)
无监督学习(1)
微服务(1)
腾讯云开发者社区(1)
搜索文章
搜索
搜索
关闭
惊心动魄的Hadoop-6小时350T数据恢复
node.js
hadoop
spark
bash
bash 指令
这次文章是记录一下数据恢复。 上周五在调试Spark数据的时候发现了一个问题,就是一直显示No lease的问题,我们的实时处理程序升级之后,处理的数据量在一个小时内暴增1T。我们的小时程序Spark,有的单个key数据重复导致value值增大,程序运行卡住,根据网上查的参数进行调整。 Hadoop 在调整前,将Hadoop进行关闭 . stop-all.sh 进行关闭 我们在第一步进行关闭的时候这里就出现问题。。。关闭hadoop.sh 出现异常,关闭失败。只好使用linux 上的kill 强制杀
用户2196435
2018-07-19
353
0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档