腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
码字搬砖
专栏作者
举报
209
文章
288121
阅读量
32
订阅数
订阅专栏
申请加入专栏
全部文章
java
大数据
编程算法
flink
http
kafka
其他
apache
ide
jvm
sql
hive
spark
linux
缓存
hadoop
二叉树
hbase
python
xml
jar
jdk
node.js
数据库
文件存储
json
存储
scrapy
nat
排序
spring
shell
网络安全
数据结构
云数据库 SQL Server
打包
网站
面向对象编程
https
processing
javafx
c++
javascript
go
bash
html
jquery
云数据库 Redis
api
maven
unix
centos
批量计算
yarn
容器
分布式
自动化
爬虫
jdbc
hashmap
asp
zookeeper
windows
es
count
join
table
工作
数据
算法
tensorflow
.net
scala
bootstrap
react
css
汇编语言
access
eclipse
git
struts
搜索引擎
ubuntu
容器镜像服务
mapreduce
专用宿主机
腾讯云测试服务
vr 视频解决方案
express
serverless
parcel
开源
运维
数据迁移
yum
grep
ntp
anaconda
数据分析
腾讯云开发者社区
Elasticsearch Service
apply
bit
driver
func
function
hash
impala
int
key
label
null
object
olap
output
pivot
snapshot
state
tableview
task
time
window
遍历
登录
递归
队列
数组
索引
统计
效率
压缩
异常
字符串
搜索文章
搜索
搜索
关闭
Flink 连接 hive 解决 java.net.UnknownHostException
面向对象编程
node.js
hadoop
flink
大数据
今天在实验 Flink 连接 hive 的操作,由于 CDH 的 hadoop 是 HA,连接过程中报错如下:
shengjk1
2020-09-28
2.9K
0
oozie 提交任务:java.lang.NumberFormatException: For input string "30s"
hadoop
具体也可以参考一下: HDFS default value change (with adding time unit) breaks old version MR tarball work with new version (3.0) of hadoop 修改方式: 将现有的hadoop依赖的版本升级到 hadoop 3.0
shengjk1
2020-03-27
1.5K
0
Hbase迁移备份(后续更新)
hbase
数据迁移
apache
hadoop
mapreduce
Export、Import底层原理是MR,不适合太大量的数据迁移 此为跨集群的数据导入,若非跨集群,修改hdfs地址即可 导入导出: 目标表的特有数据不会覆盖掉,会保持特有数据的所有特征导出表数据 导出表数据 outputdir最好不存在 Export会自动创建 命令:hbase org.apache.hadoop.hbase.mapreduce.Export <tablename> <outputdir> [<versions> [<starttime> <endtime>]]] 例子:
shengjk1
2018-10-24
914
0
Spark Insert Hbase解决task not to serializable
spark
hbase
java
apache
hadoop
package javasssss; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.client.HTable; import org.apache.hadoop.hbase.client.Put; import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaSparkContext; import
shengjk1
2018-10-24
972
0
CDH Disk Balancer 磁盘数据均衡
hadoop
json
http
由于数据量过多,磁盘大小太小,导致磁盘使用率高达90%以上,于是新增磁盘,可问题来了,如何将这两块磁盘上的数据进行均衡呢? hadoop在2.X中已经有相应的方法了(具体哪个版本忘了),本次基于CDH来做
shengjk1
2018-10-24
2.9K
0
kylin报错 java.lang.ArrayIndexOutOfBoundsException: -1
java
apache
hadoop
hive
当用kylin做报表时,kylin报错 2017-06-26 14:51:52,523 ERROR [IPC Server handler 3 on 33033] org.apache.hadoop.mapred.TaskAttemptListenerImpl: Task: attempt_1498453243500_0032_m_000000_0 - exited : java.lang.ArrayIndexOutOfBoundsException: -1 at org.apache.kylin.engine.mr.steps.FactDistinctHiveColumnsMapper.putRowKeyToHLL(FactDistinctHiveColumnsMapper.java:179) at org.apache.kylin.engine.mr.steps.FactDistinctHiveColumnsMapper.map(FactDistinctHiveColumnsMapper.java:155)
shengjk1
2018-10-24
1.4K
0
org.apache.hadoop.mapred.YarnChild: GC overhead limit
apache
hadoop
yarn
jdk
hive
hive query 时,报错org.apache.hadoop.mapred.YarnChild: Error running child : java.lang.OutOfMemoryError: GC overhead limit exceeded at org.apache.hadoop.io.Text.setCapacity(Text.java:268) at org.apache.hadoop.io.Text.set(Text.java:224) at org.apache.hadoop.io.Text.set(Text.java:214)
shengjk1
2018-10-24
1.8K
0
sqoop连接sqlServer
sql
hive
hadoop
http
背景:最近公司需要把sqlServer的数据导入到hive中方便数据组的同事进行分析。国内资料相对老套,很多资料针对于sqoop1.3及其以下的,所以记录以下,方便后来者。各位看官,开始喽!!!
shengjk1
2018-10-24
2.1K
0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档