腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
码字搬砖
专栏作者
举报
209
文章
288553
阅读量
32
订阅数
订阅专栏
申请加入专栏
全部文章
java
大数据
编程算法
flink
http
kafka
其他
apache
ide
jvm
sql
hive
spark
linux
缓存
hadoop
二叉树
hbase
python
xml
jar
jdk
node.js
数据库
文件存储
json
存储
scrapy
nat
排序
spring
shell
网络安全
数据结构
云数据库 SQL Server
打包
网站
面向对象编程
https
processing
javafx
c++
javascript
go
bash
html
jquery
云数据库 Redis
api
maven
unix
centos
批量计算
yarn
容器
分布式
自动化
爬虫
jdbc
hashmap
asp
zookeeper
windows
es
count
join
table
工作
数据
算法
tensorflow
.net
scala
bootstrap
react
css
汇编语言
access
eclipse
git
struts
搜索引擎
ubuntu
容器镜像服务
mapreduce
专用宿主机
腾讯云测试服务
vr 视频解决方案
express
serverless
parcel
开源
运维
数据迁移
yum
grep
ntp
anaconda
数据分析
腾讯云开发者社区
Elasticsearch Service
apply
bit
driver
func
function
hash
impala
int
key
label
null
object
olap
output
pivot
snapshot
state
tableview
task
time
window
遍历
登录
递归
队列
数组
索引
统计
效率
压缩
异常
字符串
搜索文章
搜索
搜索
关闭
一文搞懂各个开源版本
apache
struts
编程算法
Alpha: Alpha是内部测试版,一般不向外部发布,会有很多Bug.除非你也是测试人员,否则不建议使用.是希腊字母的第一位,表示最初级的版本,alpha 就是α,beta 就是β ,alpha 版就是比beta还早的测试版,一般都是内部测试的版本。
shengjk1
2022-05-07
355
0
一文搞懂Flink SQL执行过程
flink
大数据
apache
sql
学习了 apache calcite,基本上把 apache calcite 的官网看了一遍,也写了几个小例子,现在该分析一下 Flink SQL 的执行过程了,其中关于 apache calcite 的部分不深究,因为 apache calcite 有些复杂,真的要了解清楚需要大量时间,本次还是聚焦 Flink.
shengjk1
2021-03-17
1.9K
0
记一次 org.apache.kudu.client.NonRecoverableException 的排查
apache
driver
impala
join
object
在实时数仓的时候,遇到了 org.apache.kudu.client.NonRecoverableException,搞了好长时间,特此记录一下。
shengjk1
2020-06-19
3.9K
0
Hbase迁移备份(后续更新)
hbase
数据迁移
apache
hadoop
mapreduce
Export、Import底层原理是MR,不适合太大量的数据迁移 此为跨集群的数据导入,若非跨集群,修改hdfs地址即可 导入导出: 目标表的特有数据不会覆盖掉,会保持特有数据的所有特征导出表数据 导出表数据 outputdir最好不存在 Export会自动创建 命令:hbase org.apache.hadoop.hbase.mapreduce.Export <tablename> <outputdir> [<versions> [<starttime> <endtime>]]] 例子:
shengjk1
2018-10-24
914
0
httpclient post发送json数组并解决json乱码问题
http
json
xml
apache
ntp
业务: 客户端发送json数据,服务端进行解析 client发送json格式: {"data":[{"name":"1;,a","id_no":"222,a","cellphone":"123141a","abode_detail":"213,a","emp_add":"werew3a","app_no":"111111111111a","create_time":"11a"},{"name":"张三","id_no":"null","cellphone":"null","abode_detai
shengjk1
2018-10-24
4.1K
0
公司内部邮箱服务器发送邮件 java版
java
分布式
go
apache
http
由于需要给合作方以压缩包的形式每天返回数据,基于我们自己写的分布式程序,而月末通过返回的数据,来与合作方进行对账,所以每天数据返回的成败就至关重要了,但又懒得每天去查看日志,刚好借助一下公司内部的邮件服务器。
shengjk1
2018-10-24
2K
0
hive动态分区
hive
http
apache
hive分区可以方便快速定位,查找( 设置分区,可以直接定位到hdfs上相应的文件目录下,避免全表扫描)。 hive分区可以分为静态分区、动态分区,另外静动态分区又都可以分为复合分区和单分区表。下面我们以动态复合分区为例,来记述一下分区的建立。
shengjk1
2018-10-24
4.3K
0
HttpClient 发送Json
http
json
xml
jdbc
apache
import com.fasterxml.jackson.databind.ObjectMapper; import msxf.model.People; import msxf.until.ImpalaJdbc; import msxf.until.NowDate; import org.apache.commons.configuration.PropertiesConfiguration; import org.apache.http.HttpS
shengjk1
2018-10-24
2.2K
0
httpClient 发送压缩文件
http
apache
spring
java
import org.apache.commons.codec.digest.DigestUtils; import org.apache.commons.httpclient.HttpStatus; import org.apache.commons.lang.StringUtils; import org.apache.http.HttpEntity; import org.apache.http.client.methods.CloseableHttpRe
shengjk1
2018-10-24
2K
0
Spark Insert Hbase解决task not to serializable
spark
hbase
java
apache
hadoop
package javasssss; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.client.HTable; import org.apache.hadoop.hbase.client.Put; import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaSparkContext; import
shengjk1
2018-10-24
972
0
kylin报错 java.lang.ArrayIndexOutOfBoundsException: -1
java
apache
hadoop
hive
当用kylin做报表时,kylin报错 2017-06-26 14:51:52,523 ERROR [IPC Server handler 3 on 33033] org.apache.hadoop.mapred.TaskAttemptListenerImpl: Task: attempt_1498453243500_0032_m_000000_0 - exited : java.lang.ArrayIndexOutOfBoundsException: -1 at org.apache.kylin.engine.mr.steps.FactDistinctHiveColumnsMapper.putRowKeyToHLL(FactDistinctHiveColumnsMapper.java:179) at org.apache.kylin.engine.mr.steps.FactDistinctHiveColumnsMapper.map(FactDistinctHiveColumnsMapper.java:155)
shengjk1
2018-10-24
1.4K
0
org.apache.hadoop.mapred.YarnChild: GC overhead limit
apache
hadoop
yarn
jdk
hive
hive query 时,报错org.apache.hadoop.mapred.YarnChild: Error running child : java.lang.OutOfMemoryError: GC overhead limit exceeded at org.apache.hadoop.io.Text.setCapacity(Text.java:268) at org.apache.hadoop.io.Text.set(Text.java:224) at org.apache.hadoop.io.Text.set(Text.java:214)
shengjk1
2018-10-24
1.8K
0
解决spark streaming长时间运行日志不断增长问题
spark
yarn
java
apache
背景: 由于spark streaming是7*24小时不间断运行的,日志必然会越来越多到最后大的惊人,在此小二记录一下解决日志越来越大的过程,以便需要之人。
shengjk1
2018-10-24
2.6K
0
java如何指定外部的配置文件
java
xml
apache
jar
工作当中很多时候都希望可以把配置文件外放,这样的话就可以做到配置与业务分离,其实有很多种放式,比如xml,properties,这里就说一下如何用properties做到配置文件跟业务代码的分离
shengjk1
2018-10-24
4.4K
0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档