腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
码字搬砖
专栏成员
举报
209
文章
303511
阅读量
32
订阅数
订阅专栏
申请加入专栏
全部文章(209)
java(36)
大数据(35)
编程算法(33)
flink(32)
http(16)
kafka(16)
其他(15)
apache(14)
ide(13)
jvm(13)
sql(12)
hive(12)
spark(11)
linux(10)
缓存(10)
hadoop(8)
二叉树(8)
hbase(8)
python(7)
xml(7)
jar(7)
jdk(7)
node.js(6)
数据库(6)
文件存储(6)
json(5)
存储(5)
scrapy(5)
nat(5)
排序(5)
spring(4)
shell(4)
网络安全(4)
数据结构(4)
云数据库 SQL Server(3)
打包(3)
网站(3)
面向对象编程(3)
https(3)
processing(3)
javafx(3)
c++(2)
javascript(2)
go(2)
bash(2)
html(2)
jquery(2)
云数据库 Redis(2)
api(2)
maven(2)
unix(2)
centos(2)
批量计算(2)
yarn(2)
容器(2)
分布式(2)
自动化(2)
爬虫(2)
jdbc(2)
hashmap(2)
asp(2)
zookeeper(2)
windows(2)
es(2)
count(2)
join(2)
table(2)
工作(2)
数据(2)
算法(2)
tensorflow(1)
.net(1)
scala(1)
bootstrap(1)
react(1)
css(1)
汇编语言(1)
access(1)
eclipse(1)
git(1)
struts(1)
搜索引擎(1)
ubuntu(1)
容器镜像服务(1)
mapreduce(1)
专用宿主机(1)
腾讯云测试服务(1)
vr 视频解决方案(1)
express(1)
serverless(1)
parcel(1)
开源(1)
运维(1)
数据迁移(1)
yum(1)
grep(1)
ntp(1)
anaconda(1)
数据分析(1)
腾讯云开发者社区(1)
Elasticsearch Service(1)
apply(1)
bit(1)
driver(1)
func(1)
function(1)
hash(1)
impala(1)
int(1)
key(1)
label(1)
null(1)
object(1)
olap(1)
output(1)
pivot(1)
snapshot(1)
state(1)
tableview(1)
task(1)
time(1)
window(1)
遍历(1)
登录(1)
递归(1)
队列(1)
数组(1)
索引(1)
统计(1)
效率(1)
压缩(1)
异常(1)
字符串(1)
搜索文章
搜索
搜索
关闭
java deep vs shallow copies
编程算法
文件存储
讨论 deep copy and shallow copy时,需要明白一点,肯定不是基本数据类型也不是 String,因为它们都是不可变的,都是值传递。换句话说,当讨论 deep copy or shallow copy时,都针对的引用类型,在讨论的是引用如何传递
shengjk1
2021-03-12
268
0
赫夫曼编码-1
文件存储
赫夫曼树应用场景 赫夫曼编码式赫夫曼树在电讯通信中的经典应用之一。 赫夫曼树也广泛的应用于数据文件的压缩。其压缩效率通常在 20% -90% 之间 生成赫夫曼编码 步骤与赫夫曼树类似 package xmht.datastructuresandalgorithms.datastructure.tree.huffmancode; import org.jetbrains.annotations.NotNull; import java.util.*; /** * @author shengjk1 *
shengjk1
2020-06-08
396
0
一文搞定 Flink 消费消息的全流程
flink
大数据
文件存储
编程算法
kafka
当 Flink 程序启动,leader、blobServer 等都创建完毕,当 ExecutionGraph 构建完成,提交成功之后。就到了,task 正式执行的阶段了。这个时候,一条消息是如何流转的呢? 首先,进入了 Task 的 run 方法
shengjk1
2020-06-04
1.4K
0
Flink key state 为何仅与 key 有关的
http
flink
大数据
文件存储
前面两篇我已经讲过 Flink getRuntimeContext().getMapState的时候发生了什么?以及 Flink StateDescriptor Name的作用。 今天我们在这个的基础上一起来看一下,为什么 key state 仅仅与 key 有关,无论我取数据还是修改数据,仅仅只能取到(修改)这个key 对应的那一部分。
shengjk1
2020-05-27
1K
0
写给大忙人的Flink的Data Types
文件存储
flink
大数据
java
二、Flink 是如何处理 Data Type 的 首先Flink会根据自身的序列化器进行序列化,如果不行,则默认回退到 Kryo 序列化器进行序列化。
shengjk1
2020-03-18
915
0
深入理解kafka: 核心设计与实践原理
文件存储
kafka
批量计算
http
缓存
bootstrap.servers ,分割,这里并非需要所有的broker地址清单,因为生产者会从给定的broker里查找到其他broker信息,不过建议 至少要设置两个以上broker地址信息
shengjk1
2019-06-16
2.5K
0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档