腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
码字搬砖
专栏成员
举报
209
文章
303362
阅读量
32
订阅数
订阅专栏
申请加入专栏
全部文章(209)
java(36)
大数据(35)
编程算法(33)
flink(32)
http(16)
kafka(16)
其他(15)
apache(14)
ide(13)
jvm(13)
sql(12)
hive(12)
spark(11)
linux(10)
缓存(10)
hadoop(8)
二叉树(8)
hbase(8)
python(7)
xml(7)
jar(7)
jdk(7)
node.js(6)
数据库(6)
文件存储(6)
json(5)
存储(5)
scrapy(5)
nat(5)
排序(5)
spring(4)
shell(4)
网络安全(4)
数据结构(4)
云数据库 SQL Server(3)
打包(3)
网站(3)
面向对象编程(3)
https(3)
processing(3)
javafx(3)
c++(2)
javascript(2)
go(2)
bash(2)
html(2)
jquery(2)
云数据库 Redis(2)
api(2)
maven(2)
unix(2)
centos(2)
批量计算(2)
yarn(2)
容器(2)
分布式(2)
自动化(2)
爬虫(2)
jdbc(2)
hashmap(2)
asp(2)
zookeeper(2)
windows(2)
es(2)
count(2)
join(2)
table(2)
工作(2)
数据(2)
算法(2)
tensorflow(1)
.net(1)
scala(1)
bootstrap(1)
react(1)
css(1)
汇编语言(1)
access(1)
eclipse(1)
git(1)
struts(1)
搜索引擎(1)
ubuntu(1)
容器镜像服务(1)
mapreduce(1)
专用宿主机(1)
腾讯云测试服务(1)
vr 视频解决方案(1)
express(1)
serverless(1)
parcel(1)
开源(1)
运维(1)
数据迁移(1)
yum(1)
grep(1)
ntp(1)
anaconda(1)
数据分析(1)
腾讯云开发者社区(1)
Elasticsearch Service(1)
apply(1)
bit(1)
driver(1)
func(1)
function(1)
hash(1)
impala(1)
int(1)
key(1)
label(1)
null(1)
object(1)
olap(1)
output(1)
pivot(1)
snapshot(1)
state(1)
tableview(1)
task(1)
time(1)
window(1)
遍历(1)
登录(1)
递归(1)
队列(1)
数组(1)
索引(1)
统计(1)
效率(1)
压缩(1)
异常(1)
字符串(1)
搜索文章
搜索
搜索
关闭
如何生成一个可信的Cookie
网络安全
编程算法
http
因为Cookie都是服务器端创建的,所以,生成一个可信Cookie的关键在于,客户端无法伪造出Cookie。
shengjk1
2021-03-23
1.9K
0
解析 hashMap 源码之基本操作 get
编程算法
http
通过已经计算好的 hash 值,得到 table 的索引位置并来判断链表的第一个元素是不是要查找的节点,如果不是会查找树,最后会遍历链表
shengjk1
2020-08-17
329
0
Flink key state 为何仅与 key 有关的
http
flink
大数据
文件存储
前面两篇我已经讲过 Flink getRuntimeContext().getMapState的时候发生了什么?以及 Flink StateDescriptor Name的作用。 今天我们在这个的基础上一起来看一下,为什么 key state 仅仅与 key 有关,无论我取数据还是修改数据,仅仅只能取到(修改)这个key 对应的那一部分。
shengjk1
2020-05-27
1K
0
深入理解kafka: 核心设计与实践原理
文件存储
kafka
批量计算
http
缓存
bootstrap.servers ,分割,这里并非需要所有的broker地址清单,因为生产者会从给定的broker里查找到其他broker信息,不过建议 至少要设置两个以上broker地址信息
shengjk1
2019-06-16
2.5K
0
Flink是如何kafka读取数据的
kafka
http
大数据
版权声明:本文为博主原创,欢迎转载,转载请标明出处 Blog Address:http://blog.csdn.net/jsjsjs1789 https://blog.csdn.net/jsjsjs1789/article/details/89067747
shengjk1
2019-04-18
1.7K
0
关于分布式计算框架连接kafka不满足同一消费者组不满足只有一个消费者的情况
spark
大数据
kafka
http
版权声明:本文为博主原创,欢迎转载,转载请标明出处 Blog Address:http://blog.csdn.net/jsjsjs1789 https://blog.csdn.net/jsjsjs1789/article/details/88925425
shengjk1
2019-04-09
421
0
httpclient post发送json数组并解决json乱码问题
http
json
xml
apache
ntp
业务: 客户端发送json数据,服务端进行解析 client发送json格式: {"data":[{"name":"1;,a","id_no":"222,a","cellphone":"123141a","abode_detail":"213,a","emp_add":"werew3a","app_no":"111111111111a","create_time":"11a"},{"name":"张三","id_no":"null","cellphone":"null","abode_detai
shengjk1
2018-10-24
4.2K
0
公司内部邮箱服务器发送邮件 java版
java
分布式
go
apache
http
由于需要给合作方以压缩包的形式每天返回数据,基于我们自己写的分布式程序,而月末通过返回的数据,来与合作方进行对账,所以每天数据返回的成败就至关重要了,但又懒得每天去查看日志,刚好借助一下公司内部的邮件服务器。
shengjk1
2018-10-24
2.1K
0
hive动态分区
hive
http
apache
hive分区可以方便快速定位,查找( 设置分区,可以直接定位到hdfs上相应的文件目录下,避免全表扫描)。 hive分区可以分为静态分区、动态分区,另外静动态分区又都可以分为复合分区和单分区表。下面我们以动态复合分区为例,来记述一下分区的建立。
shengjk1
2018-10-24
4.4K
0
HttpClient 发送Json
http
json
xml
jdbc
apache
import com.fasterxml.jackson.databind.ObjectMapper; import msxf.model.People; import msxf.until.ImpalaJdbc; import msxf.until.NowDate; import org.apache.commons.configuration.PropertiesConfiguration; import org.apache.http.HttpS
shengjk1
2018-10-24
2.2K
0
httpClient 发送压缩文件
http
apache
spring
java
import org.apache.commons.codec.digest.DigestUtils; import org.apache.commons.httpclient.HttpStatus; import org.apache.commons.lang.StringUtils; import org.apache.http.HttpEntity; import org.apache.http.client.methods.CloseableHttpRe
shengjk1
2018-10-24
2.1K
0
CDH集成Kafka
http
hive
parcel
spark
1.离线 先下载相应版本的kafka http://archive.cloudera.com/kafka/parcels/ 然后放置相应目录,如下图:
shengjk1
2018-10-24
1.2K
0
CDH Disk Balancer 磁盘数据均衡
hadoop
json
http
由于数据量过多,磁盘大小太小,导致磁盘使用率高达90%以上,于是新增磁盘,可问题来了,如何将这两块磁盘上的数据进行均衡呢? hadoop在2.X中已经有相应的方法了(具体哪个版本忘了),本次基于CDH来做
shengjk1
2018-10-24
3K
0
sqoop连接sqlServer
sql
hive
hadoop
http
背景:最近公司需要把sqlServer的数据导入到hive中方便数据组的同事进行分析。国内资料相对老套,很多资料针对于sqoop1.3及其以下的,所以记录以下,方便后来者。各位看官,开始喽!!!
shengjk1
2018-10-24
2.2K
0
scrapy之其他
scrapy
http
1.日志 $为注释 LOG_ENABLED = True LOG_LEVEL = ‘INFO’ $LOG_FILE = ‘./logs/booksisbn.log’
shengjk1
2018-10-24
426
0
scrapy之ip池
scrapy
数据库
python
ide
http
备注: process_request(request, spider) 当每个request通过下载中间件时,该方法被调用。 process_request() 必须返回其中之一: 返回 None 、返回一个 Response 对象、返回一个 Request 对象或raise IgnoreRequest 。 如果其返回 None ,Scrapy将继续处理该request,执行其他的中间件的相应方法,直到合适的下载器处理函数(download handler)被调用, 该request被执行(其response被下载)。 如果其返回 Response 对象,Scrapy将不会调用 任何 其他的 process_request() 或 process_exception() 方法,或相应地下载函数; 其将返回该response。 已安装的中间件的 process_response() 方法则会在每个response返回时被调用。 如果其返回 Request 对象,Scrapy则停止调用 process_request方法并重新调度返回的request。当新返回的request被执行后, 相应地中间件链将会根据下载的response被调用。 如果其raise一个 IgnoreRequest 异常,则安装的下载中间件的 process_exception() 方法会被调用。如果没有任何一个方法处理该异常, 则request的errback(Request.errback)方法会被调用。如果没有代码处理抛出的异常, 则该异常被忽略且不记录(不同于其他异常那样)。 参数: request (Request 对象) – 处理的request spider (Spider 对象) – 该request对应的spider
shengjk1
2018-10-24
1.1K
0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档