腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
杂烩
专栏成员
举报
160
文章
165114
阅读量
28
订阅数
订阅专栏
申请加入专栏
全部文章(160)
其他(65)
spring(18)
java(14)
数据库(13)
xml(11)
分布式(10)
云数据库 Redis(9)
linux(8)
云数据库 SQL Server(7)
容器镜像服务(7)
hadoop(7)
https(7)
eclipse(6)
github(6)
开源(6)
hive(6)
sql(5)
apache(5)
http(5)
存储(5)
dubbo(5)
mvc(4)
打包(4)
git(4)
人工智能(4)
编程算法(4)
zookeeper(4)
servlet(3)
html(3)
jar(3)
tomcat(3)
maven(3)
nginx(3)
TDSQL MySQL 版(3)
容器(3)
缓存(3)
压力测试(3)
jdk(3)
mybatis(3)
jdbc(3)
hbase(3)
部署(3)
.net(2)
json(2)
ide(2)
svn(2)
ubuntu(2)
mapreduce(2)
es 2(2)
mongodb(2)
kubernetes(2)
spark(2)
html5(2)
yum(2)
spring boot(2)
aop(2)
jenkins(2)
安全(2)
服务(2)
配置(2)
云服务器(1)
负载均衡(1)
区块链(1)
php(1)
javascript(1)
erlang(1)
jquery(1)
ajax(1)
qt(1)
oracle(1)
nosql(1)
struts(1)
搜索引擎(1)
负载均衡缓存(1)
日志数据(1)
自动化(1)
shell(1)
网络安全(1)
jvm(1)
ssh(1)
asp(1)
tcp/ip(1)
flash(1)
rabbitmq(1)
gcc(1)
大数据(1)
windows(1)
物联网(1)
nat(1)
kafka(1)
influxdb(1)
io(1)
jsch(1)
mapping(1)
mysql(1)
openssh(1)
properties(1)
ribbon(1)
string(1)
swing(1)
测试(1)
反射(1)
工作(1)
管理(1)
基础(1)
开发(1)
客户端(1)
垃圾回收(1)
连接(1)
时序数据库(1)
系统(1)
协议(1)
性能(1)
优化(1)
源码(1)
终端(1)
字符串(1)
搜索文章
搜索
搜索
关闭
一种海量日志存储、分析解决方案V1.0 原
hive
kafka
hadoop
编程算法
日志数据
flume,版本1.7.0,主要用来从业务系统收集数据以及从jms收集数据。
尚浩宇
2018-08-17
2K
0
flume采集数据实时存储hive两种解决方案
hive
http
hbase
TDSQL MySQL 版
hadoop
本方案的核心是flume采集数据后,按照hive表的结构,将采集数据输送到对应的地址中,达到数据实时存储的目的,这种实时实际上是一种准实时。
尚浩宇
2018-08-17
5.6K
0
hbase1.2.4安装 原
hbase
TDSQL MySQL 版
zookeeper
hadoop
匹配的hadoop2.6.0,假设hadoop已经正确安装并启动,假设zookeeper已经正确安装并启动。
尚浩宇
2018-08-17
343
0
spark整合hive+hbase做数据实时插入及实时查询分析
hbase
TDSQL MySQL 版
spark
hive
hadoop
使用的spark是2.0.1,hive是1.2.1,hbase是1.2.4,hadoop是2.6.0,zookeeper是3.4.9
尚浩宇
2018-08-17
1.1K
0
hadoop2.6.0 Eclipse下的开发
eclipse
ide
hadoop
mapreduce
然后下载插件,我这里用的是2.6.0版本插件地址,下载完成后找到release文件夹,将其复制
尚浩宇
2018-08-17
394
0
hadoop集群配置之hive1.2.0安装部署(远程mysql)
hive
云数据库 SQL Server
数据库
sql
hadoop
为了一次性成功,在hive主目录下找到conf文件夹下的hive_env.sh,将其中得HADOOP_HOME和HIVE_CONF_DIR放开并怕配置
尚浩宇
2018-08-17
980
0
hadoop集群配置之服务器主机名配置 原
hadoop
登陆到root账户,输入如下命令 hostnamectl set-hostname h3 然后找到/etc/hosts,打开。 并且加入其他电脑的信息,重启即可
尚浩宇
2018-08-17
1.2K
0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档