腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
Hadoop数据仓库
专栏作者
举报
511
文章
707605
阅读量
108
订阅数
订阅专栏
申请加入专栏
全部文章
sql
数据库
云数据库 SQL Server
编程算法
大数据
数据处理
hive
hadoop
http
正则表达式
mysql
oracle
云数据库 Redis
网络安全
bash
regexp
bash 指令
java
linux
存储
spark
数据分析
数据挖掘
unix
tcp/ip
https
字符串
node.js
mongodb
数据
set
apache
云数据库 MongoDB
云推荐引擎
hbase
es
函数
html
mapreduce
网站
分布式
缓存
数据迁移
date
机器学习
xml
postgresql
面向对象编程
数据库管理
专用宿主机
TDSQL MySQL 版
腾讯云测试服务
数据可视化
product
脚本
其他
api
神经网络
深度学习
人工智能
shell
线性回归
schema
部署
测试
内容分发网络 CDN
负载均衡
打包
文件存储
ssh
数据结构
实时数仓
kettle
null
select
table
集群
配置
索引
javascript
jquery
nosql
spring
yarn
zookeeper
Elasticsearch Service
data
insert
redis
row
编码
产品
集合
事务
语法
ios
jar
容器镜像服务
容器
开源
迁移
clickhouse
extract
grid
innodb
rows
session
text
镜像
连接
数据仓库
数据同步
搜索
c++
php
go
ecmascript
ruby on rails
lucene/solr
windows server
负载均衡缓存
日志服务
命令行工具
数据安全
express
sql server
jdbc
决策树
安全
windows
kafka
unicode
alpha
count
csv
db
disk
fetch
h2
ip
key
model
predict
project
substr
xls
对象
后台
解决方案
客户端
命令行
内存
统计
弹性伸缩
官方文档
python
ruby
lua
json
arm
嵌入式
memcached
git
github
搜索引擎
analyzer
centos
apt-get
SSL 证书
数据备份
日志数据
云数据库 MySQL
serverless
parcel
运维
爬虫
yum
推荐系统
rabbitmq
gcc
socket编程
机器人
nest
任务调度
sdn
聚类算法
分类算法
utf8
ascii
学习方法
数据集成
add
amp
apollo
authentication
awk
byte
cat
code
connect
counter
crontab
d3
deadlock
delimiter
digits
etl
factory
greenplum
host
hostname
im
join
matrix
min
monitor
ode
panel
partition
performance
position
proc
production
progress
replace
sentinel
sequence
server
sh
split
state
status
storage
string
swap
system
tar
tree
txt
version
view
zip
备份
变量
程序设计
磁盘
存储过程
代理
服务
服务器
规范化
进程
权限
入门
设计
实践
树形结构
同步
系统
效率
协议
性能
优化
原理
指针
标签
搜索文章
搜索
搜索
关闭
redis全局遍历替换特征字符串
https
http
网络安全
云数据库 Redis
java
需求:将一个redis实例(如10.10.10.1:6379)范围内所有key值中的 .letssing.net 替换为 .kaixinvv.com。
用户1148526
2023-03-08
531
0
MySQL 8 复制(七)——组复制基本原理
java
数据库
云数据库 SQL Server
sql
分布式
3. 数据操作语言(Data Manipulation Language,DML)
用户1148526
2022-05-07
1.2K
0
hive安装配置实验
hive
java
xml
apache
linux
一、安装前准备 1. 安装配置Hadoop,见http://blog.csdn.net/wzy0623/article/details/50681554 2. 下载安装包 mysql-5.7.10-linux-glibc2.5-x86_64 apache-hive-1.2.1-bin.tar.gz mysql-connector-java-5.1.38.tar.gz 二、安装MySQL 1. 解压 tar -zxvf mysql-5.7.10-linux-glibc2.5-x86_64.tar.gz 2. 建立软连接 ln -s /home/grid/mysql-5.7.10-linux-glibc2.5-x86_64 mysql 3. 建立数据目录 mkdir /home/grid/mysql/data 4. 编辑配置文件~/.my.cnf内容如下 [mysqld] basedir=/home/grid/mysql datadir=/home/grid/mysql/data log_error=/home/grid/mysql/data/master.err log_error_verbosity=2 5. 初始化安装,并记下初始密码 mysqld --defaults-file=/home/grid/.my.cnf --initialize 6. 启动MySQL mysqld --defaults-file=/home/grid/.my.cnf --user=grid & 7. 登录MySQL,修改初始密码 mysql -u root -p mysql> ALTER USER USER() IDENTIFIED BY 'new_password'; mysql> exit; 8. 在/etc/profile中添加环境变量 export PATH=$PATH:/home/grid/mysql/bin 三、安装配置hive 1. 解压 tar -zxvf apache-hive-1.2.1-bin.tar.gz 2. 建立软连接 ln -s /home/grid/apache-hive-1.2.1-bin hive 3. 建立临时目录 mkdir /home/grid/hive/iotmp 4. 建立配置文件hive-site.xml cp ~/hive/conf/hive-default.xml.template ~/hive/conf/hive-site.xml 5. 新建配置文件hive-site.xml,内容如下:
用户1148526
2022-05-07
260
0
Kettle构建Hadoop ETL实践(二):安装与配置
大数据
java
jar
linux
数据库
在前一篇里介绍了ETL和Kettle的基本概念,内容偏重于理论。从本篇开始,让我们进入实践阶段。工欲善其事,必先利其器。既然我们要用Kettle构建Hadoop ETL应用,那么先要做的就是安装Kettle。本篇首先阐述选择安装环境所要考虑的因素,之后详细介绍Kettle的安装过程,最后说明Kettle配置文件、启动脚本和JDBC驱动管理。本专题后面的实践部分都是基于这里所安装的Kettle之上完成的。
用户1148526
2020-08-26
7.1K
0
Kettle与Hadoop(八)执行Oozie作业
https
网络安全
java
/root/big_data/job.properties文件的内容如下:
用户1148526
2020-06-10
554
0
Kettle与Hadoop(七)执行Sqoop作业
云数据库 SQL Server
数据库
sql
大数据
java
1. 建立一个作业,将HDFS文件导出到MySQL数据库。 (1)打开PDI,新建一个作业,如图1所示。
用户1148526
2020-06-08
827
0
Kettle与Hadoop(五)执行MapReduce
mapreduce
java
express
网站
本示例说明如何使用Pentaho MapReduce把原始web日志解析成格式化的记录。
用户1148526
2020-06-04
483
0
Kettle与Hadoop(二)Kettle安装配置
大数据
java
jar
xml
数据库
本文描述在CentOS 7.2上安装和运行Kettle 8.3的步骤。
用户1148526
2020-06-01
6K
0
Galera Cluster for MySQL 详解(一)——基本原理
java
数据库
云数据库 SQL Server
sql
缓存
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
用户1148526
2019-10-22
5K
0
MySQL 8 复制(十)——组复制性能与限制
java
云数据库 SQL Server
数据库
sql
https
组复制的基本保证是,只有在组中的大多数节点接收到事务并且就并发事务的相对顺序达成一致之后,才会提交事务。其对事务的基本处理流程为:
用户1148526
2019-08-14
1.9K
0
MySQL 8 复制(七)——组复制理论基础
java
数据库
云数据库 SQL Server
sql
分布式
MySQL Group Replication(MGR)是MySQL 5.7.17版本引入的一个服务器插件,可用于创建高可用、可扩展、容错的复制拓扑结构。组复制可以在单主模式下操作,其中只有一个服务器接受更新,这个单主是系统自动选举出来的。对于高级用户,也可以部署为多主模式,其中所有服务器都可以接受更新。内置的组成员服务可以在任何给定的时间点保持组的视图一致并可供所有服务器使用。当服务器加入或离开组时,视图也会相应更新。当服务器宕机,故障检测机制会检测到此情况并通知组其视图已更改。这些都是自动进行的。
用户1148526
2019-07-11
1.8K
0
使用Oracle外部表对大文件排序
c++
java
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/wzy0623/article/details/53906115
用户1148526
2019-05-25
677
0
基于Hadoop生态圈的数据仓库实践 —— 环境搭建(二)
ssh
java
数据库
云数据库 SQL Server
sql
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/wzy0623/article/details/51768968
用户1148526
2019-05-25
428
0
CDH 5.7.0 离线安装详解
ssh
java
数据库
云数据库 SQL Server
sql
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/wzy0623/article/details/51601989
用户1148526
2019-05-25
1.7K
0
基于Hadoop生态圈的数据仓库实践 —— ETL(三)
网站
hadoop
mapreduce
php
java
三、使用Oozie定期自动执行ETL 1. Oozie简介 (1)Oozie是什么 Oozie是一个管理Hadoop作业、可伸缩、可扩展、可靠的工作流调度系统,其工作流作业是由一系列动作构成的有向无环图(DAGs),协调器作业是按时间频率周期性触发的Oozie工作流作业。Oozie支持的作业类型有Java map-reduce、Streaming map-reduce、Pig、 Hive、Sqoop和Distcp,及其Java程序和shell脚本等特定的系统作业。 第一版Oozie是一个基于工作流引擎的服务器,通过执行Hadoop Map/Reduce和Pig作业的动作运行工作流作业。第二版Oozie是一个基于协调器引擎的服务器,按时间和数据触发工作流执行。它可以基于时间(如每小时执行一次)或数据可用性(如等待输入数据完成后再执行)连续运行工作流。第三版Oozie是一个基于Bundle引擎的服务器。它提供更高级别的抽象,批量处理一系列协调器应用。用户可以在bundle级别启动、停止、挂起、继续、重做协调器作业,这样可以更好地简化操作控制。 (2)为什么需要Oozie
用户1148526
2019-05-25
960
0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档