腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
深度学习之tensorflow实战篇
专栏作者
举报
604
文章
1403544
阅读量
84
订阅数
订阅专栏
申请加入专栏
全部文章
python
编程算法
数据库
sql
r 语言
mongodb
云数据库 SQL Server
其他
http
机器学习
linux
人工智能
神经网络
html
深度学习
hive
https
java
大数据
numpy
云数据库 MongoDB
windows
NLP 服务
django
网络安全
hadoop
数据结构
tensorflow
github
决策树
ide
git
数据分析
数据处理
javascript
bash
json
开源
数据挖掘
node.js
ubuntu
线性回归
go
bash 指令
shell
anaconda
xml
windows server
mapreduce
爬虫
spark
正则表达式
云数据库 Redis
存储
text
c 语言
c++
oracle
nosql
ruby on rails
api
jar
中文分词
nginx
腾讯云测试服务
分布式
html5
ssh
sql server
监督学习
推荐系统
csv
data
label
list
sort
txt
博客
字符串
区块链
php
c#
css
access
打包
unix
apt-get
批量计算
文件存储
访问管理
云推荐引擎
网站
xslt & xpath
jdk
gui
ftp
grep
pytorch
db
dot
edge
file
graph
header
igraph
integer
key
max
min
plot
poi
sample
scale
size
stdout
sum
time
集合
开发
日志
调试
终端
费用中心
官方文档
ios
.net
jsp
scala
单片机
sqlalchemy
eclipse
matlab
搜索引擎
centos
日志服务
命令行工具
NAT 网关
数据加密服务
电商
企业
容器
缓存
运维
压力测试
数据迁移
jvm
yum
面向对象编程
hashmap
keras
二叉树
tcp/ip
单元测试
kernel
scikit-learn
socket编程
kerberos
系统架构
nat
kafka
特征工程
聚类算法
unicode
腾讯云图数据可视化
数据库管理
add
app
apple
apply
axis
bayesian
bi
bit
blob
boolean
break
browser
center
character
cmd
code
codec
configuration
copy
count
counter
criteria
database
default
desktop
distance
distribution
driver
encode
encoding
error
excel
exists
flags
flatten
frame
frequency
gaussian
ggplot2
global
handle
hash
input
instance
int
lapply
limit
line
map
median
multiprocessing
na
normalization
pandas
path
pool
predict
probability
proc
ps
pycharm
random
reduce
require
root
sampling
scanf
server
slice
static
sudo
table
tar
tensor
transpose
typeerror
union
vector
version
view
width
word
word2vec
xgboost
zip
笔记
编程
遍历
编码
程序
登录
递归
函数
加密
解决方案
快捷键
连接
数据
数据中心
数组
索引
虚拟机
压缩
优化
语法
原理
搜索文章
搜索
搜索
关闭
hive计算日期差函数datediff,hive修改日期连接符
hive
首先,hive本身有一个UDF,名字是datediff。我们来看一下这个日期差计算的官方描述,(下面这个是怎么出来的):
学到老
2019-02-14
4.2K
0
Hive的left join、left outer join和left semi join三者的区别
nat
NAT 网关
hive
python
Hive的Join的文档说明地址: https://cwiki.apache.org/confluence/display/Hive/LanguageManual%2BJoins
学到老
2019-02-14
3.7K
0
hive字符串函数
hive
编程算法
json
正则表达式
hive字符串函数 1. 字符串长度函数:length 语法: length(string A) 返回值: int 说明:返回字符串A的长度 举例:hive> select length('abcedfg') from lxw_dual; 7 2. 字符串反转函数:reverse 语法: reverse(string A) 返回值: string 说明:返回字符串A的反转结果 举例: hive> select reverse(abcedfg') from lxw_dual; gfdecba 3. 字符串连接函数:concat 语法: concat(string A, string B…) 返回值: string 说明:返回输入字符串连接后的结果,支持任意个输入字符串 举例: hive> select concat('abc','def','gh') from lxw_dual; abcdefgh 4. 带分隔符字符串连接函数:concat_ws 语法: concat_ws(string SEP, string A, string B…) 返回值: string 说明:返回输入字符串连接后的结果,SEP表示各个字符串间的分隔符 举例: hive> select concat_ws(',','abc','def','gh') from lxw_dual; abc,def,gh 5. 字符串截取函数:substr,substring 语法: substr(string A, int start),substring(string A, int start) 返回值: string 说明:返回字符串A从start位置到结尾的字符串 举例: hive> select substr('abcde',3) from lxw_dual; cde hive> select substring('abcde',3) from lxw_dual; cde hive> selectsubstr('abcde',-1) from lxw_dual; (和ORACLE相同) e 6. 字符串截取函数:substr,substring 语法: substr(string A, int start, int len),substring(string A, intstart, int len) 返回值: string 说明:返回字符串A从start位置开始,长度为len的字符串 举例: hive> select substr('abcde',3,2) from lxw_dual; cd hive> select substring('abcde',3,2) from lxw_dual; cd hive>select substring('abcde',-2,2) from lxw_dual; de 7. 字符串转大写函数:upper,ucase 语法: upper(string A) ucase(string A) 返回值: string 说明:返回字符串A的大写格式 举例: hive> select upper('abSEd') from lxw_dual; ABSED hive> select ucase('abSEd') from lxw_dual; ABSED 8. 字符串转小写函数:lower,lcase 语法: lower(string A) lcase(string A) 返回值: string 说明:返回字符串A的小写格式 举例: hive> select lower('abSEd') from lxw_dual; absed hive> select lcase('abSEd') from lxw_dual; absed 9. 去空格函数:trim 语法: trim(string A) 返回值: string 说明:去除字符串两边的空格 举例: hive> select trim(' abc ') from lxw_dual; abc 10. 左边去空格函数:ltrim 语法: ltrim(string A) 返回值: string 说明:去除字符串左边的空格 举例: hive> select ltrim(' abc ') from lxw_dual; abc 11. 右边去空格函数:rtrim 语法: rtrim(string A) 返回值: string 说明:去除字符串右边的空格 举例: hive> select rtrim(' abc ') from lxw_dual; abc 12. 正则表达式替换函数:regexp_replace 语法: regexp_replace(string A, string B, string C) 返回值: string 说明:将字符串A中的符合java正则表达式B的部分替换为C。注意,在
学到老
2019-02-14
2.8K
0
hive中数据类型的转化CAST
hive
编程算法
unix
linux
数据分析
在《Hive内置数据类型》文章中,我们提到了Hive内置数据类型由基本数据类型和复杂数据类型组成。今天的话题是Hive数据类型之间的转换。同Java语言一样,Hive也包括隐式转换(implicit conversions)和显式转换(explicitly conversions)。 Hive在需要的时候将会对numeric类型的数据进行隐式转换。比如我们对两个不同数据类型的数字进行比较,假如一个数据类型是INT型,另一个是SMALLINT类型,那么SMALLINT类型的数据将会被隐式转换地转换为INT类型,这个到底和Java中的一样;但是我们不能隐式地将一个 INT类型的数据转换成SMALLINT或TINYINT类型的数据,这将会返回错误,除非你使用了CAST操作。 任何整数类型都可以隐式地转换成一个范围更大的类型。TINYINT,SMALLINT,INT,BIGINT,FLOAT和STRING都可以隐式地转换成DOUBLE;是的你没看出,STRING也可以隐式地转换成DOUBLE!但是你要记住,BOOLEAN类型不能转换为其他任何数据类型!
学到老
2019-02-14
1.5K
0
Hive四种数据导入方式
hive
sql
Hive的几种常见的数据导入方式 这里介绍四种: (1)、从本地文件系统中导入数据到Hive表; (2)、从HDFS上导入数据到Hive表; (3)、从别的表中查询出相应的数据并导入到Hive表中; (4)、在创建表的时候通过从别的表中查询出相应的记录并插入到所创建的表中。
学到老
2019-02-13
809
0
hive基本操作整理
hive
大数据
show tables like '*name*'; 2.查看表结构信息 desc formatted table_name; desc table_name; 3.查看分区信息 show partitions table_name; 4.根据分区查询数据 select table_coulm from table_name where partition_name = '2014-02-25'; 5.查看hdfs文件信息 dfs -ls /user/hive/warehouse/table02; 6.从文件加载数据进表(OVERWRITE覆盖,追加不需要OVERWRITE关键字) LOAD DATA LOCAL INPATH 'dim_csl_rule_config.txt' OVERWRITE into table dim.dim_csl_rule_config; --从查询语句给table插入数据 INSERT OVERWRITE TABLE test_h02_click_log PARTITION(dt) select * from stage.s_h02_click_log where dt='2014-01-22' limit 100; 7.导出数据到文件 insert overwrite directory '/tmp/csl_rule_cfg' select a.* from dim.dim_csl_rule_config a; hive -e "select day_id,pv,uv,ip_count,click_next_count,second_bounce_rate,return_visit,pg_type from tmp.tmp_h02_click_log_baitiao_ag_sum where day_id in ('2014-03-06','2014-03-07','2014-03-08','2014-03-09','2014-03-10');"> /home/jrjt/testan/baitiao.dat; 8.自定义udf函数 1.继承UDF类 2.重写evaluate方法 3.把项目打成jar包 4.hive中执行命令add jar /home/jrjt/dwetl/PUB/UDF/udf/GetProperty.jar; 5.创建函数create temporary function get_pro as 'jd.Get_Property'//jd.jd.Get_Property为类路径; 9.查询显示列名 及 行转列显示 set hive.cli.print.header=true; // 打印列名 set hive.cli.print.row.to.vertical=true; // 开启行转列功能, 前提必须开启打印列名功能 set hive.cli.print.row.to.vertical.num=1; // 设置每行显示的列数 10.查看表文件大小,下载文件到某个目录,显示多少行到某个文件 dfs -du hdfs://BJYZH3-HD-JRJT-4137.jd.com:54310/user/jrjt/warehouse/stage.db/s_h02_click_log; dfs -get /user/jrjt/warehouse/ods.db/o_h02_click_log_i_new/dt=2014-01-21/000212_0 /home/jrjt/testan/; head -n 1000 文件名 > 文件名 11.杀死某个任务 不在hive shell中执行 Hadoop job -kill job_201403041453_58315 12.hive-wui路径 http://172.17.41.38/jobtracker.jsp 13.删除分区 alter table tmp_h02_click_log_baitiao drop partition(dt='2014-03-01'); alter table d_h02_click_log_basic_d_fact drop partition(dt='2014-01-17'); 14.hive命令行操作 执行一个查询,在终端上显示mapreduce的进度,执行完毕后,最后把查询结果输出到终端上,接着hive进程退出,不会进入交互模式。 hive -e 'select table_cloum from table' -S,终端上的输出不会有mapreduce的进度,执行完毕,只会把查询结果输出到终端上。这个静音模式很实用,,通过第三方程序调用,第三方程序通过hive的标准输出获取结果集。 hive -S -e 'select table_cloum from table'
学到老
2019-02-13
959
0
hive模糊搜索表
hive
大数据
1.hive模糊搜索表 show tables like '*name*'; 2.查看表结构信息 desc formatted table_name; desc table_name; 3.查看分区信息 show partitions table_name; 4.根据分区查询数据 select table_coulm from table_name where partition_name = '2014-02-25'; 5.查看hdfs文件信息 dfs -ls /user/hive/warehouse/table02; 6.从文件加载数据进表(OVERWRITE覆盖,追加不需要OVERWRITE关键字) LOAD DATA LOCAL INPATH 'dim_csl_rule_config.txt' OVERWRITE into table dim.dim_csl_rule_config; --从查询语句给table插入数据 INSERT OVERWRITE TABLE test_h02_click_log PARTITION(dt) select * from stage.s_h02_click_log where dt='2014-01-22' limit 100; 7.导出数据到文件 insert overwrite directory '/tmp/csl_rule_cfg' select a.* from dim.dim_csl_rule_config a; hive -e "select day_id,pv,uv,ip_count,click_next_count,second_bounce_rate,return_visit,pg_type from tmp.tmp_h02_click_log_baitiao_ag_sum where day_id in ('2014-03-06','2014-03-07','2014-03-08','2014-03-09','2014-03-10');"> /home/jrjt/testan/baitiao.dat; 8.自定义udf函数 1.继承UDF类 2.重写evaluate方法 3.把项目打成jar包 4.hive中执行命令add jar /home/jrjt/dwetl/PUB/UDF/udf/GetProperty.jar; 5.创建函数create temporary function get_pro as 'jd.Get_Property'//jd.jd.Get_Property为类路径; 9.查询显示列名 及 行转列显示 set hive.cli.print.header=true; // 打印列名 set hive.cli.print.row.to.vertical=true; // 开启行转列功能, 前提必须开启打印列名功能 set hive.cli.print.row.to.vertical.num=1; // 设置每行显示的列数 10.查看表文件大小,下载文件到某个目录,显示多少行到某个文件 dfs -du hdfs://BJYZH3-HD-JRJT-4137.jd.com:54310/user/jrjt/warehouse/stage.db/s_h02_click_log; dfs -get /user/jrjt/warehouse/ods.db/o_h02_click_log_i_new/dt=2014-01-21/000212_0 /home/jrjt/testan/; head -n 1000 文件名 > 文件名 11.杀死某个任务 不在hive shell中执行 hadoop job -kill job_201403041453_58315 12.hive-wui路径 http://172.17.41.38/jobtracker.jsp 13.删除分区 alter table tmp_h02_click_log_baitiao drop partition(dt='2014-03-01'); alter table d_h02_click_log_basic_d_fact drop partition(dt='2014-01-17'); 14.hive命令行操作 执行一个查询,在终端上显示mapreduce的进度,执行完毕后,最后把查询结果输出到终端上,接着hive进程退出,不会进入交互模式。 hive -e 'select table_cloum from table' -S,终端上的输出不会有mapreduce的进度,执行完毕,只会把查询结果输出到终端上。这个静音模式很实用,,通过第三方程序调用,第三方程序通过hive的标准输出获取结果集。 hive -S -e 'select table_cloum
学到老
2019-02-13
798
0
基于R语言利用QQ群进行数据挖掘案例整理
r 语言
数据挖掘
机器学习
hive
利用QQ群进行数据挖掘案例,数据源来源于2016年12-2017年大致一个月的QQ群基本数据,通过对聊天内容的分析,了解QQ聊天群资料了解时间,人群以及关键词,并构建相应图表、云图等,下
学到老
2018-03-19
899
0
#!/bin/bash 与#!/bin/sh
hive
bash
hive脚本如下(日表): #!/bin/bash # /*% ************************************************************* # *描述 MMENT: --------------------------------- #!/bin/bash是指此脚本使用/bin/bash来解释执行。 其中,#!是一个特殊的表示符,其后,跟着解释此脚本的shell路径
学到老
2018-03-19
1K
0
Hive四种数据导入方式
hive
sql
Hive的几种常见的数据导入方式 这里介绍四种: (1)、从本地文件系统中导入数据到Hive表; (2)、从HDFS上导入数据到Hive表; (3)、从别的表中查询出相应的数据并导入到Hive表中; (4)、在创建表的时候通过从别的表中查询出相应的记录并插入到所创建的表中。 一、从本地文件系统中导入数据到Hive表 先在Hive里面创建好表,如下: hive> create table wyp > (id int, name string, > age int, tel string) > RO
学到老
2018-03-16
6.2K
0
hive排序:distribute by 、sort by 、cluster by 、order by 区别
hive
大数据
数据库
3 . 总结分析 1). order by 只有一个reduce负责对所有的数据进行排序,若大数据量,则需要较长的时间。建议在小的数据集中使用order by 进行排序。 2). order by 可以通过设置hive.mapred.mode参数控制执行方式,若选择strict,则order by 则需要指定limit(若有分区还有指定哪个分区) ;若为nostrict,则与关系型数据库差不多。 3). sort by 基本上不受hive.mapred.mode影响,可以通过mapred.red
学到老
2018-03-16
742
0
hive字符串函数
hive
oracle
正则表达式
hive字符串函数 1. 字符串长度函数:length 语法: length(string A) 返回值: int 说明:返回字符串A的长度 举例:hive> select length('abcedfg') from lxw_dual; 7 2. 字符串反转函数:reverse 语法: reverse(string A) 返回值: string 说明:返回字符串A的反转结果 举例: hive> select reverse(abcedfg') from lxw_dual; gfdecba 3. 字符串连接
学到老
2018-03-16
6.2K
0
hive中数据类型的转化CAST
hive
数据处理
在《Hive内置数据类型》文章中,我们提到了Hive内置数据类型由基本数据类型和复杂数据类型组成。今天的话题是Hive数据类型之间的转换。同Java语言一样,Hive也包括隐式转换(implicit conversions)和显式转换(explicitly conversions)。 Hive在需要的时候将会对numeric类型的数据进行隐式转换。比如我们对两个不同数据类型的数字进行比较,假如一个数据类型是INT型,另一个是SMALLINT类型,那么SMALLINT类型的数据将会被隐式转换地转换为INT
学到老
2018-03-16
29.7K
0
大数据与Hadoop/Linux/hive的关系
大数据
hadoop
linux
hive
?
学到老
2018-03-16
1.1K
0
hadoop常用的基本命令,HIVE复制文件,修改文件名
hadoop
hive
java
创建目录 hadoop dfs -mkdir /home 上传文件或目录到hdfs hadoop dfs -put hello / hadoop dfs -put hellodir/ / 查看目录 hadoop dfs -ls / 创建一个空文件 hadoop dfs -touchz /wahaha 删除一个文件 hadoop dfs -rm /wahaha 删除一个目录 hadoop dfs -rmr /home 重命名 hadoop dfs -mv /hello1 /hello2 查看文件
学到老
2018-03-16
1.9K
0
hive数据:名词解释
hive
hadoop
问题导读 1.hive数据分为那两种类型? 2.什么表数据? 3.什么是元数据? 4.Hive表里面导入数据的本质什么? 5.表、分区、桶之间之间的关系是什么? 6.外部表和表的区别是什么? Hive的数据分为表数据和元数据,表数据是Hive中表格(table)具有的数据;而元数据是用来存储表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。下面分别来介绍。 一、Hive的数据存储 在让你真正明白什么是hive 博文中我们提到Hive是基于Hadoop分布式文件系统的,
学到老
2018-03-16
1.1K
0
hive模糊搜索表
hive
sql
1.hive模糊搜索表 show tables like '*name*'; 2.查看表结构信息 desc formatted table_name; desc table_name; 3.查看分区信息 show partitions table_name; 4.根据分区查询数据 select table_coulm from table_name where partition_name = '2014-02-25'; 5.查看hdfs文件信息 dfs -ls /user/hive/warehou
学到老
2018-03-16
4.5K
0
hive基本操作整理
hive
sql
.hive模糊搜索表 show tables like '*name*'; 2.查看表结构信息 desc formatted table_name; desc table_name; 3.查看分区信息 show partitions table_name; 4.根据分区查询数据 select table_coulm from table_name where partition_name = '2014-02-25'; 5.查看hdfs文件信息 dfs -ls /user/hive/warehous
学到老
2018-03-16
1.2K
0
没有更多了
社区活动
Python精品学习库
代码在线跑,知识轻松学
点击查看
热点技术征文第五期
新风口Sora来袭,普通人该如何把握机会?
立即参加
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档