Hive 时间日期处理总结

2018/3/7 9:55:02 人评论 次浏览 分类:大数据

最近用hive比较多,虽然效率低,但是由于都是T+1的业务模式。所以也就不要求太多了,够用就行。其中用的吧比较多就是时间了,由于大数据中很多字段都不是标准的时间类型字段,所以期间涉及了很多的时间日期字段的处理,这里做一个汇总。一遍以后查询使用。也方便大家学习。

下面列举几个用的比较多的情况进行说明:

获得当前日期的几种用法:

1.先来一个比较老的,select unix_timestamp() ;

结果如下:

1

2.通过提示可知该用法已经被放弃了建议采用current_timestamp来替代。查结果如下:

2

3.如果当前时间为int类型则需要转义一下比如使用from_unixtime()

SELECT from_unixtime(unix_timestamp());

--2018-02-27 14:51:01

 

4.获取当前日期CURRENT_DATE。代码如下:

SELECT CURRENT_DATE--2018-02-27

 

 

有关日期的函数:

1.对比日期函数,经常用于日期之间比较大小,或者计算差值,日期加减。

日期差值:datadiff(结束日期,开始日期),返回结束日期减去开始日期的天数。

日期加减:date_add(时间,增加天数),返回值为时间天+增加天的日期;date_sub(时间,减少天数),返回日期减少天后的日期。

执行情况如图所示:

3

  注意如果想知道相差多少个小时又怎么去求那?我们其实稍加改造即可。

  hour函数可以获得时间字段的小时数和datediff来获取两个日期相差的天数。然后利用天数*24+hour的差值即为所求,

  比如我们求2018-02-27 10:00:00 与 2018-02-25 12:00:00相差多少?

 实例代码如下:
select (hour('2018-02-27 10:00:00')-hour('2018-02-25 12:00:00')+(datediff('2018-02-27 10:00:00','2018-02-25 12:00:00'))*24) as hour_subValue

--46 

  补充一个:返回当前时间下再增加num_months个月的日期  add_months(string start_date, int num_months)

2.上面介绍了hour函数,那么我们也会需要其他的时间提取,不多说直接看代码,年月日时分秒:
select year('2018-02-27 10:00:00'),month('2018-02-27 10:00:00'),day('2018-02-27 10:00:00'),hour('2018-02-27 10:00:00'),minute('2018-02-27 10:00:00'),second('2018-02-27 10:00:00'),weekofyear('2018-02-27 10:00:00'); 

--2018    2    27    10    0    0    9

  补充:quarter,返回当前本年度第几个季度。

3.日期转换函数
to_date,语法: to_date(string timestamp),返回值为string类型的日期
示例如下:
select to_date('2018-02-27 10:03:01') ;

--2018-02-27
last_day(string date),返回这个月的最后一天的日期
select  last_day('2018-02-27 10:03:01');
--2018-02-28

 next_day返回当前时间的下一个星期几所对应的日期 。如下

select next_day('2018-02-27 10:03:01', 'TU');

--2018-03-06

  说明,输入日期为2-27,下个星期的周二为03-06,如果想要知道下周一的日期就是MO,周日就是SU,以此类推。

注意:

我跟无数多小白说过,西方国家周日是每周的第一天,所以日历和英语中都是现实周日再是周一,所以上面的下周日是3-4。注意喽!

总结

    以上是我平时经常用的一些日期相关的处理和函数,比较方便,想不起来就过来扫一眼。毕竟hive用的比较少,相对于关系型数据库的t-sql函数和方法还是比较low的,毕竟是个转义工具。
目前主流还是hivesql,不过慢慢的都在想sparksql之类技术的转移了。以后有新的日期函数我会继续想本文中进行汇总,方便大家查询。

相关知识

  • SparkStreaming与Kafka整合遇到的问题及解决方案

    前言 最近工作中是做日志分析的平台,采用了sparkstreaming+kafka,采用kafka主要是看中了它对大数据量处理的高性能,处理日志类应用再好不过了,采用了sparkstreaming的流处理框架 主要是考虑到它本身是基于spark核心的,以后的批处理可以一站式服务,并且可以提供准实时服…

    2017/7/20 11:45:03
  • spark极简入门

    1.windows上下载安装sbt 去sbt官网下载 sbt包,解压到指定目录,不需要安装。记得配置环境变量。 新建 SBT_HOME ,值是sbt包的解压路径,比如C:\Users\***\Tools\sbt-0.13.15\sbt(建议不要放在C盘) 并在path 中添加 %SBT_HOME%\bin 查看是否成功,命令行输入: sbt sbtVer…

    2017/7/20 11:45:03
  • Redis精华

    Redis的复制功能是完全建立在之前我们讨论过的基于内存快照的持久化策略基础上的,也就是说无论你的持久化策略选择的是什么,只要用到了redis的复制功能,就一定会有内存快照发生,那么首先要注意你的系统内存容量规划,原因可以参考我上一篇文章中提到的Redis磁盘IO问题。R…

    2017/7/20 11:45:03
  • 快速搭建 ELK + OpenWAF 环境

    摘要: OpenWAF是第一个全方位开源的Web应用防护系统; ELK 是比较火的开源日志分析系统; 本节主要介绍,ELK 的 docker 部署及与 OpenWAF 的结合 OpenWAF简介 OpenWAF是第一个全方位开源的Web应用防护系统(WAF),他基于nginx_lua API分析HTTP请求信息。OpenWAF由行为分析引擎…

    2017/7/20 11:45:03

共有访客发表了评论 网友评论

验证码: 看不清楚?