首页
学习
活动
专区
工具
TVP
发布

扎心了老铁

专栏作者
89
文章
206086
阅读量
41
订阅数
Elasticsearch JAVA api轻松搞定groupBy聚合
本文给出如何使用Elasticsearch的Java API做类似SQL的group by聚合。 为了简单起见,只给出一级groupby即group by field1(而不涉及到多级,例如group by field1, field2, ...);如果你需要多级的groupby,在实现上可能需要拆分的更加细致。 即将给出的方法,适用于如下的场景: 场景1:找出分组中的所有桶,例如,select group_name from index_name group by group_name; 场景2:灵活添加
用户1225216
2018-03-05
2.8K0
springboot mybatis 事务管理
本文主要讲述springboot提供的声明式的事务管理机制。 一、一些概念 声明式的事务管理是基于AOP的,在springboot中可以通过@Transactional注解的方式获得支持,这种方式的优点是: 1)非侵入式,业务逻辑不受事务管理代码的污染。 2)方法级别的事务回滚,合理划分方法的粒度可以做到符合各种业务场景的事务管理。 本文使用目前最常用的mybatis框架来配置springboot的事务管理机制。下面进入配置方法介绍。 二、springboot mybatis事务配置 1、看一下pom依赖
用户1225216
2018-03-05
1.9K0
hs_err_pid
hs_err_pid这种文件,是JVM出现错误时dump下来的。记录了错误发生当时: 1)JVM的状态参数 2)Linux的状态参数  就以下面的文件为例: # # There is insufficient memory for the Java Runtime Environment to continue. # Cannot create GC thread. Out of system resources. # Possible reasons: # The system is out of p
用户1225216
2018-03-05
1.8K0
Linux内存(手动释放cache)
项目的扩容申请了一台机器,到手之后看一下机器的指标,看到内存使用情况是这样的。 1、查看内存 free $ free -h total used free shared buffers cached Mem: 125G 89G 36G 92K 212M 74G -/+ buffers/cache: 14G 111G Swap
用户1225216
2018-03-05
10K0
python apschedule安装使用与源码分析
我们的项目中用apschedule作为核心定时调度模块。所以对apschedule进行了一些调查和源码级的分析。 1、为什么选择apschedule? 听信了一句话,apschedule之于python就像是quartz之于java。实际用起来还是不错的。 2、安装 # pip安装方式 $ pip install apscheduler # 源码编译方式 $ wget https://pypi.python.org/pypi/APScheduler/#downloads $ python setup.py
用户1225216
2018-03-05
2.5K0
python 设计模式,“多”例模式
版本1:一个账号不能同时是司机乘客。 #-*- coding:utf-8 -*- ''' Created on 2016年8月2日 @author: yangfanholiday ''' class User(object): __doc__ = '在不改变case代码情况下,防止重复login,不会被其他case登录顶掉(并发),类似单例模式的demo,核心代码是User类的__new__部分,将这部分复制到需要的类中即可' def __init
用户1225216
2018-03-05
1K0
springboot mybatis优雅的添加多数据源
springboot的原则是简化配置,本文试图不通过xml配置,使用configuration配置数据源,并进行简单的数据访问。 并且配置了多数据源,在开发过程中这种场景很容易遇到。 1、依赖 springboot的starter mybatis的springboot集成包 jdbc <dependencies> 2、在application中打开configuration @Configuration public class Application { public static void ma
用户1225216
2018-03-05
1.2K0
hiveQL去重
去重: 以id进行分组,然后取出每组的第一个 select * from (select *,row_number() over (partition by id) num from t_link) t where t.num=1; 以id进行分组,按照create_time降序排序后,然后取出每组的第一个 select * from (select *,row_number() over (partition by id order by create_time desc) num from t_link
用户1225216
2018-03-05
1.7K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档