首页
学习
活动
专区
工具
TVP
发布

扎心了老铁

专栏作者
89
文章
206056
阅读量
41
订阅数
(43). Spring Boot动态数据源(多数据源自动切换)【从零开始学Spring Boot】
在上一篇我们介绍了多数据源,但是我们会发现在实际中我们很少直接获取数据源对象进行操作,我们常用的是jdbcTemplate或者是jpa进行操作数据库。那么这一节我们将要介绍怎么进行多数据源动态切换。添加本文实现的代码之后,只需要配置要数据源就可以直接通过注解使用,在实际使用的时候特别的简单。那么本章主要分以下几个步骤进行实战。
用户1225216
2019-05-26
6720
springboot动态多数据源
参考文章:https://www.cnblogs.com/hehehaha/p/6147096.html
用户1225216
2019-05-25
8900
springboot 注册服务注册中心(zk)的两种方式
在使用springboot进行开发的过程中,我们经常需要处理这样的场景:在服务启动的时候,需要向服务注册中心(例如zk)注册服务状态,以便当服务状态改变的时候,可以故障摘除和负载均衡。 我遇到过两种注册的途径: 1、在Spring的webapplication启动完成后,直接进行注册; 2、在servlet容器启动完成后,通过listener进行注册。 本文通过一个demo讲述一下这两种注册方式,使用的是传统的向zk注册的方案。 1、Spring webapplication启动完成后注册 先上代码看一下
用户1225216
2018-03-05
1.4K0
EsRejectedExecutionException排错与线程池类型
1、EsRejectedExecutionException异常示例 java.util.concurrent.ExecutionException: RemoteTransportException[[node-client10][10.93.21.21:9300][indices:data/write/update]]; nested: RemoteTransportException[[node-client 09][10.93.18.35:9300][indices:data/write/updat
用户1225216
2018-03-05
3.4K0
thrift例子:python客户端/java服务端
java服务端的代码请看上文。 1、说明: 这两篇文章其实解决的问题是,当使用python去访问大数据线上集群的时候,遇到两个问题: 1)python-hadoop和python-hive相关包链接不稳定,表现为经常出现链接超时; 2)如果使用fork进程执行hadoop fs或者hive -e的方式则消耗大量的机器资源,包括进程资源和集群链接资源。 我们的解决方式是写一个java的代理服务,使用java-hadoop封装了对集群的操作,通过thrift提供接口给python程序。 2、编译.thrfit
用户1225216
2018-03-05
1.4K0
java通过shield链接Elasticsearch
本文mark了springboot中集成elasticsearch,并且实现连接带有shield权限管理的elasticsearch的方法。 tips:首先建议java client版本和elasticsearch版本一致。不然可能会出现各种问题。 1、首先在pom中加入如下依赖 <repositories> <repository> <id>elasticsearch-releases</id> <url>https://maven.elas
用户1225216
2018-03-05
1.3K0
java优雅的使用elasticsearch api
本文给出一种优雅的拼装elasticsearch查询的方式,可能会使得使用elasticsearch的方式变得优雅起来,使得代码结构很清晰易读。 建立elasticsearch连接部分请参看另一篇博客:http://www.cnblogs.com/kangoroo/p/7127003.html 1、ESDao -- 类似DB中的dao层 封装了增删改查ES的各种方法 package com.dqa.sentinel.client.es; import com.xiaoju.dqa.sentinel.cli
用户1225216
2018-03-05
2.4K0
使用HDFS客户端java api读取hadoop集群上的信息
本文介绍使用hdfs java api的配置方法。 1、先解决依赖,pom <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-client</artifactId> <version>2.7.2</version> <scope>provided</scope> </dependency> 2、配置文件,存放h
用户1225216
2018-03-05
5.3K2
java使用spark/spark-sql处理schema数据
1、spark是什么? Spark是基于内存计算的大数据并行计算框架。 1.1 Spark基于内存计算 相比于MapReduce基于IO计算,提高了在大数据环境下数据处理的实时性。 1.2 高容错性和高可伸缩性 与mapreduce框架相同,允许用户将Spark部署在大量廉价硬件之上,形成集群。 2、spark编程 每一个spark应用程序都包含一个驱动程序(driver program ),他会运行用户的main函数,并在集群上执行各种并行操作(parallel operations) spark提供的最
用户1225216
2018-03-05
9880
java spark-streaming接收TCP/Kafka数据
 本文将展示 1、如何使用spark-streaming接入TCP数据并进行过滤; 2、如何使用spark-streaming接入TCP数据并进行wordcount; 内容如下: 1、使用maven,先解决pom依赖 <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-streaming-kafka_2.10</artifactId> <version>1
用户1225216
2018-03-05
8030
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档