首页
学习
活动
专区
工具
TVP
发布

JAVA技术站

专栏作者
82
文章
59510
阅读量
15
订阅数
sharding-jdbc4.0使用方式
Sharding-JDBC是ShardingSphere的第一个产品,也是ShardingSphere的前身。 它定位为轻量级Java框架,在Java的JDBC层提供的额外服务。它使用客户端直连数据库,以jar包形式提供服务,无需额外部署和依赖,可理解为增强版的JDBC驱动,完全兼容JDBC和各种ORM框架。
用户2603479
2019-12-10
2.8K0
Nacos Config集成SpringCloud使用说明
Nacos config提供了配置中心的解决方案,且功能非常的强大适用,提供单机与集群模式
用户2603479
2019-09-12
2.4K0
NACOS环境搭建
Nacos是开源的一款服务治理方案的中间件,提供了服务发现和服务健康监测、动态配置服务、动态 DNS 服务、服务及其元数据管理等特性功能。
用户2603479
2019-09-12
2.6K1
mybatis源码之执行器解析 原
-从上图中可以看出所有执行器都实现了Executor接口,定义了一些通用的操作,Executor的接口定义如下
用户2603479
2019-08-31
6470
Mybatis源码简易导读
TransactionFactory 事务工厂接口,源码如下,主要的作用构造事务的配置信息
用户2603479
2019-08-20
4280
redis分布式锁的实现 原
(adsbygoogle = window.adsbygoogle || []).push({});
用户2603479
2019-03-12
6110
JDK1.8 转
 在JDK1.5已经提供了Future和Callable的实现,可以用于阻塞式获取结果,如果想要异步获取结果,通常都会以轮询的方式去获取结果,如下:
用户2603479
2018-10-12
5900
Sqoop的安装与Mysql的数据导入到hdfs框架中
Sqoop(发音:skup)是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
用户2603479
2018-09-19
1.1K0
Hadoop的mapreduce的简单用法 原
  Mapreduce是一个计算框架,既然是做计算的框架,那么表现形式就是有个输入(input),mapreduce操作这个输入(input),通过本身定义好的计算模型,得到一个输出(output),这个输出就是我们所需要的结果。
用户2603479
2018-09-19
6860
Linux学习一配置ssh
放开端口:/sbin/iptables -I INPUT -p tcp --dport 22 -j ACCEPT
用户2603479
2018-08-16
1.4K0
nginx简单的负载均衡配置
nginx配置如下 #user nobody; #启动进程,通常设置成和CPU的数量相等 worker_processes 1; #全局错误日志及PID文件 error_log /var/log/nginx/error.log; pid /var/run/nginx.pid; #工作模式及连接数上限 events { use epoll; #epoll是多路复用IO(I/O Multiplexing)中的一种方式可能提高nginx性能 worker_connections 102
用户2603479
2018-08-16
2860
Ubantu下实现Tomcat+memcached+nginx多实例部署
http://my.oschina.net/u/136848/blog/283599
用户2603479
2018-08-16
2880
maven常用命令
mvn deploy:deploy-file -DgroupId=组名 -DartifactId=唯一标识 -Dversion=版本号 -Dpackaging=文件类型通常为jar -Dfile=文件路径 -Durl=“nexus地址”+/content/repositories/thirdparty/ -DrepositoryId=thirdparty 
用户2603479
2018-08-16
2450
JAVA流之管道流PipedInputStream,PipedOutputStream
管道流主要作用是可以连接两个线程间的通信。管道流也分为字节流(PipedInputStream、PipedOutputStream)与字符流(PipedReader、PipedWriter)两种类型.
用户2603479
2018-08-16
3960
JAVA流之ObjectOutputStream,ObjectInputStream
ObjectOutputStream把一个对像写入到一个流中 ObjectInputStream从一个流中,读取对像 demo如下 package com.yudian.io.stream; import java.io.FileInputStream; import java.io.FileOutputStream; import java.io.ObjectInputStream; import java.io.ObjectOutputStream; public class ObjectStre
用户2603479
2018-08-16
3460
JAVA流之DataInputStream,OutInputStream
数据输出流允许应用程序以适当方式将基本 Java 数据类型写入输出流中。然后应用程序可以使用数据输入流将数据读入。
用户2603479
2018-08-16
2690
JAVA IO流之BufferedInputStream,BufferedOutputStream
BufferedInputStream的数据成员buf是一个位数组,默认为2048字节。当读取数据来源时,例如文件,BufferedInputStream会尽量将buf填满。当使用read()方法时,实际上是先读取buf中的数据,而不是直接对数据来源作读取。当buf中的数据不足时,BufferedInputStream才会再实现给定的InputStream对象的read()方法,从指定的装置中提取数据。  BufferedOutputStream的数据成员buf也是一个位数组,默认为512字节。当使用write()方法写入数据时实际上会先将数据写到buf中,当buf已满时才会实现给定的OutputStream对象的write()方法,将buf数据写到目的地,而不是每次都对目的地作写入的动作。
用户2603479
2018-08-16
5860
JAVA流之FileInputStream,FileOutputStream
FileOutputStream,意为文件输出流,是用于将数据写入File或 FileDescriptor的输出流
用户2603479
2018-08-16
2710
java字符流之ByteArrayOutputStream,ByteArrayInputStream
ByteArrayOutputStream流用来字节数组输出流在内存中创建一个字节数组缓冲区,所有发送到输出流的数据保存在该字节数组缓冲区中,默认初始化大小32个字节
用户2603479
2018-08-16
4360
SpringBoot整合mybatis 原
dataSource配置文件 #jdbc jdbc.driver=com.mysql.jdbc.Driver jdbc.url=jdbc:mysql://127.0.0.1:3306/yudian_u
用户2603479
2018-08-16
2610
点击加载更多
社区活动
Python精品学习库
代码在线跑,知识轻松学
【玩转EdgeOne】征文进行中
限时免费体验,发文即有奖~
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档