首页
学习
活动
专区
工具
TVP
发布

xingoo, 一个梦想做发明家的程序员

专栏成员
805
文章
938126
阅读量
80
订阅数
Spark 3.0 新特性 之 自适应查询与分区动态裁剪
Spark憋了一年半的大招后,发布了3.0版本,新特性主要与Spark SQL和Python相关。这也恰恰说明了大数据方向的两大核心:BI与AI。下面是本次发布的主要特性,包括性能、API、生态升级、数据源、SQL兼容、监控和调试等方面的升级。
用户1154259
2020-07-27
1.5K0
oracle数据结构
 数据类型: 1 字符数据:CHAR VARCHAR NCHAR NVARCHAR2 LONG CLOB NCLOB  2 数字数据类型:NUMBER 唯一用来存储数字型的类型 3 日期数据类型: 4 raw解释型 串联: ||   NUM1 || NUM2  = "12"(num1 =1 num2 = 2) NULL: NULL=NULL也为假。NULL不等于任何值,包括自己 表:行的集合 视图:通过SQL语句来定义的 索引:如果建立索引的列包含的值为NULL,那么索引不会包含这行数据 B*树的深度取决于
用户1154259
2018-01-18
5930
快捷键整理
Eclipse 跳转到指定行:ctrl+l 1几个最重要的快捷键 代码助手:Ctrl+Space(简体中文操作系统是Alt+/) 快速修正:Ctrl+1 单词补全:Alt+/ 打开外部Java文档:Shift+F2 显示搜索对话框:Ctrl+H 快速Outline:Ctrl+O 打开资源:Ctrl+Shift+R 打开类型:Ctrl+Shift+T 显示重构菜单:Alt+Shift+T 上一个/下一个光标的位置:Alt+Left/Right  上一个/下一个成员(成员对象或成员函数):Ctrl+Shift
用户1154259
2018-01-17
7700
Log4j官方文档翻译(九、输出到数据库)
log4j提供了org.apache.log4j.JDBCAppender对象,可以把日志输出到特定的数据库。 常用的属性: bufferSize 设置buffer的大小,默认是1 driver 设置数据库的驱动字符串,比如sun.jdbc.odbc.OdbcDriver layout 设置使用的layout,默认是org.apache.log4j.PatternLayout password 设置数据的密码 sql 设置每次日志产生的时候执行的sql语句,可以是INSERT,UPDATE,DELETE U
用户1154259
2018-01-17
7360
JavaMelody监控SQL
前言 前面讲过了Javamelody的基本配置,这里简单的介绍下,如何使用Javamelody来监控JDBC以及SQL。   在网上搜索很多资料,仅有开源社区上的两篇帖子有点帮助,但对于监控SQL还是有很多问题,有不少的网友遇到了跟我同样的问题,监控页面打开可就是监控不到数据,SQL一栏无论如何都是0,要不就是NaN。   这个问题其实还是因为数据源的部分没有配置正确,这里介绍两种配置的方式。   第一种,直接配置数据源,添加额外的jdbc驱动   按照UserGuide的文档来说,可以使用Jndi配
用户1154259
2018-01-17
1.5K0
Log4j官方文档翻译(四、如何在java中输出日志消息)
我们已经创建来配置文件,本章详细的介绍下如何生成调试信息,并把他们转化成文本文件。 基本的例子 下面就是创建的一个基本的例子: log4j.properties的内容为: log = /usr/home/log4j log4j.rootLogger = DEBUG, FILE log4j.appender.FILE=org.apache.log4j.FileAppender log4j.appender.FILE.File=${log}/log.out log4j.appender.FILE.layou
用户1154259
2018-01-17
7270
Oracle基础知识-oracle常用命令
日志管理  1.forcing log switches  sql> alter system switch logfile; 2.forcing checkpoints  sql> alter system checkpoint; 3.adding online redo log groups  sql> alter database add logfile [group 4] sql> ('/disk3/log4a.rdo','/disk4/log4b.rdo') size 1m; 4.add
用户1154259
2018-01-17
6960
Elasticsearch 管理文档
ES支持近实时的索引、更新、查询、删除文档,近实时就意味着刚刚索引的数据需要1秒钟后才能搜索到,这也是与传统的SQL数据库不同的地方。 更多的ES文档资料参考:Elasticsearch官方文档翻译
用户1154259
2018-01-17
6350
Oralce创建用户
前提 注意首先要以SYSDBA的角色登录。 在一些开发工具上,可以选择登录角色。 如果是命令行,则需要带上 as sysdba 创建用户流程 创建oracle用户可以使用sql developer工
用户1154259
2018-01-17
1.5K0
Mybatis文档阅读笔记(明日继续更新...)
今天在编写mybatis的mapper.xml时,发现对sql的配置还不是很熟,有很多一坨一坨的东西,其实是可以抽取成服用的。不过良好的组织代码,还是更重要的。
用户1154259
2018-01-17
7270
sql基础知识:日期的常用用法
日期操作 select sysdate,add_months(sysdate,12) from dual; -- + 1 year select sysdate,add_months(sysdate,1) from dual; -- + 1 month select sysdate,to_char(sysdate+7,'yyyy-mm-dd HH24:MI:SS') from dual; -- + 1 week select sysdate,to_char(sysdate+1,'yyyy-mm-dd HH2
用户1154259
2018-01-17
8230
sql基础知识:分页+排序
Oracle的分页还真是挺恶心地,不像mysql直接Limit就搞定 select name from student limit 0,20; Oracle需要借助rownum实现: select * from ( select s.*, rownum as rn from student s where rownum <= 10 ) m where m.rn > 0 如果要增加排序,可以引入order by select * from ( select c.*,
用户1154259
2018-01-17
7120
《SQL必知必会》—— 读后总结
?
用户1154259
2018-01-17
6280
散列
选择键值,冲突的时候采取不同的策略 散列函数: 简单的散列函数: 1 int hash(const string & key,int tableSize) 2 { 3 int hashVal = 0; 4 for(int i = 0; i < key.length();++i) 5 { 6 hashVal + = key[i]; 7 } 8 return hashVal % tableSize; 9 } 比较好的散列函数: 1 int hash( c
用户1154259
2018-01-17
8040
Sqoop切分数据的思想概况
Sqoop通过--split-by指定切分的字段,--m设置mapper的数量。通过这两个参数分解生成m个where子句,进行分段查询。因此sqoop的split可以理解为where子句的切分。 第一步,获取切分字段的MIN()和MAX() 为了根据mapper的个数切分table,sqoop首先会执行一个sql,用于获取table中该字段的最小值和最大值,源码片段为org.apache.sqoop.mapreduce.DataDrivenImportJob 224行,大体为: private Str
用户1154259
2018-01-17
1.3K0
Oozie调度报错——ORA-00918:未明确定义列
Oozie在执行sqoop的时候报错,同样的SQL在sqoop中可用,在oozie中不可用: Caused by: java.sql.SQLSyntaxErrorException: ORA-00918: 未明确定义列 at oracle.jdbc.driver.T4CTTIoer.processError(T4CTTIoer.java:450) at oracle.jdbc.driver.T4CTTIoer.processError(T4CTTIoer.java:399) at
用户1154259
2018-01-17
8400
源码中的哲学——通过构建者模式创建SparkSession
spark2.2在使用的时候使用的是SparkSession,这个SparkSession创建的时候很明显的使用了创建者模式。通过观察源代码,简单的模拟了下,可以当作以后编码风格的参考: 官方使用 import org.apache.spark.sql.SparkSession val spark = SparkSession .builder() .appName("Spark SQL basic example") .config("spark.some.config.option"
用户1154259
2018-01-17
5480
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档