前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Kettle在Linux下的使用小记

Kettle在Linux下的使用小记

作者头像
保持热爱奔赴山海
发布2022-07-28 09:21:57
3.2K0
发布2022-07-28 09:21:57
举报
文章被收录于专栏:DevOps数据库相关

最近有个业务数据变更的需求,要将1个已生成的500w记录写回到另一个表里面。

这里的需求比较简单,可以通过pt-archiver来做,也通过kettle之类工具来做。kettle的话比较重,可支持的数据整型功能也更强大。

我这里是用kettle来搞的(复习下kettle,弄个demo,指不定后面有更复杂的业数据需求要找DBA介入)

配置JDBC连接的时候,建议加上字符集设定等几个参数:

代码语言:javascript
复制
defaultFetchSize      1000
useCursorFetch        true
characterEncoding      utf8
characterSetResults     utf8
characterSetResults    false

配置job的kjb文件的时候,建议使用相对路径:

代码语言:javascript
复制
写法  ${Internal.Job.Filename.Directory}/xxxx.ktr
Kettle在Linux下的使用小记_etl
Kettle在Linux下的使用小记_etl

kettle自定义JVM内存大小:

vim spoon.sh  找到下面,修改下

代码语言:javascript
复制
if [ -z "$PENTAHO_DI_JAVA_OPTIONS" ]; then
  PENTAHO_DI_JAVA_OPTIONS="-Xms2048m -Xmx2048m"
fi

job命令行下的启动:

cat start.sh 如下:  

代码语言:javascript
复制
export JAVA_HOME=/usr/local/jdk1.8
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin

cd /opt/kettle/demo
/opt/kettle/data-integration/kitchen.sh -file /opt/kettle/demo/test.kjb >> ./run.log 2>&1
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022-07-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
大数据
全栈大数据产品,面向海量数据场景,帮助您 “智理无数,心中有数”!
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档