Kettle表输入表输出提升50倍的秘诀

这是坚持技术写作计划(含翻译)的第26篇,定个小目标999,每周最少2篇。

最近工作需要,需要从Oracle导数据到Mysql,并且需要进行适当的清洗,转换。
数据量在5亿条左右,硬件环境为Winserver 2008R2 64位 ,64G,48核,1T hdd,kettle是8.2,从Oracle(11G,linux服务器,局域网连接)抽到mysql(5.7,本机,win server)。
优化前的速度是读1000r/s(Oracle)左右,写1000r/s左右。
优化后的速度是读8Wr/s(Oracle)左右,写4Wr/s左右。
因为表的字段大小和类型以及是否有索引都有关系,所以总体来说,提升了20-50倍左右。

mysql 优化

mysql此处只是为了迁移数据用,实际上用csv,或者clickhouse也行。但是担心csv在处理日期时可能有问题,而clickhouse不能在win下跑,而条件所限,没有多余的linux资源,而mysql第三方开源框架(不管是导入hdfs),还是作为clickhouse的外表,还是数据展示(supserset,metabase等),还是迁移到tidb,都很方便。所以最终决定用mysql。

Note:此处的mysql只做临时数据迁移用,所以可以随便重启跟修改mysqld参数。如果是跟业务混用时,需要咨询dba,确保不会影响其他业务。

mysql 安装及配置优化

  • 从 dev.mysql.com/downloads/m… 下载64位 zip mysql
  • 解压 mysql-5.7.26-winx64.zip 到目录,比如 D:\mysql-5.7.26-winx64
  • 创建D:\mysql-5.7.26-winx64\my.ini
[mysqld]
port=3306
basedir=D:\mysql-5.7.26-winx64\
datadir=D:\mysql-5.7.26-winx64\data
net_buffer_length=5242880
max_allowed_packet=104857600
bulk_insert_buffer_size=104857600
max_connections = 1000
innodb_flush_log_at_trx_commit = 2
# 本场景下测试MyISAM比InnoDB 提升1倍左右
default-storage-engine=MyISAM
general_log = 1
general_log_file=D:\mysql-5.7.26-winx64\logs\mysql.log
innodb_buffer_pool_size = 36G
innodb_log_files_in_group=2
innodb_log_file_size = 500M
innodb_log_buffer_size = 50M
sync_binlog=1
innodb_lock_wait_timeout = 50
innodb_thread_concurrency = 16
key_buffer_size=82M
read_buffer_size=64K
read_rnd_buffer_size=256K
sort_buffer_size=256K
myisam_max_sort_file_size=100G
myisam_sort_buffer_size=100M
transaction_isolation=READ-COMMITTED
复制代码

Kettle优化

启动参数优化

本机内存较大,为了防止OOM,所以调大内存参数,创建环境变量 PENTAHO_DI_JAVA_OPTIONS = -Xms20480m -Xmx30720m -XX:MaxPermSize=1024m 起始20G,最大30G

表输入和表输出开启多线程

表输入如果开启多线程的话,会导致数据重复。比如 select * from test ,起3个线程,就会查3遍,最后的数据就是3份。肯定不行,没达到优化的目的。
因为source是oracle,利用oracle的特性: rownum 和函数: mod ,以及kettle的参数: Internal.Step.Unique.Count,Internal.Step.Unique.Number

select * from (SELECT test.*,rownum rn FROM test ) where mod(rn,${Internal.Step.Unique.Count}) = ${Internal.Step.Unique.Number}
复制代码

解释一下

  • rownum 是oracle系统顺序分配为从查询返回的行的编号,返回的第一行分配的是1,第二行是2,意味着,如果排序字段或者数据有变化的话,rownum也会变(也就是跟物理数据没有对应关系,如果要对应关系的话,应该用rowid,但是rowid不是数字,而是类似 AAAR3sAAEAAAACXAAA  的编码),所以需要对rownum进行固化,所以将 SELECT test.*,rownum rn FROM test 作为子查询
  • mod 是oracle的取模运算函数,比如, mod(5,3)  意即 5%3=2 ,就是 5/3=1...2 中的2,也就是如果能获取到总线程数,以及当前线程数,取模,就可以对结果集进行拆分了。 mod(行号,总线程数)=当前线程序号
  • kettle 内置函数 ${Internal.Step.Unique.Count} 和 ${Internal.Step.Unique.Number} 分别代表线程总数和当前线程序号

而表输出就无所谓了,开多少线程,kettle都会求总数然后平摊的。

image.png
右键选择表输入或者表输出,选择 改变开始复制的数量... 注意,不是一味的调大就一定能提升效率,要进行测试的。
表输入时,注意勾选替换变量
image.png
image.png
  • 修改提交数量(默认100,但是不是越大越好)
  • 去掉裁剪表,因为是多线程,你肯定不希望,A线程刚插入的,B给删掉。
  • 必须要指定数据库字段,因为表输入的时候,会多一个行号字段。会导致插入失败。当然如果你在创建表时,多加了行号字段,当做自增id的话,那就不需要这一步了。
  • 开启批量插入
image.png

Note: 通过开启多线程,速度能提升5倍以上。

开启线程池及优化jdbc参数

image.png
image.png
image.png

运行观察结果

image.png
注意调整不同的参数(线程数,提交数),观察速度。

其余提升空间

  1. 换ssd
  2. 继续优化mysql参数
  3. 换引擎,比如,tokudb
  4. 换抽取工具,比如streamsets,datax
  5. 换数据库,比如 clickhouse,tidb,Cassandra
  6. kettle集群
characterEncoding GBK
rewriteBatchedStatements true
useServerPrepStmts false
useCompression  true

作者:赵安家
链接:https://juejin.im/post/5d0087f9f265da1bd6059cc1
来源:掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
posted @ 2020-05-13 20:11  MRO物料采购服务  阅读(7039)  评论(0编辑  收藏  举报