摘要: 前言 目标快速模拟数据一亿条, 存储过程效率太低, 找到个load data的方法, 从本地文件读数据插入到库表中, 正文如下 正文 切换引擎 查询引擎类型 SHOW CREATE TABLE igs_sm_interface_access_log; 查询结果 CREATE TABLE `igs_s 阅读全文
posted @ 2020-10-28 22:51 习惯沉淀 阅读(2339) 评论(2) 推荐(0) 编辑
摘要: 本文转自:mysql快速保存插入大量数据一些方法总结 说明: 这几天尝试了使用不同的存储引擎大量插入MySQL表数据,主要试验了MyISAM存储引擎和InnoDB。下面是实验过程: 实现:一、InnoDB存储引擎。创建数据库和表 代码如下 1 > CREATE DATABASE ecommerce; 阅读全文
posted @ 2020-10-28 19:57 习惯沉淀 阅读(814) 评论(0) 推荐(0) 编辑
摘要: 在使用存储过程进行千万条数据的插入的时候,插入效率在每分钟七千条左右,这样算下来,需要几十个小时,所以找了一下优化的方法,除了对存储过程本身的优化,还有就是修改了MySQL的配置文件的部分参数 我做了以下几个参数的修改 innodb_log_file_size = 1024M 日志组中的每个日志文件 阅读全文
posted @ 2020-10-28 19:49 习惯沉淀 阅读(1584) 评论(0) 推荐(0) 编辑