如何优化 MySQL 以插入数百万行?

How to optimize MySQL to insert millions row?(如何优化 MySQL 以插入数百万行?)
本文介绍了如何优化 MySQL 以插入数百万行?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我需要将数百万行插入 MySQL 数据库(InnoDB 引擎).当桌子很大时,我有时间问题.几乎所有时间都花在插入查询上.也许有人知道如何优化它?

I need to insert millions rows into the MySQL database (InnoDB engine). I have a problem with time when the tables have big sizes. Almost all time is spent on insert queries. Maybe somebody know how to optimize it?

推荐答案

将大量数据导入 InnoDB:

To import large bulk of data into InnoDB:

  1. 在 MySQL 配置中设置

  1. set in MySQL configuration

  • innodb_doublewrite = 0
  • innodb_buffer_pool_size = 50%+ 系统内存
  • innodb_log_file_size = 512M
  • log-bin = 0
  • innodb_support_xa = 0
  • innodb_flush_log_at_trx_commit = 0

事务开始后立即添加:

SET FOREIGN_KEY_CHECKS = 0;

SET FOREIGN_KEY_CHECKS = 0;

SET UNIQUE_CHECKS = 0;

SET UNIQUE_CHECKS = 0;

SET AUTOCOMMIT = 0;

SET AUTOCOMMIT = 0;

在交易结束前设置:

SET UNIQUE_CHECKS = 1;

SET UNIQUE_CHECKS = 1;

SET FOREIGN_KEY_CHECKS = 1;

SET FOREIGN_KEY_CHECKS = 1;

这篇关于如何优化 MySQL 以插入数百万行?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持编程学习网!

本站部分内容来源互联网,如果有图片或者内容侵犯您的权益请联系我们删除!

相关文档推荐

Hibernate reactive No Vert.x context active in aws rds(AWS RDS中的休眠反应性非Vert.x上下文处于活动状态)
Bulk insert with mysql2 and NodeJs throws 500(使用mysql2和NodeJS的大容量插入抛出500)
Flask + PyMySQL giving error no attribute #39;settimeout#39;(FlASK+PyMySQL给出错误,没有属性#39;setTimeout#39;)
auto_increment column for a group of rows?(一组行的AUTO_INCREMENT列?)
Sort by ID DESC(按ID代码排序)
SQL/MySQL: split a quantity value into multiple rows by date(SQL/MySQL:按日期将数量值拆分为多行)