MySQL 多次插入性能

MySQL multiple insert performance(MySQL 多次插入性能)
本文介绍了MySQL 多次插入性能的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我的数据包含大约 30 000 条记录.我需要将这些数据插入到 MySQL 表中.我将这些数据按 1000 分组并创建多个插入,如下所示:

I have data containing about 30 000 records. And I need to insert this data into MySQL table. I group this data in packages by 1000 and create multiple inserts like this:

INSERT INTO `table_name` VALUES (data1), (data2), ..., (data1000);

如何优化此插入的性能?我可以每次插入超过 1000 条记录吗?每行包含大小约为 1KB 的数据.谢谢.

How can I optimize performance of this inserting? Can I insert more than 1000 records per time? Each row contains data with size about 1KB. Thanks.

推荐答案

需要检查mysql服务器配置,具体检查缓冲区大小等

You need to check mysql server configurations and specifically check buffer size etc.

您可以从表中删除索引(如果有),以使其更快.一旦有数据就创建索引.

You can remove indexes from the table, if any, to make it faster. Create the indexes onces data is in.

看这里,你应该得到你需要的一切.

Look here, you should get all you need.

http://dev.mysql.com/doc/refman/5.0/en/insert-speed.html

它说,一个具有多个值的插入语句比多个插入语句快得多.

One insert statement with multiple values, it says, is much faster than multiple insert statements.

这篇关于MySQL 多次插入性能的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持编程学习网!

本站部分内容来源互联网,如果有图片或者内容侵犯您的权益请联系我们删除!

相关文档推荐

Execute complex raw SQL query in EF6(在EF6中执行复杂的原始SQL查询)
Hibernate reactive No Vert.x context active in aws rds(AWS RDS中的休眠反应性非Vert.x上下文处于活动状态)
Bulk insert with mysql2 and NodeJs throws 500(使用mysql2和NodeJS的大容量插入抛出500)
Flask + PyMySQL giving error no attribute #39;settimeout#39;(FlASK+PyMySQL给出错误,没有属性#39;setTimeout#39;)
auto_increment column for a group of rows?(一组行的AUTO_INCREMENT列?)
Sort by ID DESC(按ID代码排序)