将 SQL Server 表导出到多个部件文件

Exporting SQL Server Table to multiple part files(将 SQL Server 表导出到多个部件文件)
本文介绍了将 SQL Server 表导出到多个部件文件的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我需要将一个大约 100GB 的相当大的 SQL Server 表导出到 CSV 文件.但输出不是单个 csv 文件,理想情况下应该是多个文件,比如 10 个文件,每个 10GB.

I need to export a fairly large SQL Server table ~100GB to a CSV file. But rather than the output be a single csv file, it should ideally be multiple files say 10 files each 10GB.

我看到 BCP 有一个 batch_size 参数,但这仍然将所有数据写入单个文件?是否有其他免费实用程序可以满足我的要求?可以以字节或行数指定文件大小的地方?

I see BCP has a batch_size argument but this still writes all data to a single file? Are there other free utilities for doing what I require? Either where the size of file can be specified in bytes or number of rows?

就上下文而言,这是为了将数据与 Hive/Hadoop 平台中的其他来源相结合,因此如果有更好的导出数据的方法,我愿意接受建议.

For bit of context this is so the data can be combined with other sources in a Hive/Hadoop platform, so if there are better ways of exporting the data I'm open for suggestions.

推荐答案

我认为您可以将 SQL 2012 的分页函数 OFFSETFETCH 与 bcp 结合使用:

I think you could use SQL 2012's paging functions OFFSET and FETCH in conjunction with bcp:

SELECT *
FROM Table
ORDER BY ID --Primary Key
OFFSET 100000001 ROWS
FETCH NEXT 100000000 ROWS ONLY

这篇关于将 SQL Server 表导出到多个部件文件的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持编程学习网!

本站部分内容来源互联网,如果有图片或者内容侵犯您的权益请联系我们删除!

相关文档推荐

Execute complex raw SQL query in EF6(在EF6中执行复杂的原始SQL查询)
Hibernate reactive No Vert.x context active in aws rds(AWS RDS中的休眠反应性非Vert.x上下文处于活动状态)
Bulk insert with mysql2 and NodeJs throws 500(使用mysql2和NodeJS的大容量插入抛出500)
Flask + PyMySQL giving error no attribute #39;settimeout#39;(FlASK+PyMySQL给出错误,没有属性#39;setTimeout#39;)
auto_increment column for a group of rows?(一组行的AUTO_INCREMENT列?)
Sort by ID DESC(按ID代码排序)