[转帖]oracle导出千万级数据为csv格式
当数据量小时(20万行内),plsqldev、sqlplus的spool都能比较方便进行csv导出,但是当数据量到百万千万级,这两个方法非常慢而且可能中途客户端就崩溃,需要使用其他方法。
一、 sqluldr2工具
1. 优缺点
- 优点:高效;支持功能较多;用户只需有对应表查询权限;可以在从库执行
- 缺点:目前已没有再维护,只能找到基于oracle 10.2的版本(高版本目前还可以用);密码必须要跟在用户名后面输,安全性不足
2. 下载安装
- 百度云链接:https://pan.baidu.com/s/1V8eqyyYsbJqQSD-Sn-RQGg 提取码:6mdn
下载完后并解压会生成4个文件
- sqluldr2.exe 用于32位windows平台
- sqluldr264.exe 用于64位windows平台
- sqluldr2_linux32_10204.bin 用于linux32位操作系统
- sqluldr2_linux64_10204.bin 用于linux64位操作系统
Windows的可以直接用,Linux的需要加执行权限。
chmod +x sqluldr2_linux64_10204.bin

3. 导出csv格式数据
/data/bak目录需要预先建好,oracle用户可写。如果查询语句较复杂,可以建成一个临时视图,通过视图导出,避免写一堆语句。
./sqluldr2_linux64_10204.bin myuser/xxxxxxx query="select * from tmp1201_all_v" head=yes file=/data/bak/tmp1201_all_v.csv
测试700万左右数据导出约12分钟(15:47开始执行),主要是视图查询较慢,导出表应该更快。

二、 利用存储过程
1. 优缺点
- 优点:效率较高;原生sql、目前无版本问题;可自行增加需要功能
- 缺点:需要sys权限;只能在主库执行;功能相对较少
2. sys用户建存储过程
代码转载自 https://blog.csdn.net/lxp90/article/details/80926236
-
CREATE OR REPLACE PROCEDURE SQL_TO_CSV
-
(
-
P_QUERY IN VARCHAR2, -- PLSQL文
-
P_DIR IN VARCHAR2, -- 导出的文件放置目录
-
P_FILENAME IN VARCHAR2 -- CSV名
-
)
-
IS
-
L_OUTPUT UTL_FILE.FILE_TYPE;
-
L_THECURSOR INTEGER DEFAULT DBMS_SQL.OPEN_CURSOR;
-
L_COLUMNVALUE VARCHAR2(4000);
-
L_STATUS INTEGER;
-
L_COLCNT NUMBER := 0;
-
L_SEPARATOR VARCHAR2(1);
-
L_DESCTBL DBMS_SQL.DESC_TAB;
-
P_MAX_LINESIZE NUMBER := 32000;
-
BEGIN
-
--OPEN FILE
-
L_OUTPUT := UTL_FILE.FOPEN(P_DIR, P_FILENAME, 'W', P_MAX_LINESIZE);
-
--DEFINE DATE FORMAT
-
EXECUTE IMMEDIATE 'ALTER SESSION SET NLS_DATE_FORMAT=''YYYY-MM-DD HH24:MI:SS''';
-
--OPEN CURSOR
-
DBMS_SQL.PARSE(L_THECURSOR, P_QUERY, DBMS_SQL.NATIVE);
-
DBMS_SQL.DESCRIBE_COLUMNS(L_THECURSOR, L_COLCNT, L_DESCTBL);
-
--DUMP TABLE COLUMN NAME
-
FOR I IN 1 .. L_COLCNT LOOP
-
UTL_FILE.PUT(L_OUTPUT,L_SEPARATOR || '"' || L_DESCTBL(I).COL_NAME || '"'); --输出表字段
-
DBMS_SQL.DEFINE_COLUMN(L_THECURSOR, I, L_COLUMNVALUE, 4000);
-
L_SEPARATOR := ',';
-
END LOOP;
-
UTL_FILE.NEW_LINE(L_OUTPUT); --输出表字段
-
--EXECUTE THE QUERY STATEMENT
-
L_STATUS := DBMS_SQL.EXECUTE(L_THECURSOR);
-
-
--DUMP TABLE COLUMN VALUE
-
WHILE (DBMS_SQL.FETCH_ROWS(L_THECURSOR) > 0) LOOP
-
L_SEPARATOR := '';
-
FOR I IN 1 .. L_COLCNT LOOP
-
DBMS_SQL.COLUMN_VALUE(L_THECURSOR, I, L_COLUMNVALUE);
-
UTL_FILE.PUT(L_OUTPUT,
-
L_SEPARATOR || '"' ||
-
TRIM(BOTH ' ' FROM REPLACE(L_COLUMNVALUE, '"', '""')) || '"');
-
L_SEPARATOR := ',';
-
END LOOP;
-
UTL_FILE.NEW_LINE(L_OUTPUT);
-
END LOOP;
-
--CLOSE CURSOR
-
DBMS_SQL.CLOSE_CURSOR(L_THECURSOR);
-
--CLOSE FILE
-
UTL_FILE.FCLOSE(L_OUTPUT);
-
EXCEPTION
-
WHEN OTHERS THEN
-
RAISE;
-
END;
-
/
3. 创建导出目录
/data/bak目录需要预先建好,oracle用户可写。如果查询语句较复杂,可以建成一个临时视图(sys用户下),通过视图导出,避免写一堆语句。
create or replace directory OUT_PATH_TEMP as '/data/bak';
4. 执行存储过程
-
begin
-
sql_to_csv('select * from tmp1201_all_v','OUT_PATH_TEMP','tmp1201_all_v.csv');
-
end;
-
/
测试700万左右数据导出约23分钟,主要是视图查询较慢,导出表应该更快。

参考
[转帖]oracle导出千万级数据为csv格式的更多相关文章
- php 连接oracle 导出百万级数据
1,我们一般做导出的思路就是,根据我们想要的数据,全部查询出来,然后导出来,这个对数据量很大的时候会很慢,这里我提出来的思想就是分页和缓冲实现动态输出. 2.普通的我就不说了,下面我说一下分页和内存刷 ...
- mysql循环插入千万级数据
mysql使用存储过程循环插入大量数据,简单的一条条循环插入,效率会很低,需要考虑批量插入. 测试准备: 1.建表: CREATE TABLE `mysql_genarate` ( `id` ) NO ...
- 使用POI导出百万级数据到excel的解决方案
1.HSSFWorkbook 和SXSSFWorkbook区别 HSSFWorkbook:是操作Excel2003以前(包括2003)的版本,扩展名是.xls,一张表最大支持65536行数据,256列 ...
- .Net Core导入千万级数据至Mysql
最近在工作中,涉及到一个数据迁移功能,从一个txt文本文件导入到MySQL功能. 数据迁移,在互联网企业可以说经常碰到,而且涉及到千万级.亿级的数据量是很常见的.大数据量迁移,这里面就涉及到一个问题 ...
- 用php导入10W条+ 级别的csv大文件数据到mysql。导出10W+级别数据到csv文件
转自:http://blog.csdn.net/think2me/article/details/12999907 1. 说说csv 和 Excel 这两者都是我们平时导出或者导入数据一般用到的载体. ...
- 数组转xls格式的excel文件&数据转csv格式的excle
/** * 数组转xls格式的excel文件 * @param array $data 需要生成excel文件的数组 * @param string $filename 生成的excel文件名 * 示 ...
- python 爬虫数据存入csv格式方法
python 爬虫数据存入csv格式方法 命令存储方式:scrapy crawl ju -o ju.csv 第一种方法:with open("F:/book_top250.csv" ...
- mysql千万级数据表,创建表及字段扩展的几条建议
一:概述 当我们设计一个系统时,需要考虑到系统的运行一段时间后,表里数据量大约有多少,如果在初期,就能估算到某几张表数据量非常庞大时(比如聊天消息表),就要把表创建好,这篇文章从创建表,增加数据,以及 ...
- Oracle导出数据结构和数据表的方法
1.PLSQL导出数据结构(数据表.序列.触发器.函数.视图) 1)在左侧 点击tables 2)Tools-->Export User Objects 3)红色1 是你要选择导出的表,红色2 ...
- Python数据写入csv格式文件
(只是传递,基础知识也是根基) Python读取数据,并存入Excel打开的CSV格式文件内! 这里需要用到bs4,csv,codecs,os模块. 废话不多说,直接写代码!该重要的内容都已经注释了, ...
随机推荐
- 在CentOS安装BIND,把所有DNS请求日志转发到syslog服务器去
在CentOS安装BIND,把所有DNS请求日志转发到syslog服务器去 在vim /etc/named.conf里配置的内容 logging { channel default_debug { f ...
- 初窥门径代码起手,Go lang1.18入门精炼教程,由白丁入鸿儒,首次运行golang程序EP01
前文再续,书接上回,前一篇:兔起鹘落全端涵盖,Go lang1.18入门精炼教程,由白丁入鸿儒,全平台(Sublime 4)Go lang开发环境搭建EP00,我们搭建起了Go lang1.18的开发 ...
- 【DevCloud · 敏捷智库】如何利用核心概念解决估算常见问题(内附下载材料)
摘要:团队用于估算时间过多,留给开发的时间会相应减少,大家工作紧张,状态不佳.团队过度承诺直接造成迭代目标不能完成,士气低落.以上弊端直接伤害敏捷团队,是敏捷团队保持稳定健康节奏的阻力. 背景 敏捷江 ...
- 华为云GaussDB践行数字化,护航证券保险高质量发展
摘要:华为云数据库解决方案架构师章哲在由先进数通与华为联合开展的"7+1"系列银行业数字化转型实践交流活动上围绕华为云GaussDB多年来的技术探索和应用实践进行了分享. 近日,由 ...
- 最高提升10倍性能!揭秘火山引擎ByteHouse查询优化器实现方案
更多技术交流.求职机会,欢迎关注字节跳动数据平台微信公众号,回复[1]进入官方交流群 作为企业级数据库的核心组件之一,查询优化器的地位不可忽视.对于众多依赖数据分析的现代企业来说,一个强大且完善 ...
- 字节跳动基于 ClickHouse 优化实践之“查询优化器”
更多技术交流.求职机会,欢迎关注字节跳动数据平台微信公众号,回复[1]进入官方交流群 相信大家都对大名鼎鼎的 ClickHouse 有一定的了解了,它强大的数据分析性能让人印象深刻.但在字节大量生产使 ...
- Solon2 开发之IoC,十、Bean 在容器的两层信息
1.剖析 Bean 的装包与注册过程 比如,用配置器装配一个 Bean (本质是装配出一个 BeanWrap,并自动注册到容器): @Configuration public class Config ...
- why哥这里有一道Dubbo高频面试题,请查收。
这是why的第 64 篇原创文章 荒腔走板 大家好,我是 why,欢迎来到我连续周更优质原创文章的第 64 篇.老规矩,先荒腔走板聊聊其他的. 上面这图是我之前拼的一个拼图. 我经常玩拼图,我大概拼了 ...
- Java 匿名函数的概念和写法
匿名函数的实现 1.定义一个函数式接口.只有一个抽象方法的接口就是函数式接口 //1.定义一个函数式接口.只有一个抽象方法的接口就是函数式接口 interface ILike { void hit(l ...
- 使用 Diffusers 通过 DreamBooth 来训练 Stable Diffusion.md
邀请参与我们的 DreamBooth 微调编程马拉松活动! DreamBooth 是一种使用专门的微调形式来训练 Stable Diffusion 的新概念技术.一些人用他仅仅使用很少的他们的照片训练 ...