[转帖]oracle导出千万级数据为csv格式
当数据量小时(20万行内),plsqldev、sqlplus的spool都能比较方便进行csv导出,但是当数据量到百万千万级,这两个方法非常慢而且可能中途客户端就崩溃,需要使用其他方法。
一、 sqluldr2工具
1. 优缺点
- 优点:高效;支持功能较多;用户只需有对应表查询权限;可以在从库执行
- 缺点:目前已没有再维护,只能找到基于oracle 10.2的版本(高版本目前还可以用);密码必须要跟在用户名后面输,安全性不足
2. 下载安装
- 百度云链接:https://pan.baidu.com/s/1V8eqyyYsbJqQSD-Sn-RQGg 提取码:6mdn
下载完后并解压会生成4个文件
- sqluldr2.exe 用于32位windows平台
- sqluldr264.exe 用于64位windows平台
- sqluldr2_linux32_10204.bin 用于linux32位操作系统
- sqluldr2_linux64_10204.bin 用于linux64位操作系统
Windows的可以直接用,Linux的需要加执行权限。
chmod +x sqluldr2_linux64_10204.bin
3. 导出csv格式数据
/data/bak目录需要预先建好,oracle用户可写。如果查询语句较复杂,可以建成一个临时视图,通过视图导出,避免写一堆语句。
./sqluldr2_linux64_10204.bin myuser/xxxxxxx query="select * from tmp1201_all_v" head=yes file=/data/bak/tmp1201_all_v.csv
测试700万左右数据导出约12分钟(15:47开始执行),主要是视图查询较慢,导出表应该更快。
二、 利用存储过程
1. 优缺点
- 优点:效率较高;原生sql、目前无版本问题;可自行增加需要功能
- 缺点:需要sys权限;只能在主库执行;功能相对较少
2. sys用户建存储过程
代码转载自 https://blog.csdn.net/lxp90/article/details/80926236
-
CREATE OR REPLACE PROCEDURE SQL_TO_CSV
-
(
-
P_QUERY IN VARCHAR2, -- PLSQL文
-
P_DIR IN VARCHAR2, -- 导出的文件放置目录
-
P_FILENAME IN VARCHAR2 -- CSV名
-
)
-
IS
-
L_OUTPUT UTL_FILE.FILE_TYPE;
-
L_THECURSOR INTEGER DEFAULT DBMS_SQL.OPEN_CURSOR;
-
L_COLUMNVALUE VARCHAR2(4000);
-
L_STATUS INTEGER;
-
L_COLCNT NUMBER := 0;
-
L_SEPARATOR VARCHAR2(1);
-
L_DESCTBL DBMS_SQL.DESC_TAB;
-
P_MAX_LINESIZE NUMBER := 32000;
-
BEGIN
-
--OPEN FILE
-
L_OUTPUT := UTL_FILE.FOPEN(P_DIR, P_FILENAME, 'W', P_MAX_LINESIZE);
-
--DEFINE DATE FORMAT
-
EXECUTE IMMEDIATE 'ALTER SESSION SET NLS_DATE_FORMAT=''YYYY-MM-DD HH24:MI:SS''';
-
--OPEN CURSOR
-
DBMS_SQL.PARSE(L_THECURSOR, P_QUERY, DBMS_SQL.NATIVE);
-
DBMS_SQL.DESCRIBE_COLUMNS(L_THECURSOR, L_COLCNT, L_DESCTBL);
-
--DUMP TABLE COLUMN NAME
-
FOR I IN 1 .. L_COLCNT LOOP
-
UTL_FILE.PUT(L_OUTPUT,L_SEPARATOR || '"' || L_DESCTBL(I).COL_NAME || '"'); --输出表字段
-
DBMS_SQL.DEFINE_COLUMN(L_THECURSOR, I, L_COLUMNVALUE, 4000);
-
L_SEPARATOR := ',';
-
END LOOP;
-
UTL_FILE.NEW_LINE(L_OUTPUT); --输出表字段
-
--EXECUTE THE QUERY STATEMENT
-
L_STATUS := DBMS_SQL.EXECUTE(L_THECURSOR);
-
-
--DUMP TABLE COLUMN VALUE
-
WHILE (DBMS_SQL.FETCH_ROWS(L_THECURSOR) > 0) LOOP
-
L_SEPARATOR := '';
-
FOR I IN 1 .. L_COLCNT LOOP
-
DBMS_SQL.COLUMN_VALUE(L_THECURSOR, I, L_COLUMNVALUE);
-
UTL_FILE.PUT(L_OUTPUT,
-
L_SEPARATOR || '"' ||
-
TRIM(BOTH ' ' FROM REPLACE(L_COLUMNVALUE, '"', '""')) || '"');
-
L_SEPARATOR := ',';
-
END LOOP;
-
UTL_FILE.NEW_LINE(L_OUTPUT);
-
END LOOP;
-
--CLOSE CURSOR
-
DBMS_SQL.CLOSE_CURSOR(L_THECURSOR);
-
--CLOSE FILE
-
UTL_FILE.FCLOSE(L_OUTPUT);
-
EXCEPTION
-
WHEN OTHERS THEN
-
RAISE;
-
END;
-
/
3. 创建导出目录
/data/bak目录需要预先建好,oracle用户可写。如果查询语句较复杂,可以建成一个临时视图(sys用户下),通过视图导出,避免写一堆语句。
create or replace directory OUT_PATH_TEMP as '/data/bak';
4. 执行存储过程
-
begin
-
sql_to_csv('select * from tmp1201_all_v','OUT_PATH_TEMP','tmp1201_all_v.csv');
-
end;
-
/
测试700万左右数据导出约23分钟,主要是视图查询较慢,导出表应该更快。
参考
[转帖]oracle导出千万级数据为csv格式的更多相关文章
- php 连接oracle 导出百万级数据
1,我们一般做导出的思路就是,根据我们想要的数据,全部查询出来,然后导出来,这个对数据量很大的时候会很慢,这里我提出来的思想就是分页和缓冲实现动态输出. 2.普通的我就不说了,下面我说一下分页和内存刷 ...
- mysql循环插入千万级数据
mysql使用存储过程循环插入大量数据,简单的一条条循环插入,效率会很低,需要考虑批量插入. 测试准备: 1.建表: CREATE TABLE `mysql_genarate` ( `id` ) NO ...
- 使用POI导出百万级数据到excel的解决方案
1.HSSFWorkbook 和SXSSFWorkbook区别 HSSFWorkbook:是操作Excel2003以前(包括2003)的版本,扩展名是.xls,一张表最大支持65536行数据,256列 ...
- .Net Core导入千万级数据至Mysql
最近在工作中,涉及到一个数据迁移功能,从一个txt文本文件导入到MySQL功能. 数据迁移,在互联网企业可以说经常碰到,而且涉及到千万级.亿级的数据量是很常见的.大数据量迁移,这里面就涉及到一个问题 ...
- 用php导入10W条+ 级别的csv大文件数据到mysql。导出10W+级别数据到csv文件
转自:http://blog.csdn.net/think2me/article/details/12999907 1. 说说csv 和 Excel 这两者都是我们平时导出或者导入数据一般用到的载体. ...
- 数组转xls格式的excel文件&数据转csv格式的excle
/** * 数组转xls格式的excel文件 * @param array $data 需要生成excel文件的数组 * @param string $filename 生成的excel文件名 * 示 ...
- python 爬虫数据存入csv格式方法
python 爬虫数据存入csv格式方法 命令存储方式:scrapy crawl ju -o ju.csv 第一种方法:with open("F:/book_top250.csv" ...
- mysql千万级数据表,创建表及字段扩展的几条建议
一:概述 当我们设计一个系统时,需要考虑到系统的运行一段时间后,表里数据量大约有多少,如果在初期,就能估算到某几张表数据量非常庞大时(比如聊天消息表),就要把表创建好,这篇文章从创建表,增加数据,以及 ...
- Oracle导出数据结构和数据表的方法
1.PLSQL导出数据结构(数据表.序列.触发器.函数.视图) 1)在左侧 点击tables 2)Tools-->Export User Objects 3)红色1 是你要选择导出的表,红色2 ...
- Python数据写入csv格式文件
(只是传递,基础知识也是根基) Python读取数据,并存入Excel打开的CSV格式文件内! 这里需要用到bs4,csv,codecs,os模块. 废话不多说,直接写代码!该重要的内容都已经注释了, ...
随机推荐
- ElasticSearch之系统关键配置
ElasticSearch之系统关键配置 集群名称 在配置文件$ES_HOME/config/elasticsearch.yml中指定,样例如下: cluster: name: logging-pro ...
- 【2】从零玩转OSS阿里云存储服务之Java代码操作-2-cong-ling-wan-zhuan-oss-a-li-yun-cun-chu-fu-wu-zhi-java-dai-ma-cao-zuo
title: [2]从零玩转OSS阿里云存储服务之Java代码操作 date: 2021-06-09 17:37:14.486 updated: 2021-12-26 17:43:12.779 url ...
- TDD、BDD、ATDD都是什么、有什么区别?(下)
在<TDD.BDD.ATDD都是什么.有什么区别?(下)>一文中,探讨了TDD.BDD和ATDD的概念.虽然TDD.BDD和ATDD都是软件开发中使用的测试方法,但它们在方法和重点上有所不 ...
- 如何正确使用Python临时文件
摘要:临时文件通常用来保存无法保存在内存中的数据,或者传递给必须从文件读取的外部程序.一般我们会在/tmp目录下生成唯一的文件名,但是安全的创建临时文件并不是那么简单,需要遵守许多规则. 1.前言 临 ...
- 有了这个数据强一致“利器”,DBA们轻松修复数据对加班“say no”
摘要:不想加班修复数据?强一致的华为云数据库GaussDB(for Cassandra)来了-- 本文分享自华为云社区<HDC.Cloud2021|华为云GaussDB让开发者们不再加班修复数据 ...
- Python图像处理丨基于K-Means聚类的图像区域分割
摘要:本篇文章主要讲解基于理论的图像分割方法,通过K-Means聚类算法实现图像分割或颜色分层处理. 本文分享自华为云社区<[Python图像处理] 十九.图像分割之基于K-Means聚类的区域 ...
- 五大不良 coding 习惯,你占了几样?
在之前的文章中,我们一起解读了2021年数据成本报告.根据 IBM 和 Ponemon Institute 2021年的报告,全球平均数据泄露成本约为424万美元.为了降低数据泄露造成的成本,企业可以 ...
- [BitSail] Connector开发详解系列四:Sink、Writer
更多技术交流.求职机会,欢迎关注字节跳动数据平台微信公众号,回复[1]进入官方交流群 Sink Connector BitSail Sink Connector交互流程介绍 Sink:数据写入组件的生 ...
- 企业诊断屋:在线小说企业如何用A/B测试赋能业务
更多技术交流.求职机会,欢迎关注字节跳动数据平台微信公众号,回复[1]进入官方交流群 近两年来,在线小说领域业务发展"降速",相较于几年前的快速扩张,2022年后国内在线小说企 ...
- Linux 升级安装 Python 3
百度飞桨 PaddlePaddle 2.4.0 => Python 3.7.4 PaddlePaddle 2.4.1+ => Python 3.9.0 下载 # 安装依赖 [root@lo ...