场景描述

       有这样一种场景,用户在自建服务器上存有一定数量级的CSV格式业务数据,某一天用户了解到阿里云的OSS服务存储性价比高(嘿嘿,颜值高),于是想将CSV数据迁移到云上OSS中,并且未来还想对这些数据做一些离线分析,挖掘其中存在价值,因此需要将OSS中文件再通过一种方式同步到ODPS数加平台上,面对这样需求,小编我经过参考文档,实践,调试并修复Bug,实现出以下一种解决方案。

实现目标

    通过OSS的Java SDK以及批量数据通道tunnel SDK实现以下两个功能:
     (1)将本地CSV文件上传到OSS;
     (2)将OSS中文件同步到ODPS;

准备工作

     在具体实操之前,有必要对OSS有个了解,OSS是个什么东东,为什么要选用OSS呢,OSS控制台限制条件,需要注意事项?

OSS是个什么东东?

      阿里云对象存储(Object Storage Service,简称OSS),是阿里云对外提供的海量,安全,低成本,高可靠的云存储服务。通过网络随时存储和调用包括文本、图片、音频、和视频在内的各种结构化或非结构化数据文件。 

为什么选用云产品OSS服务呢?

是什么原因致使用户放弃使用自建服务器存储数据,而转向云产品OSS呢?
     这方面我深有感触,我以前在上海一家公司工作,原公司所有数据都是存放在自建的五六台服务器上,从规划,采购到部署,这其间过程复杂,人力部署也不简单,而且服务器价格昂贵,开发维护成本高,数据可靠性还低,总之耗时、耗力最重要是影响业务进展。接触了解到OSS后才发现,之前的自建服务器存储真是太out啦,呵呵,OSS颜值高额,这里颜值具体有以下几个方面:
       可靠性高:数据自动多重冗余备份,规模自动扩展,不影响对外服务;
      安全:提供企业级、用户级多层次安全保护,授权机制及白名单、防盗链、主子账号功能;
       成本:省去人工扩容硬盘以及运维成本;
       数据处理能力:提供丰富的数据处理服务,比如图片处理、视频转码、CDN内容加速分发。

OSS控制台限制条件?

   通过 OSS 控制台可以上传小于 500 MB 文件。如要上传的文件大于 500 MB,控制台会给出超过大小限制警告,并且在任务管理列表,失败并尝试上传请求三次。异常警告如下图所示:
解决方法:可以通过 OSS的SDK 进行上传。

需要注意几点

(1) 在OSS中,用户操作基本数据单元是object,单个对象大小限制为48.8TB,一个存储空间中可以有无 
    限量对象。
(2) 新建Bucket,输入存储空间名称,创建后不支持更改存储空间名称,上传到OSS后不能移动文件存储位
    置;
(3) 在所属地域框中,下拉选择该存储空间的数据中心。订购后不支持更换地域。
(4) 删除存储空间之前请确保尚未完成的分片上传文件产生的碎片文件全部清空,否则无法删除存储空间。
(5) 通过web控制台上传文件,一刷新页面,任务管理中显示的上传任务就会消失不见,所以在上传过程中
    不要刷新页面。

本地大文件分片上传到OSS

       因为使用单次HTTP请求,Object过大会导致上传时间长。在这段时间出现网络原因造成超时或者链接断开错误的时候,上传容易失败,可以考虑断点续传上传(分片上传)。当Object大于5GB,这种情况下只能使用断点续传上传(分片上传),具体参考断点续传上传,下面代码实现上传本地路径下ratings.csv文件到OSS object管理中:
见附件中 源代码.rar 压缩文件中的 MultipartUploadDemo 类实现 

单线程实现将OSS文件上传至ODPS(OSS java-SDK与tunnel SDK结合)

      下面代码实现目标:将OSS中bucket名为qf-test,object对象为ratings.csv文件数据导入到ODPS平台中项目名为dtstack_dev,表名为ratings,分区字段为ds=20160612中。
见附件中 源代码.rar 压缩文件中的 OSSToODPS_Upload 类实现 

多线程实现将OSS文件上传至ODPS(OSS java-SDK与tunnel SDK结合)

      下面代码实现目标:将OSS中bucket名为qf-test,object对象为data_test/movies.csv文件数据导入到ODPS平台中项目名为dtstack_dev,表名为movies_odps2中。
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.util.ArrayList;
import java.util.concurrent.Callable;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors; import com.aliyun.odps.Column;
import com.aliyun.odps.Odps;
import com.aliyun.odps.PartitionSpec;
import com.aliyun.odps.TableSchema;
import com.aliyun.odps.account.Account;
import com.aliyun.odps.account.AliyunAccount;
import com.aliyun.odps.data.Record;
import com.aliyun.odps.data.RecordWriter;
import com.aliyun.odps.tunnel.TableTunnel;
import com.aliyun.odps.tunnel.TableTunnel.UploadSession;
import com.aliyun.odps.tunnel.TunnelException;
import com.aliyun.oss.OSSClient;
import com.aliyun.oss.model.GetObjectRequest;
import com.aliyun.oss.model.OSSObject; class UploadThread implements Callable<Boolean> {
private long id;
private TableSchema schema = null;
private RecordWriter recordWriter = null;
private Record record = null;
private BufferedReader reader = null; public UploadThread(long id, RecordWriter recordWriter, Record record,
TableSchema schema,BufferedReader reader) {
this.id = id;
this.recordWriter = recordWriter;
this.record = record;
this.schema = schema;
this.reader = reader;
} public Boolean call() throws Exception {
while (true) {
String line = reader.readLine();
if (line == null) break;
if(id == 0){ //第一行是字段名,忽略掉
id++;
continue;
}
System.out.println(line);
String[] s = line.split(",");
for (int i = 0; i < schema.getColumns().size(); i++) {
Column column = schema.getColumn(i);
switch (column.getType()) {
case BIGINT:
record.setBigint(i, Long.valueOf(s[i]));
break;
// case BOOLEAN:
// record.setBoolean(i, str);
// break;
// case DATETIME:
// record.setDatetime(i, str);
// break;
case DOUBLE:
record.setDouble(i, Double.valueOf(s[i]));
break;
case STRING:
record.setString(i,s[i]);
break;
default:
throw new RuntimeException("Unknown column type: "
+ column.getType());
}
}
recordWriter.write(record);
}
recordWriter.close();
return true;
}
} public class OSSToODPS_UploadThread {
private static String accessKeyId = "UQV2yoSSWNgquhhe";
private static String accessKeySecret = "bG8xSLwhmKYRmtBoE3HbhOBYXvknG6"; private static String endpoint = "http://oss-cn-hangzhou.aliyuncs.com";
private static String bucketName = "qf-test";
private static String key = "data_test/movies.csv"; private static String tunnelUrl = "http://dt.odps.aliyun.com";
private static String odpsUrl = "http://service.odps.aliyun.com/api";
private static String project = "dtstack_dev";
private static String table = "movies_odps2";
//private static String partition = "ds=20160612"; private static int threadNum = 10; public static void main(String args[]) {
/*
* Constructs a client instance with your account for accessing OSS
*/
OSSClient client = new OSSClient(endpoint, accessKeyId, accessKeySecret);
System.out.println("Downloading an object");
OSSObject object = client.getObject(new GetObjectRequest(bucketName, key));
BufferedReader reader = new BufferedReader(new InputStreamReader(object.getObjectContent())); Account account = new AliyunAccount(accessKeyId, accessKeySecret);
Odps odps = new Odps(account);
odps.setEndpoint(odpsUrl);
odps.setDefaultProject(project);
try {
TableTunnel tunnel = new TableTunnel(odps);
tunnel.setEndpoint(tunnelUrl);
//PartitionSpec partitionSpec = new PartitionSpec(partition);
UploadSession uploadSession = tunnel.createUploadSession(project,table);
// UploadSession uploadSession = tunnel.createUploadSession(project,
// table, partitionSpec); //分区 System.out.println("Session Status is : "
+ uploadSession.getStatus().toString()); ExecutorService pool = Executors.newFixedThreadPool(threadNum);
ArrayList<Callable<Boolean>> callers = new ArrayList<Callable<Boolean>>();
for (int i = 0; i < threadNum; i++) {
RecordWriter recordWriter = uploadSession.openRecordWriter(i);
Record record = uploadSession.newRecord();
callers.add(new UploadThread(i, recordWriter, record,
uploadSession.getSchema(),reader));
}
pool.invokeAll(callers);
pool.shutdown(); Long[] blockList = new Long[threadNum];
for (int i = 0; i < threadNum; i++)
blockList[i] = Long.valueOf(i);
uploadSession.commit(blockList);
reader.close();
System.out.println("upload success!");
} catch (TunnelException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}

  

编程实现中遇到Bug

Apache httpclient包冲突
Exception in thread "main" java.lang.NoSuchFieldError: INSTANCE

    at org.apache.http.conn.ssl.SSLConnectionSocketFactory.<clinit>(SSLConnectionSocketFactory.java:144)
    at com.aliyun.oss.common.comm.DefaultServiceClient.createHttpClientConnectionManager(DefaultServiceClient.java:232)
    at com.aliyun.oss.common.comm.DefaultServiceClient.<init>(DefaultServiceClient.java:78)
    at com.aliyun.oss.OSSClient.<init>(OSSClient.java:273)
    at com.aliyun.oss.OSSClient.<init>(OSSClient.java:194)
    at UploadToODPS.main(UploadToODPS.java:53)
工程里可能有包冲突。原因是OSS Java SDK使用了Apache httpclient 4.4.1,而个人工程使用了与Apache httpclient 4.4.1冲突的Apache httpclient。如上述发生错误的工程里,使用了Apache httpclient 4.1.2:
使用统一版本。如果个人工程里使用与Apache httpclient 4.4.1冲突版本,请也使用4.4.1版本。去掉其它版本的Apache httpclient依赖。
recordWriter.write(record) 写入位置不正确

在单线程编码实现从OSS传数据到ODPS代码中 recordWriter.write(record) 写入位置不正确,如下代码显示:

        for (int i = 0; i < schema.getColumns().size(); i++) {
                Column column = schema.getColumn(i);
                switch (column.getType()) {
                  case BIGINT:
                        record.setBigint(i, Long.valueOf(s[i]));
                        break;
                  case DOUBLE:
                        record.setDouble(i, Double.valueOf(s[i]));
                        break;
                  default:
                        throw new RuntimeException("Unknown column type: "
                                        + column.getType());
                  recordWriter.write(record);  //写入位置不正确
                }
      }
      // recordWriter.write(record);  //放到for循环外,写入位置正确
recordWriter.write(record)写入位置不对,将recordWriter.write(record)放置到for循环内,会出现以下奇怪异常:
正确位置是:将recordWriter.write(record)放置到for循环外,结果如下表显示:
上传代码中 partition="20160612" 字符串写法不对
需要注意,指定分区字符串在程序中正确写法:
private static String partition = "ds=20160612"; (必须加上分区字段名)
PartitionSpec partitionSpec = new PartitionSpec(partition);
不正确写法如下:
private static String partition = "20160612";(缺少分区字段名)
 
 

多线程上传任务无故中断,如下是异常截图

通过多线程将OSS中文件同步到ODPS表中时,实现多任务的并发执行,在编码实现时要注意reader.close()位置要放正确:
UploadSession uploadSession = tunnel.createUploadSession(project,table, partitionSpec);
OSSObject object = client.getObject(new GetObjectRequest(bucketName, key));
BufferedReader reader = new BufferedReader(new InputStreamReader(object.getObjectContent()));
Long[] blockList = new Long[threadNum];
uploadSession.commit(blockList);
将reader.close()放到Callable接口中call()方法里是不对滴,call方法是线程异步执行地方,开启的所有线程不断地异步从OSS的缓冲字符输入流reader中读取OSS中数据,如果在call()方法中就将reader关闭,也就是说将输入数据源关闭,直接导致线程读取失败。因此reader.close()应该放在线程外部,即uploadSession.commit()位置后边,如下。
uploadSession.commit(blockList);
reader.close();  //正确位置
System.out.println("upload success!");

OSS文件上传及OSS与ODPS之间数据连通的更多相关文章

  1. 构建基于阿里云OSS文件上传服务

    转载请注明来源:http://blog.csdn.net/loongshawn/article/details/50710132 <构建基于阿里云OSS文件上传服务> <构建基于OS ...

  2. 记一次阿里云oss文件上传服务假死

    引言 记得以前刚开始学习web项目的时候,经常涉及到需要上传图片啥的,那时候都是把图片上传到当前项目文件夹下面,每次项目一重启图片就丢了.虽然可以通过修改/tomcat/conf/server.xml ...

  3. SpringBoot整合阿里云OSS文件上传、下载、查看、删除

    1. 开发前准备 1.1 前置知识 java基础以及SpringBoot简单基础知识即可. 1.2 环境参数 开发工具:IDEA 基础环境:Maven+JDK8 所用技术:SpringBoot.lom ...

  4. js实现oss文件上传及一些问题

    关于兼容性问题,ie8以下的可以使用4.x的版本 一.引入sdk和jq <script src="http://libs.baidu.com/jquery/2.0.0/jquery.m ...

  5. PHP实现阿里云OSS文件上传(支持批量)

    上传文件至阿里云OSS,整体逻辑是,文件先临时上传到本地,然后在上传到OSS,最后删除本地的临时文件(也可以不删,具体看自己的业务需求),具体实现流程如下:   1.下载阿里云OSS对象上传SDK(P ...

  6. php阿里云oss文件上传

    php的文件上传 文件上传 php的文件上传放在了$_FILES数组里,单文件和多文件上传的区别在于$_FILES['userfile']['name']是否为数组, 不熟悉的可以读一下官方文档 单文 ...

  7. 使用laravel-amdin调用文件上传阿里oss注意点

    开发者工作中,项目代码开发提高效率,往往会使用一些github上面的一些扩展类,这里举例说明一下遇到的情况. 一.使用laravel-admin框架开发管理后台文件或者图片上传 情景:运营或者产品通过 ...

  8. 微信小程序环境下将文件上传到 OSS

    步骤 1: 配置 Bucket 跨域 客户端进行表单直传到 OSS 时,会从浏览器向 OSS 发送带有 Origin 的请求消息.OSS 对带有 Origin 头的请求消息会进行跨域规则(CORS)的 ...

  9. 阿里云OSS文件上传封装

    1.先用composer安装阿里云OSS的PHPSDK 2.配置文件里定义阿里云OSS的秘钥 3.在index控制器里的代码封装 <?php namespace app\index\contro ...

随机推荐

  1. react系列(四)Redux基本概念和使用

    Redux基本概念和使用 先从Flux开始 先放一个Flux官网的链接.需要fq. Flux是Facebook提出的一种构建客户端网页应用的应用架构,它是一种抽象程度很高的设计模式,鼓励单向数据流. ...

  2. About Me - 关于

    0x00 简介 97年生 计算机相关专业,无线电安全攻防方向. 涉猎较多,喜欢研究无线.硬件.软件.网络.攻击.检测.防御等各类安全技术 精通较少,主要擅长的还是硬件.渗透.无线攻击方面. 现阶段在研 ...

  3. Mac连接Linux服务器

    1.终端命令 a).打开Mac的命令终端 b).输入ssh -p 22 root@101.200.86.233 它会提示你输入密码,输入正确的密码之后,你就发现已经登陆成功了.(22: 端口号 roo ...

  4. 关于document.write()加载JS等静态资源 和 异步async加载JS

    现流行浏览器对于静态资源的预加载 传统的浏览器,对于静态资源加载,会阻塞 HTML 解析器的线程进行,无论内联还是外链. 例如: <script src="test1.js" ...

  5. thinkPHP5.0框架验证码调用及点击图片刷新简单实现方法

    这篇文章主要介绍了thinkPHP5.0框架验证码调用及点击图片刷新简单实现方法,结合简单示例形式分析了thinkPHP5框架验证码相关配置.后台验证.前台刷新等操作技巧,学习thinkphp源码的朋 ...

  6. Vue解决接口访问跨域问题

    随手摘录 Vue解决接口访问跨域问题 1.打开 config -> index.js 2. 找到proxyTable 3.粘贴 如下代码,'https://www.baidu.com'换成要访问 ...

  7. 15-oauth2+oidc实现Server部分

    1-我们使用之前项目的mvcCookieAuthSampe2进行改造 1.1  增加IdentityServer4 2-增加Config.cs文件,对IdentityServer提供相关的配置数据 u ...

  8. Java 高级应用编程 第一章 工具类

    一.Java API Java API简介 1.API (Application Programming Interface) 应用程序接口 2.Java中的API,就是JDK提供的各种功能的Java ...

  9. 北京Uber优步司机奖励政策(1月9日)

    滴快车单单2.5倍,注册地址:http://www.udache.com/ 如何注册Uber司机(全国版最新最详细注册流程)/月入2万/不用抢单:http://www.cnblogs.com/mfry ...

  10. 成都Uber优步司机奖励政策(2月17日)

    滴快车单单2.5倍,注册地址:http://www.udache.com/ 如何注册Uber司机(全国版最新最详细注册流程)/月入2万/不用抢单:http://www.cnblogs.com/mfry ...