背景起,有奏乐:

有伟人曰:学习技能的最好途径莫过于理论与实践相结合。

初学Node这货时,每每读教程必会Fall asleep。

当真要开发系统时,顿觉精神百倍,即便踩坑无数也不失斗志。

因为同团队的小伙伴们都在辛勤工作,正是因为他们的工作,

才让我有足够的时间拖着我疲软的智商来研究Node和AWS这些货。

系统完成,虽不尽完善,但不敢怠慢,迅速记录,免遗忘。

为后续更新和开发做一参考。

这就是人生。只要努力,便美美哒。

标题略长,其实这系统要做的事只三件:

1. 从本地上传文件到我们自己的服务器,并存储。

2. 将文件上传到七牛云存储。

3. 将文件上传到亚马逊的AWS S3存储。

几处说明:

1. 用Node的好处是写服务端代码也不用纠结语法问题了:

系统的开发用Node完成。写前后端都是JS,免去了语法的困扰。

不仅回忆起数日之前写Scala时对语法的纠结和困惑,一身冷汗。

2. Plupload是个好东东:

Client端的File Select用Plupload完成。

有了Plupload这货,再不纠结<input type='file'>的难看样式的兼容问题不好把控了。

Plupload虽然对File做了封装,但也提供了如 getNative 等的接口供我们访问原生。

十分体贴。

3. AWS的Upload在前端完成:

真相只有一个:在Node服务端的AWS的Upload我还没跑通……

请尽情的鄙视我吧T_T

好在路路通罗马。我绕路从前端赶到了罗马。

服务端请求的Block在这里:

从服务端向AWS上传文件时,其文件的Body以流方式被分块上传。

测试后发现,上传完成,也只传了部分,导致文件无法正常访问。

而在前端上传时,直接用原生File对象即可实现上传。

遂成功抵达罗马。

关于在服务端的上传问题,有待继续研究。

学海无涯0_0

4. 七牛的上传在服务端完成:

七牛的上传也可以在前端完成,只不过七牛自己的JS-SDK包裹了Plupload。

由于我的上传逻辑是由自己的Plupload来触发七牛和亚马逊(或其他第三方上传),

因此不在前端再New一个Plupload来做七牛的上传了。

New两个同样的东西实在是太二了好么。

设计的理念是,所有第三方上传都必须在我们的服务器Trigger之后才发生。

就酱任性。

—————— 我是冬季里颤巍巍的分割线 ——————

主要逻辑和部分代码:

1. 主程序和框架:

使用Express框架和Jade渲染引擎。

主程序app.js只做服务器的创建和监听,

涉及业务逻辑的请求和处理,都写在二级目录(./routes)的模块里。

app.js 的部分内容如下:

 var express = require('express'); 
4 var favicon = require('serve-favicon');
var bodyParser = require('body-parser');
var debug = require('debug')('express:server');
var http = require('http');
var port = normalizePort(process.env.PORT || '3038');
var app = express();
var server = http.createServer(app);
var index = require('./routes/index'); // 业务逻辑在这里 app.set('port', port);
server.on('error', serverOnError);
server.on('listening', serverOnListening);
server.on('connection', serverOnConnecting);
server.listen(port); app.set('views', path.join(__dirname, 'views'));
app.set('view engine', 'jade');
app.use(favicon(path.join(__dirname, 'public/lib', 'favicon.ico')));
app.use(bodyParser.json());
app.use(bodyParser.urlencoded({ extended: true }));
app.use(express.static(path.join(__dirname, 'public'))); app.use('/', index);

/* ====================================================== */

module.exports = app;

2. POST请求将文件上传并存储在本地服务器:

需要注意的是,这里的POST请求用到了中间件:

 var multipart = require('connect-multiparty');
var multipartMiddleware = multipart();
var express = require('express');
var router = express.Router();
router.post( ‘/saveInLocalServer’, multipartMiddleware, function(req, res){ 。。。});

这个请求接收的是从前端的Plupload上传的File,

神秘的中间件会在服务器生成临时文件,但不会删除它们。

因此在处理的最后要手动删除临时文件req.files。How to?

收到请求后,处理文件的部分代码如下:

 var file = req.files.file;
var tempPath = file.path,
fileName = file.name,
fileType = file.type,
fileSize = file.size;
var uploadDirName = dirName.DirName; // 生成目录的模块,每月一生
var filenameWithMd5 = MD5( new Date().getTime() ) + '-' + fileName;
var filenameForCloud = fileRename.FileRename(fileName);
// 保存到本地服务器的文件,使用MD5重命名文件
// 上传到云存储的文件,使用自定义的模块重命名
var targetPath = path.resolve('./' + uploadDirName + '/' + filenameWithMd5);
// Save file in our local server:
fs.rename(tempPath, targetPath, function(err, data){
if( err ){
var result = 'error';
res.status( result ).send();
} else {
var result = 'ok';
var uploadInfos = { ... }; // AWS的config信息定义在服务端,由模块引入并发送到前端,供JS接口调用:
res.status( result ).send( uploadInfos );
// Next do Qi Niu Upload ... blah blah blah
}
});

针对上述代码的几处说明:

a:关于在本地服务器生成目录:

我们的需求是,每月首次触发上传动作时,在服务器创建一只新目录。

该月内的其余上传文件,都存储在这一目录里。

所有的文件会按上传时间,以自然月为目录而分类。

按月创建目录的逻辑,我写了一枚小小模块,如下:

var fs = require('fs');

var _d = new Date();
var _year = _d.getFullYear();
var _month = (_d.getMonth() + 1 < 10)?('0' + (_d.getMonth() + 1)):(_d.getMonth() + 1); // 为整齐,月份都显示为两位数,因此1-9月前面加0
var dir = _year + '-' + _month + '-alex_upload'; if (!fs.existsSync(dir)){
fs.mkdirSync(dir);
} exports.DirName = dir; // 输出模块名为DirName // ============================
// 假设这个文件名为makeDirName.js,则在业务逻辑中引入并应用要这样:
var d_name = require('../routes/makeDirName');
var someName = d_name.DirName; // 输出的模块名在这里被这样引用

b:关于文件重命名:

我们的需求是,存在本地服务器的文件,使用MD5重命名。

上传到云存储的文件,使用时间戳和随机字符串共同重命名。

重命名文件的模块是酱紫写的:

 function rename( filename ) {
var name = '';
var possible = 'ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789';
var length = 6; // 随机字符串的长度,暂用6
for(var i = 0; i < length; i++){
name += possible.charAt( Math.floor(Math.random() * possible.length) );
}
var timestamp = new Date().getTime();
name = timestamp + '-' + name + '-' + filename;
return name;
}; exports.FileRename = rename;

c:关于res.status( 200 ).send( data ):

每个请求的response必须Call一下res.end(),

以此来告诉服务器这个请求的header和body都已发送,

并且这个请求已经完成。

如果不告诉服务器,呆萌的服务器是永远不会知道的。

浏览器会一直在请求状态中,标题栏的小圈圈一直在转啊转,

表示请求一直在持续啊持续。

在Call了res.end()之后,res.finished 的值为true,否则是false。

res.send() 会Call res.end(),因此不需重复Call。

3:在前端请求AWS S3

在发送刚才所提到的POST请求之前,

前端先new一个plupload的Uploader,部分代码如下:

 var _myUploader = new plupload.Uploader({
runtimes: 'html5,flash,silverlight,html4',
file_data_name: 'file',
container: _SCOPE.containerId,
browse_button: _SCOPE.filePickerId,
uptoken_url: _ELE.fileUptoken.innerHTML,
url: _ELE.fileLocalSave.innerHTML,
flash_swf_url: _SCOPE.swfUrl,
silverlight_xap_url:_SCOPE.xapUrl,
filters: {
max_file_size: _SCOPE.maxFileSize,
mime_types: [
{title: 'Image files', extensions: 'jpg,png,gif'},
{title: 'Zip files', extensions: 'zip'}
]
},
init: {...}
});

这里的 _SCOPE 和 _ELE 定义在全局作用域,或指定页面模块作用域下。

目的是从服务端接收相关的配置参数,在页面发送请求时调用。

这里遵循了一个高端大气上档次的写码原则,即:

常量参数的配置,

如Domain地址、取token之通信接口、

even 账户的accessKey&accessToken blah blah blah……

都在服务端某指定模块内统一配置。

当前端需要某参数时,由页面渲染res.render() 传递到页面元素HTML属性里,

但是不可以将Key等账户密钥渲染在页面结构里

也可以通过前后端通信将参数传递给前端页面,

例如刚才所述的POST接口里的uploadInfos。

这样做,在一处定义,其余皆调用。

当值有更新时,只在定义处更新其值即可。

避免多处赋值,更新时丢三落四陷入混乱。

嗯咳,所有工程师都知道的好么!我说多了……

……继续说上传:

使用Plupload,在其FileUploaded 的回调里,

即可执行向AWS S3发送请求了。

FileUploaded是在Plupload的文件上传成功后才会触发。

前端请求AWS S3的简要方法如下:

(这里的file是从FileUploaded的方法里用getNative获取到的原生file对象)

 function doAWSUpload( rename, file, info ) {
var file_name = file.name,
file_type = file.type,
file_size = file.size;
var bucket = new AWS.S3();
var uniqueName = rename;
bucket.config.update({ // 配置信息,在服务端传来的info里
accessKeyId: info.accessKeyId,
secretAccessKey: info.secretAccessKey
});
bucket.config.region = info.region;
var params = {
Bucket: info.bucket, // 账户指定的bucket名
Key: uniqueName,
ContentType: file_type,
Body: file,
ACL: 'public-read', // 设置文件访问权限
ServerSideEncryption: info.ServerSideEncryption
};
bucket.putObject(params, function(err, data){ // 此账户必须要有putObject的操作权限才能调用
if(err){
var errText = ' ' + file_name + ' failed in uploading to AWS! ' + err;
_ELE.fileConsole.innerHTML += errText;
}else{
var url = 'https://s3.amazonaws.com/' + info.bucket + '/' + uniqueName; _ELE.fileConsole.innerHTML += ' AWS upload succeeded! ' + url;
}
}).on('httpUploadProgress', function(progress){
console.log( 'AWS uploading...', Math.round(progress.loaded / progress.total * 100) );
});
};

执行这个方法的前提是前端页面调用了JS-SDK,

并且,……最重要的是并且:

对应账户在AWS的Console管理后台的相关配置要正确。

最讨厌各种相关配置了,

配来配去一百年才成功一次……

4:AWS的账户在Console管理后台的相关配置

首先注册一枚高大上的AWS账户。

如果你经常在Amazon上买买买,也可以用你的Retail账户。

开通AWS服务,需要验证,其过程要填写Payment账户信息。

我十分Naive的填了自己的Credit Card信息,结果直接被扣掉1刀勒。

吓尿之后,立刻删。

大约因为作为Retail账户时我曾做过快捷支付神马的脑残设置吧。

总之,1美元而已,这已不是重点……

有了一枚飘逸的AWS账户后,登录 https://console.aws.amazon.com

选择S3服务,进来后无视一切,先Create Bucket

点击这个新的Bucket,选择Properties

Permissions里,再选择 “Edit CORS Configuration”,

一个较为典型的CORS Configuration可以长这个样子:

 <?xml version="1.0" encoding="UTF-8"?>
<CORSConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
<CORSRule>
<AllowedOrigin>http://localhost:3038</AllowedOrigin> //本地测试入口
<AllowedOrigin>http://shaojing.wang</AllowedOrigin> //线上测试入口
<AllowedMethod>PUT</AllowedMethod> //可执行的方法
<AllowedMethod>DELETE</AllowedMethod> //可执行的方法
<MaxAgeSeconds>3000</MaxAgeSeconds>
<ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
<ExposeHeader>x-amz-request-id</ExposeHeader>
<ExposeHeader>x-amz-id-2</ExposeHeader>
<AllowedHeader>*</AllowedHeader>
</CORSRule>
</CORSConfiguration>

这里的CORS Configuration即对跨域请求所做限制,

只有“AllowedOrigin”里指定的端口才能向AWS发出请求,

而只有“AllowedHeader”里指定的端口才能接收请求(访问文件)。

上传成功后,可通过这样的URI访问到文件:

https://s3.amazonaws.com/myBucketName/1452581386878-hPp8Mc-test.png

附:AWS的文档在这里:http://docs.aws.amazon.com/

关于如何在服务端进行AWS S3的上传,下次再写文章分享。

下面该讲什么了……

5:在服务端实现向七牛云存储上传文件

该七牛了。

请八牛、九牛和十牛再耐心等一等。

六牛你不要闹,你已经谢世了好么。

从服务器向七牛云发送请求之前,需要获取授权,

请求授权之前,需要设置账户信息。

设置账户信息之前,你得先有一枚账户。

有了账户就有了AccessKey & SecretKey。

还是刚才讲的,在统一配置参数的模块里,配置好这些Key们的信息,

然后在服务端将发送请求之前,做赋值:

 var qiniu = require('qiniu');
var qnConf = require('../config/qiniu_config'); /* Prepare Qiniu config, we make Qiniu upload in Node Server not in browser*/
qiniu.conf.ACCESS_KEY = qnConf.QiniuConfig.ACCESS_KEY;
qiniu.conf.SECRET_KEY = qnConf.QiniuConfig.SECRET_KEY;

赋值之后,就可以开心的去请求upToken了!

写一只孤零零的单独小模块,用来生成upToken,代码长这样:

 var qiniu = require('qiniu');

 function uptoken(bucketname) { // 指定一个bucket传名字进来
var putPolicy = new qiniu.rs.PutPolicy(bucketname);
return putPolicy.token();
} exports.Uptoken = uptoken;

拿到upToken就可以华丽丽丽丽的开始上传了。

可以在刚才本地存储的POST请求成功后的回调里做。

代码就像酱紫:

       // Do Qiniu upload in here:
var targetPath = path.resolve('./' + uploadDirName + '/' + filenameWithMd5); //接刚才的POST里的处理
var qiniu_uptoken = generateUptoken.Uptoken(qnConf.QiniuConfig.Bucket_Name);
var extra = null; // 放额外信息,先写null
fs.readFile(targetPath, function(error, data){
qiniu.io.put(qiniu_uptoken, uploadDirName + '/' + filenameForCloud, data, extra, function(err, ret){
if(err){
console.log('Something is wrong with Qiniu upload! ', err);
}else{
console.log('qiniu: ', ret);
console.log('Qiniu URL = ', qnConf.QiniuConfig.Domain + uploadDirName + '/' + filenameForCloud); //手动拼结果URL
}
});
});

至此,七牛的上传也OK鸟!

撒花~~乐队起~~

5:后记

本文所述内容,仅限于最主要最基本的逻辑,

未涉及页面的交互和部分异常响应的处理。

仅供参考。表扔鸡蛋。

Node开发文件上传系统及向七牛云存储和亚马逊AWS S3的文件上传的更多相关文章

  1. laravel 上传文件到亚马逊 aws s3

    参考: https://github.com/aws/aws-sdk-php-laravel https://www.jianshu.com/p/e48d82bff20b

  2. windows系统上利用putty通过SSH连接亚马逊AWS服务器

    1. 找到在购买亚马逊的AWS服务器时保存的密钥文件(假设为abc.pem). 2.打开PuTTYgen,如下图,点击图中1处的“load”,找到abc.pem文件所在的位置,并选择abc.pem,确 ...

  3. 亚马逊AWS服务器CentOS/Linux系统Shell安装Nginx及配置自启动

    领了一个亚马逊的1年免费服务器,今天尝试安装 Nginx 服务器,使用原生的 Shell 方法. 为了方便以后查看,就把过程记录一下. 注意:亚马逊(AWS)服务器默认只能用 user-ec2 账户进 ...

  4. 亚马逊AWS业务副总裁:如何在基础设施上降成本

    腾讯科技 林靖东 11月17日编译 亚马逊Amazon Web Services业务的副总裁.著名工程师詹姆斯汉密尔顿(James Hamilton)在AWS re:Invent大会上解释了公司是如何 ...

  5. 第一个go的web程序;调用七牛云存储的音频api问题解决;条件搜寻文件中的内容,字符串拼接+在上一行

    package main import ( "html/template" "io" "io/ioutil" "log" ...

  6. 七牛云存储Python SDK使用教程 - 上传策略详解

    文 七牛云存储Python SDK使用教程 - 上传策略详解 七牛云存储 python-sdk 七牛云存储教程 jemygraw 2015年01月04日发布 推荐 1 推荐 收藏 2 收藏,2.7k  ...

  7. 七牛云存储上传自有证书开启https访问

    虽然七牛云存储也提供免费SSL证书申请,但我就喜欢用其他平台申请的,于是在腾讯云申请了免费SSL证书,正准备在七牛上传,弹出的界面却让我傻了眼,如下图所示: 腾讯免费SSL证书提供了不同服务器环境的版 ...

  8. 杂_小技巧_将网页上的内容通过亚马逊邮箱传到kindle中

    所需条件 1.kindle要联网 2.要有亚马逊邮箱 3.要有微信,电脑上或者手机上 操作步骤: 1.找到你想要传送到kindle上的文章网页 2.在微信中关注“亚马逊kindle服务号”并且按照里边 ...

  9. A亚马逊WS网上系列讲座——怎么样AWS云平台上千万用户的应用建设

    用户选择云计算平台构建应用程序的一个重要原因是高弹性的云平台和可扩展性. 面向Internet应用程序通常需要支持用户使用大量,但要建立一个高度可扩展.具有一定的挑战,高度可用的应用程序,只有立足AW ...

随机推荐

  1. 快速可靠网络传输协议 KCP(转)

    KCP 是一个快速可靠协议,能以比 TCP浪费10%-20%的带宽的代价,换取平均延迟降低30%-40%,且最大延迟降低三倍的传输效果.纯算法实现,并不负责底层协议(如UDP)的收发,需要使用者自己定 ...

  2. 尚硅谷STRUTS2视频学习笔记

    上一个月一直在学习STRUTS2,学习的是尚硅谷佟刚老师的视频,因为很喜欢佟刚老师的声音,而且他讲的很细,笔记做的也多,基本上是照着他的视频完整的敲了一遍代码,下面就把学习到的知识梳理一遍,最后把项目 ...

  3. map模块使用方法

    map指令使用ngx_http_map_module模块提供的.默认情况下,nginx有加载这个模块,除非人为的 --without-http_map_module.ngx_http_map_modu ...

  4. Haskell语言学习笔记(57)Parsec(4)

    Parser 类型 data ParsecT s u m a type Parsec s u = ParsecT s u Identity type Parser = Parsec String () ...

  5. spring 中的断言的作用

    org.springframework.util.AssertAssert翻译为中文为"断言".用过JUNIT的应该都知道这个概念了.就是断定某一个实际的值就为自己预期想得到的,如 ...

  6. sysdig

    centos 7 安装 https://sysdig.com/opensource/sysdig/install/ 1) Trust the Draios GPG key, configure the ...

  7. Containerpilot 配置文件 之 consul

    Consul ContainerPilot使用Hashicorp的consul在作为服务的容器中注册工作. Watches查询consul找出其他服务的状态. Client configuration ...

  8. Nexus 使用配置

    Nexus使用的一些基本设置 1.更改中央仓库地址为私服地址 既然我们配置了私服,那么相应的,我们的项目就应该使用Nexus的地址(Public Repository)来下载jar包 1.1.基于PO ...

  9. sqldatareader无法得到output参数的解决

    只需要在所有的sqldatareader结束后,加上一句就可以得到输出参数了. sdr.Close(); Object ObjCount = cmd.Parameters["@Count_P ...

  10. cdoj802-Just a Line

    http://acm.uestc.edu.cn/#/problem/show/802 Just a Line Time Limit: 3000/1000MS (Java/Others)     Mem ...