近期做数据迁移,采用nodejs框架,数据库为mysql。作为一枚菜鸟,在编码过程中,遇到众多奇葩问题,感谢民少给予的支持。

由于旧数据库中的数据,在之前设计中存在众多不合理的情况,因此在数据迁移中,需要对旧数据库中的相关数据做众多的规范性处理:

根据新系统的数据结构要求,存在如下问题:

1、进行无效数据筛选过滤,并进行记录。

2、同时存在外键关系也需要进行相应迁移。

3、实现数据库的自动化转移处理

4、记录无效及验证不通过数据,以及相关的原因。

5、旧数据中Id为不规范的ID,需要进行。

完成分析后,绝对按下面流程进行数据迁移:

1、在经历了对新旧数据库结构的分析后,进行相应的旧数据库中数据的导出。

2、根据具体新数据关系,先进行不存在外键关系的基础数据导入

3、完成基础数据的导入后,再进行相应的存在关联关系的数据进行导入处理。

在导入过程中,需要对基础数据进行导入成功后,方可进行关联数据的导入,满足外键关系的关联。

预先设计2套,具体方案如下:

一、先将所有数据导出为具体的data.js文件,存储在本地的文件中,读取这些数据文件进行迁移处理。

二、根据数据关系,通过将导出的数据进行缓存,读取缓存进行数据直接迁移处理。

采用nodegrass+mysql+underscore+eventproxy等相应组建进行整个数据导入的处理。

nodegrass进行数据模拟请求操作,

mysql进行数据库数据的读取处理,

underscore为集合处理工具类,

eventproxy进行嵌套回调函数工具。

1、主体程序代码如下:

function execExport(i) {
var fileName = modules[i];
var filePath = path.join(dir, fileName);
require(filePath).export(connection, exportComplete(i, new Date().getTime()), ' limit 10;');
} function exportComplete(i, start) {
return function () {
var fileName = modules[i];
var filePath = path.join(dir, fileName);
console.log('%s导出完成,行数: %s, 耗时: %s 秒', filePath, $.size(require(filePath).rows), parseInt((new Date().getTime() - start) / 1000, 10));
if ((i + 1) < modules.length)
return execExport(i + 1);
console.log('______________完成所有导出____________');
execImportBase(); };
} execExport(0);

通过调用execExport(0);,以递归的方式,进行旧数据库数据的导出,记录数据记录以及导出耗时情况。

在导出数据结束后,通过execImportBase()方法,进行数据的导入操作,由于外键关联的原因,所以先进行基础数据导入。

2、具体代码如下:

nodegrass模拟请求代码:

function execImportBase() {
ajax.post('/user/login', {
name: '××××××',
pwd: '××××××',
rememberPwd: true
}, function (resp, headers) {
if (resp.success) {
console.log("登录成功,开始数据导入。");
require('./server/dict').import();
}
else {
console.log("登录失败。");
}
});
}

2、新旧数据库Id标识字段的关联处理代码:

exports.import = function () {
var ep = new EP();
ep.after('importAccount', $.size(exports.rows), function () {
console.log("end Import Account");
write.writeFile(fails, 'Account');
require('./shop').import();
});
$.each(exports.rows, function (d) {
ajax.post('/user/register', d, function (resp) {
if (!resp.success) {
d.resp = resp;
fails.push(d);
} else {
d.newId = resp.data;
}
ep.emit('importAccount');
});
});
};

数据中保存成功后,将新数据的Id字段返回,让引用的外键关联表对应的引用字段,使用newId进行绑定。 由此完成数据外键关系的迁移。

3、mysql多语句执行的代码:

var connection = mysql.createConnection({
host: '192.168.1.110',
user: 'root',
password: '123456',
database: 'data',
multipleStatements: true
});
multipleStatements: true:为对应的多语句同时执行开关。

4、eventproxy嵌套回调处理代码:

ep.after('importAccount', $.size(exports.rows), function () {
console.log("end Import Account");
write.writeFile(fails, 'Account');
require('./shop').import();
});
$.each(exports.rows, function (d) {
ajax.post('/user/register', d, function (resp) {
if (!resp.success) {
d.resp = resp;
fails.push(d);
} else {
d.newId = resp.data;
}
ep.emit('importAccount');
});
});

使用eventproxy进行循环的请求发送,为外键表关联进行相应数据的处理准备。

在请求完成的同时,根据返回结果,通过fails.push()进行错误数据的记录,以及newId的处理。

将错误数据及结果进行保存,方便数据的筛选过滤,避免数据的非正常丢失。

5、输出相应错误数据代码:

var fs = require('fs');
var path = require('path');
var $ = require('underscore'); var dir = path.join(__dirname, 'failds'); //打印错误数据
exports.writeFile = function (data, name) {
fs.writeFile(path.join(dir, name + '.js'), JSON.stringify(data), function (err) {
if (err)
return console.log(err);
if ($.size(data) > 0)
console.log('导入' + name + '出现 %s 条错误数据!', $.size(data));
});
};

简单的小例子,本人菜鸟一枚,如果有不足之处,还请指正。

关于本例子的性能及bug情况,暂时未进行实际测试。待后期再相应的整理。

nodejs简单数据迁移demo的更多相关文章

  1. 用sql从一张表更新数据到另外一张表(多表数据迁移)

    update TBL_1 A, TBL_2 B, TBL_3 Cset a.email=c.email_addrwhere a.user_id=b.user_id and b.un_id=c.un_i ...

  2. 一次PostgreSql数据迁移,使用nodejs来完成

    2014-02-08 XX开放平台不允许使用站外的服务器了,可是我们的app都在站外,数据库也在站外,全都要求迁移到其云主机上(坑爹啊).我们在其云主机上仅有有限的资源,而且也有在运行中的数据库,要做 ...

  3. 从MySQL到Hive,数据迁移就这么简单

    使用Sqoop能够极大简化MySQL数据迁移至Hive之流程,并降低Hadoop处理分析任务时的难度. 先决条件:安装并运行有Sqoop与Hive的Hadoop环境.为了加快处理速度,我们还将使用Cl ...

  4. 记一次简单的Oracle离线数据迁移至TiDB过程

    背景 最近在支持一个从Oracle转TiDB的项目,为方便应用端兼容性测试需要把Oracle测试环境的库表结构和数据同步到TiDB中,由于数据量并不大,所以怎么方便怎么来,这里使用CSV导出导入的方式 ...

  5. 【SQLServer】记一次数据迁移-标识重复的简单处理

    汇总篇:http://www.cnblogs.com/dunitian/p/4822808.html#tsql 今天在数据迁移的时候因为手贱遇到一个坑爹问题,发来大家乐乐,也传授新手点经验 迁移惯用就 ...

  6. EF Code First:实体映射,数据迁移,重构(1)

    一.前言 经过EF的<第一篇>,我们已经把数据访问层基本搭建起来了,但并没有涉及实体关系.实体关系对于一个数据库系统来说至关重要,而且EF的各个实体之间的联系,实体之间的协作,联合查询等也 ...

  7. Kettle进行数据迁移(ETL)

    由于开发新的系统,需要将之前一个老的C/S应用的数据按照新的数据设计导入到新库中.此过程可能涉及到表结构不一致.大数据量(千万级,甚至上亿)等情况,包括异构数据的抽取.清洗等等工作.部分复杂的工作需要 ...

  8. [转载] 使用Kettle进行数据迁移(ETL)

    由于开发新的系统,需要将之前一个老的C/S应用的数据按照新的数据设计导入到新库中.此过程可能涉及到表结构不一致.大数据量(千万级,甚至上亿)等情况,包括异构数据的抽取.清洗等等工作.部分复杂的工作需要 ...

  9. 数据迁移实战:基于Kettle的Mysql到DB2的数据迁移

    From:https://my.oschina.net/simpleton/blog/525675 一.什么是ETL ETL,是英文 Extract-Transform-Load 的缩写,用来描述将数 ...

随机推荐

  1. Netty未来展望

    作为<Netty权威指南(第2版)>的结尾章节,和读者朋友们一起展望下Netty的未来. 1应用范围 随着大数据.互联网和云计算的发展,传统的垂直架构逐渐将被分布式.弹性伸缩的新架构替代. ...

  2. Codeforces Round #424 Div2 E. Cards Sorting

    我只能说真的看不懂题解的做法 我的做法就是线段树维护,毕竟每个数的顺序不变嘛 那么单点维护 区间剩余卡片和最小值 每次知道最小值之后,怎么知道需要修改的位置呢 直接从每种数维护的set找到现在需要修改 ...

  3. pat1111-1120

    1111 比较麻烦的最短路 #include<cmath> #include<map> #include<iostream> #include<cstring ...

  4. 【转载】 Spark性能优化:资源调优篇

    在开发完Spark作业之后,就该为作业配置合适的资源了.Spark的资源参数,基本都可以在spark-submit命令中作为参数设置.很多Spark初学者,通常不知道该设置哪些必要的参数,以及如何设置 ...

  5. Java双等号,Equals(),HashCode()小结

    默认情况 - 双等号==,比较的是内存地址. - equals(),默认比较的是内存地址. - hashCode(),默认返回的是object的内存地址. String中方法改写的情况 经常会遇到需要 ...

  6. [BZOJ1602] [Usaco2008 Oct] 牧场行走 (LCA)

    Description N头牛(2<=n<=1000)别人被标记为1到n,在同样被标记1到n的n块土地上吃草,第i头牛在第i块牧场吃草. 这n块土地被n-1条边连接. 奶牛可以在边上行走, ...

  7. MySQL根据出生日期计算年龄的五种方法比较

    方法一 SELECT DATE_FORMAT(FROM_DAYS(TO_DAYS(NOW())-TO_DAYS(birthday)), '%Y')+0 AS age 方法一,作者也说出了缺陷,就是当日 ...

  8. iOS开发--XMPPFramework--好友列表(五)

    上一篇文章,我们讨论了调试和好友模块,这一篇,在引入了好友模块后,我们来说说好友列表的显示. 还记得在上一篇中,我们把自动拉去好友列表给关掉了,所以,我们选择在控制器的-(void)viewDidLo ...

  9. 【2016北京集训测试赛】azelso

    [吐槽] 首先当然是要orzyww啦 以及orzyxq奇妙顺推很强qwq 嗯..怎么说呢虽然说之前零零散散做了一些概d的题目但是总感觉好像并没有弄得比较明白啊..(我的妈果然蒟蒻) 这题的话可以说是难 ...

  10. cache 订单队列 - TP5

    使用cache实现一个简单粗糙的订单推送队列 Linux  定时任务 * * * * * /usr/bin/curl  http://tc.m.com/test.php /** * User: [一秋 ...