近期接触了一个需求,业务背景是需要将关系型数据库的数据传输至HDFS进行计算,计算完成后再将计算结果传输回关系型数据库.听到这个背景,脑海中就蹦出了Sqoop迁移工具,可以非常完美的支持上述场景. 当然,数据传输工具还有很多,例如Datax.Kettle等等,大家可以针对自己的工作场景选择适合自己的迁移工具. 目录 一.介绍 二.架构 三.安装 1. 下载Sqoop 2. 配置环境变量 四.操作 1. 列出数据库 2. 列出数据表 3. MySQL导入到HDFS 4. HDFS导出到MySQL…
hdfs到MySQL csv/txt文件到hdfs MySQL到hdfs  hive与hdfs的映射: drop table if exists emp;create table emp ( id int comment 'ID', emp_name string comment '姓名', job string ) comment '职业' row format delimited -- stored as rcfile location '/user/hive/warehouse/emp';…
前言 在当今每日信息量巨大的社会中,源源不断的数据需要被安全的存储.等到数据的规模越来越大的时候,也许瓶颈就来了,没有存储空间了.这时候怎么办,你也许会说,加机器解决,显然这是一个很简单直接但是又显得有些欠缺思考的办法.无谓的加机器只会带来无限上升的成本消耗,更好的办法应该是做到更加精细化的数据存储与管理,比如说非常典型的冷热数据的存储.对于巨大的长期无用的冷数据而言,应该用性能偏弱,但是磁盘空间富余的机器存,热数据则反之.数据的分类存储一定会带来数据的同步问题,假若我有2套集群,1个是线上的正…
django 连接MYSQL时,数据迁移时报:django.db.utils.InternalError: (1366, "Incorrect string value: '\\xE9\\x97\\xAE\\xE9\\xA2\\x98' for column 'name' at row 5") 这个问题是由于字符集的问题导致的: 注意要同时设置:character-set 和_set_server的字符集,再执行数据库的创建的时候,查询后会看到:…
运行环境为windows 测试过260万的数据表,迁移大概要10分钟左右,当然肯定和网络,字段大小什么的有关系. 遇到的坑和注意点都用紫色标记了(对,就是我大乃团的高冷紫--Nogizaka 46) PS:第一次写这么长的东西 一.Mongodb导出命令mongoexport 本地安装Mongodb,在安装目录的/bin下按住shift并右键“在此处打开命令窗口”,可执行以下语句进行导出. mongoexport -h <ip:port> -d <database> -c <…
1.如果jumbo不存在,先安装jumbo 参考  http://hetu.baidu.com/api/tool/show?toolId=174: bash -c "$( curl  http://jumbo.baidu.com/install_jumbo.sh )"; source ~/.bashrc   2.先用jumbo search mysql,查找安装包,可知安装包名为mysql,版本5.5.30-1 接着用命令安装: jumbo install mysql  安装一直到屏幕…
添加了一块硬盘,原来的DataNode已经把原有的硬盘占满:怎么办,想要把旧有的数据迁移到新的硬盘上面: 1. 在CDH中修改目录(在HDFS组件中搜索.dir),本例中,新加的硬盘挂载在/data上面,NameNode,DataNode,以及CheckPoint路径都前加一个“/data": 2. 重启HDFS,NameNode可能会出错,没有关系: 3. 关闭CDH的集群: 4. 切换到hdfs用户,将就有路径下的/dfs拷贝到/data下面:如果不是则拷贝完毕后,要把dfs下面所有的文件权…
1.原表没有设置主键,出现错误提示: ERROR tool.ImportTool: Error during import: No primary key could be found for table xxx. Please specify one with --split-by or perform a sequential import with '-m 1' 提示说明的很清楚:在表xxx没有发现主键,使用--split-by指定一个column作为拆分字段或者在命令行上添加 ‘-m 1…
# hadoop fs -cat /srclist Warning: $HADOOP_HOME is deprecated. hdfs://sht-sgmhadoopcm-01:9011/jdk-6u45-linux-x64.bin hdfs://sht-sgmhadoopcm-01:9011/upload hdfs://sht-sgmhadoopcm-01:9011/oracle # hadoop distcp -Ddfs.replication= -Ddistcp.bytes.per.map…
问题描述 Django项目启动,当我们执行命令 python manage.py makemigrations 出现如下错误: File , in last_executed_query query = query.decode(errors='replace') AttributeError: 'str' object has no attribute 'decode' 解决办法 顺着报错信息,找到报错的位置,把 query = query.decode(errors='replace') 修…