需求:由于我们用的阿里云Hbase,按存储收费,现在需要把kafka的数据直接同步到自己搭建的hadoop集群上,(kafka和hadoop集群在同一个局域网),然后对接到hive表中去,表按每天做分区 一.首先查看kafka最小偏移量(offset) /usr/local/kafka/bin/kafka-run- -topic test --time - (--time -1为查看kafka最大偏移量) test:: test:: test:: 显示三个partition最小offset都为0…
1.在test数据库下创建表格 hive> create table vod_record_all( > watch_time date, > device_id string, > program_id string, > program_name string,program_type string, > watch_duration bigint, > program_ProviderName string) > ROW FORMAT DELIMITE…
前言 本文从零开始搭hadoop完全分布式集群,大概花费了一天的时间边搭边写博客,一步一步完成完成集群配置,所以相信大家按照本文一步一步来完全可以搭建成功.需要注意的是本文限于篇幅和时间的限制,也是为了突出重点,一些很基础的操作就不再详细介绍,如果是完全不懂linux,建议先看一下Linux的基础教程,再来进行hadoop配置.同时建议,hadoop安装版本不宜很高.第一次写这么长的博客,希望对大家有所帮助,如果有帮到你,可以在评论区夸夸我哦.哈哈.(原文是在word里编辑的,虽然排版不好看,但…
hbase与mapreduce集成后,运行mapreduce程序,同时需要mapreduce jar和hbase jar文件的支持,这时我们需要通过特殊设置使任务可以同时读取到hadoop jar和hbase jar文件内容,否则任务会报错. 我们知道仅仅运行mapreduce任务时,不需要设置classpath,这时因为运行bin/yarn命令时已经在命令脚本中针对hadoop执行jar包路径进行了预设置的缘故,但是bin/yarn不能自动设置hbase可执行jar路径,这也是情理之中的事.…
两种方式加载hbase中的表到hive中,一是hive创建外部表关联hbase表数据,二是hive创建普通表将hbase的数据加载到本地 1. 创建外部表 hbase中已经有了一个test表,内容如下 hbase(main):012:0* scan 'test' ROW COLUMN+CELL 001 column=info:age, timestamp=1526563694645, value=18 001 column=info:name, timestamp=1526563629119,…
『实践』VirtualBox 5.1.18+Centos 6.8+hadoop 2.7.3搭建hadoop完全分布式集群及基于HDFS的网盘实现 1.基本设定和软件版本 主机名 ip 对应角色 master 192.168.56.4 NameNode slave1 192.168.56.3 DataNode1 slave2 192.168.56.5 DataNode2 Windows主机设置的ip为192.168.56.88 hadoop压缩包解压地址:/usr/local/hadoop 虚拟机…
之前的EF Code First系列讲了那么多如何配置实体和数据库表的关系,显然配置只是辅助,使用EF操作数据库才是每天开发中都需要用的,这个系列讲讲如何使用EF操作数据库.老版本的EF主要是通过ObjectContext来操作数据库的,一看是Object打头的,自然相当庞大,方法也比较多.到了经典的4.1版本,EF小组推出了一些更简单好用的API,就是DbContext,它包括更常用的方法.看看EF小组是怎么说的,原话:The Entity Framework 4.1 release also…
/*** * name:加载表格或表单数据[通用] * name:load-table-or-form-data-common.js * * author:zengtai * date:2017-07-19 1501 * notice:原生javascript;兼容所有浏览器版本 */ /* * * 加载指定行的表格数据 * @param tableId:表格ID (指定数据类型:string) * @param lineNumber:所在的表格行号 (指定数据类型:number) * @ret…
BulkLoad加载文件到HBase表 1.功能 将本地数据导入到HBase中 2.原理 BulkLoad会将tsv/csv格式的文件编程hfile文件,然后再进行数据的导入,这样可以避免大量数据导入时造成的集群写入压力过大. 1.tsv格式的文件:字段之间以制表符\t分割 2.csv格式的文件:字段之间以逗号,分割 3.作用 减小HBase集群插入数据的压力 提高了Job运行的速度,降低了Job执行时间 4.案例 Step1.配置临时环境变量 $ export HBASE_HOME=/opt/…
下载Hadoop安装包 登录 https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/ 镜像站,找到我们要安装的版本,点击进去复制下载链接 安装Hadoop时要注意版本与后续安装的HBase.Spark等相关组件的兼容,不要安装了不匹配的版本,而导致某些组件需要重装 输入命令进行安装操作 cd /usr/local/src/ wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/…